模式识别与人工智能
2025年4月7日 星期一   首 页     期刊简介     编委会     投稿指南     伦理声明     联系我们                                                                English
模式识别与人工智能  2020, Vol. 33 Issue (6): 551-558    DOI: 10.16451/j.cnki.issn1003-6059.202006008
研究与应用 最新目录| 下期目录| 过刊浏览| 高级检索 |
基于词性软模板注意力机制的短文本自动摘要方法
张亚飞1,2, 左一溪1,2, 余正涛1,2, 郭军军1,2, 高盛祥1,2
1.昆明理工大学 信息工程与自动化学院 昆明 650504
2.昆明理工大学 云南省人工智能重点实验室 昆明 650504
Automatic Short Text Summarization Based on Part-of-Speech Soft Template Attention Mechanism
ZHANG Yafei1,2, ZUO Yixi1,2, YU Zhengtao1,2, GUO Junjun1,2, GAO Shengxiang1,2
1. Faculty of Information Engineering and Automation, Kunming University of Science and Technology, Kunming 650504
2. Yunnan Key Laboratory of Artificial Intelligence, Kunming University of Science and Technology, Kunming 650504

全文: PDF (754 KB)   HTML (1 KB) 
输出: BibTeX | EndNote (RIS)      
摘要 在短文本摘要任务中,带有直观主谓宾结构的摘要句语义完整性较强,但词性组合对该结构具有约束作用.为此文中提出基于词性软模板注意力机制的短文本自动摘要方法.首先对文本进行词性标记,将标记的词性序列视为文本的词性软模板,指导方法构造摘要句的结构规范,在编码端实现词性软模板的表征.再引入词性软模板注意力机制,增强对文中核心词性(如名词、动词等)的关注.最后在解码端联合词性软模板注意力与传统注意力,产生摘要句.在短文本摘要数据集上的实验验证文中方法的有效性
服务
把本文推荐给朋友
加入我的书架
加入引用管理器
E-mail Alert
RSS
作者相关文章
张亚飞
左一溪
余正涛
郭军军
高盛祥
关键词 文本摘要词性软模板词性注意力机制自然语言生成    
Abstract:Semantic integrity of the summary with intuitive subject-predicate-object structure is strong in the short text summarization task. However, part-of-speech combinations impose constraints on the structure. Aiming at this problem, an automatic short text summarization method based on part-of-speech soft template attention mechanism is proposed. Firstly, text is tagged with part-of-speech tags, and the tagged part-of-speech sequence is regarded as part-of-speech soft template of the text to guide the method to construct the structural specifications of a summary. Part-of-speech soft template is characterized at the encoder. Then, the part-of-speech soft template attention mechanism is introduced to enhance the attention of core part-of-speech information in text, such as nouns and verbs. Finally, the part-of-speech soft template attention and traditional attention are combined to generate a summary at the decoder. Experimental results verify the effectiveness of the proposed method on short text summarization datasets.
Key wordsText Summarization    Part-of-Speech Soft Template    Part-of-Speech Attention Mechanism    Natural Language Generation   
收稿日期: 2020-03-14     
ZTFLH: TP 391  
基金资助:国家重点研发计划(No.2018YFC0830105,2018YFC0830101,2018YFC0830100)、国家自然科学基金项目(No.61762056,61866020,61761026,61972186)、云南省自然科学基金项目(No.2018FB104)资助
通讯作者: 余正涛,博士,教授,主要研究方向为自然语言处理、信息检索、机器翻译.E-mail:ztyu@hotmail.com.   
作者简介: 张亚飞,博士,讲师,主要研究方向为自然语言处理、模式识别.E-mail:zyfeimail@163.com. 左一溪,硕士研究生,主要研究方向为自然语言处理.E-mail:zuoyixi286@163.com. 郭军军,博士,讲师,主要研究方向为自然语言处理.E-mail:guojjgb@163.com. 高盛祥,博士,副教授,主要研究方向为自然语言处理.E-mail:gaoshengxiang.yn@foxmail.com.
引用本文:   
张亚飞, 左一溪, 余正涛, 郭军军, 高盛祥. 基于词性软模板注意力机制的短文本自动摘要方法[J]. 模式识别与人工智能, 2020, 33(6): 551-558. ZHANG Yafei, ZUO Yixi, YU Zhengtao, GUO Junjun, GAO Shengxiang. Automatic Short Text Summarization Based on Part-of-Speech Soft Template Attention Mechanism. , 2020, 33(6): 551-558.
链接本文:  
http://manu46.magtech.com.cn/Jweb_prai/CN/10.16451/j.cnki.issn1003-6059.202006008      或     http://manu46.magtech.com.cn/Jweb_prai/CN/Y2020/V33/I6/551
版权所有 © 《模式识别与人工智能》编辑部
地址:安微省合肥市蜀山湖路350号 电话:0551-65591176 传真:0551-65591176 Email:bjb@iim.ac.cn
本系统由北京玛格泰克科技发展有限公司设计开发 技术支持:support@magtech.com.cn