论文部分内容阅读
大数据时代的到来伴随着信息爆炸的风险,如何快速、准确地从互联网上海量信息中获取所需信息已成为亟待解决的问题。自动文本摘要技术将文本中的核心内容提取出来并生成简洁的描述,是解决信息过载的有效方法。近几年,深度学习的快速发展给自动文本摘要带来新的思路,生成式文本摘要方法应运而生,这种方法生成的文本可读性更强且容易理解。目前,基于深度神经网络的文本摘要方法多采用编码器-解码器结构,编码器生成源文本的语义表示,解码器用于生成连续可读的摘要序列,但这种方法存在生成未登录词、生成序列重复、原始语义表示不充分等问题。
针对这些问题,本文在基于深度神经网络上的文本摘要方法进行探究,提出一种基于随机集束搜索的序列到序列的摘要生成方法和基于语言模型的摘要生成方法,并将提出的方法在数据集上进行实验,实验结果证实了模型的有效性。
本文主要工作分成两部分,具体如下:
(1)设计并实现一种基于增强语义和改进集束搜索的序列到序列摘要生成方法。主要内容包括:一种混合编码结构,通过门限卷积网络来捕获原始文本的近距离上下文信息,得到上下文的语义表示,随后利用双向循环神经网络学习文本的长距离依赖信息和时序信息;一种随机集束搜索算法,该方法在传统集束搜索上引入随机性,使得解码序列的多样性,在每个解码时间步随机集束搜索不再使用top-k采样来选择k个候选项,而是在一个动态置信空间内随机采样k个候选项;一种源文本关键词重排序算法,使用t f-id f加权对源文本序列中的每个单词进行评分,然后结合注意力分布列表来评估候选句的质量,而不是像标准波束搜索那样只选择概率最大的候选序列。
(2)设计并实现一种基于语言模型的生成式文本摘要方法。该方法抛弃了传统的序列到序列框架,直接将文本摘要任务建模为语言模型问题并探究了这种方式的可行性。主要内容包括:利用Transformer解码器对任务进行建模,并在预训练语言模型GPT上进行微调,之后对Transformer的掩码方式进行改进,并对实验结果进行分析和对比。
针对这些问题,本文在基于深度神经网络上的文本摘要方法进行探究,提出一种基于随机集束搜索的序列到序列的摘要生成方法和基于语言模型的摘要生成方法,并将提出的方法在数据集上进行实验,实验结果证实了模型的有效性。
本文主要工作分成两部分,具体如下:
(1)设计并实现一种基于增强语义和改进集束搜索的序列到序列摘要生成方法。主要内容包括:一种混合编码结构,通过门限卷积网络来捕获原始文本的近距离上下文信息,得到上下文的语义表示,随后利用双向循环神经网络学习文本的长距离依赖信息和时序信息;一种随机集束搜索算法,该方法在传统集束搜索上引入随机性,使得解码序列的多样性,在每个解码时间步随机集束搜索不再使用top-k采样来选择k个候选项,而是在一个动态置信空间内随机采样k个候选项;一种源文本关键词重排序算法,使用t f-id f加权对源文本序列中的每个单词进行评分,然后结合注意力分布列表来评估候选句的质量,而不是像标准波束搜索那样只选择概率最大的候选序列。
(2)设计并实现一种基于语言模型的生成式文本摘要方法。该方法抛弃了传统的序列到序列框架,直接将文本摘要任务建模为语言模型问题并探究了这种方式的可行性。主要内容包括:利用Transformer解码器对任务进行建模,并在预训练语言模型GPT上进行微调,之后对Transformer的掩码方式进行改进,并对实验结果进行分析和对比。