论文部分内容阅读
随着互联网的发展,网上的法律咨询越来越多,但目前这部分大多由律师承担,为了解放律师的工作,各种咨询系统由此发展起来。目前的法律咨询系统还面临着逻辑推理弱、句子表征能力差等问题,本文主要针对句子表征的能力、属性值抽取的能力、对话过程设计等问题进行了研究,主要研究内容如下:(1)针对现有句子语义相似度计算由于缺乏语义结构信息导致精度低的问题,在依存关系树的基础上,提出了一种基于多头注意力机制Tree-LSTM(Multi-head Attention Tree-LSTM,MA-Tree-LSTM)的句子语义相似度计算方法。首先,MA-Tree-LSTM将外部具有指导意义的特征作为输入,再将输入结合多头注意力机制作用在Tree-LSTM树节点的所有孩子节点上,为每个孩子节点赋予不同的权重值,从而实现多头注意力机制和Tree-LSTM的融合;其次,本文将三层的MA-Tree-LSTM应用于句子语义相似度计算并实现句子对的相互指导,从而得到句子对语义特征的多层表示;最后联合多层的语义特征建立句子对语义相似度计算模型,从而实现句子对间相关的语义结构特征的充分利用。本文提出的方法鲁棒性强、可解释性强、对句子单词的顺序不敏感、不需要特征工程。在SICK和STS数据集上的实验结果表明,基于MA-Tree-LSTM的句子语义相似度计算的精度优于非注意力机制的Tree-LSTM方法以及融合了多头注意力机制的BiLSTM方法。在后续的工作中考虑在其它数据集上进行评价,进一步将其扩展到BERT学习框架来提高句子相似度计算结果的精确度。(2)针对现有BERT属性值抽取方法无法捕捉较远距离特征、泛化能力弱导致精度低的问题,提出了一种基于Stacking集成的属性值抽取方法。该方法通过对BERT的输出分别增加了BERT_CLS、BERT_AVG、BERT_BiLSTM、BERT_CNN隐藏层实现模型的微调,然后通过5折交叉验证训练获得20个模型,最后通过stacking集成学习方法集成20个模型的结果。本文提出的方法易并行且泛化能力强、不需要特征工程。在RACE数据集上的实验结果表明,基于Stacking集成的BERT模型在精度上优于单模型的BERT方法。(3)针对即时法律咨询问题,设计并实现了一个基于决策树的任务导向型自动对话系统。该系统首先将法律咨询的结论离散化为分类类别,把与结论相关的当事人的信息离散化为基本属性,从而将法律咨询问题转化为一个分类的预测问题。其次,将收集的实际案例作为训练样本,建立基于并行C4.5决策树算法的法律咨询分类预测模型。最后,当新的当事人来咨询时,针对一轮问答的简单决策树,采用句子对相似度计算的方式返回结果;针对多轮问答的决策树,从所建立的决策树根节点决策属性开始,将决策属性所对应的问题抛出给当事人进行提问,对当事人的回答通过属性值抽取算法获得决策属性所对应的属性值,根据该属性值判断决策树分支走向、下一个决策属性和提问问题,咨询过程直到到达叶子结点才结束,并将叶子结点所对应的分类类别作为结论返回给当事人。以能不能离婚问题为例,所设计的自动对话系统相对于SVM可解释性强、精度高、提问问题少、实时性高,极大的缩减了人工工作量。对于如何进行基本属性抽取、如何通过后剪枝防止决策树过拟合是进一步的研究方向。在后续的工作中将考虑问题类型,实现一个可解释性的模型,我们还将进一步研究如何在RACE数据集上说明模型的推理性。