南京大学学报(自然科学), 2023, 59(3): 483-493 doi: 10.13232/j.cnki.jnju.2023.03.011

基于子事件的对话长文本情感分析

杨京虎1,2, 段亮,1,2, 岳昆1,2, 李忠斌1,2

1.云南大学信息学院,昆明,650500

2.云南大学云南省智能系统与计算重点实验室,昆明,650500

Sentimenta analysis based on subevents for long dialogue texts

Yang Jinghu1,2, Duan Liang,1,2, Yue Kun1,2, Li Zhongbin1,2

1.School of Information Science and Engineering, Yunnan University, Kunming, 650500, China

2.Key Laboratory of Intelligent Systems and Computing of Yunnan Province, Yunnan University, Kunming, 650500, China

通讯作者: E⁃mail:duanl@ynu.edu.cn

收稿日期: 2023-02-15  

基金资助: 云南省重大科技专项.  202202AD080001
云南省重点实验室专项.  202205AG070003
国家自然科学基金青年项目.  62002311
云南省教育厅科学研究基金.  2022Y010

Received: 2023-02-15  

摘要

传统的情感分析方法主要针对句子、微博等形式的短文本,而对话长文本具有篇幅长、对话双方情感不同且情感易随对话发生变化等特点,使对话长文本中用户多重情感集成困难、情感分析任务精度低.为此,提出子事件交互模型TSI (Topic Subevents Interaction)、预训练模型ERNIE (Enhanced Language Representation with Informative Entities)和循环卷积神经网络(Recurrent Convolutional Neural Networks,RCNN)相结合的对话长文本情感分析模型(TSI with ERNIE⁃RCNN,TER).该模型通过动态滑动窗口抽取子事件,保留文本关键特征,降低文本冗余度,基于抽取的子事件分析对话双方的情感来识别情感主体,并集成各子事件的情感特征来解决对话双方情感不一致的问题.在真实数据上的实验结果表明,TER的精确率、召回率与F1均优于现有模型.

关键词: 对话长文本 ; 情感分析 ; 子事件抽取 ; 预训练模型 ; 循环卷积神经网络

Abstract

Previous studies for sentiment analysis mainly focus on short texts such as sentences and microblogs text styles. Due to the long redundant text and the different and changeable sentiment of users,the integration of multiple sentiment of users is difficult and the precision of sentiment analysis task is low in the long dialogue text. For overcoming such problems,a long dialogue text sentiment analysis model TER (Topic Sub⁃Events Interaction with ERNIE⁃RCNN) is proposed. Firstly,TSI (Topic Subevents Interaction) is used to segment long dialogue text by the dynamic sliding window in order to retain the key features of the text and reduce the text redundancy. Secondly,ERNIE⁃RCNN is used to analyze the sentimental polarity of users in the subevents. Finally,our model identifies the sentiment agent to integrate the sentiment of each subevent and solve the problem of sentimental inconsistency. Experimental results show that TER outperforms baseline models in terms of precision,recall and F1⁃score.

Keywords: long dialogue text ; sentiment analysis ; subevent extraction ; pre⁃trained model ; recurrent convolutional neural network

PDF (832KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

杨京虎, 段亮, 岳昆, 李忠斌. 基于子事件的对话长文本情感分析. 南京大学学报(自然科学)[J], 2023, 59(3): 483-493 doi:10.13232/j.cnki.jnju.2023.03.011

Yang Jinghu, Duan Liang, Yue Kun, Li Zhongbin. Sentimenta analysis based on subevents for long dialogue texts. Journal of nanjing University[J], 2023, 59(3): 483-493 doi:10.13232/j.cnki.jnju.2023.03.011

情感分析旨在通过计算机技术对文本的主客观性、情绪、极性进行挖掘,对文本的情感倾向作出分类判断1.通信、电商、医疗等行业存在大量客服与客户的对话场景,随之出现了如服务满意度分析、智能代理和意图识别2-3等应用需求,其核心任务之一为对话长文本情感分析.然而,现有的研究集中在短文本情感分析任务,如百度AI情感分析的文本接收窗口限制在256个字以内.针对对话长文本的情感分析,实现整个对话长文本的情感分类,仍有待深入研究.

表1展示了一组通信业务的对话,可以看出,客服和客户在多轮对话中存在很多与文本情感无关的内容,但现有方法获取对话文本的核心情感存在困难.前两轮对话中客户表现出消极的情感倾向,而在最后一轮对话中,客户的情感倾向转变为积极.此外,客服在整体对话过程中表现出较为积极的情感,而客户则发生了较大的情感转变.

表1   一个通信业务对话的示例

Table 1  A dialogue of communication business

对话者对话内容
客服您好!很高兴为您服务.(积极)
客户刚刚发信息说我已欠费五十元,我昨天才交一百元话费,怎么回事?(消极)
客服非常抱歉,先生,您的资费…(积极)
客户费用我承受不了,这个套餐是你们工作人员打电话叫我办理的,我当时在忙,还是给我换成以前的套餐吧.(消极)
客户我明白了,这个费用还包括宽带对吧,不好意思啊,这个月太忙忘记了,谢谢你哈.(积极)
客服先生您客气了,祝您生活愉快,再见!(积极)

新窗口打开| 下载CSV


因此,与传统情感分析任务不同,对话长文本情感分析任务存在如下挑战:(1)对话双方存在多重情感,集成困难.由于对话双方本身可能具有不同的情感,随着对话的进行,其情感还会发生变化,因此将对话双方不同的情感进行集成来确定整个文本的情感倾向,有一定的难度.(2)对话长文本的情感分析任务精度低.对话长文本篇幅长,存在大量噪声,使文本的每一部分内容对于推断整个文本情感倾向具有不同的价值,现有的方法对文本截断或随机采样,不能有效地解决该问题.(3)主流神经网络模型在短文本情感分析任务上表现优异,但受到输入文本长度的限制,对长对话文本情感分析任务的精度欠佳.

表1为例,最初是“客户质疑欠费”,发展到“客户要求更换套餐”,最后“客户发现误解了资费情况并致歉”,一条对话长文本由多个随时间演化的相关子事件组成.子事件是文本重要内容的句子集合,也是文本内容的集中体现4.通过抽取子事件,将长文本转化为短文本,在保留文本重要特征的同时也解决了长文本冗余的问题.因此,本文提出子事件交互模型(Topic Subevents Interaction,TSI),通过动态滑动窗口分割对话长文本,从对话长文本中抽取子事件,利用基于主题的模型LDA获取各窗口文本的主题分布,以此度量子事件的演化过程.

预训练模型是在大规模无监督语料上训练的,具有强大的语义表示能力.百度提出ERNIE (Enhanced Language Representation with Informative Entities)5,对BERT6进行改进,将句子中的短语、实体等语义单元掩码,重点学习对话类数据,将ERNIE作为嵌入模型能更好地对对话文本建模.循环卷积神经网络(Recurrent Convolutional Neural Networks,RCNN)7能更好地获取文本上下文特征,兼有CNN无偏模型的优点,因此,本文提出ERNIE⁃RCNN模型学习子事件的情感特征.针对对话双方具有的多重情感使子事件情感集成困难的问题,本文提出一种识别情感主体的方法来确定整个对话长文本的情感倾向.

在真实的移动运营商的通讯业务数据上的实验结果表明,本文提出的TER (Topic Sub⁃events Interaction with ERNIE⁃RCNN)的精确率、召回率与F1均优于现有模型.值得注意的是,虽然TER是基于移动通讯应用场景提出的,但微信、淘宝、论坛等媒体都有类似的对话长文本数据,因而有广阔的应用前景.

1 相关工作

1.1 长文本情感分析

Pappagari et al8将长文本分割后输入改进的BERT模型,获取文本特征进行分类.Xu et al9提出CLSTM模型来获取长文本的整体语义信息,通过一种缓存机制存储情感特征.上述方法在长文本情感分类任务上取得了较好的效果,但没有考虑实际场景下长文本的每部分内容在推断文本情感倾向上具有的不同价值,如何在不陷入某些局部无关的文本下获得有效的核心情感是值得注意的问题.Sheng and Yuan10设计新的截断方式,将文本标题、关键词等特征进行拼接,使用多个模型联合学习.Cheng et al11对每篇文章提取两个主题句,结合标题等文本特征进行加权计算,最后使用投票机制完成情感分类.这些研究虽然注意了长文本的冗余性,但在建模时损失了大量文本特征,依赖带标题的文本,不适合对话长文本的情感分析.

1.2 对话文本情感分析

Hazarika et al12考虑对话中用户情绪自我依赖关系及对话者之间的依赖关系,提出交互式对话神经网络模型,建模对话者的情感.Shen et al13提出分层匹配神经网络,设计双向注意力机制捕捉对话双方的情感信息并互相预测.Wang et al14研究通过增强的双向注意力网络,解决了通过单一问题或答案来推断情感会比较困难的问题.Hu et al15建模对话时人的认知与推理思维,提出语境推理网络,通过感知和认知两个阶段学习上下文信息,可以有效地获取文本情感特征.Zhu et al16提出以话题驱动且包含知识的Transformer模型,解决对话文本中不同主题下相同文本具有不同情感的问题.上述研究主要基于对话之间的上下文联系进行建模,但随着对话轮次的增加,文本中的噪声、对话中双方情感的不同及变化导致文本最终分类困难的问题未能解决.

1.3 子事件检测与抽取

相关研究主要分三类:命名实体识别结合特征工程、事件话题发现和文摘生成.命名实体识别结合特征工程通过对文本抽取关键词,并根据修辞状态、位置信息等来衡量句子重要性,但这类方法在建模时损失了大量情感特征,抽取的子事件缺少情感表达.周楠等17总结事件话题,发现基于文档和词两个角度,算法抽取的子事件存在理解性弱、不确定性高等问题.文摘生成分文本分割算法和文本摘要算法.Memon et al18采用文本分割实现文本不同主题的分割,但仍存在文本冗余的问题.采用文本摘要抽取子事件时,主要有生成式和抽取式两种方法,但生成式方法不适合长文本任务19,抽取式方法无法保证子事件的连贯性与理解性.

2 TER模型

TER主要由输入层、嵌入层、子事件抽取层、特征学习层、特征融合层及输出层构成,模型的总体架构如图1所示.Word2vec与ERNIE分别获取输入文本的静态词向量和动态词向量,静态词向量用于TSI抽取子事件,动态词向量用于RCNN学习文本的情感特征.在特征融合层,将前一层输出的情感特征与子事件的时序和主题特征进行融合,得到最终的情感表达,在输出层得到最终分类结果.

图1

图1   TER模型的整体架构图

Fig.1   The structure diagram of TER model


2.1 输入层

定义1

对话长文本d同时具有对话文本和长文本的特点,一个对话长文本d由二元组D,Pd表示,其中,D是对话长文本的内容,Pd是对话长文本的对话双方.

对于输入d=t1,t2,,tnti 1in表示对话长文本的第i个句子,TER在输入层对其进行不同的预处理,再分别输入Word2vec和ERNIE.

2.2 嵌入层

嵌入层使用Word2vec与ERNIE分别获取输入文本的静态词向量和动态词向量.静态词向量用于TSI确定对话长文本的主题核心词,在上下文中主题词含义不会改变,且静态词向量和动态词向量相比,可以减少模型抽取子事件的时间.而学习对话长文本中的情感特征时,需考虑同一词在不同上下文中具有不同情感倾向的问题,因此使用动态词向量用于RCNN学习文本的情感特征.

ERNIE由文本编码器(T⁃Encoder)和知识编码器(K⁃Encoder)两个模块组成.文本编码器捕获输入文本的词法和语义信息,知识编码器将知识图谱中的实体信息进行嵌入和融合.

在文本编码器中,输入句子t=w1τ-1,w2τ-1,

,wmτ-1d,其中,wiτ-1代表τ-1时刻句子中的第i 1im个字,通过式(1)计算wiτ-1的词法和语义特征:

w1τ,w2τ,,wmτ=T-Encoderw1τ-1,w2τ-1,,wmτ-1

其中,w1τ,w2τ,,wmτ代表文本编码器的词嵌入输出,mt的长度.

在知识编码器中,将w1τ,w2τ,,wmτ与输入句子t中预训练得到的实体信息e1τ,,elτ再次使用注意力机制并进行信息融合,根据式(2),得到最终的动态词向量嵌入w1τ+1,w2τ+1,,wmτ+1与实体向量嵌入e1τ+1,,elτ+1,将整个ERNIE作为嵌入层的第一个模型参数.

w1τ+1,w2τ+1,,wmτ+1,e1τ+1,,elτ+1=K-Encoderw1τ+1,w2τ+1,,wmτ+1,e1τ,,elτ

最后,使用词嵌入模型Word2vec在数据集上进行预训练,得到子事件抽取层的词来嵌入输入,作为嵌入层的第二个模型参数.

2.3 子事件抽取层

为了解决文本冗余造成的对话长文本情感分析任务精度低的问题,提出TSI从对话长文本中抽取子事件,在降低文本冗余度的同时保留文本关键特征,以子事件的演化过程代替整个对话长文本.

注意,在实际应用场景下,子事件是由对话双方在短时间内密切讨论而形成,排除日常对话中口语寒暄的影响,以对话者之间的一问一答作为一轮对话.定义子事件应多于两轮对话.

定义2

子事件s由四元组Ps,Cs,Ts,Ds表示,其在三轮及以上对话中描述了同一件事情.其中,Ps表示子事件的参与用户;Cs表示子事件主题信息的核心词集合;Ts表示子事件主题信息的核心词集合,记录该子事件在整个文本中的时序信息;Ds表示对该子事件内容的描述.

TSI基于LDA主题模型,通过动态滑动窗口抽取子事件.LDA分为三层贝叶斯概率生成模型,由“文档⁃主题⁃词”构成,通过文本主题概率分布选择一种主题,再从该主题对应的词概率分布中抽取主题词.相关符号及其含义见表2.

表2   符号及含义

Table 2  List of notations

符号含义
n一条对话文本的句子数量
u划分窗口时循环总次数
loc当前循环位置
Wa滑动窗口起始位置
Wb滑动窗口结束位置
Wt当前滑动窗口起始位置
Z滑动窗口的主题词分布
C主题词间的相关度
S子事件集合
Simcos主题词相似度
Mp最大滑动窗口长度
Mq最小滑动窗口长度
δ滑动窗口的主题相似次数
θ主题相似度阈值
子事件成立阈值
ρ子事件位置判定阈值

新窗口打开| 下载CSV


TSI的建模过程如下:

(1)利用动态滑动窗口分割文本.滑动窗口边界的计算方法如下,初始为1.

u=Mp-Mq+1
Wb=Wa+loc+u-1

(2)由LDA主题模型获取当前窗口下的主题词分布.

(3)文本相似性度量.设两个滑动窗口下的主题词分布分别为Z1Z2,分别存在于Z1Z2中的主题词为AB,对应的词向量分别为ab,由式(5)计算Simcos

SimcosA,B=aba×b=a1,,anb1,,bni=1nai2×i=1nbi2

其中,aibi分别代表ab的各个分量值.

(4)子事件检测.当δ大于等于给定阈值时(本文取=4,即在最小滑动窗口的基础上至少还进行了两轮对话)子事件成立,根据式(6)更新Wa;如果在本次滑动窗口下未检测到子事件,则Wa自增1.

Wa=Wt+Mp-maxloc

通过动态滑动窗口分割文本、文本主题推断、文本相似性度量、子事件检测这四个主要步骤,可以生成文本子事件,具体步骤见算法1.

算法1

基于动态滑动窗口的子事件抽取

输入:对话长文本d=t1,t2,,tn

输出:S

1.S,Z

2. FOR i=1 To n Do

3. 由式(3)计算u

4. FOR j=1 To u Do

5. 由式(4)计算Wb

6. ZZLDAtwa,twb

7. END FOR

8. FOR i=0 To u Do

9. FOR j=0 To u-1 Do

10. 根据式(5)计算Simcos

11. IF Simcos>θ THEN

12. δδ+1

13. END IF

14. END FOR

15. IF δ THEN

16. SStwa,twb

17. 由式(6)更新Wa

18. BREAK

19. END IF

20. END FOR

21.END FOR

22.RETURN S

若算法1未抽取到子事件,则由算法2选择与文本主题最相关的子事件替代.

算法2 主题子事件抽取

输入:对话长文本d=t1,t2,,tn

输出:S

1.S,Z

2.ZdLDAd

3.由式(3)计算u

4. FOR i=1 To uDo

5. FOR j=1 To n Do

6. 由式(4)计算Wb

7. ZZLDAtj

8. END FOR

9. FOR each Zk inZ Do

10. CSimcosZd,Zk

11. END FOR

12.END FOR

13.SStCmax

14.RETURN S

算法1中,窗口划分部分(第4~7行)的时间复杂度为Ou,子事件检测部分(第8~20行)的时间复杂度为Ou2,因此,算法1的时间复杂度为Ou2n.由于实际中Z的长度远小于n,算法2的时间复杂度为Oun.

2.4 特征学习层

RCNN通过双向循环神经网络捕获文本上下文信息,利用最大池化层决策文本中的关键情感特征.本文使用长短期记忆网络(Long Short⁃Term Memory,LSTM)替换RCNN中的RNN,LSTM避免了RNN模型在反向传播时的梯度消失和梯度爆炸问题,能更好地捕捉子事件长距离语义关系.

RCNN结合文本的上下文来表示一个字,使用双向LSTM捕获字的特征.例如,设子事件抽取层输出的子事件S=w1τ+1,w2τ+1,,wnτ+1,通过式(7)和式(8),将S输入双向LSTM中学习输入文本的上下文语义,通过正反两个方向的LSTM输出特征Y1,Y2;根据式(9)和式(10),将Y1,Y2进行拼接并通过激活函数tanh得到特征Y3;最后,将Y3映射到与预设情感极性空间维度相同的空间,进行最大池化,得到该子事件对话双方的情感极性分数Y4=Q0,Q1,Q2Qi表示在情感极性i上的情感分数.

Y1=LSTMw1τ+1,w2τ+1,,wnτ+1
Y2=LSTMwnτ+1,wn-1τ+1,,w1τ+1
Y3=tanhconcatF1,F2
Y4=MaxPoolingF3

2.5 特征融合层

从一条对话长文本中可能抽取出多个子事件,而每个子事件对于推断整个文本的情感倾向具有不同的价值.考虑子事件的主题特征和时序特征对整个文本情感倾向的影响,通过两种方式对子事件情感分数Y4进行更新.

(1)若子事件的主题与全文的主题相似,则该子事件体现了全文的中心思想,与整个文本联系更加紧密,因此该子事件对整个文本情感倾向的影响程度更大.因此,将Y4更新为Y5

Y5=Y4×Ns+NstNs

其中,主题相似性通过式(5)计算,Ns表示从该对话长文本中抽取的子事件的总数,Nst表示与该对话长文本主题相似的子事件的数量.

(2)当用户情感发生变化时,用户的最终情感极性更能代表用户情感.如式(12),如果Wbn的比值大于给定阈值ρ(本研究取ρ=0.7),则该子事件的位置处于整个对话的结束部分,对整个文本情感倾向的影响程度更大.将该子事件的情感分数Y4更新为Y6,如式(13)所示:

Wbn>ρ
Y6=Y4×1+nsr×10-1

其中,nsr表示用户情感波动时的情感极性数量.

为了解决对话双方具有不同情感极性的问题,在特征融合层通过确定情感主体来完成整个文本的情感分类.下面给出情感波动和情感主体的定义.

定义3

情感波动I指同一用户在两个及以上子事件s中表现的不同情感极性,由二元组Ps,IP表示,其中,Ps表示s的参与用户,IP表示Pss中的情感极性.

用户情感波动的程度可以通过其对应的情感极性数量与情感变化情况来衡量.设对话双方都出现了情感波动,若其中一个用户在子事件中表现出更丰富的情感极性,则情感波动更大;若双方情感极性数量一致,则情感极性转变更大的用户情感波动更大.

定义4

情感主体G指子事件s中具有更强情感特征的用户,由三元组Ps,I,GQ表示,其中,Ps表示s的参与用户,I表示Ps的情感波动情况,GQ表示Ps的情感分数.

模型选择情感波动的用户作为情感主体,若对话双方未出现情感波动,则选择情感分数更大的用户作为情感主体,将其作为特征融合层的输出y.

2.6 输出层

y转换为情感极性的类别,得到对话长文本最终的情感分析结果.

在模型训练过程中,本文联合学习TSI子事件抽取模型和RCNN特征学习模型,提升TER的分类性能.因此,损失函数分两部分:第一部分是TSI的损失函数,如式(14)所示;另一部分是RCNN的损失函数,如式(15)所示.

pDα,β=d=1Mpθdαn=1Ndzdnpzdnθdpwdnzdn,βdθd
Lossy^,y=-i=1Po=1Oyiolgy^io

其中,D表示语料库,即M篇文章的集合;α为生成每篇对话长文本文本主题的多项式分布的Dirichlet分布的参数;β为生成每篇文本中某个词的多项式分布的Dirichlet分布的参数;θd是第d篇文本的主题分布,即多项式分布的参数;wdn是第d篇文本第n个词;zdn是第d篇文本第n个词的主题;P为样本总数;O为情感类别数.

3 实验

3.1 实验环境与数据

硬件:Intel i9⁃10850 K处理器,NVIDIA TITAN V⁃12 G.软件:Windows 10系统,所有算法使用Pytorch实现.

采用移动运营商通讯业务的客服客户对话数据集mobile_communications(简称mc),包含移动运营商的客服营销、客户咨询和客户投诉的20000条对话长文本数据.每条文本有500~5000字,将其分为mc1,mc2和mc3三部分,用于不同的实验测试.其中,mc2包含800条数据,用于子事件测试;mc1和mc3的描述信息如表3所示,每条文本使用人工标注情感标签,分为无情感、积极和消极三种.

表3   实验使用的数据集描述信息

Table 3  Description of datasets used in experiments

数据集无情感积极消极样本合计
mc11321142212574000
mc32721275925208000

新窗口打开| 下载CSV


3.2 对比模型

选择九个基线模型(https:∥github.com/649453932)与本文TER进行情感分析对比实验,每个模型都使用相同的超参数.为了公平起见,对于初始学习率,各特征模型(TextCNN,TextRNN,FastText,DPCNN,TextRCNN)设为1e-3,类Transformer(Transformer,TodKat)模型及预训练模型(BERT,ERNIE)设为5e-5;所有模型的文本最大长度为512,dropout为0.5.采用精确率、召回率和F1为评价指标,最终结果为三个指标在三种情感极性分类上的宏平均值.

(1)TextCNN20:使用多个卷积提取多种特征,再通过最大池化层保留最重要的特征信息.卷积核大小分别为2,3,4,每个尺寸的卷积核个数为256.

(2)TextRNN21:使用双向LSTM捕捉文本长距离语义,引入多任务学习机制.每层LSTM包含128个神经元.

(3)FastText22:使用分层Softmax降低分类器的计算代价,使用N⁃gram保存近距离词序信息.隐藏层包含256个神经元.

(4)DPCNN23:使用深度残差网络结构,在采样时固定特征的数量,获取文本的长距离特征.卷积核大小为3,卷积核个数为256.

(5)TextRCNN7:使用双向循环神经网络来最大程度地捕获上下文信息,再使用最大池化层决策文本中的关键特征.本文使用两层LSTM,每层LSTM包含256个神经元.

(6)Transformer24:使用多头注意力机制学习特征,解决文本中的长距离依赖问题.隐藏层包含768个神经元.

(7)TodKat16:采用话题驱动与知识感知的Transformer结构,预测文本每一个句子的情感倾向.本文采用投票机制预测最终情感分类结果.

(8)BERT6:采用双向Transformer结构,结合掩码策略捕捉文本的词向量.隐藏层包含768个神经元.

(9)ERNIE5:在大规模语料上预训练并融合多源数据知识.隐藏层包含768个神经元.

选择三种方法与TER进行子事件抽取对比实验.从信息性、准确性和理解性三方面对四种方法进行打分和排序25,最好为1,最差为4,将排序的算数平均值作为子事件生成性能的指标.

(1)基于特征评分的方法:综合考虑文本中句子的位置、关键词、词频等信息来构成文本子事件.

(2)TextRank:是基于图的文本排序算法,对文本构建拓扑结构图,通过抽取文本中重要度较高的句子构成文本子事件.

(3)基于序列标注的方法:使用GitHub开源项目Jiagu(https:∥github.com/ownthink/Jiagu).Jiagu以Bi⁃LSTM等模型为基础,在大规模语料上训练而成,通过对文本中句子的序列进行标注来抽取文本子事件.

3.3 各模型对对话长文本的情感分析实验

使用mc1测试TER和九个基线模型在对话长文本上情感分类的性能,实验结果如表4所示,表中黑体字表示性能最佳.

表4   各模型在对话长文本情感分析任务上的性能

Table 4  Experimental results of sentiment analysis on long dialogue texts

模型精确率召回率F1
TER76.38%74.69%75.53%
TextCNN50.99%44.00%46.30%
TextRNN49.07%39.00%41.54%
FastText50.98%40.00%41.43%
DPCNN52.16%33.00%35.37%
TextRCNN57.88%43.00%44.76%
Transformer60.93%33.00%31.55%
TodKat59.28%52.68%55.79%
BERT37.21%61.00%46.22%
ERNIE39.15%63.00%48.29%

新窗口打开| 下载CSV


对比各基线模型,TER的三个评价指标均为最佳,因为其他模型在建模时损失了大量文本特征,表现较差.而TER通过对文本抽取子事件,在降低文本冗余的同时也保留了文本的重要特征.

3.4 子事件抽取实验

使用mc2数据集测试TSI与对比方法抽取子事件的性能,在同等条件下的评价结果如表5所示,表中黑体字表示性能最优.由表可见,TSI的三个评价指标都排名第一.TSI满足本文对子事件的定义,可读性较好,所以其准确性和理解性最优.由于判断子事件的信息是否重要存在一定的客观性,评价时还需考虑子事件的文本长度,因此TSI的信息性和对比方法相比,差别不大.

表5   TSI和对比方法在mc2数据集上的子事件评价指标对比

Table 5  Experimental results of TSI and other methods with subevents on the mc2 dataset

方法信息性准确性理解性
TSI1.91.041.83
特征评分2.412.92.42
TextRank3.383.313.19
序列标注2.282.742.55

新窗口打开| 下载CSV


3.5 消融实验

为了验证TER各模块对对话长文本情感分析任务的影响,设计两组消融实验.

(1)子事件情感分析实验:验证子事件抽取层对TER在对话长文本情感分析任务上的有效性.TER与九个基线模型在mc3数据集上的对比实验结果如表6所示,表中黑体字表示性能最优.

表6   TER和九个基线模型在mc3数据集上的子事件情感分析任务的性能对比

Table 6  Experimental results of TER and nine base⁃line models with subevents sentiment analysis on the mc3 dataset

模型精确率召回率F1
TER89.15%89.05%89.21%
TextCNN86.08%86.23%86.09%
TextRNN81.35%79.95%80.20%
FastText84.23%83.90%83.95%
DPCNN86.39%86.33%86.30%
TextRCNN87.53%87.17%87.24%
Transformer81.51%81.33%81.39%
TodKat82.96%80.68%81.80%
BERT87.31%87.26%87.29%
ERNIE87.39%87.36%87.37%

新窗口打开| 下载CSV


(2)预训练模型嵌入的实验:验证预训练模型作为嵌入层对TER在对话长文本情感分析任务上的有效性.选择在情感分析实验中表现较好的特征模型TextCNN,DPCNN和TextRCNN作为代表,将BERT和ERNIE嵌入,对比实验的结果如表7所示,表中黑体字表示性能最优.

表7   预训练模型嵌入实验结果对比

Table 7  Experimental results of pretrained embedding

模型精确率召回率F1
ERNIE_TextRCNN89.15%89.05%89.21%
TextCNN86.08%86.23%86.09%
BERT_TextCNN87.48%87.51%87.48%
ERNIE_TextCNN88.41%88.30%88.33%
DPCNN86.39%86.33%86.30%
BERT_DPCNN87.99%87.17%87.26%
ERNIE_DPCNN88.57%88.08%88.21%
TextRCNN87.53%87.17%87.24%
BERT_TextRCNN88.69%88.65%88.64%

新窗口打开| 下载CSV


子事件决定整个对话长文本的情感倾向,由表6可知,TER在子事件情感分析实验中性能最佳,和表现较好的BERT,ERNIE,TextRCNN相比,TER的三个评价指标约高2%.与表4对比可以发现,各对比模型对子事件的情感分析性能明显优于对话长文本,但TER在进行对话长文本情感分析时仍保持了较高的性能,证明了子事件抽取层在TER对对话长文本情感分析时的有效性.

表6表7的两组实验结果表明,预训练模型具有强大的语义表示能力,总体优于基于特征的模型.将BERT和ERNIE嵌入后,三个模型各项指标均有提升,证明预训练模型能提取文本的深层语义,提升模型情感分析的性能.同时,ERNIE嵌入的效果优于BERT,证明预训练模型作为嵌入层对TER在对话长文本情感分析中的有效性.

3.6 超参数实验

对学习率设置不同的参数,观察学习率的变化对TER性能的影响.对比模型选择上述实验中表现较好的BERT和ERNIE,实验结果如图2所示.由图可见,学习率过低或过高均会降低模型性能.当学习率大于5e-6或低于1e-4时,各模型相继收敛,趋于稳定;当学习率为5e-5时,各模型的性能不再有明显的提升,对比模型逐渐逼近TER,但TER的F1整体上仍优于其他对比模型.

图2

图2   学习率的变化对TER性能的影响

Fig.2   Performance of TER with different learning rates


3.7 定量分析实验

定量分析TER与对比模型对不同长度文本的情感分析结果,将mc1按文本长度分为五部分,实验结果如表8所示,表中黑体字表示结果最优.由表可见,TER在不同长度文本上的性能均为最佳,且表现稳定.总体上,各对比模型在500~1000字的文本上的准确率高于其他字数的文本,这是因为随着文本长度的增加,各对比模型建模时损失的特征也增加,而500~1000字的文本量级,对比模型能保留大部分文本特征.

表8   各模型对不同长度文本情感分析的准确率对比

Table 8  Accuracy of different models with different length texts based sentiment analysis

500~

1000字

1000~2000字2000~3000字3000~4000字4000~5000字
TER77.42%75.58%73.47%76.00%73.39%
TextCNN50.00%41.33%40.00%43.33%45.00%
TextRNN43.33%41.30%30.37%33.33%40.00%
FastText50.00%40.62%43.75%41.25%43.75%
DPCNN30.00%36.96%30.00%38.89%38.00%
Text⁃RCNN56.67%49.13%43.33%42.22%49.17%
Transformer53.33%38.16%43.33%43.33%45.89%
TodKat56.11%54.17%52.47%54.00%55.16%
BERT60.00%58.00%50.45%50.11%50.25%
ERNIE60.33%58.70%50.65%50.49%50.67%

新窗口打开| 下载CSV


3.8 子事件抽取样例展示

用TER对mc1数据集中的对话长文本进行子事件抽取,并对其中两个子事件进行可视化展示,如图3所示.由图可见,该对话长文本中的对话双方具有不同的情感极性,且随对话的进行,情感发生了改变.TER从该对话长文本中抽取出两个子事件,子事件一由文本1至文本5组成,子事件二由文本17至文本21组成,以子事件的情感特征作为整个对话长文本的情感分类结果.根据定义3与定义4,客户产生了情感波动,作为情感主体,整个文本情感分类结果为积极.

图3

图3   子事件抽取的可视化样例

Fig.3   Visual case of subevents extraction


4 结论

围绕对话长文本的情感分析任务,针对对话长文本篇幅长、对话双方情感不同、随着对话的进行情感发生变化等问题,本文首先抽取文本子事件,再集成各子事件的情感,提出一种基于TSI⁃ERNIE⁃RCNN的对话长文本情感分析模型,在真实数据上的实验结果证明了该模型的有效性.

TER模型虽然能较好地识别积极和消极情感,但和其他两类情感相比,无情感的识别更困难,降低了模型整体的精确率.接下来将探索其他深度学习模型,考虑使用多个模型联合学习,进一步提高模型的整体性能.

参考文献

Zhang W XLi XDeng Yet al.

A survey on aspect⁃based sentiment analysis:Tasks,methods,and challenges

2022,arXiv:.

[本文引用: 1]

Wang J CWang J JSun Cet al.

Sentiment classification in customer service dialogue with topic⁃aware multi⁃task learning

Proceedings of the 34th AAAI Conference on Artificial Intelligence. New York,NY,USAAAAI Press20209177-9184.

[本文引用: 1]

宋双永王超陈成龙.

面向智能客服系统的情感分析技术

中文信息学报,202034(2):80-95.

[本文引用: 1]

Song S YWang CChen C Let al.

Sentiment ana⁃lysis for intelligent customer service chatbots

Journal of Chinese Information Processing,202034(2):80-95.

[本文引用: 1]

赵天资段亮岳昆.

基于Biterm主题模型的新闻线索生成方法

数据分析与知识发现,20215(2):1-13.

[本文引用: 1]

Zhao T ZDuan LYue Ket al.

Generating news clues with Biterm topic model

Data Analysis and Knowledge Discovery,20215(2):1-13.

[本文引用: 1]

Zhang Z YHan XLiu Z Yet al.

ERNIE:Enhanced language representation with informative entities

Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. Florence,ItalyACL20191441-1451.

[本文引用: 2]

Devlin JChang M WLee Ket al.

BERT:Pre⁃training of deep bidirectional transformers for language understanding

Proceedings of 2019 Conference of the North American Chapter of the Association for Computational Linguistics:Human Language Technologies. Volume 1. Long and Short Papers. Minneapolis,MN,USAAssociation for Computational Linguistics20194171-4186.

[本文引用: 2]

Lai S WXu L HLiu Ket al.

Recurrent convolutional neural networks for text classification

Proceedings of the 29th AAAI Conference on Artificial Intelligence. Austin,TX,USAAAAI Press20152267-2273.

[本文引用: 2]

Pappagari RZelasko PVillalba Jet al.

Hierarchical transformers for long document classification

2019 IEEE Automatic Speech Recognition and Understanding Workshop. Sentosa,SingaporeIEEE2019838-844.

[本文引用: 1]

Xu J CChen D LQiu X Pet al.

Cached long short⁃term memory neural networks for document⁃level sentiment classification

Proceedings of 2016 Conference on Empirical Methods in Natural Language Processing. Austin,TX,USAACL20161660-1669.

[本文引用: 1]

Sheng D MYuan J L.

An efficient long chinese text sentiment analysis method using BERT⁃based models with BiGRU

Proceedings of 2021 IEEE 24th International Conference on Computer Supported Cooperative Work in Design. Dalian,ChinaIEEE2021192-197.

[本文引用: 1]

Cheng N CHe Y YZhong P Xet al.

Chinese long text sentiment analysis based on the combination of title and topic sentences

Proceedings of 2019 6th International Conference on Dependable Systems and Their Applications. Harbin,ChinaIEEE2020347-352.

[本文引用: 1]

Hazarika DPoria SMihalcea Ret al.

ICON:Interactive conversational memory network for multimodal emotion detection

Proceedings of 2018 Conference on Empirical Methods in Natural Language Processing. Brussels,BelgiumACL20182594-2604.

[本文引用: 1]

Shen C LSun C LWang J Jet al.

Sentiment classification towards question⁃answering with hierarchical matching network

Proceedings of 2018 Conference on Empirical Methods in Natural Language Processing. Brussels,BelgiumACL20183654-3663.

[本文引用: 1]

Wang J JSun C LLi S Set al.

Aspect sentiment classification towards question⁃answering with reinforced bidirectional attention network

Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. Florence,ItalyACL20193548-3557.

[本文引用: 1]

Hu DWei L WHuai X Y.

DialogueCRN:Contextual reasoning networks for emotion recognition in conversations

Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing. Bangkok,ThailandACL20217042-7052.

[本文引用: 1]

Zhu L XPergola GGui Let al.

Topic⁃driven and knowledge⁃aware transformer for dialogue emotion detection

Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1:Long Papers). Bangkok,ThailandACL20211571-1582.

[本文引用: 2]

周楠杜攀靳小龙.

面向舆情事件的子话题标签生成模型ET⁃TAG

计算机学报,201841(7):1490-1503.

[本文引用: 1]

Zhou NDu PJin X Let al.

ET⁃TAG:A tag generation model for the sub⁃topics of public opinion events

Chinese Journal of Computers,201841(7):1490-1503.

[本文引用: 1]

Memon M QLu YChen P Het al.

An ensemble clustering approach for topic discovery using implicit text segmentation

Journal of Information Science,202047(4):1-27.

[本文引用: 1]

李金鹏张闯陈小军,.

自动文本摘要研究综述

计算机研究与发展,202158(1):1-21.

[本文引用: 1]

Li J PZhang CChen X Jet al.

Survey on automatic text summarization

Journal of Computer Research and Development,202158(1):1-21.

[本文引用: 1]

Kim Y.

Convolutional neural networks for sentence classification

Proceedings of 2014 Conference on Empirical Methods in Natural Language Processing. Doha,QatarACL20141746-1751.

[本文引用: 1]

Liu P FQiu X PHuang X J.

Recurrent neural network for text classification with multi⁃task learning

Proceedings of the AAAI 25th International Joint Conference on Artificial Intelligence. Phoenix,AZ,USAAAAI Press20162873-2879.

[本文引用: 1]

Joulin AGrave EBojanowski Pet al.

Bag of tricks for efficient text classification

Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics. Valencia,SpanishACL2017427-431.

[本文引用: 1]

Johnson RZhang T.

Deep pyramid convolutional neural networks for text categorization

Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics. Vancouver,CanadaACL2017562-570.

[本文引用: 1]

Vaswani AShazeer NParmar Net al.

Attention is all you need

Proceedings of the 31st International Conference on Neural Information Processing Systems. Long Beach,CA,USAMIT Press20176000-6010.

[本文引用: 1]

李莹莹马帅蒋浩谊.

一种基于社交事件关联的故事脉络生成方法

计算机研究与发展,201855(9):1972-1986.

[本文引用: 1]

Li Y YMa SJiang H Yet al.

An approach for storytelling by correlating events from social networks

Journal of Computer Research and Development,201855(9):1972-1986.

[本文引用: 1]

/