Aspect⁃Based Sentiment Analysis (ABSA) aims to determine the sentiment polarity of a certain aspect in a review text. Most of the previous approaches model text sequence information and global dependence by recurrent neural network and attention mechanism,which didn't leverage the information between target and context. And these methods ignore the corpus level word co⁃occurrence information that can reflect the collocations in linguistics. To tackle the above problems,a target⁃dependent multi⁃head self⁃attention model is proposed. Firstly,different attention mechanisms are designed to construct the hidden state and linguistic interaction between context and target. Then,the corpus level word co⁃occurrence information is integrated into the feature representation of context by graph neural network. Results of contrast experiments held on five benchmark datasets show that the performance of this model is better than that of all other compared algorithms in ABSA task.
Cai Guoyong, Lan Tian. Multi⁃head attention and word co⁃occurrence relation for aspect⁃based sentiment analysis. Journal of nanjing University[J], 2022, 58(5): 884-893 doi:10.13232/j.cnki.jnju.2022.05.015
基于方面的情感分析(Aspect⁃Based Sentiment Analysis,ABSA)的基本任务是提取细粒度的评论方面,识别提取方面(以下将方面称作目标词)表达的情感.例如,“The goods is excellent,but the customer service is so terrible.”该条评论涉及两个目标词,“goods”和“customer service”,而对这两个目标词表达的情感极性分别为“积极的”和“消极的”.长短时记忆网络(Long ShortTerm Memory,LSTM)避免了循环神经网络(Recurrent Neural Network,RNN)梯度消失和梯度爆炸的问题,在ABSA中,许多最近提出的模型都将LSTM与注意力机制结合在一起,即先利用LSTM对词向量进行序列信息的建模并从中挖掘情感信息,然后通过注意力机制让模型聚焦于句子中目标词的具体范围[1-3],取得了不错的效果.为了整合句子中的句法结构信息,一些研究[4-6]提出基于图的方法,即利用文本依赖树来构建图,然后通过图卷积网络(Graph Convolutional Network,GCN)或图注意力网络(Graph Attention Network,GAT)将依赖信息从邻接词传播到目标词.研究结果表明,考虑了句法关系的模型在性能上优于没有考虑句法关系的模型.
虽然LSTM与注意力机制相结合的方法能减轻RNN自身结构带来的限制,并通过给上下文词分配重要性权重的方式改善文本表示,但是,不同上下文词对于文本情感表达的贡献度是不一样的,而且同一个上下文词对于文本中不同的目标词的重要程度也应该不同,距离目标词较近的上下文词重要程度应该大于距离目标词较远的上下文词.此外,在利用句子之外的辅助知识方面,已有的方法大多只利用了词与词之间的依赖关系,而忽略了语料库级别的词共现信息.我们认为频繁共现的两个词或多个词意味着它们在语法上是一种搭配.比如,在“This dress is okay,nothing special.”这句评论中,“nothing special”在语料库的训练集中共出现六次,代表消极的情绪.如果没有词共现这种辅助信息的帮助,模型可能将“okay”或“special”当作对“dress”的情感表达词,从而做出错误的预测.
深度神经网络能自动提取文本中的特征,而且经神经网络处理后的文本表示,其维度不高,但包含了丰富的语义信息.许多学者的研究都已证明基于深度学习的方法优于传统的机器学习方法.Tang et al[2]提出两种基于LSTM的模型,认为目标词应当分别与其左右两边的上下文特征相联系,并利用两个LSTM分别建模目标词的左右上下文.Zhang et al[7]提出一种三通道的门控循环神经网络,用于学习目标词与其上下文之间的联系.Oh et al[8]提出一个深度上下文关系感知网络模型,通过方面和观点传播模块以及显示自监督模块实现具有深度上下文信息的子任务之间的交互关系.
注意力机制在机器翻译任务中的成功应用吸引了众多学者的关注.Tang et al[9]设计了一种基于注意力机制的多跳记忆网络模型(Memory Network,MemNet),在词嵌入表示的记忆上用多跳注意力来抽取更高级的语义信息.Wang et al[1]为了让目标词参与注意力权重的计算,将目标词的嵌入和上下文词表示拼接起来,提出一种基于注意力的LSTM模型(Attention⁃based LSTM,ATAE⁃LSTM).Chen et al[3]提出循环注意力网络(Recurrent Attention Network on Memory,RAM),先用双向LSTM构建记忆,然后在此基础上应用多重注意力机制,最后将结果与门控循环单元非线性地结合在一起.Song et al[10]提出一种注意力编码网络(Attentional Encoder Network,AEN),设计两种注意力机制的使用形式来分别对文本和目标词进行建模,并针对标签不可信问题提出了标签平滑正则化方法.Lin et al[11]提出一种基于目标的多头自注意力机制,使模型能够捕捉句子中单词之间的全局依赖信息.
在引入额外辅助信息方面,Zhang et al[4]提出一种特定目标图卷积网络模型(Aspect⁃Specific GCN,ASGCN),设计了一个多层GCN来将文本的依赖解析树中的依赖信息引入文本的特征表示.Sun et al[6]提出一种基于目标依赖的图注意力网络模型,利用多层图注意网络将情感特征从重要的语法邻域词传播到目标词.Wang et al[12]提出一个双重图卷积网络模型,设计一个具有语法知识的SynGCN模块来减轻依赖解析错误,同时设计一个基于注意力机制的SemGCN模块来捕获语义相关性.此外,还提出正交和差分正则化器,使两个模块互相影响从而提高模型性能.Li et al[13]对普通依赖解析树进行重塑和剪枝,定义了一个以目标方面为根的统一的面向方面的依赖树结构,然后提出一个关系图注意力网络来编码新的树结构用于情感预测.
以往的预训练词嵌入模型(如Word2vec,GloVe)的结构会受到单向语言模型的限制,因而也限制了模型的表征能力,使其只能获取单方向的上下文信息.而BERT模型利用Masked Language Model进行预训练并且采用深层的双向Transformer来构建整个模型,最终生成能融合左右上下文信息的深层双向语言表征.因此本文选择预训练的BERT模型作为词嵌入编码器.
模型的输入为文本和目标词,BERT模型将文本序列和目标词序列中的每个单词都映射为一个词向量,最终得到文本和目标词的嵌入表示和.其中,,emb_dim表示词嵌入的维度.为了使BERT模型能够更好地训练和微调,按照Devlin et al[7]所述,在文本序列和目标词序列的头部加上分类标识符,在尾部加上分隔标识符.通常放在句首,含有该标识符的句子经过BERT映射后的特征向量可用于后续分类任务.通常放在句末,用于分隔两个句子.如
Vaswani et al[15]认为多头注意力可以在多个并行的子空间中学习不同的注意力分数,并证明使用多头机制能增强注意力模型对文本隐藏状态刻画的能力,所以本研究也使用多头注意力机制来捕捉文本及目标词的依赖信息.多头注意力的计算如式(4)所示,其中,是一个可学习的参数矩阵,h是多头注意力的头数,,表示将所有头拼接起来的拼接操作.式(5)中,表示第i个头所得到的注意力分数,,,是第i个头的映射矩阵.
当两个词在同一个句子中共同出现,称这两个词具有共现关系.以“We are family.”为例,“we”“are”“family”这三个词在同一句话中出现,所以它们两两之间都具有共现关系.在训练样本集中,两个词共现过的样本句子的数量记为它们的共现次数.根据使用的数据集构建一个全局词共现图,该图是一个无向带权图,由一个结点集和一个边集构成,其中中的每个结点都代表语料库中的一个单词,中的每条边都代表这两个词具有共现关系,边的权重表示这两个词总共在多少条样本评论中共现过.例如,在数据集中“nothing”和“special”在语料库中共计五条评论中共现过,所以它们的共现次数为五次,即边权重为5.
在词嵌入层,使用预训练的BERT模型作为编码器,因此词嵌入维度按照Devlin et al[14]所述设置为768维.按照Chen et al[20]的设定,隐藏状态的维度设置为300维.多头注意力机制中注意力头数h设置为8.在训练过程中,L2正则化项的系数λ为10-5,dropout率为0.1.使用Adam优化器来更新所有的参数,同时设置初始的学习率为0.001.最后采用准确率(Accuracy,ACC)和F1来评估模型在ABSA任务中的性能.
Aspect⁃based sentiment classification with aspect⁃specific graph convolutional networks
∥Proceedings of 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing. Hong Kong,China:ACL,2019:4568-4578.
Syntax⁃aware aspect level sentiment classification with graph attention networks
∥Proceedings of 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing. Hong Kong,China:ACL,2019:5469-5477.
SunK, ZhangR C, MensahS,et al.
Aspect⁃level sentiment analysis via convolution over dependency tree
∥Proceedings of 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing. Hong Kong,China:ACL,2019:5679-5688.
Deep context⁃ and relation⁃aware learning for aspect⁃based sentiment analysis
∥Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 2:Short Papers). Online:ACL,2021:495-503.
Dual graph convolutional networks for aspect⁃based sentiment analysis
∥Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1:Long Papers). Online:ACL,2021:6319-6329.
Bert:Pre⁃training of deep bidirectional transformers for language understanding
∥Proceedings of 2019 Conference of the North American Chapter of the Association for Computational Linguistics:Human Language Technologies,Volume 1 (Long and Short Papers). Minneapolis,MN,USA:ACL,2019:4171-4186.
Attention?based LSTM for aspect?level sentiment classification
4
2016
... 基于方面的情感分析(Aspect⁃Based Sentiment Analysis,ABSA)的基本任务是提取细粒度的评论方面,识别提取方面(以下将方面称作目标词)表达的情感.例如,“The goods is excellent,but the customer service is so terrible.”该条评论涉及两个目标词,“goods”和“customer service”,而对这两个目标词表达的情感极性分别为“积极的”和“消极的”.长短时记忆网络(Long ShortTerm Memory,LSTM)避免了循环神经网络(Recurrent Neural Network,RNN)梯度消失和梯度爆炸的问题,在ABSA中,许多最近提出的模型都将LSTM与注意力机制结合在一起,即先利用LSTM对词向量进行序列信息的建模并从中挖掘情感信息,然后通过注意力机制让模型聚焦于句子中目标词的具体范围[1-3],取得了不错的效果.为了整合句子中的句法结构信息,一些研究[4-6]提出基于图的方法,即利用文本依赖树来构建图,然后通过图卷积网络(Graph Convolutional Network,GCN)或图注意力网络(Graph Attention Network,GAT)将依赖信息从邻接词传播到目标词.研究结果表明,考虑了句法关系的模型在性能上优于没有考虑句法关系的模型. ...
... 注意力机制在机器翻译任务中的成功应用吸引了众多学者的关注.Tang et al[9]设计了一种基于注意力机制的多跳记忆网络模型(Memory Network,MemNet),在词嵌入表示的记忆上用多跳注意力来抽取更高级的语义信息.Wang et al[1]为了让目标词参与注意力权重的计算,将目标词的嵌入和上下文词表示拼接起来,提出一种基于注意力的LSTM模型(Attention⁃based LSTM,ATAE⁃LSTM).Chen et al[3]提出循环注意力网络(Recurrent Attention Network on Memory,RAM),先用双向LSTM构建记忆,然后在此基础上应用多重注意力机制,最后将结果与门控循环单元非线性地结合在一起.Song et al[10]提出一种注意力编码网络(Attentional Encoder Network,AEN),设计两种注意力机制的使用形式来分别对文本和目标词进行建模,并针对标签不可信问题提出了标签平滑正则化方法.Lin et al[11]提出一种基于目标的多头自注意力机制,使模型能够捕捉句子中单词之间的全局依赖信息. ...
Effective LSTMs for target?dependent sentiment classification
3
2016
... 深度神经网络能自动提取文本中的特征,而且经神经网络处理后的文本表示,其维度不高,但包含了丰富的语义信息.许多学者的研究都已证明基于深度学习的方法优于传统的机器学习方法.Tang et al[2]提出两种基于LSTM的模型,认为目标词应当分别与其左右两边的上下文特征相联系,并利用两个LSTM分别建模目标词的左右上下文.Zhang et al[7]提出一种三通道的门控循环神经网络,用于学习目标词与其上下文之间的联系.Oh et al[8]提出一个深度上下文关系感知网络模型,通过方面和观点传播模块以及显示自监督模块实现具有深度上下文信息的子任务之间的交互关系. ...
Recurrent attention network on memory for aspect sentiment analysis
4
2017
... 基于方面的情感分析(Aspect⁃Based Sentiment Analysis,ABSA)的基本任务是提取细粒度的评论方面,识别提取方面(以下将方面称作目标词)表达的情感.例如,“The goods is excellent,but the customer service is so terrible.”该条评论涉及两个目标词,“goods”和“customer service”,而对这两个目标词表达的情感极性分别为“积极的”和“消极的”.长短时记忆网络(Long ShortTerm Memory,LSTM)避免了循环神经网络(Recurrent Neural Network,RNN)梯度消失和梯度爆炸的问题,在ABSA中,许多最近提出的模型都将LSTM与注意力机制结合在一起,即先利用LSTM对词向量进行序列信息的建模并从中挖掘情感信息,然后通过注意力机制让模型聚焦于句子中目标词的具体范围[1-3],取得了不错的效果.为了整合句子中的句法结构信息,一些研究[4-6]提出基于图的方法,即利用文本依赖树来构建图,然后通过图卷积网络(Graph Convolutional Network,GCN)或图注意力网络(Graph Attention Network,GAT)将依赖信息从邻接词传播到目标词.研究结果表明,考虑了句法关系的模型在性能上优于没有考虑句法关系的模型. ...
... 注意力机制在机器翻译任务中的成功应用吸引了众多学者的关注.Tang et al[9]设计了一种基于注意力机制的多跳记忆网络模型(Memory Network,MemNet),在词嵌入表示的记忆上用多跳注意力来抽取更高级的语义信息.Wang et al[1]为了让目标词参与注意力权重的计算,将目标词的嵌入和上下文词表示拼接起来,提出一种基于注意力的LSTM模型(Attention⁃based LSTM,ATAE⁃LSTM).Chen et al[3]提出循环注意力网络(Recurrent Attention Network on Memory,RAM),先用双向LSTM构建记忆,然后在此基础上应用多重注意力机制,最后将结果与门控循环单元非线性地结合在一起.Song et al[10]提出一种注意力编码网络(Attentional Encoder Network,AEN),设计两种注意力机制的使用形式来分别对文本和目标词进行建模,并针对标签不可信问题提出了标签平滑正则化方法.Lin et al[11]提出一种基于目标的多头自注意力机制,使模型能够捕捉句子中单词之间的全局依赖信息. ...
Aspect?based sentiment classification with aspect?specific graph convolutional networks
4
2019
... 基于方面的情感分析(Aspect⁃Based Sentiment Analysis,ABSA)的基本任务是提取细粒度的评论方面,识别提取方面(以下将方面称作目标词)表达的情感.例如,“The goods is excellent,but the customer service is so terrible.”该条评论涉及两个目标词,“goods”和“customer service”,而对这两个目标词表达的情感极性分别为“积极的”和“消极的”.长短时记忆网络(Long ShortTerm Memory,LSTM)避免了循环神经网络(Recurrent Neural Network,RNN)梯度消失和梯度爆炸的问题,在ABSA中,许多最近提出的模型都将LSTM与注意力机制结合在一起,即先利用LSTM对词向量进行序列信息的建模并从中挖掘情感信息,然后通过注意力机制让模型聚焦于句子中目标词的具体范围[1-3],取得了不错的效果.为了整合句子中的句法结构信息,一些研究[4-6]提出基于图的方法,即利用文本依赖树来构建图,然后通过图卷积网络(Graph Convolutional Network,GCN)或图注意力网络(Graph Attention Network,GAT)将依赖信息从邻接词传播到目标词.研究结果表明,考虑了句法关系的模型在性能上优于没有考虑句法关系的模型. ...
... 在引入额外辅助信息方面,Zhang et al[4]提出一种特定目标图卷积网络模型(Aspect⁃Specific GCN,ASGCN),设计了一个多层GCN来将文本的依赖解析树中的依赖信息引入文本的特征表示.Sun et al[6]提出一种基于目标依赖的图注意力网络模型,利用多层图注意网络将情感特征从重要的语法邻域词传播到目标词.Wang et al[12]提出一个双重图卷积网络模型,设计一个具有语法知识的SynGCN模块来减轻依赖解析错误,同时设计一个基于注意力机制的SemGCN模块来捕获语义相关性.此外,还提出正交和差分正则化器,使两个模块互相影响从而提高模型性能.Li et al[13]对普通依赖解析树进行重塑和剪枝,定义了一个以目标方面为根的统一的面向方面的依赖树结构,然后提出一个关系图注意力网络来编码新的树结构用于情感预测. ...
Syntax?aware aspect level sentiment classification with graph attention networks
0
2019
Aspect?level sentiment analysis via convolution over dependency tree
2
2019
... 基于方面的情感分析(Aspect⁃Based Sentiment Analysis,ABSA)的基本任务是提取细粒度的评论方面,识别提取方面(以下将方面称作目标词)表达的情感.例如,“The goods is excellent,but the customer service is so terrible.”该条评论涉及两个目标词,“goods”和“customer service”,而对这两个目标词表达的情感极性分别为“积极的”和“消极的”.长短时记忆网络(Long ShortTerm Memory,LSTM)避免了循环神经网络(Recurrent Neural Network,RNN)梯度消失和梯度爆炸的问题,在ABSA中,许多最近提出的模型都将LSTM与注意力机制结合在一起,即先利用LSTM对词向量进行序列信息的建模并从中挖掘情感信息,然后通过注意力机制让模型聚焦于句子中目标词的具体范围[1-3],取得了不错的效果.为了整合句子中的句法结构信息,一些研究[4-6]提出基于图的方法,即利用文本依赖树来构建图,然后通过图卷积网络(Graph Convolutional Network,GCN)或图注意力网络(Graph Attention Network,GAT)将依赖信息从邻接词传播到目标词.研究结果表明,考虑了句法关系的模型在性能上优于没有考虑句法关系的模型. ...
... 在引入额外辅助信息方面,Zhang et al[4]提出一种特定目标图卷积网络模型(Aspect⁃Specific GCN,ASGCN),设计了一个多层GCN来将文本的依赖解析树中的依赖信息引入文本的特征表示.Sun et al[6]提出一种基于目标依赖的图注意力网络模型,利用多层图注意网络将情感特征从重要的语法邻域词传播到目标词.Wang et al[12]提出一个双重图卷积网络模型,设计一个具有语法知识的SynGCN模块来减轻依赖解析错误,同时设计一个基于注意力机制的SemGCN模块来捕获语义相关性.此外,还提出正交和差分正则化器,使两个模块互相影响从而提高模型性能.Li et al[13]对普通依赖解析树进行重塑和剪枝,定义了一个以目标方面为根的统一的面向方面的依赖树结构,然后提出一个关系图注意力网络来编码新的树结构用于情感预测. ...
Gated neural networks for targeted sentiment analysis
2
2016
... 深度神经网络能自动提取文本中的特征,而且经神经网络处理后的文本表示,其维度不高,但包含了丰富的语义信息.许多学者的研究都已证明基于深度学习的方法优于传统的机器学习方法.Tang et al[2]提出两种基于LSTM的模型,认为目标词应当分别与其左右两边的上下文特征相联系,并利用两个LSTM分别建模目标词的左右上下文.Zhang et al[7]提出一种三通道的门控循环神经网络,用于学习目标词与其上下文之间的联系.Oh et al[8]提出一个深度上下文关系感知网络模型,通过方面和观点传播模块以及显示自监督模块实现具有深度上下文信息的子任务之间的交互关系. ...
... 模型的输入为文本和目标词,BERT模型将文本序列和目标词序列中的每个单词都映射为一个词向量,最终得到文本和目标词的嵌入表示和.其中,,emb_dim表示词嵌入的维度.为了使BERT模型能够更好地训练和微调,按照Devlin et al[7]所述,在文本序列和目标词序列的头部加上分类标识符,在尾部加上分隔标识符.通常放在句首,含有该标识符的句子经过BERT映射后的特征向量可用于后续分类任务.通常放在句末,用于分隔两个句子.如 ...
Deep context? and relation?aware learning for aspect?based sentiment analysis
1
2021
... 深度神经网络能自动提取文本中的特征,而且经神经网络处理后的文本表示,其维度不高,但包含了丰富的语义信息.许多学者的研究都已证明基于深度学习的方法优于传统的机器学习方法.Tang et al[2]提出两种基于LSTM的模型,认为目标词应当分别与其左右两边的上下文特征相联系,并利用两个LSTM分别建模目标词的左右上下文.Zhang et al[7]提出一种三通道的门控循环神经网络,用于学习目标词与其上下文之间的联系.Oh et al[8]提出一个深度上下文关系感知网络模型,通过方面和观点传播模块以及显示自监督模块实现具有深度上下文信息的子任务之间的交互关系. ...
Aspect level sentiment classification with deep memory network
2
2016
... 注意力机制在机器翻译任务中的成功应用吸引了众多学者的关注.Tang et al[9]设计了一种基于注意力机制的多跳记忆网络模型(Memory Network,MemNet),在词嵌入表示的记忆上用多跳注意力来抽取更高级的语义信息.Wang et al[1]为了让目标词参与注意力权重的计算,将目标词的嵌入和上下文词表示拼接起来,提出一种基于注意力的LSTM模型(Attention⁃based LSTM,ATAE⁃LSTM).Chen et al[3]提出循环注意力网络(Recurrent Attention Network on Memory,RAM),先用双向LSTM构建记忆,然后在此基础上应用多重注意力机制,最后将结果与门控循环单元非线性地结合在一起.Song et al[10]提出一种注意力编码网络(Attentional Encoder Network,AEN),设计两种注意力机制的使用形式来分别对文本和目标词进行建模,并针对标签不可信问题提出了标签平滑正则化方法.Lin et al[11]提出一种基于目标的多头自注意力机制,使模型能够捕捉句子中单词之间的全局依赖信息. ...
Targeted sentiment classification with attentional encoder network
3
2019
... 注意力机制在机器翻译任务中的成功应用吸引了众多学者的关注.Tang et al[9]设计了一种基于注意力机制的多跳记忆网络模型(Memory Network,MemNet),在词嵌入表示的记忆上用多跳注意力来抽取更高级的语义信息.Wang et al[1]为了让目标词参与注意力权重的计算,将目标词的嵌入和上下文词表示拼接起来,提出一种基于注意力的LSTM模型(Attention⁃based LSTM,ATAE⁃LSTM).Chen et al[3]提出循环注意力网络(Recurrent Attention Network on Memory,RAM),先用双向LSTM构建记忆,然后在此基础上应用多重注意力机制,最后将结果与门控循环单元非线性地结合在一起.Song et al[10]提出一种注意力编码网络(Attentional Encoder Network,AEN),设计两种注意力机制的使用形式来分别对文本和目标词进行建模,并针对标签不可信问题提出了标签平滑正则化方法.Lin et al[11]提出一种基于目标的多头自注意力机制,使模型能够捕捉句子中单词之间的全局依赖信息. ...
Multi?head self?attention transformation networks for aspect?based sentiment analysis
2
2021
... 注意力机制在机器翻译任务中的成功应用吸引了众多学者的关注.Tang et al[9]设计了一种基于注意力机制的多跳记忆网络模型(Memory Network,MemNet),在词嵌入表示的记忆上用多跳注意力来抽取更高级的语义信息.Wang et al[1]为了让目标词参与注意力权重的计算,将目标词的嵌入和上下文词表示拼接起来,提出一种基于注意力的LSTM模型(Attention⁃based LSTM,ATAE⁃LSTM).Chen et al[3]提出循环注意力网络(Recurrent Attention Network on Memory,RAM),先用双向LSTM构建记忆,然后在此基础上应用多重注意力机制,最后将结果与门控循环单元非线性地结合在一起.Song et al[10]提出一种注意力编码网络(Attentional Encoder Network,AEN),设计两种注意力机制的使用形式来分别对文本和目标词进行建模,并针对标签不可信问题提出了标签平滑正则化方法.Lin et al[11]提出一种基于目标的多头自注意力机制,使模型能够捕捉句子中单词之间的全局依赖信息. ...
Relational graph attention network for aspect?based sentiment analysis
2
2020
... 在引入额外辅助信息方面,Zhang et al[4]提出一种特定目标图卷积网络模型(Aspect⁃Specific GCN,ASGCN),设计了一个多层GCN来将文本的依赖解析树中的依赖信息引入文本的特征表示.Sun et al[6]提出一种基于目标依赖的图注意力网络模型,利用多层图注意网络将情感特征从重要的语法邻域词传播到目标词.Wang et al[12]提出一个双重图卷积网络模型,设计一个具有语法知识的SynGCN模块来减轻依赖解析错误,同时设计一个基于注意力机制的SemGCN模块来捕获语义相关性.此外,还提出正交和差分正则化器,使两个模块互相影响从而提高模型性能.Li et al[13]对普通依赖解析树进行重塑和剪枝,定义了一个以目标方面为根的统一的面向方面的依赖树结构,然后提出一个关系图注意力网络来编码新的树结构用于情感预测. ...
Dual graph convolutional networks for aspect?based sentiment analysis
1
2021
... 在引入额外辅助信息方面,Zhang et al[4]提出一种特定目标图卷积网络模型(Aspect⁃Specific GCN,ASGCN),设计了一个多层GCN来将文本的依赖解析树中的依赖信息引入文本的特征表示.Sun et al[6]提出一种基于目标依赖的图注意力网络模型,利用多层图注意网络将情感特征从重要的语法邻域词传播到目标词.Wang et al[12]提出一个双重图卷积网络模型,设计一个具有语法知识的SynGCN模块来减轻依赖解析错误,同时设计一个基于注意力机制的SemGCN模块来捕获语义相关性.此外,还提出正交和差分正则化器,使两个模块互相影响从而提高模型性能.Li et al[13]对普通依赖解析树进行重塑和剪枝,定义了一个以目标方面为根的统一的面向方面的依赖树结构,然后提出一个关系图注意力网络来编码新的树结构用于情感预测. ...
Bert:Pre?training of deep bidirectional transformers for language understanding
... 在词嵌入层,使用预训练的BERT模型作为编码器,因此词嵌入维度按照Devlin et al[14]所述设置为768维.按照Chen et al[20]的设定,隐藏状态的维度设置为300维.多头注意力机制中注意力头数h设置为8.在训练过程中,L2正则化项的系数λ为10-5,dropout率为0.1.使用Adam优化器来更新所有的参数,同时设置初始的学习率为0.001.最后采用准确率(Accuracy,ACC)和F1来评估模型在ABSA任务中的性能. ...
Attention is all you need
1
2017
... Vaswani et al[15]认为多头注意力可以在多个并行的子空间中学习不同的注意力分数,并证明使用多头机制能增强注意力模型对文本隐藏状态刻画的能力,所以本研究也使用多头注意力机制来捕捉文本及目标词的依赖信息.多头注意力的计算如式(4)所示,其中,是一个可学习的参数矩阵,h是多头注意力的头数,,表示将所有头拼接起来的拼接操作.式(5)中,表示第i个头所得到的注意力分数,,,是第i个头的映射矩阵. ...
Adaptive recursive neural network for target?dependent twitter sentiment classification
Inducing target?specific latent structures for aspect sentiment classification
2
2020
... 在词嵌入层,使用预训练的BERT模型作为编码器,因此词嵌入维度按照Devlin et al[14]所述设置为768维.按照Chen et al[20]的设定,隐藏状态的维度设置为300维.多头注意力机制中注意力头数h设置为8.在训练过程中,L2正则化项的系数λ为10-5,dropout率为0.1.使用Adam优化器来更新所有的参数,同时设置初始的学习率为0.001.最后采用准确率(Accuracy,ACC)和F1来评估模型在ABSA任务中的性能. ...