南京大学学报(自然科学), 2021, 57(4): 617-626 doi: 10.13232/j.cnki.jnju.2021.04.010

基于DBN和RF的跨被试情绪识别研究

王发旺1,2, 陈睿1,2, 伏云发,1,2

1.昆明理工大学信息工程与自动化学院,昆明,650500

2.昆明理工大学脑认知、脑机智能融合与机器学习研究实验室,昆明,650500

Cross⁃subject emotion recognition based on DBN and RF

Wang Fawang1,2, Chen Rui1,2, Fu Yunfa,1,2

1.Faculty of Information Engineering and Automation,Kunming University of Science and Technology,Kunming,650500,China

2.Laboratory of Brain Cognition,Brain Computer Intelligence Fusion and Machine Learning,Kunming University of Science and Technology,Kunming,650500,China

通讯作者: E⁃mail:fyf@ynu.edu.cn

收稿日期: 2020-12-19   网络出版日期: 2021-07-30

基金资助: 国家自然科学基金.  81771926.  61763022

Received: 2020-12-19   Online: 2021-07-30

摘要

目前情绪识别的分类方法很多,但情绪分类模型多具有被试依赖性,基于SEED数据集探索了跨被试情绪识别模型.首先将所有被试的脑电(Electroencephalogram,EEG)数据合并为一个被试,共提取675个trial三类情绪(正性(positive)、中性(neutral)、负性(negative)情绪)的短时傅里叶变换(Short⁃Time Fourier Transform,STFT)、离散小波变换(Discrete Wavelet Transformation,DWT)特征,并使用ReliefF特征选择算法对特征进行权重排序.其次,从排序好的特征中选择600个trial作为训练集,剩余的作为测试集;然后将K最近邻(K⁃Nearest Neighbor,KNN)、二次判别分析法(Quadratic Discriminant Analysis,QDA)、支持向量机(Support Vector Machine,SVM)、随机森林(Random Forest,RF)、深度置信(信念)网络(Deep Belief Network,DBN)五种分类算法作为分类器,对比研究选出最优的分类框架.结果表明,五种分类器的平均分类精度分别为:KNN 69.21%±3.4%,QDA 52.17%±9.41%,SVM 78.41%±3.8%,RF 83.49%±2.6%,DBN 81.73%±2.22%,可见RF的分类效果最好.分别计算每个分类模型对负性、中性、正性情绪的分类准确率,结果如下:不同分类器对正性情绪的识别效果都比较好;KNN,QDA,SVM对负性和中性情绪的分类效果较差,准确率不高;DBN和RF对负性和中性情绪的识别率较高,能有效地进行情绪识别.以上研究可望为跨被试的情绪识别模型提供参考.

关键词: 情绪识别 ; 跨被试 ; 深度置信网络 ; 随机森林 ; SEED数据集

Abstract

At present,there are many classification methods for emotion recognition,but most of them are subject dependent. This study explores cross⁃subject emotion recognition model based on SEED dataset. Firstly,the EEG (Electroencepha⁃logram) data of all subjects are combined into one subject,and the Short⁃Time Fourier Transform (STFT) and Discrete Wavelet Transform (DWT) of 675 trial emotions (positive,neutral and negative emotion) are extracted. Secondly,600 trials are selected from the sorted features as the training set,and the rest as the test set.Then,K⁃Nearest Neighbor (KNN),Quadratic Discriminant Analysis (QDA),Support Vector Machine (SVM),Random Forest (RF) and Deep Belief Network (DBN) are used to rank the weights of features. The experimental results show that the average classification accuracy of KNN is 69.21%±3.4%,of QDA is 52.17%±9.41%,of SVM is 78.41%±3.8%,of RF is 83.49%±2.6% and of DBN is 81.73%±2.22%,respectively. Obviously, RF has the best classification effect. Also,the classification accuracy of each classification model for positive,neutral and negative emotion is calculated,and each classifier has good recognition effect on positive emotion,while KNN,QDA and SVM are poor to recognize negative and neutral emotions and difficult to get high accuracy. However,DBN and RF can overcome this problem and have a high recognition rate of negative and neutral emotions,which can effectively identify different emotions. This study is expected to provide a reference for cross⁃subject emotion recognition model.

Keywords: emotion recognition ; cross⁃subjects ; Deep Belief Network ; Random Forest ; SEED dataset

PDF (1022KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

王发旺, 陈睿, 伏云发. 基于DBN和RF的跨被试情绪识别研究. 南京大学学报(自然科学)[J], 2021, 57(4): 617-626 doi:10.13232/j.cnki.jnju.2021.04.010

Wang Fawang, Chen Rui, Fu Yunfa. Cross⁃subject emotion recognition based on DBN and RF. Journal of nanjing University[J], 2021, 57(4): 617-626 doi:10.13232/j.cnki.jnju.2021.04.010

基于脑电图(Electroencephalogram,EEG)的情感识别是近年来人机交互领域的一个热点问题,其核心思想是使机器能够基于非侵入性获得的自发脑电图模式建模来识别人类的情感反应,并通过令人满意的反馈与人类互动.

在情感识别领域中情感的识别与分类尤为重要,目前情绪识别的分类方法有很多.例如,Martinez et al1训练了一个有效的深度卷积神经网络,利用皮肤电导和血量脉冲信号对四种认知状态(放松、焦虑、兴奋和乐趣)进行分类.Längkvist et al2应用深度置信(信念)网络(Deep Belief Network,DBN)和隐马尔可夫模型对多模式临床睡眠数据集进行睡眠阶段检测.这些研究中,深度学习模型的分类结果与人为规定特征类型的分类方法相当.Duan et al3首先将微分熵引入情感识别,比较不同特征的识别特性,并使用支持向量机(Support Vector Machine,SMV)作为分类器,平均准确率达到81.17%.Wang et al4系统地比较三种脑电特征(功率谱特征、小波特征和非线性动力学特征)对情绪分类的影响,提出一种用流形学习跟踪情绪变化的方法.基于脑电的识别模型通常取决于每个被试,而生物信号5-6有很大的个体变化,所以大多数脑电分类方法是在一个被试相关的场景中开发的,而专注于被试无关的脑电分类模型7-12很少.Zhang et al7提出基于脑电的意图分类的非线性最小(Nonlinear Least,NAL)反复注意模型(Convolutional Recurrent Attention Model,CRAM),概括不同受试者的脑电模式.Al Machot et al13提出基于EEG的情绪的卷积神经网络(Convolutional Neural Networks,CNN)的架构来学习强大的EEG功能并获得了高性能.上述研究中,情绪分类模型多具有被试依赖性,即每个被试都需要训练一个特定的分类器去分类,因此在跨被试应用上有较大阻碍.

另一方面,大多数与被试无关的模型只专注于增加准确性而不是减少个体差异.为解决这个问题,Li et al13使用双半球域对抗神经网络(Bi⁃Hemispheres Domain Adversarial Neural Network,BiDANN)最小化源和目标域之间人脑每个半球域差异的模型通过梯度反转层.本文提出深度学习的方法,以减少个体差距脑电信号.

本研究基于SEED数据集探索跨被试情绪识别模型,将所有被试的脑电数据合并为一个被试,使用K最近邻(K⁃Nearest Neighbor,KNN)、二次判别分析法(Quadratic Discriminant Analysis,QDA)、SVM、随机森林(Random Forest,RF)和DBN分类方法对比不同分类器的分类精度,实验结果证明RF的分类效果最好.还分别计算每个分类模型对正性(positive)、中性(neutral)、负性(negative)情绪的分类准确率,发现DBN和RF对负性和中性情绪的识别率较高,能有效进行情绪识别.

1 实验和被试

1.1 数据集简介

SEED数据集是由上海交通大学BCMI实验室提供的公共情绪识别数据集14,包含受试者观看不同电影片段时诱发的EEG信号.从实验材料库中选取15个中国电影片段(包含正性、中性和负性情绪)作为刺激材料.电影片段的选择标准如下:(a)整个实验不应太长,以免受试者感到疲劳;(b)视频应被理解而无须解释;(c)视频应引发单一的目标情感.每个电影片段都经过精心编辑以创造连贯的情感激发和最大化的情感含义,持续时间约4 min.实验中使用的电影细节如表1所示.

表1   情绪实验中采用的电影片段细节

Table 1  Details of movie clips used in emotional experiments

序号情绪标签电影片段来源
1消极《唐山大地震》
2消极《1942》
3积极《泰囧》
4积极《唐伯虎点秋香》
5积极《越光宝盒》
6中性《世界遗产在中国》

注:电影片段的时间可从http://bcmi.sjtu.edu.cn/~seed/index.

html上获得

新窗口打开| 下载CSV


每次实验都需要把15个电影剪辑都看完,因此每次实验都有15个试验trial.开始播放电影片段之前有5 s提示,接着播放电影片段,时长约4 min.为了及时反馈,要求被试在观看每个短片后立即填写问卷,报告他们对每个短片的情绪反应.自我评估的时间为45 s,评估后休息15 s.相同情感的两个电影片段不会连续地显示,实验范式如图1所示.

图1

图1   电影呈现时序(上)及单个trial时序(下)示意图

Fig.1   Schematic diagram of film presentation time sequences (up) and a single trial sequence (down)


1.2 被试

在SEED数据集中招募15名被试(男7名,女8名,年龄19~28岁,平均23.27岁,方差2.37岁)参与实验.每个参与者进行三次实验,两次实验间隔一周或更长.所有参与者均为上海交通大学的学生,自述视力正常或已矫正至正常,听力正常.实验时被试应舒适地坐着,避免身体及肢体运动,专心观看电影片段;周围环境保持安静,避免影响被试对电影的注意力;同时记录被试的面部视频和脑电数据.采用ESI⁃Neuro⁃Scan系统记录EEG信号,采样率为1000 Hz,电极帽为有源AgCl电极,按照国际10⁃20系统排布62个通道.

1.3 数据预处理

采用MATLAB分析(.mat文件),将原始EEG数据下采样至200 Hz,并采用0~75 Hz的带通滤波器进行滤波,提取对应每部电影持续时间的脑电片段.每名受试者进行三次实验,每次实验有15个trial,每个trial有一个.mat文件,共45个.mat文件.每个.mat文件包含16个数组,包括一个实验中15个trial的分段预处理脑电数据(EEG⁃1~EEG⁃15,通道×数据)及一个标签数组,包含相应的情感标签(正标签为+1,中性标签为0,负标签为-1).

2 方 法

情感计算是一个跨学科的领域,人类情感的监测和建模是模式识别和机器学习技术在情感计算中的应用.尽管近年来情感计算得到了迅速的发展,但仍有许多亟待解决的问题1.在基于不同生理信号的情绪识别方法中,基于EEG信号的情绪识别方法具有较高的准确性和客观的评价能力,各种心理生理学研究已经证明了人类情绪和脑电信号之间的相关性15.此外,随着可穿戴设备和干电极技术的快速发展16,现在可以实现基于脑电的从实验室到日常环境的情感识别应用,例如驾驶疲劳检测和精神状态监测17.然而,脑电信号的信噪比很低,采集时往往混有大量噪声;与图像或语音信号不同,脑电信号还具有时间不对称性和非平稳性.传统的脑电特征提取和特征选择是情感建模的关键,需要特定的领域知识.因此,本文提取传统的时域特征、频域特征、时⁃频域特征及电极组合特征,使用ReliefF算法18进行特征选择,选出使用频率最高的特征并利用此特征训练不同的分类器以提高情绪识别的准确率.

2.1 频域特征提取

2.1.1 PSD特征

频域特征主要是功率谱密度(Power Spectral Density,PSD)特征.PSD描述信号的功率随频率的变化情况,其计算方式有很多,可分为直接法和间接法.直接法包括周期图法、Welch法等线性经典谱估计法,本文采用Welch法计算PSD19.得到功率谱后,根据给定的某一波段计算该波段内功率谱密度的均值、最值、方差等统计量作为特征.

2.1.2 微分熵特征

微分熵(Differential Entropy,DE)是香农(Shannon)熵在连续变量上的推广,即:

DE=-abpxlgpxdx

其中,px表示连续变量x的概率密度函数,a,bx的取值区间.对于一段特定长度的EEG信号,其近似服从Gauss分布,则其微分熵等于特定频段上能量谱的对数20.将DE特征作为三类情绪(正性、中性、负性)的特征,实验表明DE的准确率高于其他特征的准确率.

2.2 时⁃频特征
2.2.1 短时傅里叶变换(Short⁃Time Fourier Transform,STFT)特征

STFT对低信噪比的信号有更好的抗干扰能力21,使用等长的窗函数ωn-t对信号进行加窗,计算窗内信号的傅里叶变换,即:

Xn,w=-+wn-tfte-jwtdt

通常,窗函数默认使用Gauss函数,STFT也称Gabor变换.此外,时间窗长度的选择至关重要:时间窗过短,提供的信息量不足,会导致频域分辨率变差;而时间窗太长,又会导致各窗时域分辨率差.目前情绪识别研究中使用的时间窗长度多为1∼2 s22,本文采用的时间窗为1 s.考虑EEG信号的采用率为200 Hz,所以MATLAB程序中STFT的窗函数设为200点.

2.2.2 小波特征

小波变换和STFT相比的一个优势是能同时提高时域和频域的分辨率.小波变换主要有两种基本类型:连续小波变换(Continuous Wavelet Transform,CWT)和离散小波变换(Discrete Wavelet Transformation,DWT)23,其主要区别在于小波基的参数是否可以连续取值,参数只能离散取值时为DWT.使用DWT特征,小波基选取EEG研究中最常用的DB_4.任意L2R空间中的xt的DWT为:

Wxj,k=RxtψJ,Kt¯dt
ψj,kt=12jψt2j-k
2.3 空域特征

按照国际10⁃20系统排布的电极具有对称性,而不同情绪状态下左右半球产生的EEG信号不对称:消极情绪能激活右侧额叶、颞叶和顶叶;而积极情绪可以激活左侧区域24.因此,利用电极组合特征可以获得EEG的空域特征,可称为不对称差(Diff⁃rential Asymmetry,DASM)或不对称商(Rational Asymmetry,RASM).DASMRASM分别指左右对称电极上特征的差值和比值.

其计算方法:先计算大脑左右半球对应通道的某种特征值,然后将对称相减或相除.例如SEED数据集的27对对称通道.Zheng and Lu15还探讨了前脑额叶和后脑枕区的不对称差异模式,将其定义为某种特征之间的前⁃后不对称性,称为DCAU (Differential Caudality)特征.例如在SEED数据集中的23对通道,如表2所示.

表2   SEED数据集的27对对称通道与23对不对称通道

Table 2  27 pairs of symmetric channels and 23 pairs of asymmetric channels in SEED dataset

公式通道
DASM=FeatureXL-FeatureXRRASM=FeatureXLFeatureXR

Fp1⁃Fp2,F7⁃F8,F3⁃F4,FT7⁃FT8,FC3⁃FC4,T7⁃T8,P7⁃P8,C3⁃C4,TP7⁃TP8,CP3⁃CP4,P3⁃P4,O1⁃O2,AF3⁃AF4,F5⁃F6,F7⁃F8,FC5⁃FC6,FC1⁃FC2,C5⁃C6,

C1⁃C2,CP5⁃CP6,CP1⁃CP2,P5⁃P6,P1⁃P2,PO7⁃PO8,PO5⁃PO6,PO3⁃PO4,CB1⁃CB2

DCAU=FeatureXfrontal-FearureXposteriorFT7⁃TP7,FC5⁃CP5,FC3⁃CP3,FC1⁃CP1,FCZCPZ,FC2⁃CP2,FC4⁃CP4,FC6⁃CP6,FT8⁃TP8,F7⁃P7,F5⁃P5,F3⁃P3,F1⁃P1,FZ⁃PZ,F2⁃P2,F4⁃P4,F6⁃P6,F8⁃P8,FP1⁃O1,FP2⁃O2,FPZ⁃OZ,AF3⁃CB1,AF4⁃CB2

新窗口打开| 下载CSV


2.4 特征组合

feature1为STFT特征,将信号分为delta (1~4 Hz),theta (4~8 cHz),Low_alpha (8~10 Hz),alpha (8~12 Hz),beta (12~30 Hz),gamma (30~45 Hz),计算每个频段的PSD特征及PSD的均值、最值、方差、差分等统计量,其特征矩阵为675×9238的二维矩阵.记feature2为DWT特征,使用DB_4小波基对EEG信号进行五级分解,并计算小波系数的信息熵特征、统计特征,其特征矩阵为675×1116的二维矩阵.记feature3为不对称特征,首先使用feature1的特征计算每一频段的功率谱,然后计算DASM特征及DCAU特征,结果为675×(27+23)×6的二维矩阵.为了使用本文提出的特征选择方法,将所有特征串联起来,即在MATLAB中表示为feature=

feature1,feature2,feature3,得到一个675×10654的二维特征矩阵,然后对其进行归一化.

2.5 特征选择

1992年,Kira and Rendell25最先提出Relief权重搜索的特征选择方法.Relief算法的核心是与不同类别相关的同一特征对近距离样本的区分能力,其具体算法伪代码如表3所示.

表3   Relief的伪代码程序

Table 3  Pseudo code program of Relief

设训练数据集为D,样本抽样次数m,特征权重的阈值δ,输出各个特征的权重T.

1.置0所有特征权重,T为空集.

2.ƒor i=1 to m do

(1)随机选择一个样本R

(2)从同类样本集中找到R的最近邻H,从不同类样本集中找到最近邻样本M;

(3)ƒor A=1 to N do

WA=WA-diffA,R,H/m+diffA,R,H/m

3.ƒor i=1 to N do

if WAδ

把第A个特征添加到T

end

新窗口打开| 下载CSV


虽然Relief算法运行效率高,但只能处理两个类别的数据,而本文涉及三类数据,因此更适合采用ReliefF算法.该算法是Relief算法的多分类推广,其伪代码如表4所示

表4   ReliefF的伪代码程序

Table 4  Pseudo code program of ReliefF

设训练数据集为D,样本抽样次数m,特征权重的阈值δ,最近邻样本个数k;输出为各个特征的特征权重T.

1.置所有特征权重为0,T为空集.

2.ƒor i=1 to m do

(1)从D中随机选择一个样本R

(2)从R的同类样本集中找到Rk个最近邻Hjj=1,

2,,k,从每个不同类样本集中找出一个最近邻MjC;

3.ƒor A=1 to N All feature do

WA=WA-j-1kdiffA,R,Hj/mk+ceciassRpc1-pclassRj-1kdiffA,R,MjC/mk

end

新窗口打开| 下载CSV


3 实验结果

对比研究不同的分类方法,先计算STFT特征及DWT特征,特征矩阵为一个675×10354的二维矩阵;接着使用ReliefF进行权重排序,ReliefF的最近邻数设置为5.将特征向量矩阵分为训练集和测试集,并使用浅层的机器学习算法进行分类,如KNN,QDA,SVM,RF等;再与深度学习模型进行对比,深度学习算法采用DBN.本节系统评估五个分类器的分类性能,以提高情绪识别的准确率.

系统地比较KNN,QDA,SVM,DBN,RF五种分类器在基于EEG的情绪识别中的分类性能,这些分类器使用上述经过ReliefF选择的STFT特征作为输入,训练数据在特征向量矩阵中随机选择600行,测试数据为剩下的75行.各个算法的参数设置如表5所示.

表5   不同算法的参数设置及输入数据维度

Table 5  Parameter settings and input data dimension of different algorithms

算法参数设置
KNN输入特征维度从5530
QDA输入特征维度612,1224,2448
SVM输入特征维度612,1224,2448
DBN隐藏层层数为1,隐单元数50800,步长50.学习率0.1;BatchSize=100,迭代数Iter=50,激活函数:sigmoid
RF

随机抽取数:50300,步长50;

原始数据分三组,特征维度612,1224,2448

新窗口打开| 下载CSV


KNN,QDA使用MATLAB自带的fitcknn,fitcdiscr函数完成.KNN,QDA的训练数据的特征维度都分为三组,分别是612,1224,2448.KNN的最近邻数为50,100,150,200,250,300,通过遍历每个参数以获得最优分类准确率.同理,SVM的训练数据的特征维度也分为三组,分别是612,1224,2448.算法基于LibSVM工具箱实现,核函数选择RBF核,并使用SVMcgForClass优化损失参数c-8,8以及gamma参数g-8,8.DBN使用基于DBNToolbox的Matlab工具箱实现,可见层单元数固定为800,隐藏层层数为1,隐单元数50800,步长50,学习率0.1,BatchSize=100,迭代数Iter=50,激活函数为sigmoid函数.RF的trees设置为50,100,150,200,250,300,训练数据的特征维度分为612,1224,2448三组,使用MATLAB自带的TreeBagger函数实现.通过上述的参数设置,使用600个trial作为训练数据,75个trial作为测试数据,遍历各个参数选出最高的分类准确率.

本研究比较了五个分类器的平均分类准确率,结果如图2所示.

图2

图2   不同分类器的平均分类性能对比

Fig.2   Average classification performance of different classifiers


由图可见,RF的分类效果最好,且当输入的特征维度为1224,trees数为200时可获得最佳分类效果,7折交叉验证下分类准确率为83.49%±2.6%.DBN在结构为800×400×3时分类结果最好,7折交叉验证下分类准确率为81.73%±2.22%.SVM在训练集特征维度为612时效果最佳,最优分类准确率为78.41±3.8%.KNN,QDA都在训练集特征维度为612时效果最好,KNN在最近邻数为50时可获得最高的分类准确率,为69.21±3.4%,QDA的分类准确率为52.17±9.41%.以上结果表明,RF分类器在本框架中的分类表现最好,最高分类准确率达86.67%,对情绪识别有较好的效果;其次,DBN也有较好的分类效果,能有效地进行情绪识别.

使用五个频段的PSDDERASMDASMDCAU作为特征,SVM为分类器,基于LibSVM工具箱实现,核函数选择RBF核并使用SVMcgForClass优化损失参数c-8,8及gamma参数g-8,8.与使用特征选择的分类模型对比,说明特征选择的必要,其分类结果如表6所示.

表6   使用SVM分类器在不同频段识别不同特征的平均准确率(单位:%)对比

Table 6  Average classification accuracy (unit:%) of SVM for different features in different frequency bands

DelaThetaAlphaBetaGamma
本文PSD63.7551.2554.37554.37556.875
DE47.8448.5257.6264.8966.2
DASM42.2440.6545.7246.3547.41
RASM40.7341.9845.5445.8647.86
DCAU38.5641.4443.5645.5145.65

Singh

et al[12]

(12通道)

PSD57.5562.7365.8775.875.68
DE54.762.1368.1877.677.86
DASM46.9446.8559.4569.0470.61
RASM45.8845.9758.9768.870.58
DCAU37.5641.1443.5645.4145.65

新窗口打开| 下载CSV


由表可知,采用某一特征单独作为训练分类器的特征矩阵获得的分类结果较差,且比Zhang et al7的结果低.可能的原因:本文采取的分类策略不同,Zhang et al7的研究基于个体,训练的模型具有被试依赖性;而本文采用trial级分类,训练的模型更具实用化,独立于被试.此外,本研究加入了特征选择算法ReliefF,其细节将在下一节介绍.特征矩阵经过ReliefF进行权重排序后使用SVM进行分类,训练集为600×612(前612维特征),测试数据为75×612,经9折交叉验证后平均分类准确率为82.31%±2.89%,表明特征选择方法可以有效提高分类效果,且分类结果与Zhang et al7相当.

ReliefF最近邻数的选择平均分类准确率如图3所示.由图可知,ReliefF的最近邻数设置为5时分类效果最好,平均分类准确率为81.73%±0.06.%.此外,本文还对比研究了ReliefF5特征选择与cohen's f^2效应量特征选择,所使用的方法同上,数字1~7表示7折交叉验证,其平均分类结果如图4所示.

图3

图3   ReliefF使用不同最近邻数对分类结果的影响

Fig.3   Classification results of ReliefF using different nearest neighbor numbers


图4

图4   不同特征选择方法对分类结果的影响

Fig.4   Classification results of different feature selection methods


以上结果表明,ReliefF特征选择算法优于cohen's f^2效应量算法.

本文还分别计算了每个分类模型对正性、中性、负性三类情绪的分类准确率(图5).由图可知,不同分类器对正性情绪的识别效果都比较好,而KNN,QDA,SVM对中性和负性情绪的分类效果较差,难以得到高的准确率;而DBN和RF能克服这一问题,对中性和负性情绪的识别率较高.这一结果说明基于DBN的深度学习方法能进一步完成特征选择任务,过滤更新特征,提高分类精度.

图5

图5   不同分类器对三类情绪的分类结果对比

Fig.5   Classification results of three kinds of emotions by different classifiers


4 讨 论

特征矩阵的维度过高,需要采用合适的算法进行降维,目前常用的特征选择方法有很多,如PCA (Principal Component Analysis),SLDA (Supervised Linear Discriminant Analysis)等,但上述方法计算量大,不适合在维度过高时使用.随着数据挖掘技术的发展,数据量变得越来越大,要求更快的运算速度,Relief算法就是在这样的背景下提出的20.本文选择ReliefF算法进行特征选择,同时考虑到本文的研究内容为情绪识别,所以将心理学中常用的单因素方差分析效应量Cohen's f^226作为特征选择的对比方法.

为了进一步研究ReliefF的最近邻数要选择多少才合适的问题,本文使用基于DBN的方法,选取ReliefF5,ReliefF10,ReliefF15,ReliefF20,ReliefF25,ReliefF30等六类近邻数权重排序的前800列用以训练DBN.其中,输入层单元数为800,隐藏层层数为1,隐藏层单元数按50的步长,遍历50~800次,共16组结果,输出层为3.实验结果显示,当DBN结构为800×400×3时,分类结果最好.采用7折交叉验证的方法,系列1到7表示7折交叉验证.首先对特征向量矩阵进行ReliefF权重排序,统计权重较高的特征的使用频次,选出STFT特征作为最优特征;其次,对比研究了ReliefF算法不同近邻数对分类结果的影响.实验结果表明,当最近邻数设置为5时,ReliefF特征选择达到最优.

本文还分别计算了每个分类模型对正性、中性、负性三类情绪的分类准确率,对应的分类精度见图5.由图可知,不同分类器对正性情绪的识别效果都比较好,而KNN,QDA,SVM对中性和负性情绪的分类效果较差,难以得到高的准确率;而DBN和RF对中性和负性情绪的识别率较高.这一结果说明基于DBN的深度学习方法能进一步完成特征选择任务,过滤更新特征,提高分类精度.在进行无监督和有监督学习时,DBN能将特征提取和特征选择结合起来,进一步学习合理的权重分布.同时,在情感建模过程中,特征提取和特征选择是关键,RF的投票表决机制能有效克服数据不平衡带来的影响.

各种方法的实验结果如表7所示,表中黑体字表示最优的实验结果,可以看到RF在各种方法中性能最优.

表7   本研究与其他研究的对比

Table 7  Comparison of our study with other studies

作者发表年份分类方法分类精度与标准差(%)
Sangineto et al[27]2014TPT76.31%±15.89%
Long et al[28]2015TKL63.54%±15.47%
Ganin et al[29]2016DANN75.08%±11.18%
Chu et al[30]2017STM51.23%±14.82%
Song et al[31]2018DGCNN79.95%±9.02%
Li et al[32]2018BiDANN83.28%±9.60%
Hwang et al[33]2020DNN75.31%±7.33%
本文RF83.49%±2.6%
DBN81.73%±2.22%

新窗口打开| 下载CSV


5 结 论

本文首先介绍情绪识别的相关背景和SEED数据集的采集方式和类型,然后对比研究不同特征在跨被试模型的分类效果.这些特征包括PSDDEDASMRASMDCAU等,可以得出结论:单独提取某类特征用于情绪识别具有被试依赖性,在跨被试模型上不适用.基于此,本文提出一种基于ReliefF特征选择的情绪识别模型,提取EEG信号在频域、时⁃频域、空域对应的STFT特征、小波特征、电极组合特征,并对这些特征进行权重排序,选择高权重特征中频次最高的特征以提高分类准确率.本文还系统对比了ReliefF算法的不同参数设置对情绪识别准确率的影响.最后,基于上述结果,对比不同分类器的分类性能,结果表明:DBN和RF都能获得较好的平均分类准确率,RF的分类效果最好,分类准确率为83.49%±2.6%;DBN分类准确率为81.73%±2.22%,且与其他分类器相比更稳定,对三类情绪的识别效果都较好.本研究可望为跨被试的情绪识别模型提供参考.

参考文献

Martinez H PBengio YYannakakis G N.

Learning deep physiological models of affect

IEEE Computational Intelligence Magazine,20138(2):20-33.

[本文引用: 2]

Längkvist MKarlsson LLoutfi A.

Sleep stage classification using unsupervised feature learning

Advances in Artificial Neural Systems,2012107046.

[本文引用: 1]

Duan R NZhu J YLu B L.

Differential entropy feature for EEG⁃based emotion classification

2013 6th International IEEE/EMBS Conference on Neural Engineering. San Diego,CA,USAIEEE201381-84.

[本文引用: 1]

Wang X WNie DLu B L.

Emotional state classification from EEG data using machine learning approach

Neurocomputing,2014(129):94-106.

[本文引用: 1]

Kumar SYger FLotte F.

Towards adaptive classification using riemannian geometry approaches in brain⁃computer interfaces

2019 7th International Winter Conference on Brain⁃Computer Interface (BCI). Gangwon,Korea (South)IEEE20191-6.

[本文引用: 1]

Lee S BKim HJeong J Het al.

Recurrent convolutional neural network model based on temporal and spatial feature for motor imagery classification

2019 7th International Winter Conference on Brain⁃Computer Interface. Gangwon,Korea (South)IEEE20191-4.

[本文引用: 1]

Zhang D LYao LChen K Xet al.

A convolutional recurrent attention model for subject⁃independent EEG signal analysis

IEEE Signal Processing Letters,201926(5):715-719.

[本文引用: 5]

Lawhern V JSolon A JWaytowich N Ret al.

EEGNet:a compact convolutional neural network for EEG⁃based brain⁃computer interfaces

Journal of Neural Engineering,201815(15):056013.

Zhang D LYao LZhang Xet al.

Cascade and parallel convolutional recurrent neural networks on EEG⁃based intention recognition for brain computer interface

Proceedings of the 32nd AAAI Conference on Artificial Intelligence. New Orleans,LA,USAAAAI20181703-1710.

Al Machot FElmachot AAli Met al.

A deep⁃learning model for subject⁃independent human emotion recognition using electrodermal activity sensors

Sensors,201919(7):1659.

Keelawat PThammasan NKijsirikul Bet al.

Subject⁃independent emotion recognition during music listening based on EEG using deep convolutional neural networks

2019 IEEE 15th International Colloquium on Signal Processing and Its Applications. Penang,MalaysiaIEEE201921-26.

Singh ALal SGuesgen H W.

Motor imagery classification based on subject to subject transfer in riemannian manifold

2019 7th International Winter Conference on Brain⁃Computer Interface. Gangwon,Korea (South)IEEE20191-6.

[本文引用: 2]

Li YZheng W MZong Yet al.

A bi⁃hemisphere domain adversarial neural network model for EEG emotion recognition

IEEE Transactions on Affective Computing.2018doi:10.1109/TAFFC. 2018. 2885474.

[本文引用: 2]

Zheng W LLu B L.

Investigating critical frequency bands and channels for EEG⁃based emotion recognition with deep neural networks

IEEE Transactions on Autonomous Mental Development,20157(3):162-175.

[本文引用: 1]

Mathersul DWilliams L MHopkinson P Jet al.

Investigating models of affect:Relationships among EEG alpha asymmetry,depression,and anxiety

Emotion,20088(4):560-572.

[本文引用: 2]

Huang Y JWu C YWong A M Ket al.

Novel active comb⁃shaped dry electrode for EEG measurement in hairy site

IEEE Transactions on Biomedical Engineering,201562(1):256-263.

[本文引用: 1]

Sauvet FBougard CCoroenne Met al.

In⁃flight automatic detection of vigilance states using a single EEG channel

IEEE Transactions on Biomedical Engineering,201461(12):2840-2847.

[本文引用: 1]

Spolaôr NCherman E AMonard M Cet al.

ReliefF for multi⁃label feature selection

2013 Brazilian Conference on Intelligent Systems. Fortaleza,BrazilIEEE20136-11.

[本文引用: 1]

Akar S AKara SLatifoğlu Fet al.

Wavelet⁃Welch methodology for analysis of EEG signals of schizophrenia patients

2012 Cairo International Biomedical Engineering Conference. Giza,EgyptIEEE20126-9.

[本文引用: 1]

Shi L CJiao Y YLu B L.

Differential entropy feature for EEG⁃based vigilance estimation

2013 35th Annual International Conference of IEEE Engineering in Medicine and Biology Society. Osaka,JapanIEEE20136627-6630.

[本文引用: 2]

Kıymık M KGüler NDizibüyük Aet al.

Comparison of STFT and wavelet transform methods in determining epileptic seizure activity in EEG signals for real⁃time application

Computers in Biology and Medicine,200535(7):603-616.

[本文引用: 1]

Yoon H JChung S Y.

EEG⁃based emotion estimation using Bayesian weighted⁃log⁃posterior function and perceptron convergence algorithm

Computers in Biology & Medicine,201343(12):2230-2237.

[本文引用: 1]

Akin M.

Comparison of wavelet transform and FFT methods in the analysis of EEG signals

Journal of Medical Systems,200226(3):241-247.

[本文引用: 1]

Davidson R JFox N A.

Asymmetrical brain activity discriminates between positive and negative affective stimuli in human infants

Science,1982218(4578):1235-1237.

[本文引用: 1]

Kira KRendell L A.

A practical approach to feature selection

Proceedings of the 9th International Workshop on Machine Learning. San Francisco,CA,USAMorgan Kaufmann Publishers Inc.1992249-256.

[本文引用: 1]

郑昊敏温忠麟吴艳.

心理学常用效应量的选用与分析

心理科学进展,201119(12):1868-1878. (Zheng H M,Wen Z L,Wu Y. The appropriate

[本文引用: 1]

effect sizes and their calculations in psychological

[本文引用: 1]

research

Advances in Psychological Science,201119(12):1868-1878.

[本文引用: 1]

Sangineto EZen GRicci Eet al.

We are not all equal:Personalizing models for facial expression analysis with transductive parameter transfer

Proceedings of the 22nd ACM International Conference on Multimedia. Orlando,FL,USAACM2014357-366.

[本文引用: 1]

Long M SWang J MSun J Get al.

Domain invariant transfer kernel learning

IEEE Transactions on Knowledge and Data Engineering,201527(6):1519-1532.

[本文引用: 1]

Ganin YUstinova EAjakan Het al.

Domain⁃adversarial training of neural networks

Journal of Machine Learning Research,201617(1):1-35.

[本文引用: 1]

Chu W SDe la Torre FCohn J F.

Selective transfer machine for personalized facial expression analysis

IEEE Transactions on Pattern Analysis and Machine Intelligence,201739(3):529-545.

[本文引用: 1]

Song T FZheng W MSong Pet al.

Eeg emotion recognition using dynamical graph convolutional neural networks

IEEE Transactions on Affective Computing,202011(3):532-541.

[本文引用: 1]

Li YZheng W MCui Zet al.

A novel neural network model based on cerebral hemispheric asymmetry for EEG emotion recognition

Proceedings of the 27th International Joint Conference on Artificial Intelligence. Stockholm,SwedenAAAI Press20181561-1567.

[本文引用: 1]

Hwang SKi MHong Ket al.

Subject⁃independent EEG⁃based emotion recognition using adversarial learning

2020 8th International Winter Conference on Brain⁃Computer Interface. Gangwon,Korea (South)IEEE20201-4.

[本文引用: 1]

/