南京大学学报(自然科学), 2024, 60(1): 65-75 doi: 10.13232/j.cnki.jnju.2024.01.007

多模型融合的时空特征运动想象脑电解码方法

凌六一,1,2, 李卫校1, 冯彬1,2

1.安徽理工大学电气与信息工程学院,淮南,232001

2.安徽理工大学人工智能学院,淮南,232001

Multi⁃model fusion temporal⁃spatial feature motor imagery electroencephalogram decoding method

Ling Liuyi,1,2, Li Weixiao1, Feng Bin1,2

1.School of Electrical and Information Engineering,Anhui University of Science and Technology,Huainan, 232001,China

2.School of Artificial Intelligence,Anhui University of Science and Technology,Huainan,232001,China

通讯作者: E⁃mail:lyling@aust.edu.cn

收稿日期: 2023-11-07  

基金资助: 安徽理工大学环境友好材料与职业健康研究院(芜湖)研发专项.  ALW2022YF06
安徽高校协同创新项目.  GXXT⁃2022⁃053

Received: 2023-11-07  

摘要

运动想象脑电(Motor Imagery Electroencephalogram,MI⁃EEG)已经应用在脑机接口(Brain Computer Interface,BCI)中,能帮助上下肢功能障碍的患者进行康复训练.然而,现有技术对MI⁃EEG低效的解码性能和对MI⁃EEG过度依赖预处理的方式限制了BCI的广泛发展.提出了一种多模型融合的时空特征运动想象脑电解码方法(Multi⁃model Fusion Temporal⁃spatial Feature Motor Imagery EEG Decoding Method,MMFTSF).MMFTSF使用时空卷积网络提取MI⁃EEG中浅层信息特征,使用多头概率稀疏自注意力机制关注MI⁃EEG中最具有价值的信息特征,使用时间卷积网络提取MI⁃EEG高维时间特征,使用带有softmax分类器的全连接层对MI⁃EEG进行分类,并利用基于卷积的滑动窗口和空间信息增强模块进一步提升MI⁃EEG解码性能.在公开的BCI竞赛数据集IV⁃2a上进行验证.实验结果表明,MMFTSF在数据集上达到89.03%的解码准确度,在MI⁃EEG分类任务中具有理想的分类性能.

关键词: 概率稀疏注意力 ; 运动想象 ; 卷积神经网络 ; 时间卷积网络

Abstract

Motor imagery electroencephalogram (MI⁃EEG) has been applied in brain computer interface (BCI) to assist patients with upper and lower limb dysfunction in rehabilitation training. However,the limited decoding performance of MI⁃EEG and over⁃reliance on pre⁃processing are restricting the broad growth of brain computer interface (BCI). We propose a multi⁃model fusion temporal⁃spatial feature motor imagery electroencephalogram decoding method (MMFTSF). The MMFTSF uses temporal⁃spatial convolutional networks to extract shallow features,multi⁃head probsparse self⁃attention mechanism to focus on the most valuable features,temporal convolutional networks to extract high⁃dimensional temporal features,fully connected layer with softmax classifier for classification,and convolutional⁃based sliding window and spatial information enhancement module to further improve decoding performance from MI⁃EEG. Experimental results have shown that the proposed reaches 89.03% on public BCI competition IV⁃2a dataset,which demonstrate MMFTSF has ideal classification performance on MI⁃EEG.

Keywords: probsparse self⁃attention ; motor imagery ; convolutional neural networks ; temporal convolutional networks

PDF (1381KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

凌六一, 李卫校, 冯彬. 多模型融合的时空特征运动想象脑电解码方法. 南京大学学报(自然科学)[J], 2024, 60(1): 65-75 doi:10.13232/j.cnki.jnju.2024.01.007

Ling Liuyi, Li Weixiao, Feng Bin. Multi⁃model fusion temporal⁃spatial feature motor imagery electroencephalogram decoding method. Journal of nanjing University[J], 2024, 60(1): 65-75 doi:10.13232/j.cnki.jnju.2024.01.007

脑机接口(Brain Computer Interface,BCI)是在人脑与计算机或其他电子设备之间建立的直接交流和控制通道.BCI作为一种新型尖端技术,有改变世界的潜力且已应用在医疗领域中,能够辅助上下肢功能障碍的患者进行康复训练1.

脑电图(Electroencephalography,EEG)是一种记录脑电活动的非入侵方式,能够捕获头皮表面脑电的二维数据.EEG能够以无损人体健康的方式采集,具有表征受试者真实意图的潜力.运动想象(Motor Imagery,MI)是想象人体某躯干部分的运动而非人体躯干实际运动的意识.运动想象脑电图(Motor Imagery Electroencephalogram,MI⁃EEG)是一种无须外部刺激且能自我调节的脑电图,可以通过电极通道检测,是一种多维的长时间序列点.MI⁃EEG的低信噪比、非稳定性和生理伪迹干扰等特点影响MI⁃EEG的解码,对BCI的应用带来巨大挑战.因此,从MI⁃EEG中提取特征以区分不同想象动作的解码方法是BCI技术中不可缺少的事项.许多机器学习和深度学习方法已经应用了MI⁃EEG的解码,去解决MI⁃EEG的分类问题.传统的机器学习方法需要依赖专家知识来进行特征提取,而深度学习能够从原始的脑电数据中学习关键和潜在的特征,不需要过度依赖专家知识提取特征.以深度学习的方法来对MI⁃EEG解码,通常分为特征输入和非特征输入.特征输入通常使用共空间模式滤波2、独立成分分析3、短时傅里叶变化和小波变换4等具有专家知识的技巧来对原始MI⁃EEG进行预处理,将处理后的MI⁃EEG作为网络的输入;非特征输入仅使用原始的MI⁃EEG作为网络输入.用于MI⁃EEG的深度学习常用结构包括卷积神经网络(Convolutional Neural Networks,CNN)5,时间卷积网络(Temporal Convolutional Networks,TCN)6-7和transformer系列等网络8-9.与传统的机器学习方法相比,使用深度学习作为MI⁃EEG的解码方法,能够以更少的专家知识达到较好的解码性能.Lawhern et al5提出一种紧凑的卷积神经网络EEGNet,使用深度卷积和深度可分离卷积来对MI⁃EEG进行解码,EEGNet的提出为MI⁃EEG的解码提供了一个很好的思路.Ingolfsson et al7提出EEG⁃TCNet,在EEGNet的基础上加入TCN网络结构6,能够提升MI⁃EEG的解码准确度,同时EEG⁃TCNet的设计使用较少的参数量,能够在资源有限的边缘设备部署.Salami et al10提出的EEG⁃ITCNet是在EEG⁃TCNet的基础上加入Inception网络结构11,认为Inception可以高效地处理小量的数据集,通过不同卷积核大小,提取不同频率上的时间特征,且使用不同大小的卷积核对MI⁃EEG的解码提供了可解释性.Altuwaijri et al12提出MBEEGSE,结合EEGNet和Inception网络结构,并在此基础上加入轻量级的SENet13,能够明确电极通道之间的相互依赖关系,自适应地改变电极通道之间的响应.Zhang et al14提出一种基于图的卷积递归注意模型G⁃CRAM,以探索不同受试者的脑电特征,将电极通道的结点信息嵌入到卷积神经网络中,对MI⁃EEG进行解码.Altaheri et al9提出ATCNet,在EEGNet和TCN网络基础上加上multi⁃head attention来突出MI⁃EEG中最有价值的特征,并采用基于卷积的滑动窗口来增强MI⁃EEG的解码,能够进一步提升MI⁃EEG的解码准确度.上述研究为EEG的解码开拓了新的研究路线,同时也为以后EEG的解码提供了研究方向,但仍存在以下问题:传统的解码方法过度依赖专家知识和单一模型的解码方法无法充分发掘脑电信号的潜在信息,导致MI⁃EEG的解码精度低,限制了BCI的广泛应用.针对上述问题,本文提出一种多模型融合的时空特征运动想象脑电解码方法(Multi⁃model Fusion Temporal⁃spatial Feature Motor Imagery Electroencephalogram Decoding Method,MMFTSF),主要创新性如下:(1)为了不过度依赖专家知识,仅对MI⁃EEG进行数值上的预处理;(2)使用多模型融合的网络结构能够提取MI⁃EEG不同维度的信息特征;(3)为了充分挖掘多频段脑电信号之间的相关性,嵌入概率稀疏注意力机制使网络自适应地关注与MI任务相关频段的特征.

1 解码方法

提出的MMFTSF由六个模块组合:时空卷积网络(Temporal⁃spatial Convolutional Networks,TSCN)、多头概率稀疏注意力(Multi⁃head ProbSparse Self⁃attention,MPS)、时间卷积网络(Temporal Convolutional Networks,TCN)和全连接层(Fully Connected Layer,FC),并使用基于卷积的滑动窗口(Convolutional⁃based Sliding Window,SW)和空间信息增强(Spatial Information Enhancement,SIE)来进一步提升解码准确度.

网络整体结构如图1所示,其中,Channels表示电极通道数,Time points表示MI⁃EEG的时间采样点信息,LN表示层归一化(Layer Normalization,LN),#W windows表示使用W个滑动窗口.将MI⁃EEG传入到TSCN,使用三种不同的卷积分别对MI⁃EEG的时间、通道和空间进行浅层特征提取,输出具有高维特征的MI⁃EEG;SW用来分割MI⁃EEG,并对每个分割后的MI⁃EEG进行LN操作;使用MPS注意力机制来关注MI⁃EEG中最有价值的特征;使用SIE增强网络空间信息表征能力;TCN用来提取MI⁃EEG中的深层维度特征;最后将经过不同滑动窗口处理后的MI⁃EEG进行Average,再使用带有softmax分类器的全连接层FC进行分类.

图1

图1   网络整体结构

Fig.1   Overall network structure


1.1 TSCN模块

TSCN模块的设计与EEGNet的网络结构相似,能够实现对MI⁃EEG浅层时空特征的提取.

将预处理后的脑电数据传入到时空卷积网络TSCN,如图2所示,将输入的MI⁃EEG信号X1RC×L扩展维度为X2R1×C×L,以图的形式传入网络结构,其中,C为每次实验的电极通道数,L为每次实验的采样点数.将X2传入F1个卷积核大小为1,Kc的时间卷积层(Temporal Conv),同时保持输入输出时间维度不变,用于对MI⁃EEG时间维度进行滤波,提取浅层时间维度特征,再传入到批归一化层(Batch Normalization,BN)来加速网络训练.之后,将特征图传入到深度为D,卷积核大小为C,1的二维深度卷积(Channel DW Conv),提取MI⁃EEG不同电极通道间的特征,再经过BN层加速网络收敛和指数线性单位(Exponential Linear Unit,ELU)激活函数增强网络的非线性拟合能力.将特征图传入大小为1,P1的平均池化层(Average Pooling Layer,Avg.Pool)来降维,再将特征图传入F2个卷积核大小为1,K2的二维空间卷积(Spatial Conv)来进行时间和通道两个维度的特征融合,再经过BN层和ELU激活函数.为了进一步减少特征维度,最后将特征图传入大小为1,P2的Avg.Pool.经过TSCN块之后,MI⁃EEG的输出维度为X3RF2×Tc,其中,Tc=L/P1/P2.输出特征图中每个数值都包含原始MI⁃EEG的C×P1×P2采样点信息.

图2

图2   时空卷积网络

Fig.2   Temporal⁃spatial convolutional networks


1.2 SW

SW是基于对脑电信号分割预处理的思想,通过对原始信号进行分割来弥补数据不足的缺陷,同时使用SW也是对MI⁃EEG部分信号的恒等变换.使用基于卷积的滑动窗口能够提升MI⁃EEG的解码,并且,在实施过程中不会增加权重参数,只需使用一个不进行卷积操作的滑动窗口就可以实现对MI⁃EEG的分割和恒等变换.

将TSCN块的输出特征图X3在时间维度上使用一个长度为Tw,步长为1的卷积滑动窗口SW进行切分,假设滑动窗口的数量为W,相对应的Tw应满足Tw=Tc-W+1,经过SW输出的特征图X4RF2×Tw,在下文会通过实验证明使用一个合适的滑动窗口能够有效增加MI⁃EEG的解码准确度.将SW输出的特征图X4传入到LN对时间序列长度Tw进行层归一化处理得到特征图X5RF2×Tw.

1.3 MPS模块

为了模仿人能够在眼球视角范围内聚焦在关键的区域,在设计解码方法过程中,需要对不同区域的特征设置不同的权重系数来拟合对不同区域的重视程度.在深度学习中,网络模型能够自适应地调整不同区域的权重系数称为注意力机制.对于MI⁃EEG的时间序列,本身包含不同频段的时间特征,对不同的频段采用相同的关注程度会降低对脑电信号的解码性能,使用注意力机制能够使网络自适应地关注与MI相关的频段特征.在本次实验过程中采用的注意力机制为Informer15中的多头概率稀疏注意力机制MPS,MPS的提出主要是为了解决使用transform8中Muti⁃head Attention存在计算成本高和对时间序列问题预测能力较弱的问题.

将输入数据X5经过三个不同的权重矩阵Wq,Wk,Wv产生相应的查询(Query)向量QRd×Tw、键(Key)向量KRd×Tw和值(Value)向量VRd×Tw.qi,ki,vi分别代表QKV中的第i行向量,d表示每个headi的维度.概率稀疏自注意力机制如图3所示,随机采样S1ki向量组成K1,其中S1=minceilM×lnTw,TwM决定了S1的值,表示从向量K中选择行向量的个数;计算每个qi向量与K1矩阵的稀疏性Mqi,K得分,M表示每个qi向量与K1矩阵产生注意力的函数.

图3

图3   概率稀疏自注意力机制

Fig. 3   Probsparse self⁃attention mechanism


选择稀疏性得分最高的S2qi组成矩阵Q1,对应的索引为Index,其中,S2=minceilN×lnTw,Tw;将V矩阵在时间序列维度上取平均组成矩阵V1V1矩阵的计算只在Index部分进行;计算出每个headiAttention;将每个headi进行拼接,再通过权重矩阵WoRd×h×Tw映射输出X6RF2×Tw.上述过程如式(1)~(7)所示.

K1=RandK,S1
Mqi,K1=maxjqikjTd-1Twj=1TwqikjTd
V1=IndexmeanV,S2
Q1,Index=TopkMqi,K1,S2
A=softmaxQ1KTd
headi=AttentionA,V1=AV1
X6=concathead1,head2,,headh·Wo

其中,1/d是缩放因子,hheadi的个数,T是矩阵转置,concat是拼接函数,softmax是软归一化函数,Rand是随机函数,Topk是选择前S2个最大值并返回对应索引值Index函数,max是选择最大值函数,min是选择最小值函数,ceil是向上取整函数,MatMul是执行矩阵相乘操作.

1.4 SIE模块

在实验过程中,使用注意力机制自适应调整权重系数的网络模型往往关注不同空间区域的信息特征,但对通道信息和通道与空间之间的信息具有较弱的表征能力,因此,在使用注意力机制的网络模型中需要加上一个能增强网络空间信息表征能力的网络模型.

将MPS输出的特征图X6进行信息增强,SIE是由卷积核大小为Kk的一维卷积、BN和ELU激活函数实现,输出X7RF2×Tw.

X7=ELUBNConvX6
X8=X5+X7

将特征图X5经过多头概率稀疏自注意力机制和空间信息增强SIE处理生成的特征图X7进行相加操作,得到X8来作为TCN模块的输入.

1.5 TCN模块

TCN模块的设计包含两个残差块,与TCNet的网络结构相似,将TCNet的ReLU激活函数改为ELU激活函数.每个残差块都有两个扩张因果卷积(Dilated Causal Conv,DCC),每个DCC后都加入BN层和ELU激活函数.扩张因果卷积的提出是为了满足时序问题中某一时刻的输出只依赖于当前和历史时刻输入的需求,同时使用扩张因果卷积能够实现指数级增加感受野(Receptive Field Size,RFS).

RFS=1+2KT-12L-1

其中,KT是扩张因果卷积的大小,L表示堆叠残层数.为了利用所有的序列点,KTL的选择,应满足RFSTw.

TCN的结构如图4所示,特征图X8经过两个残差连接的因果卷积,其中前一个残差的扩张因果卷积的数量为Ft,卷积核大小为K1,扩张率为D1,后一个残差的扩张因果卷积的数量为Ft,卷积核大小为K2,扩张率为D2.为了加速网络收敛和增强网络的非线性拟合能力,在每个卷积后面都加上BN和ELU激活函数,经过TCN输出为X9RFt×1.

图4

图4   时间卷积网络

Fig.4   Temporal convolutional networks


将TCN的输出特征图X9输入全连接层FCRFt×n_class,输出特征图为X10Rn_class.每个滑动窗口分割后的特征图进行LN,MPS,SIE,TCN和FC之后生成一个X10,将这W个滑动窗口所产生的特征图拼接成X11Rw×n_class,再进行平均和softmax分类器处理,最终生成X12Rn_class来进行分类,其中n_class为类别数.以上网络的超参数选择如表1所示.

表1   超参数设定

Table 1  Hyperparameter setting

TSCN & SW
F116P17
Kc64P28
D2W17
C22K216
MPS & SIE
d8M5
h2N5
Kk3
SIE & TCN
Ft32K24
K14D22
D11

新窗口打开| 下载CSV


2 实验结果与分析

2.1 数据集介绍与预处理

实验采用2008年第四次国际BCI竞赛运动想象的脑电数据集BCI IV⁃2a.该数据集包含九名被试者,编号为A01~A09,每个被试者进行两次sessions,将其中一个session作为训练集,另一个session作为测试集;每次实验的标签为想象左手运动、想象右手运动、想象双脚运动和想象舌头运动(简称left hand,right hand,feet,tongue)中的一种,每种MI进行72次,所以每个受试者在每个session进行288次MI实验.BCI IV⁃2a以250 Hz采样率采集MI⁃EEG数据,同时进行0.5~100 Hz的带通滤波和50 Hz的凹陷滤波的预处理.本实验选择22个EEG电极通道,每次实验选择MI结束时前4.5 s,共计1125个采样点,即n_class=4C=22L=1125.在对原始MI⁃EEG进行预处理时,没有使用共空间模式滤波2、独立成分分析3、短时傅里叶变化和小波变换4等具有专家知识的处理方法,也没有剔除被专家标记为伪迹的实验数据,仅对每次实验的每个通道进行标准差标准化,使处理后的数据符合标准正态分布,即均值为0,方差为1的数据分布,如式(11)所示:

xt,j,i'=xt,j,i-ut,jσt,j

其中,xt,j,i表示原始MI⁃EEG第t次实验、第j个通道、第i个时间的采样点数值;ut,j表示第t次实验、第j个通道的均值;σt,j表示第t次实验、第j个通道的标准差;xt,j,i'表示经过数值处理之后的第t次实验、第j个通道、第i个时间的采样点数值.

2.2 训练过程

操作系统为Windows 10,通过PyTorch框架搭建网络结构,在Pycharm进行代码实验,GPU为GTX 3060 12 GB.使用Adam优化器、交叉熵损失函数,迭代1000次.为了防止过拟合,若300次迭代准确度无变化即停止训练,权重损失率设置为0.001,初始学习率为0.001,学习率更新方式为余弦退火函数.

2.3 消融实验

网络结构决定了解码性能的上限,选择一组最优的超参数能够逼近解码上限.

2.3.1 滑动窗口数量对解码性能的影响

经过TSCN模块输出的X3的时间序列长度为Tc,每个时间点都包含着原始MI⁃EEG的C×P1×P2采样点信息,每个时间点都包含原始MI⁃EEG的高维特征.因此,对MI⁃EEG的分割方式直接影响解码性能,使用滑动窗口对X3进行分割,不同大小的滑动窗口表示对原始MI⁃EEG的高维时间特征不同的聚合方式.经过长度为Tw的滑动窗口输出的特征图,每个特征点都包含着原始信号C×P1×P2×Tw时间点信息.

为了验证滑动窗口的数量W对MI⁃EEG的解码性能的影响,W1,Tc-1之间取值,在M=N=5M=N=1的条件下,进行仿真验证,如图5所示.其中,W=1可以理解为不加滑动窗口.由图可见,增加滑动窗口的数量能够明显地提升MI⁃EEG的解码性能,仅使用两个滑动窗口(W=2)比不加滑动窗口(W=1)在MI⁃EEG解码准确度提升4%以上,同时设置一个合适的滑动数量,进一步提升解码准确度,在本次实验中,当W=17时,解码准确度最高.

图5

图5   滑动窗口数量对解码准确度的影响

Fig.5   Effect of the number of sliding windows on decoding accuracy


2.3.2 MPS中点积数量对解码性能的影响Informer15在利用点积对去产生注意力机制的过程中,并非所有的点积对都能够产生有效的注意力机制.使用不同的点积数量对MI⁃EEG进行解码,在W=1 (Tw=20)和W=5 (Tw=16)的情况下,MN的取值分别为1,2,3,4,5,6,7

1,2,3,4,5,6.

表2为在W=1W=5的情况下,使用不同的点积数量对MI⁃EEG解码准确度的影响.由表可见,使用更多的点积对并没有对解码性能产生有效的影响,甚至还会有损解码性能.并且使用更少的点积对可以在一定程度上缓解内存的计算负担,因此使用MPS更适合对长时间序列的脑电信号进行解码.

表2   点积数量对解码准确度的影响

Table 2  Effect of the number of dot product on decoding accuracy

WM/NS1/S2Accuracy
11379.12%
2679.58%
3979.43%
41279.01%
51579.19%
61878.63%
72078.56%
51386.98%
2686.86%
3986.94%
41286.94%
51486.30%
61686.50%

新窗口打开| 下载CSV


2.3.3 SIE对解码性能的影响

SIE的提出是为了解决使用点积对产生注意力机制的解码方法在时序问题上具有较弱的空间信息表征能力的问题.SIE在网络结构上仅有一个卷积,但是对MI⁃EEG的解码性能具有非常明显的效果,同时,仅增加一个卷积不会对网络的参数量和内存的浮点运算造成太大的影响.为了验证增加SIE是否能够影响MI⁃EEG的解码,进行以下的实验:

(1)在ATCNet的基础上加上SIE来对MI⁃EEG测试,记为ATCNet+SIE;

(2)在MMFTSF的基础上减去SIE来对MI⁃EEG进行测试,记为MMFTSF⁃SIE.

表3展示了不同方法的解码准确度,由表可见,在ATCNet的基础上加上SIE模型,准确度可提升1.68%,同时SIE对所提解码方法有1.07%的提升,证明增加SIE模块能够有效地提升MI⁃EEG的解码准确度.

表3   SIE对解码准确度的影响

Table 3  Effect of SIE on decoding accuracy

MethodAccuracy
ATCNet85.48%
ATCNet+SIE87.16%
MMFTSF⁃SIE87.96%
MMFTSF89.03%

新窗口打开| 下载CSV


3 与其他方法的实验对比

为了验证MMFTSF对MI⁃EEG解码的高效性,选用近年以深度学习为框架对BCI IV⁃2a解码的现有技术与本次实验进行对照,实验数据如表4所示,表中黑体字表示结果最优.表4中数据并非原论文对BCI IV⁃2a数据集的解码准确度,而是通过论文中所提出的解码方法在本实验环境下所取得的准确度,即不改变现有技术中解码方法中的超参数,使用本次实验的预处理和训练过程得到的结果.由表可见,MMFTSF在MI⁃EEG解码中已经明显优于现有技术,并且每个受试者的解码准确度都有增强,和ATCNet相比,对受试者A01,A02,A04,A06,A08,A09的解码准确度能提升4%以上,也具有更强的泛化性.

表4   与其他已复现方法的解码准确度比较

Table 4  Decoding accuracy comparison with other reproduced methods

EEGNetEEG⁃TCNetATCNetMMFTSF
A0184.34%86.48%88.97%93.24%
A0259.36%70.32%76.33%80.57%
A0391.94%95.24%96.34%97.44%
A0460.53%71.93%84.21%89.04%
A0573.91%78.62%81.52%84.78%
A0659.07%66.05%72.09%76.28%
A0790.61%93.14%95.67%96.75%
A0882.66%83.76%85.98%90.04%
A0978.79%86.74%88.26%93.18%
平均值75.69%81.36%85.48%89.03%

新窗口打开| 下载CSV


图6为MMFTSF在受试者A01,A03,A07,A09测试集上所体现的混淆矩阵.与ATCNet,EEG⁃TCNet和EEGNet相比,MMFTSF在受试者上解码性能最优,解码准确度分别提升3.55%,7.67%和13.34%.图7为MMFTSF对数据集的混淆矩阵,图8~10分别为ATCNet,EEG⁃TCNet和EEGNet对数据集的混淆矩阵,对比不同方法的混淆矩阵.可以看出,MMFTSF对每种运动想象类别具有更高的解码性能,并且更具有鲁棒性.从单个和整体受试者的解码准确度和每种运动想象的解码性能角度上分析,MMFTSF的解码准确度优于现有技术.

图6

图6   A01, A03, A07和A09受试者的混淆矩阵

Fig.6   Confusion matrix for subjects A01, A03, A07 and A09


图7

图7   MMFTSF对BCI IV⁃2a的平均混淆矩阵

Fig.7   Average confusion matrices of MMFTSF for BCI IV⁃2a


图8

图8   ATCNet对BCI IV⁃2a的平均混淆矩阵

Fig.8   Average confusion matrices of ATCNet for BCI IV⁃2a


图9

图9   EEG⁃TCNet对BCI IV⁃2a的平均混淆矩阵

Fig.9   Average confusion matrices of EEG⁃TCNet for BCI IV⁃2a


图10

图10   EEGNet对BCI IV⁃2a的平均混淆矩阵

Fig.10   Average confusion matrices of EEGNet for BCI IV⁃2a


为了进一步说明MMFTSF具有更高的解码性能,表5展示了不同方法对BCI IV⁃2a数据集的解码准确度,由表可见,MMFTSF具有更高的解码准确度.在MI⁃EEG解码任务中,G⁃CRAM以图的卷积递归注意模型作为解码方法;MCNN是使用多层CNN融合的解码方法;MSFBCNN是一种嵌入Inception的并行多尺度滤波器组CNN解码方法;EEG⁃ITNet先使用Inception并行处理,再通过TCNet进行特征提取的解码方法;MS⁃AMF是在多尺度融合CNN的基础上加入注意力机制SENet的解码方法;MBEEGSE是一种使用多分支CNN的解码方法,每个分支包含EEGNet和SENet注意力机制;TCACNet是一种使用时间注意力来识别与MI任务相关的时间片和空间注意力机制自适应地调整每个通道的权重系数的解码方法.上述网络中G⁃CRAM属于单一的图卷积网络模型,MCNN,MSFBCNN,EEG⁃ITNet,MS⁃AMF,MBEEGSE和TCACNet等是使用CNN及其变体(DCC)组成不同网络结构的解码方法,也属于单一模型,而MMFTSF是CNN,DCC和Informer融合的解码方法,以CNN为单位的时空卷积网络提取MI⁃EEG中浅层信息特征,使用Informer中多头概率稀疏自注意力机制使网络自适应地关注与MI任务相关频段的特征,使用CNN和DCC结合的TCN结构提取MI⁃EEG高维时间特征,同时使用基于卷积的滑动窗口和以CNN为单位的空间信息增强模块进一步提升MI⁃EEG解码准确度,是一种多模型融合的解码方法,多模型融合的解码方法能够提取MI⁃EEG不同维度的信息特征,进而提高解码准确度.

表5   不同方法对BCI IV⁃2a的解码准确度

Table 5  Decoding accuracy of different methods on BCI IV⁃2a

MethodAccuracy
G⁃CRAM[14]60.11%
MCNN[16]75.70%
MSFBCNN[17]75.80%
EEG⁃ITNet[10]76.74%
MS⁃AMF[18]79.90%
MBEEGSE[12]82.87%
TCACNet[19]86.80%
MMFTSF89.03%

新窗口打开| 下载CSV


4 结论

现有技术对MI⁃EEG低效的解码性能和对MI⁃EEG过度依赖预处理的方式限制了BCI的广泛发展,提出一个多模型融合的时空特征运动想象脑电解码方法.先通过TSCN,使用不同的卷积操作对MI⁃EEG的各个维度进行浅层特征提取,再使用MPS关注MI任务中最有价值的特征,再经过TCN来提取MI⁃EEG中的高级特征,最后使用带有softmax分类器的全连接层进行分类.同时使用基于卷积的滑动窗口和空间信息增强来提升解码性能.实验结果证明MMFTSF能够在BCI IV⁃2a数据集上达到89.03%的解码准确度,相比于ATCNet,EEG⁃TCNet和EEGNet,分别提升3.55%,7.67%和13.34%.此外,为了验证SW中滑动窗口的数量、MPS中点积数量对和使用SIE模块对MI⁃EEG解码性能的影响,通过大量实验证明,适当增加滑动窗口的数量能够大幅度地提升解码性能,只需较少的点积数量对就能实现较好的解码性能和增加SIE模块能够提升解码准确度.同时,只对MI⁃EEG做数值上的简单预处理,选择所有实验数据,因此,本实验过程并没有使用过多的专家知识.通过上述实验数据,说明MMFTSF优于现有技术,能够对BCI的应用做出一定贡献.然而,多模型融合网络结构虽然比单一模型的解码性能更有优势,但是,多模型融合会带来计算复杂度,造成推理时间过长的问题,因此在之后的工作中,会利用知识蒸馏的方法,设计一个多模型轻量化网络来对MI⁃EEG进行解码.

参考文献

Ahmed IJeon GPiccialli F.

From artificial intelligence to explainable artificial intelligence in industry 4.0:A survey on what,how,and where

IEEE Transactions on Industrial Informatics,202218(8):5031-5042.

[本文引用: 1]

Ang K KChin Z YWang C Cet al.

Filter bank common spatial pattern algorithm on BCI competition IV datasets 2a and 2b

Frontiers in Neuroscience,2012639.

[本文引用: 2]

Delorme ASejnowski TMakeig S.

Enhanced detection of artifacts in EEG data using higher⁃order statistics and independent component analysis

NeuroImage,200734(4):1443-1449.

[本文引用: 2]

Kousarrizi M R NGhanbari A ATeshnehlab Met al.

Feature extraction and classification of EEG signals using wavelet transform,SVM and artificial neural networks for brain computer interfaces

2009 International Joint Conference on Bioinformatics,Systems Biology and Intelligent Computing. Shanghai,ChinaIEEE2009352-355.

[本文引用: 2]

Lawhern V JSolon A JWaytowich N Ret al.

EEGNet:A compact convolutional neural network for EEG⁃based brain⁃computer interfaces

Journal of Neural Engineering,201815(5):056013.

[本文引用: 2]

Bai S JKolter J ZKoltun V.

An empirical evaluation of generic convolutional and recurrent networks for sequence modeling

2018,arXiv:.

[本文引用: 2]

Ingolfsson T MHersche MWang X Yet al.

EEG⁃TCNet:An accurate temporal convolutional network for embedded motor⁃imagery brain⁃machine interfaces

2020 IEEE International Conference on Systems,Man,and Cybernetics (SMC). Toronto,CanadaIEEE20202958-2965.

[本文引用: 2]

Vaswani AShazeer NParmar Net al.

Attention is all you need

Proceedings of the 31st International Conference on Neural Information Processing Systems. Red Hook,NY,USACurran Associates Inc.20176000-6010.

[本文引用: 2]

Altaheri HMuhammad GAlsulaiman M.

Physics⁃informed attention temporal convolutional network for EEG⁃based motor imagery classification

IEEE Transactions on Industrial Informatics,202319(2):2249-2258.

[本文引用: 2]

Salami AAndreu⁃Perez JGillmeister H.

EEG⁃ITNet:An explainable inception temporal convolutional network for motor imagery classification

IEEE Access,20221036672-36685.

[本文引用: 2]

Szegedy CLiu WJia Y Qet al.

Going deeper with convolutions

2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston,MA,USAIEEE20151-9.

[本文引用: 1]

Altuwaijri G AMuhammad GAltaheri Het al.

A multi⁃branch convolutional neural network with squeeze⁃and⁃excitation attention blocks for EEG⁃based motor imagery signals classification

Diagnostics,202212(4):995.

[本文引用: 2]

Hu JShen LSun G.

Squeeze⁃and⁃excitation networks

2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City,UT,USAIEEE20187132-7141.

[本文引用: 1]

Zhang D LChen K XJian D Bet al.

Motor imagery classification via temporal attention cues of graph embedded EEG signals

IEEE Journal of Biomedical and Health Informatics,202024(9):2570-2579.

[本文引用: 2]

Zhou H YZhang S HPeng J Qet al.

Informer:Beyond efficient transformer for long sequence time⁃series forecasting

Proceedings of the AAAI Conference on Artificial Intelligence. Vancouver, CanadaAAAI Press202135(12):11106-11115.

[本文引用: 2]

Amin S UAlsulaiman MMuhammad Get al.

Deep learning for EEG motor imagery classification based on multi⁃layer CNNs feature fusion

Future Generation Computer Systems,2019101542-554.

[本文引用: 1]

Wu HNiu YLi Fet al.

A parallel multiscale filter bank convolutional neural networks for motor imagery EEG classification

Frontiers in Neuroscience,2019131275.

[本文引用: 1]

Li D LXu J CWang J Het al.

A multi⁃scale fusion convolutional neural network based on attention mechanism for the visualization analysis of EEG signals decoding

IEEE Transactions on Neural Systems and Rehabilitation Engineering,202028(12):2615-2626.

[本文引用: 1]

Liu X LShi R YHui Q Xet al.

TCACNet:Temporal and channel attention convolutional network for motor imagery classification of EEG⁃based BCI

Information Processing & Management,202259(5):103001.

[本文引用: 1]

/