脑电图(Electroencephalography,EEG)可记录来自大脑皮层的电信息,反映了脑活动中神经细胞放电产生的电场变化情况.EEG的空间信息和时间信息对于运动想象脑电(Motor Imagery Electroencephalogram,MI⁃EEG)解码分类模型学习判别特征至关重要,但过度依赖预处理和手工特征提取,导致对EEG数据进行信号分类较为困难.尽管深度学习已经在很多领域实现了自动特征提取,但脑电图的深度学习尚未完成.提出基于FBCSP (Filter Bank Common Spatial Patterns)和Transformer模型的时空特征学习的运动想象脑电解码方法.针对FBCSP滤波的脑电信号,依次通过空间维度和时间维度上的注意力转换来获取空间和时间特征,然后通过Softmax函数对不同类别的EEG数据进行分类.实验结果表明,在BCI竞赛数据集IV⁃2a上,该方法的分类准确率可达84.16%,为MI脑电信号分类提供了新思路.
关键词:运动想象
;
脑电图(EEG)
;
注意力
;
Transformer模型
Abstract
Electroencephalography (EEG) is used to record electrical information from the cerebral cortex,which reflects changes in the electric field producced by the firing of nerve cells during brain activity. The spatial and temporal information of the EEG is crucial for the Motor Imagery Electroencephalogram (MI⁃EEG) decoding and classification model to learn discriminative features. Researchers' over⁃reliance on preprocessing and manual feature extraction makes it difficult to classify signals from EEG data. Although automatic feature extraction has been achieved in several other fields using deep learning,deep learning for EEG is not yet completed. In this paper,a motor imagery EEG decoding method based on FBCSP (Filter Bank Common Spatial Patterns) and Transformer model for temporal⁃spatial features learning is proposed. For the EEG signals filtered by FBCSP,the spatial and temporal features are obtained through attention transformation in the spatial dimension and the temporal dimension in turn. Then,different categories of EEG data are classified by Softmax function. Experimental results show that the classification accuracy of the proposed method reaches 84.16% on the BCI competition IV⁃2a dataset,which provides a new idea for MI⁃EEG classification.
Keywords:motor imagery
;
Electroencephalogram (EEG)
;
attention
;
Transformer model
Song Yaolian, Yin Xizhe, Yang Jun. Transformer based on temporal⁃spatial feature learning for motor imagery electroencephalogram signal decoding. Journal of nanjing University[J], 2023, 59(2): 313-321 doi:10.13232/j.cnki.jnju.2023.02.014
运动想象脑电图(Motor Imagery Electroencephalogram,MI⁃EEG)是一种无须外部刺激且能自我调节的脑电图,可以通过电极检测,但如何从大脑活动中解释运动意图是BCI的主要难点.在之前的研究中发现,高效的神经解码算法可以显著提高解码精度,从而提高BCI的性能,而脑电信号的低信噪比是导致其分类精度较低的主要原因.因此,从预处理的脑电信号中提取特征来区分不同动作的脑电信号是BCI技术中最重要的部分,即脑电信号的特征提取与分类[2].已经证明,传统的机器学习方法在脑电信号分类中效果良好,如共空间模式(Common Spatial Patterns,CSP)、滤波器组共空间模式(Filter Bank Common Spatial Patterns,FBCSP)和支持向量机[3]等.但是,MI⁃EEG信号具有低信噪比、时变和个体差异大的特点,传统的机器学习方法有一定的局限性,而且在特征提取上很大程度依赖人工设计的特征,需要大量的先验知识.
为了克服传统方法的缺点,许多基于深度学习的分类方法[4]被提出,现在BCI范式已拥有各种不同构架的深度学习网络模型[5],如卷积神经网络(Convolutional Neural Networks,CNN)[6]、循环神经网络(Recurrent Neural Network,RNN)[7]、长短期记忆(Long Short⁃Term Memory,LSTM)[8]或它们的组合方法.然而,上述方法仍然存在一些限制,阻碍了高性能BCI的构建.如CNN的性能依赖每一层卷积核的选择,大的卷积核会阻碍深层CNN的利用率,而小的卷积核则限制了CNN的感受野[9],如果没有足够深的结构,很难感知信号内部广泛的关系,会产生大量的计算.Socher et al[10]提出基于RNN的EEG信号分析方法,取得了优越的效果,LSTM也被用来进行EEG信号分析[11].但这些方法不足以处理更多的扩展数据,如RNN只作用于先前的记忆和当前的状态,LSTM虽然能捕获长距离依赖信息,但无法并行计算,CNN虽然能并行计算,但无法捕获长距离依赖信息,需要通过层叠或者扩张卷积核来增大感受野.Vaswani et al[12]提出Transformer网络,在NLP (Natural Language Processing)的序列建模能力上引起飞跃,已被引入翻译、图像生成等领域.与CNN,RNN和LSTM相比,Transformer模型中的注意力机制不仅在长序列特征相关性计算和模型可视化与可解释性方面优于其他模型,而且在处理长期依赖关系方面表现了更优越的性能.最近,基于Transformer的模型也被应用于不同的EEG任务.Sun et al[13]将Transformer与CNN相结合来提高MI⁃EGG的分类准确性.Pedoeem et al[14]构建了卷积层、全连接层和用于癫痫检测的Transformer的混合架构.Guo et al[15]提出一种具有深度卷积和Transformer编码器的新型神经网络模型,它探索情绪识别对每个EEG通道的依赖性,通过可视化获取的特征来进行基于EEG的情绪识别.长期依赖关系是时间序列的重要特征,所以Transformer模型是一个很好的序列数据识别模型.
CSP算法是常用的对EEG信号进行空间滤波的方法,在EEG信号的分类识别中应用广泛[17].CSP算法的主要目的是设计空间滤波器,将原始多维数据投影到低维空间,使滤波处理后两类数据之间的方差最大化[18].FBCSP算法是CSP算法的进一步扩展,能有效提取不同频带的特征.由于传统的FBCSP只适用于二分类,本文使用一对多(One Vs Rest,OVR)的分类策略来处理多分类的任务,将多类任务中的每一类都分别与其他类区分.基于FBCSP的空间滤波过程如下.
全连接前馈神经网络是对多头注意力层的输出结果进行两次线性变换和一次Gelu (Gaussian Error Linear Units)激活操作.MHA和前向反馈子层都包含一个残差链接结构,然后再做一个规范化操作作为子层的最终输出.该模型的MHA和全连接前馈模块重复三次,以获得更好的效果.为了让模型利用脑电采样之间的序列关系,即位置信息,在压缩和切片之前,利用卷积层对脑电采样之间的序列进行编码,卷积层的内核大小设为51,步长设为1.
2.3 分类输出模块
采用全局平均池化层(Global Average Pooling,GAP)来代替卷积神经网络中传统的全连接层.GAP层通过平均池化操作将时间模块输出的每个特征向量的平均值映射到一个类别标签或输出节点,连接到一个完全连接层,最后使用Softmax函数获得预测概率.
为了评估该模型在运动想象的四种分类任务上的性能,在BCI竞赛IV⁃2a公开数据集上进行对比实验,选用一些经典或前沿的基于深度学习的方法.如经典的基于深度可分离卷积构建的EEGNet网络[20],它设计了一种紧凑实用的具有深度和可分离卷积的CNN网络;一些前沿的网络模型包括Sakhavi et al[21]的C2CM,引入CSP的时态表示并利用CNN体系结构进行分类;Chen et al[22]提出滤波器组时空卷积网络FBSF⁃TSCNN,FBSF提供了仍有时间表示的中间脑电信号,并利用TSCNN对中间EEG信号进行解码;Song et al[2]提出基于时空微型的Transformer (S3T)模型,是依靠注意力机制感知脑电信号的空间和时间特征的脑电解码方法.表1给出了本文方法与这些方法的对比实验结果,这些方法的参数和实验结果均来自文献.
Table 1
表1
表1本文方法与其他方法测试不同受试者的正确率与Kappa系数
Table 1 Accuracy and Kappa coefficient of our method and other methods for different subjects
Predicting polarities of tweets by composing word embeddings with long short⁃term memory
∥Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1:Long Papers). Beijing,China:ACL,2015:1343-1353.
Transformer?based spatial?temporal feature learning for EEG decoding
3
2021
... 运动想象脑电图(Motor Imagery Electroencephalogram,MI⁃EEG)是一种无须外部刺激且能自我调节的脑电图,可以通过电极检测,但如何从大脑活动中解释运动意图是BCI的主要难点.在之前的研究中发现,高效的神经解码算法可以显著提高解码精度,从而提高BCI的性能,而脑电信号的低信噪比是导致其分类精度较低的主要原因.因此,从预处理的脑电信号中提取特征来区分不同动作的脑电信号是BCI技术中最重要的部分,即脑电信号的特征提取与分类[2].已经证明,传统的机器学习方法在脑电信号分类中效果良好,如共空间模式(Common Spatial Patterns,CSP)、滤波器组共空间模式(Filter Bank Common Spatial Patterns,FBCSP)和支持向量机[3]等.但是,MI⁃EEG信号具有低信噪比、时变和个体差异大的特点,传统的机器学习方法有一定的局限性,而且在特征提取上很大程度依赖人工设计的特征,需要大量的先验知识. ...
... 为了评估该模型在运动想象的四种分类任务上的性能,在BCI竞赛IV⁃2a公开数据集上进行对比实验,选用一些经典或前沿的基于深度学习的方法.如经典的基于深度可分离卷积构建的EEGNet网络[20],它设计了一种紧凑实用的具有深度和可分离卷积的CNN网络;一些前沿的网络模型包括Sakhavi et al[21]的C2CM,引入CSP的时态表示并利用CNN体系结构进行分类;Chen et al[22]提出滤波器组时空卷积网络FBSF⁃TSCNN,FBSF提供了仍有时间表示的中间脑电信号,并利用TSCNN对中间EEG信号进行解码;Song et al[2]提出基于时空微型的Transformer (S3T)模型,是依靠注意力机制感知脑电信号的空间和时间特征的脑电解码方法.表1给出了本文方法与这些方法的对比实验结果,这些方法的参数和实验结果均来自文献. ...
... Accuracy and Kappa coefficient of our method and other methods for different subjectsTable 1
... 运动想象脑电图(Motor Imagery Electroencephalogram,MI⁃EEG)是一种无须外部刺激且能自我调节的脑电图,可以通过电极检测,但如何从大脑活动中解释运动意图是BCI的主要难点.在之前的研究中发现,高效的神经解码算法可以显著提高解码精度,从而提高BCI的性能,而脑电信号的低信噪比是导致其分类精度较低的主要原因.因此,从预处理的脑电信号中提取特征来区分不同动作的脑电信号是BCI技术中最重要的部分,即脑电信号的特征提取与分类[2].已经证明,传统的机器学习方法在脑电信号分类中效果良好,如共空间模式(Common Spatial Patterns,CSP)、滤波器组共空间模式(Filter Bank Common Spatial Patterns,FBCSP)和支持向量机[3]等.但是,MI⁃EEG信号具有低信噪比、时变和个体差异大的特点,传统的机器学习方法有一定的局限性,而且在特征提取上很大程度依赖人工设计的特征,需要大量的先验知识. ...
Sentiment analysis of micro?blog based on SVM and CRF using various combinations of features
1
2015
... 运动想象脑电图(Motor Imagery Electroencephalogram,MI⁃EEG)是一种无须外部刺激且能自我调节的脑电图,可以通过电极检测,但如何从大脑活动中解释运动意图是BCI的主要难点.在之前的研究中发现,高效的神经解码算法可以显著提高解码精度,从而提高BCI的性能,而脑电信号的低信噪比是导致其分类精度较低的主要原因.因此,从预处理的脑电信号中提取特征来区分不同动作的脑电信号是BCI技术中最重要的部分,即脑电信号的特征提取与分类[2].已经证明,传统的机器学习方法在脑电信号分类中效果良好,如共空间模式(Common Spatial Patterns,CSP)、滤波器组共空间模式(Filter Bank Common Spatial Patterns,FBCSP)和支持向量机[3]等.但是,MI⁃EEG信号具有低信噪比、时变和个体差异大的特点,传统的机器学习方法有一定的局限性,而且在特征提取上很大程度依赖人工设计的特征,需要大量的先验知识. ...
Deep CNN model based on serial?parallel structure optimization for four?class motor imagery EEG classification
2
2022
... 为了克服传统方法的缺点,许多基于深度学习的分类方法[4]被提出,现在BCI范式已拥有各种不同构架的深度学习网络模型[5],如卷积神经网络(Convolutional Neural Networks,CNN)[6]、循环神经网络(Recurrent Neural Network,RNN)[7]、长短期记忆(Long Short⁃Term Memory,LSTM)[8]或它们的组合方法.然而,上述方法仍然存在一些限制,阻碍了高性能BCI的构建.如CNN的性能依赖每一层卷积核的选择,大的卷积核会阻碍深层CNN的利用率,而小的卷积核则限制了CNN的感受野[9],如果没有足够深的结构,很难感知信号内部广泛的关系,会产生大量的计算.Socher et al[10]提出基于RNN的EEG信号分析方法,取得了优越的效果,LSTM也被用来进行EEG信号分析[11].但这些方法不足以处理更多的扩展数据,如RNN只作用于先前的记忆和当前的状态,LSTM虽然能捕获长距离依赖信息,但无法并行计算,CNN虽然能并行计算,但无法捕获长距离依赖信息,需要通过层叠或者扩张卷积核来增大感受野.Vaswani et al[12]提出Transformer网络,在NLP (Natural Language Processing)的序列建模能力上引起飞跃,已被引入翻译、图像生成等领域.与CNN,RNN和LSTM相比,Transformer模型中的注意力机制不仅在长序列特征相关性计算和模型可视化与可解释性方面优于其他模型,而且在处理长期依赖关系方面表现了更优越的性能.最近,基于Transformer的模型也被应用于不同的EEG任务.Sun et al[13]将Transformer与CNN相结合来提高MI⁃EGG的分类准确性.Pedoeem et al[14]构建了卷积层、全连接层和用于癫痫检测的Transformer的混合架构.Guo et al[15]提出一种具有深度卷积和Transformer编码器的新型神经网络模型,它探索情绪识别对每个EEG通道的依赖性,通过可视化获取的特征来进行基于EEG的情绪识别.长期依赖关系是时间序列的重要特征,所以Transformer模型是一个很好的序列数据识别模型. ...
Motor imagery EEG classification algorithm based on CNN?STM feature fusion network
1
2022
... 为了克服传统方法的缺点,许多基于深度学习的分类方法[4]被提出,现在BCI范式已拥有各种不同构架的深度学习网络模型[5],如卷积神经网络(Convolutional Neural Networks,CNN)[6]、循环神经网络(Recurrent Neural Network,RNN)[7]、长短期记忆(Long Short⁃Term Memory,LSTM)[8]或它们的组合方法.然而,上述方法仍然存在一些限制,阻碍了高性能BCI的构建.如CNN的性能依赖每一层卷积核的选择,大的卷积核会阻碍深层CNN的利用率,而小的卷积核则限制了CNN的感受野[9],如果没有足够深的结构,很难感知信号内部广泛的关系,会产生大量的计算.Socher et al[10]提出基于RNN的EEG信号分析方法,取得了优越的效果,LSTM也被用来进行EEG信号分析[11].但这些方法不足以处理更多的扩展数据,如RNN只作用于先前的记忆和当前的状态,LSTM虽然能捕获长距离依赖信息,但无法并行计算,CNN虽然能并行计算,但无法捕获长距离依赖信息,需要通过层叠或者扩张卷积核来增大感受野.Vaswani et al[12]提出Transformer网络,在NLP (Natural Language Processing)的序列建模能力上引起飞跃,已被引入翻译、图像生成等领域.与CNN,RNN和LSTM相比,Transformer模型中的注意力机制不仅在长序列特征相关性计算和模型可视化与可解释性方面优于其他模型,而且在处理长期依赖关系方面表现了更优越的性能.最近,基于Transformer的模型也被应用于不同的EEG任务.Sun et al[13]将Transformer与CNN相结合来提高MI⁃EGG的分类准确性.Pedoeem et al[14]构建了卷积层、全连接层和用于癫痫检测的Transformer的混合架构.Guo et al[15]提出一种具有深度卷积和Transformer编码器的新型神经网络模型,它探索情绪识别对每个EEG通道的依赖性,通过可视化获取的特征来进行基于EEG的情绪识别.长期依赖关系是时间序列的重要特征,所以Transformer模型是一个很好的序列数据识别模型. ...
Single?trial EEG classifi?cation of motor imagery using deep convolutional neural networks
1
2017
... 为了克服传统方法的缺点,许多基于深度学习的分类方法[4]被提出,现在BCI范式已拥有各种不同构架的深度学习网络模型[5],如卷积神经网络(Convolutional Neural Networks,CNN)[6]、循环神经网络(Recurrent Neural Network,RNN)[7]、长短期记忆(Long Short⁃Term Memory,LSTM)[8]或它们的组合方法.然而,上述方法仍然存在一些限制,阻碍了高性能BCI的构建.如CNN的性能依赖每一层卷积核的选择,大的卷积核会阻碍深层CNN的利用率,而小的卷积核则限制了CNN的感受野[9],如果没有足够深的结构,很难感知信号内部广泛的关系,会产生大量的计算.Socher et al[10]提出基于RNN的EEG信号分析方法,取得了优越的效果,LSTM也被用来进行EEG信号分析[11].但这些方法不足以处理更多的扩展数据,如RNN只作用于先前的记忆和当前的状态,LSTM虽然能捕获长距离依赖信息,但无法并行计算,CNN虽然能并行计算,但无法捕获长距离依赖信息,需要通过层叠或者扩张卷积核来增大感受野.Vaswani et al[12]提出Transformer网络,在NLP (Natural Language Processing)的序列建模能力上引起飞跃,已被引入翻译、图像生成等领域.与CNN,RNN和LSTM相比,Transformer模型中的注意力机制不仅在长序列特征相关性计算和模型可视化与可解释性方面优于其他模型,而且在处理长期依赖关系方面表现了更优越的性能.最近,基于Transformer的模型也被应用于不同的EEG任务.Sun et al[13]将Transformer与CNN相结合来提高MI⁃EGG的分类准确性.Pedoeem et al[14]构建了卷积层、全连接层和用于癫痫检测的Transformer的混合架构.Guo et al[15]提出一种具有深度卷积和Transformer编码器的新型神经网络模型,它探索情绪识别对每个EEG通道的依赖性,通过可视化获取的特征来进行基于EEG的情绪识别.长期依赖关系是时间序列的重要特征,所以Transformer模型是一个很好的序列数据识别模型. ...
Recurrent neural networks employing Lyapunov exponents for EEG signals classification
1
2005
... 为了克服传统方法的缺点,许多基于深度学习的分类方法[4]被提出,现在BCI范式已拥有各种不同构架的深度学习网络模型[5],如卷积神经网络(Convolutional Neural Networks,CNN)[6]、循环神经网络(Recurrent Neural Network,RNN)[7]、长短期记忆(Long Short⁃Term Memory,LSTM)[8]或它们的组合方法.然而,上述方法仍然存在一些限制,阻碍了高性能BCI的构建.如CNN的性能依赖每一层卷积核的选择,大的卷积核会阻碍深层CNN的利用率,而小的卷积核则限制了CNN的感受野[9],如果没有足够深的结构,很难感知信号内部广泛的关系,会产生大量的计算.Socher et al[10]提出基于RNN的EEG信号分析方法,取得了优越的效果,LSTM也被用来进行EEG信号分析[11].但这些方法不足以处理更多的扩展数据,如RNN只作用于先前的记忆和当前的状态,LSTM虽然能捕获长距离依赖信息,但无法并行计算,CNN虽然能并行计算,但无法捕获长距离依赖信息,需要通过层叠或者扩张卷积核来增大感受野.Vaswani et al[12]提出Transformer网络,在NLP (Natural Language Processing)的序列建模能力上引起飞跃,已被引入翻译、图像生成等领域.与CNN,RNN和LSTM相比,Transformer模型中的注意力机制不仅在长序列特征相关性计算和模型可视化与可解释性方面优于其他模型,而且在处理长期依赖关系方面表现了更优越的性能.最近,基于Transformer的模型也被应用于不同的EEG任务.Sun et al[13]将Transformer与CNN相结合来提高MI⁃EGG的分类准确性.Pedoeem et al[14]构建了卷积层、全连接层和用于癫痫检测的Transformer的混合架构.Guo et al[15]提出一种具有深度卷积和Transformer编码器的新型神经网络模型,它探索情绪识别对每个EEG通道的依赖性,通过可视化获取的特征来进行基于EEG的情绪识别.长期依赖关系是时间序列的重要特征,所以Transformer模型是一个很好的序列数据识别模型. ...
Emotion recognition based on EEG using LSTM recurrent neural network
1
2017
... 为了克服传统方法的缺点,许多基于深度学习的分类方法[4]被提出,现在BCI范式已拥有各种不同构架的深度学习网络模型[5],如卷积神经网络(Convolutional Neural Networks,CNN)[6]、循环神经网络(Recurrent Neural Network,RNN)[7]、长短期记忆(Long Short⁃Term Memory,LSTM)[8]或它们的组合方法.然而,上述方法仍然存在一些限制,阻碍了高性能BCI的构建.如CNN的性能依赖每一层卷积核的选择,大的卷积核会阻碍深层CNN的利用率,而小的卷积核则限制了CNN的感受野[9],如果没有足够深的结构,很难感知信号内部广泛的关系,会产生大量的计算.Socher et al[10]提出基于RNN的EEG信号分析方法,取得了优越的效果,LSTM也被用来进行EEG信号分析[11].但这些方法不足以处理更多的扩展数据,如RNN只作用于先前的记忆和当前的状态,LSTM虽然能捕获长距离依赖信息,但无法并行计算,CNN虽然能并行计算,但无法捕获长距离依赖信息,需要通过层叠或者扩张卷积核来增大感受野.Vaswani et al[12]提出Transformer网络,在NLP (Natural Language Processing)的序列建模能力上引起飞跃,已被引入翻译、图像生成等领域.与CNN,RNN和LSTM相比,Transformer模型中的注意力机制不仅在长序列特征相关性计算和模型可视化与可解释性方面优于其他模型,而且在处理长期依赖关系方面表现了更优越的性能.最近,基于Transformer的模型也被应用于不同的EEG任务.Sun et al[13]将Transformer与CNN相结合来提高MI⁃EGG的分类准确性.Pedoeem et al[14]构建了卷积层、全连接层和用于癫痫检测的Transformer的混合架构.Guo et al[15]提出一种具有深度卷积和Transformer编码器的新型神经网络模型,它探索情绪识别对每个EEG通道的依赖性,通过可视化获取的特征来进行基于EEG的情绪识别.长期依赖关系是时间序列的重要特征,所以Transformer模型是一个很好的序列数据识别模型. ...
HSI?BERT:Hyperspectral image classification using the bidirectional encoder representation from transformers
1
2020
... 为了克服传统方法的缺点,许多基于深度学习的分类方法[4]被提出,现在BCI范式已拥有各种不同构架的深度学习网络模型[5],如卷积神经网络(Convolutional Neural Networks,CNN)[6]、循环神经网络(Recurrent Neural Network,RNN)[7]、长短期记忆(Long Short⁃Term Memory,LSTM)[8]或它们的组合方法.然而,上述方法仍然存在一些限制,阻碍了高性能BCI的构建.如CNN的性能依赖每一层卷积核的选择,大的卷积核会阻碍深层CNN的利用率,而小的卷积核则限制了CNN的感受野[9],如果没有足够深的结构,很难感知信号内部广泛的关系,会产生大量的计算.Socher et al[10]提出基于RNN的EEG信号分析方法,取得了优越的效果,LSTM也被用来进行EEG信号分析[11].但这些方法不足以处理更多的扩展数据,如RNN只作用于先前的记忆和当前的状态,LSTM虽然能捕获长距离依赖信息,但无法并行计算,CNN虽然能并行计算,但无法捕获长距离依赖信息,需要通过层叠或者扩张卷积核来增大感受野.Vaswani et al[12]提出Transformer网络,在NLP (Natural Language Processing)的序列建模能力上引起飞跃,已被引入翻译、图像生成等领域.与CNN,RNN和LSTM相比,Transformer模型中的注意力机制不仅在长序列特征相关性计算和模型可视化与可解释性方面优于其他模型,而且在处理长期依赖关系方面表现了更优越的性能.最近,基于Transformer的模型也被应用于不同的EEG任务.Sun et al[13]将Transformer与CNN相结合来提高MI⁃EGG的分类准确性.Pedoeem et al[14]构建了卷积层、全连接层和用于癫痫检测的Transformer的混合架构.Guo et al[15]提出一种具有深度卷积和Transformer编码器的新型神经网络模型,它探索情绪识别对每个EEG通道的依赖性,通过可视化获取的特征来进行基于EEG的情绪识别.长期依赖关系是时间序列的重要特征,所以Transformer模型是一个很好的序列数据识别模型. ...
Semi?supervised recursive autoencoders for predicting sentiment distributions
1
2011
... 为了克服传统方法的缺点,许多基于深度学习的分类方法[4]被提出,现在BCI范式已拥有各种不同构架的深度学习网络模型[5],如卷积神经网络(Convolutional Neural Networks,CNN)[6]、循环神经网络(Recurrent Neural Network,RNN)[7]、长短期记忆(Long Short⁃Term Memory,LSTM)[8]或它们的组合方法.然而,上述方法仍然存在一些限制,阻碍了高性能BCI的构建.如CNN的性能依赖每一层卷积核的选择,大的卷积核会阻碍深层CNN的利用率,而小的卷积核则限制了CNN的感受野[9],如果没有足够深的结构,很难感知信号内部广泛的关系,会产生大量的计算.Socher et al[10]提出基于RNN的EEG信号分析方法,取得了优越的效果,LSTM也被用来进行EEG信号分析[11].但这些方法不足以处理更多的扩展数据,如RNN只作用于先前的记忆和当前的状态,LSTM虽然能捕获长距离依赖信息,但无法并行计算,CNN虽然能并行计算,但无法捕获长距离依赖信息,需要通过层叠或者扩张卷积核来增大感受野.Vaswani et al[12]提出Transformer网络,在NLP (Natural Language Processing)的序列建模能力上引起飞跃,已被引入翻译、图像生成等领域.与CNN,RNN和LSTM相比,Transformer模型中的注意力机制不仅在长序列特征相关性计算和模型可视化与可解释性方面优于其他模型,而且在处理长期依赖关系方面表现了更优越的性能.最近,基于Transformer的模型也被应用于不同的EEG任务.Sun et al[13]将Transformer与CNN相结合来提高MI⁃EGG的分类准确性.Pedoeem et al[14]构建了卷积层、全连接层和用于癫痫检测的Transformer的混合架构.Guo et al[15]提出一种具有深度卷积和Transformer编码器的新型神经网络模型,它探索情绪识别对每个EEG通道的依赖性,通过可视化获取的特征来进行基于EEG的情绪识别.长期依赖关系是时间序列的重要特征,所以Transformer模型是一个很好的序列数据识别模型. ...
Predicting polarities of tweets by composing word embeddings with long short?term memory
1
2015
... 为了克服传统方法的缺点,许多基于深度学习的分类方法[4]被提出,现在BCI范式已拥有各种不同构架的深度学习网络模型[5],如卷积神经网络(Convolutional Neural Networks,CNN)[6]、循环神经网络(Recurrent Neural Network,RNN)[7]、长短期记忆(Long Short⁃Term Memory,LSTM)[8]或它们的组合方法.然而,上述方法仍然存在一些限制,阻碍了高性能BCI的构建.如CNN的性能依赖每一层卷积核的选择,大的卷积核会阻碍深层CNN的利用率,而小的卷积核则限制了CNN的感受野[9],如果没有足够深的结构,很难感知信号内部广泛的关系,会产生大量的计算.Socher et al[10]提出基于RNN的EEG信号分析方法,取得了优越的效果,LSTM也被用来进行EEG信号分析[11].但这些方法不足以处理更多的扩展数据,如RNN只作用于先前的记忆和当前的状态,LSTM虽然能捕获长距离依赖信息,但无法并行计算,CNN虽然能并行计算,但无法捕获长距离依赖信息,需要通过层叠或者扩张卷积核来增大感受野.Vaswani et al[12]提出Transformer网络,在NLP (Natural Language Processing)的序列建模能力上引起飞跃,已被引入翻译、图像生成等领域.与CNN,RNN和LSTM相比,Transformer模型中的注意力机制不仅在长序列特征相关性计算和模型可视化与可解释性方面优于其他模型,而且在处理长期依赖关系方面表现了更优越的性能.最近,基于Transformer的模型也被应用于不同的EEG任务.Sun et al[13]将Transformer与CNN相结合来提高MI⁃EGG的分类准确性.Pedoeem et al[14]构建了卷积层、全连接层和用于癫痫检测的Transformer的混合架构.Guo et al[15]提出一种具有深度卷积和Transformer编码器的新型神经网络模型,它探索情绪识别对每个EEG通道的依赖性,通过可视化获取的特征来进行基于EEG的情绪识别.长期依赖关系是时间序列的重要特征,所以Transformer模型是一个很好的序列数据识别模型. ...
Attention is all you need
2
2017
... 为了克服传统方法的缺点,许多基于深度学习的分类方法[4]被提出,现在BCI范式已拥有各种不同构架的深度学习网络模型[5],如卷积神经网络(Convolutional Neural Networks,CNN)[6]、循环神经网络(Recurrent Neural Network,RNN)[7]、长短期记忆(Long Short⁃Term Memory,LSTM)[8]或它们的组合方法.然而,上述方法仍然存在一些限制,阻碍了高性能BCI的构建.如CNN的性能依赖每一层卷积核的选择,大的卷积核会阻碍深层CNN的利用率,而小的卷积核则限制了CNN的感受野[9],如果没有足够深的结构,很难感知信号内部广泛的关系,会产生大量的计算.Socher et al[10]提出基于RNN的EEG信号分析方法,取得了优越的效果,LSTM也被用来进行EEG信号分析[11].但这些方法不足以处理更多的扩展数据,如RNN只作用于先前的记忆和当前的状态,LSTM虽然能捕获长距离依赖信息,但无法并行计算,CNN虽然能并行计算,但无法捕获长距离依赖信息,需要通过层叠或者扩张卷积核来增大感受野.Vaswani et al[12]提出Transformer网络,在NLP (Natural Language Processing)的序列建模能力上引起飞跃,已被引入翻译、图像生成等领域.与CNN,RNN和LSTM相比,Transformer模型中的注意力机制不仅在长序列特征相关性计算和模型可视化与可解释性方面优于其他模型,而且在处理长期依赖关系方面表现了更优越的性能.最近,基于Transformer的模型也被应用于不同的EEG任务.Sun et al[13]将Transformer与CNN相结合来提高MI⁃EGG的分类准确性.Pedoeem et al[14]构建了卷积层、全连接层和用于癫痫检测的Transformer的混合架构.Guo et al[15]提出一种具有深度卷积和Transformer编码器的新型神经网络模型,它探索情绪识别对每个EEG通道的依赖性,通过可视化获取的特征来进行基于EEG的情绪识别.长期依赖关系是时间序列的重要特征,所以Transformer模型是一个很好的序列数据识别模型. ...
... 为了克服传统方法的缺点,许多基于深度学习的分类方法[4]被提出,现在BCI范式已拥有各种不同构架的深度学习网络模型[5],如卷积神经网络(Convolutional Neural Networks,CNN)[6]、循环神经网络(Recurrent Neural Network,RNN)[7]、长短期记忆(Long Short⁃Term Memory,LSTM)[8]或它们的组合方法.然而,上述方法仍然存在一些限制,阻碍了高性能BCI的构建.如CNN的性能依赖每一层卷积核的选择,大的卷积核会阻碍深层CNN的利用率,而小的卷积核则限制了CNN的感受野[9],如果没有足够深的结构,很难感知信号内部广泛的关系,会产生大量的计算.Socher et al[10]提出基于RNN的EEG信号分析方法,取得了优越的效果,LSTM也被用来进行EEG信号分析[11].但这些方法不足以处理更多的扩展数据,如RNN只作用于先前的记忆和当前的状态,LSTM虽然能捕获长距离依赖信息,但无法并行计算,CNN虽然能并行计算,但无法捕获长距离依赖信息,需要通过层叠或者扩张卷积核来增大感受野.Vaswani et al[12]提出Transformer网络,在NLP (Natural Language Processing)的序列建模能力上引起飞跃,已被引入翻译、图像生成等领域.与CNN,RNN和LSTM相比,Transformer模型中的注意力机制不仅在长序列特征相关性计算和模型可视化与可解释性方面优于其他模型,而且在处理长期依赖关系方面表现了更优越的性能.最近,基于Transformer的模型也被应用于不同的EEG任务.Sun et al[13]将Transformer与CNN相结合来提高MI⁃EGG的分类准确性.Pedoeem et al[14]构建了卷积层、全连接层和用于癫痫检测的Transformer的混合架构.Guo et al[15]提出一种具有深度卷积和Transformer编码器的新型神经网络模型,它探索情绪识别对每个EEG通道的依赖性,通过可视化获取的特征来进行基于EEG的情绪识别.长期依赖关系是时间序列的重要特征,所以Transformer模型是一个很好的序列数据识别模型. ...
TABS:Transformer based seizure detection
1
2020
... 为了克服传统方法的缺点,许多基于深度学习的分类方法[4]被提出,现在BCI范式已拥有各种不同构架的深度学习网络模型[5],如卷积神经网络(Convolutional Neural Networks,CNN)[6]、循环神经网络(Recurrent Neural Network,RNN)[7]、长短期记忆(Long Short⁃Term Memory,LSTM)[8]或它们的组合方法.然而,上述方法仍然存在一些限制,阻碍了高性能BCI的构建.如CNN的性能依赖每一层卷积核的选择,大的卷积核会阻碍深层CNN的利用率,而小的卷积核则限制了CNN的感受野[9],如果没有足够深的结构,很难感知信号内部广泛的关系,会产生大量的计算.Socher et al[10]提出基于RNN的EEG信号分析方法,取得了优越的效果,LSTM也被用来进行EEG信号分析[11].但这些方法不足以处理更多的扩展数据,如RNN只作用于先前的记忆和当前的状态,LSTM虽然能捕获长距离依赖信息,但无法并行计算,CNN虽然能并行计算,但无法捕获长距离依赖信息,需要通过层叠或者扩张卷积核来增大感受野.Vaswani et al[12]提出Transformer网络,在NLP (Natural Language Processing)的序列建模能力上引起飞跃,已被引入翻译、图像生成等领域.与CNN,RNN和LSTM相比,Transformer模型中的注意力机制不仅在长序列特征相关性计算和模型可视化与可解释性方面优于其他模型,而且在处理长期依赖关系方面表现了更优越的性能.最近,基于Transformer的模型也被应用于不同的EEG任务.Sun et al[13]将Transformer与CNN相结合来提高MI⁃EGG的分类准确性.Pedoeem et al[14]构建了卷积层、全连接层和用于癫痫检测的Transformer的混合架构.Guo et al[15]提出一种具有深度卷积和Transformer编码器的新型神经网络模型,它探索情绪识别对每个EEG通道的依赖性,通过可视化获取的特征来进行基于EEG的情绪识别.长期依赖关系是时间序列的重要特征,所以Transformer模型是一个很好的序列数据识别模型. ...
A transformer based neural network for emotion recognition and visualizations of crucial EEG channels
1
2022
... 为了克服传统方法的缺点,许多基于深度学习的分类方法[4]被提出,现在BCI范式已拥有各种不同构架的深度学习网络模型[5],如卷积神经网络(Convolutional Neural Networks,CNN)[6]、循环神经网络(Recurrent Neural Network,RNN)[7]、长短期记忆(Long Short⁃Term Memory,LSTM)[8]或它们的组合方法.然而,上述方法仍然存在一些限制,阻碍了高性能BCI的构建.如CNN的性能依赖每一层卷积核的选择,大的卷积核会阻碍深层CNN的利用率,而小的卷积核则限制了CNN的感受野[9],如果没有足够深的结构,很难感知信号内部广泛的关系,会产生大量的计算.Socher et al[10]提出基于RNN的EEG信号分析方法,取得了优越的效果,LSTM也被用来进行EEG信号分析[11].但这些方法不足以处理更多的扩展数据,如RNN只作用于先前的记忆和当前的状态,LSTM虽然能捕获长距离依赖信息,但无法并行计算,CNN虽然能并行计算,但无法捕获长距离依赖信息,需要通过层叠或者扩张卷积核来增大感受野.Vaswani et al[12]提出Transformer网络,在NLP (Natural Language Processing)的序列建模能力上引起飞跃,已被引入翻译、图像生成等领域.与CNN,RNN和LSTM相比,Transformer模型中的注意力机制不仅在长序列特征相关性计算和模型可视化与可解释性方面优于其他模型,而且在处理长期依赖关系方面表现了更优越的性能.最近,基于Transformer的模型也被应用于不同的EEG任务.Sun et al[13]将Transformer与CNN相结合来提高MI⁃EGG的分类准确性.Pedoeem et al[14]构建了卷积层、全连接层和用于癫痫检测的Transformer的混合架构.Guo et al[15]提出一种具有深度卷积和Transformer编码器的新型神经网络模型,它探索情绪识别对每个EEG通道的依赖性,通过可视化获取的特征来进行基于EEG的情绪识别.长期依赖关系是时间序列的重要特征,所以Transformer模型是一个很好的序列数据识别模型. ...
The BCI competition III:Validating alternative approaches to actual BCI problems
1
2006
... CSP算法是常用的对EEG信号进行空间滤波的方法,在EEG信号的分类识别中应用广泛[17].CSP算法的主要目的是设计空间滤波器,将原始多维数据投影到低维空间,使滤波处理后两类数据之间的方差最大化[18].FBCSP算法是CSP算法的进一步扩展,能有效提取不同频带的特征.由于传统的FBCSP只适用于二分类,本文使用一对多(One Vs Rest,OVR)的分类策略来处理多分类的任务,将多类任务中的每一类都分别与其他类区分.基于FBCSP的空间滤波过程如下. ...
Application of instance?based entropy fuzzy support vector machine in peer?to?peer lending investment decision
1
2019
... CSP算法是常用的对EEG信号进行空间滤波的方法,在EEG信号的分类识别中应用广泛[17].CSP算法的主要目的是设计空间滤波器,将原始多维数据投影到低维空间,使滤波处理后两类数据之间的方差最大化[18].FBCSP算法是CSP算法的进一步扩展,能有效提取不同频带的特征.由于传统的FBCSP只适用于二分类,本文使用一对多(One Vs Rest,OVR)的分类策略来处理多分类的任务,将多类任务中的每一类都分别与其他类区分.基于FBCSP的空间滤波过程如下. ...
Deep learning?based BCI for gait decoding from EEG with LSTM recurrent neural network
EEGNet:A compact convolutional neural network for EEG?based brain?computer interfaces
2
2018
... 为了评估该模型在运动想象的四种分类任务上的性能,在BCI竞赛IV⁃2a公开数据集上进行对比实验,选用一些经典或前沿的基于深度学习的方法.如经典的基于深度可分离卷积构建的EEGNet网络[20],它设计了一种紧凑实用的具有深度和可分离卷积的CNN网络;一些前沿的网络模型包括Sakhavi et al[21]的C2CM,引入CSP的时态表示并利用CNN体系结构进行分类;Chen et al[22]提出滤波器组时空卷积网络FBSF⁃TSCNN,FBSF提供了仍有时间表示的中间脑电信号,并利用TSCNN对中间EEG信号进行解码;Song et al[2]提出基于时空微型的Transformer (S3T)模型,是依靠注意力机制感知脑电信号的空间和时间特征的脑电解码方法.表1给出了本文方法与这些方法的对比实验结果,这些方法的参数和实验结果均来自文献. ...
... Accuracy and Kappa coefficient of our method and other methods for different subjectsTable 1
Learning temporal information for brain?computer interface using convo?lutional neural networks
2
2018
... 为了评估该模型在运动想象的四种分类任务上的性能,在BCI竞赛IV⁃2a公开数据集上进行对比实验,选用一些经典或前沿的基于深度学习的方法.如经典的基于深度可分离卷积构建的EEGNet网络[20],它设计了一种紧凑实用的具有深度和可分离卷积的CNN网络;一些前沿的网络模型包括Sakhavi et al[21]的C2CM,引入CSP的时态表示并利用CNN体系结构进行分类;Chen et al[22]提出滤波器组时空卷积网络FBSF⁃TSCNN,FBSF提供了仍有时间表示的中间脑电信号,并利用TSCNN对中间EEG信号进行解码;Song et al[2]提出基于时空微型的Transformer (S3T)模型,是依靠注意力机制感知脑电信号的空间和时间特征的脑电解码方法.表1给出了本文方法与这些方法的对比实验结果,这些方法的参数和实验结果均来自文献. ...
... Accuracy and Kappa coefficient of our method and other methods for different subjectsTable 1
Deep temporal?spatial feature learning for motor imagery?based brain?computer interfaces
2
2020
... 为了评估该模型在运动想象的四种分类任务上的性能,在BCI竞赛IV⁃2a公开数据集上进行对比实验,选用一些经典或前沿的基于深度学习的方法.如经典的基于深度可分离卷积构建的EEGNet网络[20],它设计了一种紧凑实用的具有深度和可分离卷积的CNN网络;一些前沿的网络模型包括Sakhavi et al[21]的C2CM,引入CSP的时态表示并利用CNN体系结构进行分类;Chen et al[22]提出滤波器组时空卷积网络FBSF⁃TSCNN,FBSF提供了仍有时间表示的中间脑电信号,并利用TSCNN对中间EEG信号进行解码;Song et al[2]提出基于时空微型的Transformer (S3T)模型,是依靠注意力机制感知脑电信号的空间和时间特征的脑电解码方法.表1给出了本文方法与这些方法的对比实验结果,这些方法的参数和实验结果均来自文献. ...
... Accuracy and Kappa coefficient of our method and other methods for different subjectsTable 1