南京大学学报(自然科学), 2023, 59(5): 759-769 doi: 10.13232/j.cnki.jnju.2023.05.004

卷积神经网络与人工水母搜索的图特征选择方法

孙林,1,2, 蔡怡文1

1.河南师范大学计算机与信息工程学院,新乡,453007

2.天津科技大学人工智能学院,天津,300457

Convolutional Neural Network and Artificial Jellyfish Search⁃based graph feature selection method

Sun Lin,1,2, Cai Yiwen1

1.College of Computer and Information Engineering,Henan Normal University,Xinxiang,453007,China

2.College of Artificial Intelligence,Tianjin University of Science and Technology,Tianjin,300457,China

通讯作者: E⁃mail:slinok@126.com

收稿日期: 2023-06-26  

基金资助: 国家自然科学基金.  62076089

Received: 2023-06-26  

摘要

目前,卷积神经网络(Convolutional Neural Network,CNN)模型在处理图像数据时分类效果较差,人工水母搜索(Artificial Jellyfish Search,AJS)算法收敛速度慢,迭代次数多,特征选择的效果不理想.针对上述问题,提出一种基于CNN和AJS的图特征选择方法.首先,使用CNN来提取特征,将生成的特征图进行图嵌入降维,再使用AJS算法进行特征选择,把得到的特征输入分类器,进行模型训练和评估;然后,在图嵌入阶段,将特征图进行随机游走,并通过添加特征权重计算节点的游走概率来增强权重大的节点的游走概率,提高分类精度;最后,在AJS算法中引入余弦公式对人工水母的位置进行更新,充分考虑特征向量之间的相似性,提高算法的收敛速度并减少迭代次数.在10个基准函数上进行实验,结果表明改进的AJS算法具有较好的优化性能.在四个数据集上,将提出的算法与其他算法进行对比实验,实验结果表明,提出的算法能提高分类精度,减少迭代次数.

关键词: 图特征选择 ; 卷积神经网络 ; 图嵌入 ; 人工水母搜索

Abstract

At present,the classification effect of Convolutional Neural Network (CNN) model is poor when dealing with image data,and the Artificial Jellyfish Search (AJS) algorithm has slow convergence speed and large number of iterations,which leads to unsatisfactory feature selection effect. This paper proposes a graph feature selection method based on CNN and AJS. Firstly,the CNN extracts features,and the generated feature map is used for graph embedding dimensionality reduction. The AJS algorithm is used for feature selection,and the obtained features are input into the classifier for model training and evaluation. Then,in the graph embedding stage,the feature map is randomly walked and the walk probability of the node is calculated by adding the feature weight,which enhances the walk probability of the node with significant weight and improves the classification accuracy. Finally,the cosine formula is introduced into the AJS algorithm to update the position of the artificial jellyfish,and the similarity between the feature vectors is fully considered to improve the convergence speed and reduce the number of iterations. Experimental results on ten benchmark functions show that the improved AJS algorithm has better optimization performance. Compared with other algorithms on four datasets,the proposed algorithm improves the classification accuracy and reduces the number of iterations.

Keywords: graph feature selection ; Convolutional Neural Network ; graph embedding ; Artificial Jellyfish Search

PDF (918KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

孙林, 蔡怡文. 卷积神经网络与人工水母搜索的图特征选择方法. 南京大学学报(自然科学)[J], 2023, 59(5): 759-769 doi:10.13232/j.cnki.jnju.2023.05.004

Sun Lin, Cai Yiwen. Convolutional Neural Network and Artificial Jellyfish Search⁃based graph feature selection method. Journal of nanjing University[J], 2023, 59(5): 759-769 doi:10.13232/j.cnki.jnju.2023.05.004

随着大数据技术的迅猛发展,众多领域中的超高维数据往往包含大量的冗余信息和噪声,大大降低了学习算法的分类性能1.特征选择旨在使用一些标准来选取最优特征子集,去除冗余特征2,许多研究者也将仿生优化与特征选择相结合.例如,Jia et al3提出一种新的混合海鸥优化的特征选择算法,但在实际数据集上进行特征选择的效果不好,结果较差.Peng et al4提出一种基于蚁群优化的改进特征选择算法,虽然大幅提升了贝叶斯过滤器的性能,但整体提升效果较差.Xue et al5通过生成非主导解(特征子集)的帕累托前沿解将非支配排序的思想引入粒子群算法来解决特征选择问题,但其收敛效果还有待提升.人工水母搜索(Artificial Jellyfish Search,AJS)算法是2020年Ezzeldin et al6提出的一种新型优化算法,其模拟水母的搜寻行为,与蚱蜢算法、蝗虫算法相比,其寻优能力更强,收敛速度更快.水母跟随洋流运动,水母群的运动分主动和被动两种,它们之间的运动切换以及它们汇聚成水母簇的过程由时间控制机制来控制.目前尚未见结合人工水母搜索的特征选择方法.

图嵌入是一种将高维数据转化为低维向量的表示方法7,可以运用在人脸识别、无人机自组网链路预测、知识图谱等方面8,目前已有的图嵌入算法9主要包括基于神经网络的图嵌入、基于网络拓扑结构的图嵌入等.图像分类中图片的特征通常是高维的、复杂的,可能会出现由于特征维度过高而导致提取的特征在进行分类时准确率不高的问题,现有很多图嵌入降维方法.例如,颜伟泰10提出一种基于局部保持的图嵌入监督降维方法,但其依赖于完整的类别以及平衡因子.张晓语11提出一种基于矩阵分解的多视图降维算法,但不能有效处理大规模数据.在图像分类过程中特征选择是一个挑战12,大多数研究者使用卷积神经网络(Convolutional Neural Network,CNN)来进行图像分类,既可以减少特征数量,又能增加图像分类的精度.现在已有大量CNN以及改进的神经网络用于图像分类.例如,周衍挺13提出一种改进的卷积神经网络,孙克雷等14提出一种基于改进Softplus激活函数的卷积神经网络模型,刘梦雅和毛剑琳15提出一种基于最大池化和平均池化的改进池化模型.这些CNN虽然能对高维数据进行特征提取,但分类精度仍然不高.

当前,数据大多以图像的形式展现出来,选择特征时就会忽略图数据之间的信息.为了解决这个问题,基于进化计算的图特征选择将特征选择问题转化为特征图的遍历问题16,目前,这一新颖的研究思路仍有待改进和提高.CNN能够有效地从大量样本中学习到相应的特征,避免复杂的特征提取过程,图嵌入算法能够很好地捕捉图的拓扑结构,AJS算法寻优能力强,收敛速度快,因此,本文将图嵌入算法和AJS算法引入CNN模型,构建了一种基于CNN与AJS的图特征选择方法.

本文的主要贡献:(1)根据特征图中节点权重改进图嵌入算法中的随机游走节点概率,增大权重大的节点的游走概率,进而去除冗余特征,使模型的分类准确率得到提升;(2)在AJS算法的位置更新公式中引入余弦相似度,通过调整权重来控制搜索空间,提高算法的收敛速度;(3)将改进后的图嵌入算法和AJS算法与CNN进行结合,通过基准函数和数据集上的实验,证明其分类准确率、收敛速度和寻优精度均得到有效提升.

1 基础理论

1.1 卷积神经网络

CNN17主要用来探索图像数据,其结构包括输入层、隐藏层和输出层,隐藏层又包括卷积层、池化层和全连接层.CNN是深度学习的主要算法之一18.卷积层的计算如下:

Y=XW+b

其中,X=xi,ji=0,,n;j=0,,m为输入图像,nm分别为图像的行和列,W为卷积核权重,b为偏置.

输入图像X,卷积核为k,填充p行和p列,则经过卷积层后输出的形状为Xn×m,其中nm分别为:

n=n-kh+ph+1
m=m-kw+pw+1

其中,h为行,w为列,n为输入数据的行数,m为输入数据的列数,kh 为卷积核的行数,kw 为卷积核的列数,ph 为填充的行数,pw 为填充的列数.

池化层19只对池化窗口中的元素进行运算,假设X1,X2,,Xd为池化窗口中的元素池化,则最大池化的运算如下:

Y=MaxXi

其中,Xi 为池化窗口中的第i个元素,i=1,2,,

dY为输出,Max为求最大值的函数.

ReLU函数20是一种线性不饱和的激活函数,其计算如下:

fx=Max0,x

1.2 人工水母搜索

在群体内部移动的水母被称为A类水母,跟随洋流运动的水母被称为B类水母.A类水母的位置更新为:

Xit+1=Xit+γ×rand0,1×Ub-Lb

其中,Xi 为第i个水母的位置,t为迭代时间,UbLb 为搜索空间的上限和下限,γ为运动系数.

B类水母是被动运动,会朝着食物多的方向移动.B类水母的运动方向为:

Step=Xit+1-Xit

其中,Step为第i个水母的运动方向,Xitt时刻第i个水母的位置,Xit+1为第i个水母在t+1时刻的位置,则B类水母的位置更新为:

Xit+1=Xit+Step

时间控制如下式所示:

c(t)=1-tMaxiter×2×rand0,1-1

其中,t为迭代次数,Maxiter为最大迭代次数.

2 图特征选择方法

2.1 基于随机游走的图嵌入

特征图表示为G=V,E,WV,WE,其中节点集V=V1,V2,

,Vd对应上个池化层的输出特征xn×md=n×m,E=Vi,Vj:Vi,VjV为特征图的边集,WVi为节点Vi的权重,WEij为两个节点ViVj之间的边权重,定义如下:

WVi=j=1mWEij
WEij=Xij

Node2Vec21的组合方式是通过两个参数pq进行正则化,q定义了随机游走通过图中之前未见节点的概率,pq参数需要根据情况自行设置.q的计算如下:

q=1-walkdWVi

其中,d为节点总数,walk为已经遍历过节点的总数,WVi为节点Vi的权重.

Node2Vec学习嵌入的转移概率为:

αp,qg,Vj=1p    if dg,Vj=01    if dg,Vj=11q    if dg,Vj=2

其中,g代表上一个节点,Vi表示当前节点,Vj代表下一个准备访问的节点,dg,Vj表示上一个节点与待访问节点的距离,dg,Vj=0代表当前节点返回上一个节点,即gVig.

2.2 基于余弦相似度的人工水母搜索

在水母的位置更新中引入一个余弦相似度,人工水母群A类型运动的人工水母围绕它们自己的位置运动.余弦相似度的计算为:

w=cosπt2Maxiter

其中,Maxiter为最大迭代次数,t为当前迭代次数.在人工水母更新位置增加余弦值,于是,A类人工水母的位置更新为:

Xit+1=wXit+γ×rand0,1×Ub-Lb

其中,UbLb 为搜索空间的上限和下限,γ为运动系数.

2.3 图特征选择算法描述

将CNN与图嵌入算法和AJS算法相结合,设计图特征选择算法.首先,将数据集输入卷积层,从卷积层输出后进入池化层,进行三次卷积和三次池化,将输出的图像构建成图数据,再将构建好的特征图根据图嵌入进行降维得到一个二维向量;然后,利用水母优化算法初始化种群,进行特征选择,在进行特征选择时,选择固定个数的特征;最后,将特征输入分类器进行模型训练以及评估.其算法伪代码的具体步骤如算法1所示.

算法1

基于随机游走的图嵌入算法(Graph Embedding Algorithm Based on Random Walk,GEARW)

输入:特征集合Y

输出:特征向量

1.根据式(10)和(11)构造特征图GV,E

2.随机初始化一个节点v,初始化d,walk,WVi

3.for i=1 to n do

根据式(12)计算q,随机初始化p,根据式(13)更新αp,qg,Vj,计算转移概率;

4.return特征向量.

依据上述图特征选择模型,将余弦值加入A类水母的位置更新,设计基于余弦相似度的AJS算法(Artificial Jellyfish Search Algorithm Based on Cosine Similarity,CSAJS),如算法2所示,其伪代码如下.

算法2 CSAJS算法

输入:数据集合Z

输出:最优结果

1.初始化Z=Ø,初始化水母种群及其参数;

2.评估适应度值并确定初始最优位置;

3.for i=1Maxiter do

If ct>0.5根据式(7)更新洋流方向,根据洋流方向和式(8)更新人工水母位置;

Else 其他水母在群体中移动;

If rand0,1>1-ct 水母运动为A型,根据式(15)更新位置;

Else 其他水母为B型运动,根据式(8)更新位置,检查边界条件计算新地方的食物数量,t=t+1

4.return最优结果.

在GEARW和CSAJS的基础上,设计基于CNN与AJS算法的图特征选择算法(Convolutional Neural Network and Artificial Jellyfish Search⁃Based Graph Feature Selection Algorithm,CAGFS),具体过程如算法3所示.

算法3 CAGFS算法

输入:数据集合X

输出:特征子集

1.输入样本数据X

2.对样本进行ph 行和pw 列填充,并设置卷积核的形状为kh×kw

3.for i=1 to 3 do

根据式(1)进行卷积操作,根据式(4)进行池化操作;

4.输出形状xn×m,其中,nm通过式(2)和式(3)进行更新;

5.执行Y=GEARWxn×mCSAJSY

6.将选择特征放入到分类器中进行分类;

7.return最优特征子集及其分类准确率和整体交叉熵损失.

3 实验结果与分析

3.1 数据集与实验准备

为了评估改进算法的效果,实验分两部分:(1)从文献[22]中选择10个基准函数进行算法的优化性能测试,测试函数的详细信息如表1所示;(2)从Python的torchvision.datasets中选择四个公共数据集MNIST,EMNIST,KMNIST和FashionMNIST进行特征选择测试与分析,具体内容如表2所示.

表1   10个基准测试函数的描述

Table 1  Description of ten benchmark test functions

No.NameFunctionsRangeOptimum
f1Spherefx=i=1nxi2-5.12,5.120
f2Schwefel 2.22fx=i=1nxi+i=1nxi-10,100
f3Schwefel 2.21fx=maxixi,1xn-100,1000
f4Rastriginfx=i=1nxi2-10cos2πxi+10-5.12,5.120
f5Ackleyfx=-20exp-0.21ni=1nxi2-exp1ni=1ncos2πxi+20+e-30,300
f6Griewankfx=14000i=1nxi2-i=1ncosxi/i+1-600,6000
f7Schwefe l1.2fx=i=1nj=1ixj2-100,1000
f8Quarticfx=i=1nix4+random0,1-1.28,1.280
f9Rosenbrockf(x)=i=1n100xi+1-xi22+xi-12-30,300
f10Penalized2fx=0.1sin23πx1+i=1nxi-121+sin23πxi+1+xn-121+sin22πxi+1+i=1nuxi,5,100,4-50,500

新窗口打开| 下载CSV


表2   实验使用的四种数据集

Table 2  Four datasets used in experiments

序号数据集数据集大小类别图像大小
1MNIST700001028×28
2EMNIST1456002628×28
3KMNIST700001028×28
4FashionMNIST700001028×28

新窗口打开| 下载CSV


为了测试算法在四个数据集上的分类性能,采用交叉熵损失、整体交叉熵损失23、平均分类准确率(Average Classification Accuracy,AccAvg)、精确率、召回率和F1⁃score进行测试.整体交叉熵损失由交叉熵损失与样本数量相乘得到,与数据集的大小有关,数据集大,则整体交叉熵损失较大,数据集小,则整体交叉熵损失较小.

操作系统及环境:Windows 7,Python 3.7.4;框架Pytorch 1.9.1;CPU Intel(R) Corr(TM) i5⁃6500.为了避免实验结果的随机性,确保实验结果的公平性,所有对比算法均运行20次,取其结果的平均值.将本文的CAGFS算法与三种算法进行对比实验,分别是传统的CNN模型24、LeNet模型25和基于平均池化的LeNet模型(LeNet Model Based on Average Pooling,AVGLeNet)26.改进后的CAGFS模型的网络参数如表3所示,四种模型均采用SGD优化器,学习率设置为3e-2,批量大小设置为128.

表3   改进后的网络参数

Table 3  Improved network parameters

LayerOutput sizeConvolution kernel/pooling size
Conv2d_128×285×5
Pooling_114×142×2
Conv2d_210×105×5
Pooling_25×52×2
Conv2d_31×15×5
Pooling_31×12×2

新窗口打开| 下载CSV


3.2 优化性能分析

为了检验本文CSAJS算法的优化性能,分别将CSAJS算法、原始的AJS算法6、原始的鲸鱼优化算法(Whale Optimization Algorithm,WOA)22、海洋捕食者算法(Marine Predators Algorithm,MPA)27、闪电搜索算法(Lightning Search Algorithm,LSA)28和水循环算法(Water Cycle Algorithm,WCA)29在10个基准测试函数上进行寻优.种群规模设置为30,种群维度设置为30,迭代次数Niter=500,其余参数均采用对应文献中的最佳实验参数,独立运行20次.为了测试上述六种算法的优化性能,采用最优值(Best)、最差值(Worst)、平均值(Mean)和标准方差(Standard Deviation,STD),来评判算法的寻优精度.最优值反映算法最好的寻优精度,最差值反映算法最差的寻优精度,平均值反映算法的平均寻优精度,标准方差反映算法的寻优稳定性,实验结果如表4所示.实验数值越小,效果越好.由表可见,与其他五种算法相比,CSAJS算法的优化性能较好,在f1~f4f6这五个函数上均优于其他五种算法,寻优精度提高了1~10个数量级;在f5函数上,CSAJS算法的STD略低于MPA算法;在f7函数上,CSAJS算法的MeanSTD略低于AJS算法;在f8函数上,CSAJS算法的四种指标均略低于AJS算法;在f9f10函数上,CSAJS算法的BestWorstMean均略低于其他算法,但是其STD优于其他四种算法,说明其寻优效果更稳定,可能是增加权重导致搜索范围扩大造成的.整体来看,CSAJS算法的寻优精度和稳定性均高于其他算法.

表4   六种算法在10个基准测试函数上的四种评价指标的对比

Table 4  Four metrics of six algorithms on ten benchmark test functions

FunctionsMetricsWOAMPALSAWCAAJSCSAJS
f1Best1.09E-852.60E-261.74E-117.91E-155.31E-963.98E-110
Worst3.80E-711.37E-229.24E-041.38E-111.07E-881.18E-102
Mean1.90E-723.93E-238.73E-051.51E-121.96E-891.32E-103
STD8.50E-723.97E-232.40E-043.09E-123.11E-892.89E-103
f2Best3.67E-586.69E-153.36E+031.00E-085.43E-834.55E-95
Worst5.11E-511.17E-126.78E+011.00E+017.49E-792.11E-92
Mean4.10E-523.02E-131.64E+015.00E-011.71E-792.67E-93
STD1.15E-513.60E-131.91E-012.24E+002.09E-795.24E-93
f3Best1.23E+008.64E-101.40E+002.56E+003.83E-831.02E-87
Worst8.90E+011.07E-083.07E+019.89E+001.89E-801.81E-85
Mean5.02E+014.40E-091.01E+015.37E+001.43E-801.44E-85
STD3.19E+012.72E-097.12E+002.01E+003.77E-813.59E-86
f4Best0.00E+000.00E+004.98E+14.68E+010.00E+000.00E+00
Worst1.94E+020.00E+001.07E+022.14E+020.00E+000.00E+00
Mean9.7E+000.00E+007.58E+18.07E+010.00E+000.00E+00
STD4.34E+010.00E+001.51E+13.583E+010.00E+000.00E+00

f5

Best8.88E-168.88E-162.12E+02.65E-054.44E-158.88E-16
Worst7.99E-158.88E-167.16E+03.25E+004.44E-158.88E-16
Mean4.80E-158.88E-163.53E+01.41E+004.44E-158.88E-16
STD2.80E-150.00E+001.38E+01.05E+003.94E-303.94E-31
f6Best0.00E+000.00E+002.38E-106.77E-150.00E+000.00E+00
Worst0.00E+000.00E+003.61E-27.60E-027.66E-150.00E+00
Mean0.00E+000.00E+008.72E-31.56E-026.06E-160.00E+00
STD0.00E+000.00E+001.10E-22.24E-026.95E-150.00E+00
f7Best1.92E+041.50E-083.52E+012.5E+026.81E-416.81E-41
Worst6.96E+046.69E-042.83E+027.26E-012.57E-352.57E-35
Mean3.89E+048.84E-051.35E+022.15E-014.02E-371.22E-36
STD1.54E+041.57E-046.27E+012.21E-014.94E-375.44E-27

f8

Best5.62E-051.17E-041.42E-021.55E-021.55E-055.61E-05
Worst1.20E-022.88E-035.20E-029.61E-023.87E-058.30E-05
Mean2.77E-031.21E-033.34E-023.35E-022.78E-056.21E-05
STD3.48E-036.51E-049.21E-031.92E-021.09E-059.87E-05
f9Best2.70E+012.46E+012.20E+012.08E+002.90E+012.90E+01
Worst2.88E+012.61E+014.26E+021.21E+022.90E+012.90E+01
Mean2.81E+012.35E+011.09E+024.97E+012.90E+012.90E+01
STD6.07E-014.27E-018.96E+013.74E+010.00E+000.00E+00
f10Best6.89E+028.43E-082.50E-111.31E-14-6.25E+04-6.25E+04
Worst1.26E+009.74E+026.22E+014.34E+03-6.25E+04-6.25E+04
Mean4.77E+011.56E+025.61E+022.17E-04-6.25E+04-6.25E+04
STD2.53E+002.47E+021.37E+019.70E-040.00E+000.00E+00

新窗口打开| 下载CSV


图1展示了六种算法在10个基准函数上的寻优收敛曲线.由图可见,在f1~f6上CSAJS算法的收敛速度较快,寻优效果也比其他五种算法好,有效减少了迭代次数.但是,在f2f6f8上,CSAJS算法陷入了局部最优,分别在迭代150,150和250次时达到最优.在f1f4f5函数上,CSAJS算法的收敛速度更快,分别在迭代50,50和100次时达到

图1

图1   六种优化算法在10个基准测试函数上的收敛曲线

Fig.1   Convergence curves of six optimization algorithms on ten benchmark test functions


最优.在f7f8函数上,CSAJS算法的收敛速度略低于AJS算法.在f9f10函数上,CSAJS算法的收敛速度与AJS算法基本一致,收敛效果也基本一致.由于在f10函数上的算法寻优图像差距较大,无法完全显示,所以截取迭代前30次的部分图像,这可能是搜索范围扩大造成的.

整体来看,CSAJS算法的收敛速度优于其他算法,而且能有效减少迭代次数.

3.3 数据集实验结果

为了验证改进算法的有效性和分类效果,将CAGFS算法与其他三种算法在四个数据集上进行对比实验.训练集中单个样本的交叉熵损失如表5所示,表中黑体字表示结果最优.测试集上的整体交叉熵损失如图2所示.

表5   四种算法在四个数据集上的交叉熵损失

Table 5  Cross entropy loss of four algorithms on four datasets

数据集CNNLeNetAVGLeNetCAGFS
MNIST0.04170.64090.67790.0109
EMNIST0.19290.17830.22580.2228
KMNIST0.25570.20290.23520.1930
FashionMNIST0.46580.75500.57510.3492

新窗口打开| 下载CSV


图2

图2   提出的CAGFS模型在四个数据集上的整体交叉熵损失

Fig.2   Overall cross entropy loss of the proposed CAGFS model on four datasets


表5可见,在MNIST数据集上,CAGFS模型的交叉熵损失最小,说明其训练效果较好.在EMNIST数据集上,LeNet模型的交叉熵损失最小,CAGFS模型的交叉熵损失排第三位,因为EMNIST数据集的数据类别比较高,进行特征选择时选出的特征较少,分类效果较差.在KMNIST数据集上,CAGFS模型的交叉熵损失最小,CNN模型的交叉熵损失最大,说明CNN模型在增加特征选择后可以提升分类效果.在FashionMNIST数据集上,CAGFS模型的交叉熵损失最小,说明改进的CAGFS模型的分类效果较好.

图2可以看出,在MNIST数据集上,CAGFS模型的整体交叉熵损失的收敛速度较快而且整体交叉熵损失较小,在12轮之后逐渐平稳.在EMNIST数据集上,CAGFS模型虽然收敛较快,但是整体交叉熵损失较大,20轮之后的整体交叉熵损失达到70左右.在KMNIST数据集上,CAGFS模型的收敛速度相对较慢,20轮之后整体交叉熵损失在50左右.在FashionMNIST数据集上,CAGFS模型的整体交叉熵损失收敛最慢,收敛曲线较平滑,20轮之后的整体交叉熵损失在55左右.总体来看,CAGFS模型在四个数据集上的整体交叉熵损失逐渐减小,说明模型效果较好.CAGFS模型的整体交叉熵损失在MNIST数据集上最小,在EMNIST数据集上最大,可能是EMNIST数据集的类别较多的缘故,说明该模型更适用于类别较少的数据集.

图3展示了四种算法在四个测试集上的AccAvg随着训练轮数增加的变化情况.图3a为MNIST数据集上的实验结果,可以看出,CNN和CAGFS的AccAvg在经过20轮训练之后在97%左右;LeNet的AccAvg变化不大,一直稳定在80%左右;AVGLeNet的效果最差,AccAvg最高为45%;CAGFS的AccAvg更高一些.图3b为EMNIST数据集上的实验结果,四种模型经过20轮的训练,AccAvg都达到90%.在前四轮训练中,CNN的效果较好,CAGFS次之,说明对于类别较多的数据集,CAGFS的特征选择的效果不是最佳.图3c为KMNIST数据集上的实验结果,可以看出,在前三轮训练中,CAGFS的AccAvg最高,但训练三轮后CNN的AccAvg高于CAGFS,训练10轮后四个模型的AccAvg逐渐趋于平稳,达到基本一致.说明经过对优化算法的改进,CAGFS明显在训练前期提高了算法的分类精度.图3d为Fashion⁃MNIST数据集上的实验结果,可以看出,在前两轮训练中CNN的AccAvg上升较快,CAGFS的AccAvg在前两轮训练中比CNN高,之后则略低于CNN模型;第17轮训练时,CAGFS的AccAvg上升到90%,而后上下浮动并趋于稳定;AVGLeNet和LeNet的AccAvg稳定在75%.

图3

图3   四种算法在四个数据集上的AccAvg

Fig.3   AccAvg of four algorithms on four datasets


综上,CAGFS模型有效地提高了其在数据集上的分类精度,尤其在类别较少的数据集上,效果比在类别多而特征数量少的数据集上要好.

四种算法在四个训练集上的AccAvg表6所示,表中黑体字表示结果最优.由表可见,在MNIST数据集上,CAGFS的AccAvg比其他三种模型分别高3.1%,21%和79.7%.在EMNIST数据集上,CAGFS的AccAvg比CNN低2.2%,这是由于CAGFS在图嵌入过程中去掉了一些权重较大的特征,导致分类结果不准确,但其AccAvg比其他两种模型分别高2%和5%.在KMNIST数据集上,CAGFS的AccAvg比其他三种模型分别高0.2%,9.8%和27.5%.在FashionMNIST数据集上,CAGFS的AccAvg比其他三种模型分别高1.3%,8.4%和16.7%.

表6   四种算法在四个数据集上的AccAvg

Table 6  AccAvg of four algorithms on four datasets

数据集CNNLeNetAVGLeNetCAGFS
MNIST0.9350.7960.8170.966
EMNIST0.8860.8440.8140.864
KMNIST0.8870.7910.6140.889
FashionMNIST0.8180.7470.6640.831

新窗口打开| 下载CSV


表7是四种模型在四个数据集上训练20轮的精确率,表中黑体字表示结果最优.由表可见,在MNIST数据集上,CAGFS的精确率比其他三种模型分别高2.0%,1.1%和1.7%.在EMNIST数据集上,CAGFS的精确率比CNN和LeNet分别低2.0%和7.4%.在KMNIST数据集上,CAGFS的精确率比其他三种模型分别高5.8%,1.3%和2.4%.在FashionMNIST数据集上,CAGFS的精确率比其他三种模型分别高14.3%,1.5%和5.6%.

表7   四种算法在四个数据集上的精确率

Table 7  Accuracy rates of four algorithms on four datasets

数据集CNNLeNetAVGLeNetCAGFS
MNIST0.9600.9690.9630.980
EMNIST0.8360.8900.8080.816
KMNIST0.8410.8860.8750.899
FashionMNIST0.8470.8940.8530.909

新窗口打开| 下载CSV


表8是四种模型在四个数据集上训练20轮的召回率,表中黑体字表示结果最优.由表可见,在MNIST数据集上,CAGFS的召回率比其他三种模型分别高1.5%,1.5%和1.5%.在EMNIST数据集上,CAGFS的召回率比其他三种模型分别低3.1%,10.1%和7.8%.在KMNIST数据集上,CAGFS的召回率比AVGLeNet低7.9%.在FashionMNIST数据集上,CAGFS的召回率比其他三种模型分别高6.2%,1.0%和2.1%.

表8   四种算法在四个数据集上的召回率

Table 8  Recall rates of four algorithms on four datasets

数据集CNNLeNetAVGLeNetCAGFS
MNIST0.9690.9690.9690.984
EMNIST0.8280.8980.8750.797
KMNIST0.8280.8750.9690.890
FashionMNIST0.8440.8960.8850.906

新窗口打开| 下载CSV


表9是四种模型在四个数据集上训练20轮的F1⁃score,表中黑体字表示结果最优.由于处理的是多分类问题,而且召回率和F1⁃score用的是同一种方法,所以它们的计算结果一样.在MNIST数据集上,CAGFS的F1⁃score比其他三种模型分别高1.5%,1.5%和1.5%.在EMNIST数据集上,CAGFS的F1⁃score比其他三种模型分别低3.1%,10.1%和7.8%.在KMNIST数据集上,CAGFS的F1⁃score比AVGLeNet低7.9%.在FashionMNIST数据集上,CAGFS的F1⁃score比其他三种模型分别高6.2%,1.0%和2.1%.

表9   四种算法在四个数据集上的F1⁃score

Table 9  F1⁃score of four algorithms on four datasets

数据集CNNLeNetAVGLeNetCAGFS
MNIST0.9690.9690.9690.984
EMNIST0.8280.8980.8750.797
KMNIST0.8280.8750.9690.890
FashionMNIST0.8440.8960.8850.906

新窗口打开| 下载CSV


综上所述,CAGFS模型的准确率、精确率、召回率和F1⁃score均有一定提升,尤其对那些特征维数高、类别少的灰度图像数据集,CAGFS模型经过降维和特征选择后,能很好地去除冗余特征,因而提升了分类准确率.

3.4 模型时间分析

为了评估CAGFS算法的模型复杂度,分别从模型大小、运算时间和模型参数量进行对比分析,如表10所示,表中黑体字表示结果最优.模型大小指模型在运算过程中占用的计算机内存资源,包括模型参数、特征图和激活函数,根据模型的运行存储形式,可以得到具体的模型体积.运算时间指模型从训练开始到结束的时间差,这里计算的是四个数据集在同一种模型上的平均运行时间.模型参数量指模型结构保存和使用所涉及的模型权重的参数量.由表可见,CAGFS的模型较大,因为该算法是三种模型的结合.CAGFS的参数量大于LeNet和AVGLeNet,但小于CNN,因为CAGFS采了三层卷积,而LeNet和AVGLeNet是两层卷积,所以CAGFS的参数量大于LeNet和AVGLeNet,小于CNN.CAGFS的平均运行时间最长,而其他三种算法的运行时间都较短,因为该模型是三种算法的结合,其复杂度有一定的增加.

表10   四种算法的模型大小、模型参数量和运行时间

Table 10  Model size,number of model parameters and running time of four algorithms

模型模型大小(kb)模型参数量运行时间(min)
LeNet84567418.4
AVGLeNet84567410.16
CNN616185837.12
CAGFS705782854.4

新窗口打开| 下载CSV


4 结论

针对特征选择收敛速度慢且分类精度不高等问题,本文提出一种由CNN、随机游走图嵌入和AJS算法相结合的图特征选择算法.通过特征图的节点权重和边权重对图嵌入的游走概率进行改进,增加权重较大的节点特征的游走概率;利用余弦相似度改进AJS算法的人工水母的位置,提高算法的收敛速度;设计基于CNN与AJS的图特征选择方法.实验结果表明,该算法在前几轮训练过程中优于其他算法,但作为三种算法的融合,该模型的复杂度较高,特别是在训练较大的数据集上的运行时间较长.由于该算法忽略了特征节点之间的相似性,所以在特征选择阶段仍然有冗余特征,因此,降低模型复杂度以及解决特征节点之间的相似性是下一步的工作.

参考文献

Zhu X FZhang S CZhu Y Het al.

Unsupervised spectral feature selection with dynamic hyper⁃graph learning

IEEE Transactions on Knowledge and Data Engineering,202234(6):3016-3028.

[本文引用: 1]

孙林李梦梦徐久成.

二进制哈里斯鹰优化及其特征选择算法

计算机科学,202350(5):277-291.

[本文引用: 1]

Sun LLi M MXu J C.

Binary harris hawk optimization and its feature selection algorithm

Computer Science,202350(5):277-291.

[本文引用: 1]

Jia H MXing Z KSong W L.

A new hybrid seagull optimization algorithm for feature selection

IEEE Access,2019(7):49614-49631.

[本文引用: 1]

Peng H JYing CTan S Het al.

An improved feature selection algorithm based on ant colony optimization

IEEE Access,2018(6):69203-69209.

[本文引用: 1]

Xue BZhang M JBrowne W N.

Particle swarm optimization for feature selection in classification:A multi⁃objective approach

IEEE Transactions on Cybernetics,201343(6):1656-1671.

[本文引用: 1]

Ezzeldin REl⁃Ghandour HEl⁃Aabd S. Optimal management of coastal aquifers using artificial jellyfish search algorithm. Journal of HydrologyRegional Studies2022(41):101058.

[本文引用: 2]

杨辉陶力宏朱建勇.

基于锚点的快速无监督图嵌入

计算机科学,202249(4):116-123.

[本文引用: 1]

Yang HTao L HZhu J Yet al.

Fast unsupervised graph embedding based on anchors

Computer Science,202249(4):116-123.

[本文引用: 1]

董程昱吕明琪陈铁明.

基于异构溯源图学习的APT攻击检测方法

计算机科学,202350(4):359-368.

[本文引用: 1]

Dong C YLyu M QChen T Met al.

Heterogeneous provenance graph learning model based APT detection

Computer Science,202350(4):359-368.

[本文引用: 1]

梁瑶谢春丽王文捷.

基于图嵌入的代码相似性度量

计算机科学,202249(S2):211000186.

[本文引用: 1]

Liang YXie C LWang W J.

Code similarity measurement based on graph embedding

Computer Science,202249(S2):211000186.

[本文引用: 1]

颜伟泰.

一种基于局部保持的图嵌入有监督降维方法

现代电子技术,202245(21):50-56.

[本文引用: 1]

Yan W T.

Graph embedding method with dimensionality reduction supervision and local information preservation

Modern Electronics Technique,202245(21):50-56.

[本文引用: 1]

张晓语. 基于矩阵分解的多视图降维方法研究. 硕士学位论文. 西安西安电子科技大学2017.

[本文引用: 1]

Zhang X Y.

Research on multi⁃view dimension reduction methods based on matrix decomposition

Master Dissertation. Xi'anXidian University2017.

[本文引用: 1]

李冰晓万睿之朱永杰.

基于种群分区的多策略综合粒子群优化算法

河南师范大学学报(自然科学版),202250(3):85-94.

[本文引用: 1]

Li B XWan R ZZhu Y Jet al.

Multi⁃strategy comprehensive article swarm optimization algorithm based on population partition

Journal of Henan Normal University (Natural Science Edition),202250(3):85-94.

[本文引用: 1]

周衍挺.

基于改进的卷积神经网络模型的中国绘画图像分类方法

佳木斯大学学报(自然科学版),202139(1):112-115.

[本文引用: 1]

Zhou Y T.

Reserch on Chinese painting image classification method based on improved convolutional neural network model

Journal of Jiamusi University (Natural Science Edition),202139(1):112-115.

[本文引用: 1]

孙克雷虞佳明孙刚.

一种基于改进Softplus激活函数的卷积神经网络模型

阜阳师范学院学报(自然科学版),202037(1):75-79.

[本文引用: 1]

Sun K LYu J MSun G.

A convolutional neural network model based on improved Softplus activation function

Journal of Fuyang Normal University (Natural Science),202037(1):75-79.

[本文引用: 1]

刘梦雅毛剑琳.

一种改进池化模型对卷积神经网络性能影响的研究

电子测量技术,201942(5):34-38.

[本文引用: 1]

Liu M YMao J L.

Research on the influence of an improved pooling model on the performance of convolutional neural networks

Electronic Measurement Technology201942(5):34-38.

[本文引用: 1]

刘旭东.

基于进化多目标优化的图特征选择算法研究

硕士学位论文. 合肥安徽大学2021.

[本文引用: 1]

Liu X D.

Research on graph feature selection algorithm based on evolutionary multi⁃objective optimization

Master Dissertation. HefeiAnhui University2021.

[本文引用: 1]

魏甫豫张振宇梁桂珍.

基于卷积神经网络下昆虫种类图像识别应用研究

河南师范大学学报(自然科学版),202250(6):96-105.

[本文引用: 1]

Wei F YZhang Z YLiang G Z.

Research on application of insect species image recognition based on convolutional neural network

Journal of Henan Normal University (Natural Science Edition),202250(6):96-105.

[本文引用: 1]

曹建芳田晓东贾一鸣.

基于改进PSPNet网络的古代壁画分割方法

河南师范大学学报(自然科学版),202250(4):65-75.

[本文引用: 1]

Cao J FTian X DJia Y Met al.

Segmentation method of ancient murals based on improved PSPNet

Journal of Henan Normal University (Natural Science Edition),202250(4):65-75.

[本文引用: 1]

田野孙瑞志.

基于卷积神经网络的认知智能信息融合系统结构研究

河南师范大学学报(自然科学版),202149(5):33-39.

[本文引用: 1]

Tian YSun R Z.

Research on the structure of cognitive intelligence information fusion system based on convolutional neural network

Journal of Henan Normal University (Natural Science Edition),202149(5):33-39.

[本文引用: 1]

李一波郭培宜张森悦.

深度卷积神经网络中激活函数的研究

计算机技术与发展,202131(9):61-66.

[本文引用: 1]

Li Y BGuo P YZhang S Y.

Research on activation function in deep convolutional neural network

Computer Technology and Development,202131(9):61-66.

[本文引用: 1]

李杭李维华陈伟.

基于Node2vec和知识注意力机制的诊断预测

计算机科学,202148(S2):630-637.

[本文引用: 1]

Li HLi W HChen Wet al.

Diagnostic prediction based on node2vec and knowledge attention mechanisms

Computer Science,202148(S2):630-637.

[本文引用: 1]

Mirjalili SLewis A.

The whale optimization algorithm

Advances in Engineering Software,2016(95):51-67.

[本文引用: 2]

李育霖. 基于卷积神经网络的人脸性别及年龄识别. 硕士学位论文. 南京南京信息工程大学2020.

[本文引用: 1]

Li Y L. Face gender and age recognition based convoluyional neural network. Master Dissertation. NanjingNanjing University of Information Science and Technology2020.

[本文引用: 1]

徐镇. 基于LBP和CNN的人脸识别算法研究. 硕士学位论文. 重庆重庆大学2019.

[本文引用: 1]

Xu Z. Research on face recognition algorithm based on LBP and CNN. Master Dissertation. ChongqingChongqing University2019.

[本文引用: 1]

Zhang C WYue X YWang Ret al.

Study on traffic sign recognition by optimized lenet⁃5 algorithm

International Journal of Pattern Recognition and Artificial Intelligence,202034(1):2055003.

[本文引用: 1]

张剑飞崔文升王真.

基于增强LetNet⁃5的非霍奇金淋巴瘤辅助诊断

科学技术与工程,202020(16):6527-6531.

[本文引用: 1]

Zhang J FCui W SWang Zet al.

Auxiliary diagnosis of non⁃hodgkin's lymphoma based on enhanced LetNet⁃5

Science Technology and Engineering,202020(16):6527-6531.

[本文引用: 1]

Faramarzi AHeidarinejad MMirjalili Set al.

Marine predators algorithm:A nature⁃inspired meta⁃heuristic

Expert Systems with Applications,2020(152):113377.

[本文引用: 1]

Shareef Hlbrahim A AMutlag A H.

Lightning search algorithm

Applied Soft Computing,2015(36):315-333.

[本文引用: 1]

Eskandar HSadollah ABahreininejad Aet al.

Water cycle algorithm:A novel metaheuristic optimization method for solving constrained engineering optimization problems

Computers & Structures,2012110-111):151-166.

[本文引用: 1]

/