南京大学学报(自然科学), 2020, 56(4): 533-540 doi: 10.13232/j.cnki.jnju.2020.04.011

基于深度特征表示的Softmax聚类算法

陈俊芬,, 赵佳成, 韩洁, 翟俊海

河北省机器学习与计算智能重点实验室,河北大学数学与信息科学学院,保定,071002

Softmax clustering algorithm based on deep features representation

Chen Junfen,, Zhao Jiacheng, Han Jie, Zhai Junhai

Hebei Key Laboratory of Machine Learning and Computational Intelligence,College of Mathematics andInformation Science,Hebei University,Baoding,071002, China

通讯作者: E⁃mail:chenjunfen2010@126.com

收稿日期: 2020-06-24   网络出版日期: 2020-08-14

基金资助: 河北省科技重点研发项目.  19210310D
河北大学高层次创新人才科研启动经费项目

Received: 2020-06-24   Online: 2020-08-14

摘要

图像和语音已成为日常生活和科研的常见数据类型,图像的聚类分析是数据挖掘和图像处理领域的重要任务之一.基于自编码器的深度聚类方法具有表征能力有限的缺点,并且特征的生成与聚类指派是分步进行的.为此,提出一种基于新颖卷积自编码器的深度Softmax聚类算法(Asymmetric Convolutional Auto⁃encoder Based Softmax Clustering, ASCAE⁃Softmax).首先设计一种非对称的卷积自编码器网络结构(ASCAE),通过优化卷积和添加全连接层,使整个网络呈非对称;接着使用Softmax聚类器把特征映射成聚类概率分布,构造辅助目标概率分布,将特征学习与聚类判别联合在一起.通过迭代最小化KL(Kullback⁃Leibler)散度损失达到清晰的聚类划分.实验结果表明,该方法能够学习出使同类更加紧凑、异类更加稀疏的特征表示,且聚类结果优于经典的深度聚类算法.

关键词: 无监督学习 ; 特征表示 ; 卷积自编码器 ; 图像聚类 ; Softmax分类器

Abstract

Image and speech have been common data in daily life and academic research. Therefore,image clustering analysis becomes one of the vital tasks in data mining and image processing fields. The deep clustering methods based on auto⁃encoders have the limited representation ability. Moreover,feature extraction and clustering assignment are carried out separately. A new deep Softmax clustering algorithm (ASCAE⁃Softmax) based on a novel convolutional auto⁃encoder is proposed. Firstly,an asymmetric convolutional auto⁃encoder network structure (ASCAE) is designed. The whole network is asymmetric with an optimizing convolution operation and adding fully connected layers. Secondly,Softmax clustering is proposed that is composed of mapping features into clustering probability distribution,making auxiliary target probability distribution,and combining features learning with clustering assignment. Then,clustering divisions become clearer by iteratively minimizing KL(Kullback⁃Leibler) divergence. Experimental results showed that the proposed deep clustering algorithm can achieve the optimal features representation which makes the intra⁃clusters more compact and the inter⁃clusters more dispersive,and the clustering result is better than the state⁃of⁃the⁃art deep clustering algorithms.

Keywords: unsupervised learning ; features representation ; convolutional auto⁃encoder ; image clustering ; Softmax classifier

PDF (1168KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

陈俊芬, 赵佳成, 韩洁, 翟俊海. 基于深度特征表示的Softmax聚类算法. 南京大学学报(自然科学)[J], 2020, 56(4): 533-540 doi:10.13232/j.cnki.jnju.2020.04.011

Chen Junfen, Zhao Jiacheng, Han Jie, Zhai Junhai. Softmax clustering algorithm based on deep features representation. Journal of nanjing University[J], 2020, 56(4): 533-540 doi:10.13232/j.cnki.jnju.2020.04.011

由于实际问题中存在大量无标签数据,迫使众多研究的对象从大量带标签的数据转为仅有少量标签或没有标签的数据,研究方法也从监督学习变成半监督学习、弱监督学习和无监督学习,而无监督学习的图像任务有更重要的现实意义.无监督学习在各个方向有各种不同的任务,例如图像分类[1-3]、图像聚类[4-9]、图像分割[10-11]、目标检测[12]等,虽然任务不同但目的都在于提取更有用的特征、简化后续的相关操作进而更好地完成任务.而在图像聚类任务中,如何提取出使同类内间距减小、异类间距增大的特征尤为重要.

无监督聚类最早的思路是关注于算法本身的K⁃means,DBSCAN (Density⁃Based Spatial Clustering of Applications with Noise),而后的聚类研究使用受限玻尔兹曼机[13]、自编码器[14]提取特征.LeNet⁃5[15]的卷积、无监督特征学习卷积神经网络[16]验证了卷积神经网络在无监督学习方面的可行性.深度卷积神经网络拥有强大的图像特征提取能力[17],结合自编码器[14]和深度网络的卷积自编码器[18]提供了全新的图像特征提取方式.生成对抗网络[19]也用于特征提取.深度卷积对抗网络的无监督表示学习[9]证明了其可行性.无监督聚类方法[4]综合使用了聚类和分类来学习视觉特征,在杂乱数据上进行无监督的图像特征预训练方法[20]以及无监督图像分类和分割的不变信息聚类方法[21]上等变换的思路.至此,无监督聚类学习从特征与聚类分步进行发展到联合训练的方向.

尽管这些优秀的深度聚类工作取得了很好的进展,但是随着图像数据类型的多元化,特征表示能力和聚类性能仍有提升空间.因此本文继续探索新的网络和合适的损失函数,提出一种基于新颖卷积自编码器的深度Softmax聚类算法(Asymmetric Convolutional Auto⁃encoder Based Softmax Clustering,ASCAE⁃Softmax).本文的主要贡献如下:

(1)采用新的卷积形式,通过首个卷积核与步长相等实现图像的分割式特征提取,进一步提高了特征的鲁棒性.

(2)提出一种非对称的卷积自编码器结构,通过编码器和译码器的信息不对等使得所学特征更专注于特征的分解和生成.

(3)利用Softmax分类的思路解决聚类问题,将所学到的特征通过高斯方式映射成条件概率,并获得所有数据在同一类别上的概率分布.减小同类间隔,增大异类之间的间隔.不断优化该网络的特征表示,提高了聚类精度.

1 相关工作

以往的无监督聚类算法在特征的提取与聚类操作上相互独立,如何将深度卷积网络提取特征的训练与聚类过程联合在一起成为无监督聚类学习的重要方向.2016年,Xie et al[8]以卷积自编码器为基础,在生成特征的层面上做了新的改进,首次找到联合解决特征空间学习与聚类关系判别的方案DEC(Unsupervised Deep Embedding for Clustering Analysis)算法.通过深度自编码器初始化数据到特征的映射,使用K⁃means生成特征的聚类中心点.使用t⁃分布[22]衡量特征点与特征聚类中心点的相似性,通过软分配方式生成每个数据的聚类概率分布,构造辅助目标分布,使用KL(Kullback⁃Leibler)散度损失进行优化以细化聚类中心点,同时对生成特征的网络参数进行不断调整来优化聚类结果,直至网络收敛.其最终的聚类结果的精度超越了以往的聚类方法,更是无监督学习的一大进步,因为特征的学习与聚类的判别不再是相互独立的,而是可以联合在一起进行训练和优化.但其使用的深度自编码器在特征的提取上仍有局限性.

为了优化这个问题,2017年,联合卷积自动编码器嵌入和相对熵进行深度聚类方法(Deep Clustering via Joint Convolutional Autoencoder Embedding and Relative Entropy Minimization,DEPICT)[5]在对原始的无监督深度嵌入聚类算法整体思路不变的情况下使用多项逻辑回归函数计算特征点与聚类中心点的相似性;同时将网络修改为深度卷积去噪自编码器;输入数据方使用不包含噪声的输入数据生成辅助目标分布来优化带有噪声的输入数据的聚类概率分布.2018年全卷积自编码器的判别增强图像聚类方法(Discriminatively boosted clustering,DBC)[6]将深度自编码器优化为深度卷积自编码器,通过判别式增强分配的方式提高聚类分配的纯度.在其他方面不变的情况下,得到了更优的结果.

现有的深度聚类算法大部分采用经典K⁃means算法对所提取的特征进行聚类,并且得益于聚类结果对优化网络权值的指导作用.在对文献[5-8]的实验复现中发现,深度聚类结果很大程度上取决于深度卷积自编码器初始生成特征的K⁃means聚类结果.为此,本文不仅在深度卷积自编码器的网络结构、卷积方式等方面做了改进,而且在无监督深度嵌入聚类算法上采用了适用性更强Softmax方式.

2 深度嵌入Softmax聚类算法

2.1 非对称卷积特征(ASCAE)提取器

与传统的深度卷积自编码器网络相比,本文的网络添加多个不同数量神经元的全连接层,将整个网络修改为非对称的结构,整个网络结构如图1所示.

图1

图1   非对称的卷积自编码网络(ASCAE)框架图

Fig.1   A framework of the Asymmetric Convolutional Auto⁃encoder (ASCAE) network


其中,编码器包括卷积层C1⁃C4和全连接层F层、D1和D2,而且F层为C4的特征图变成的特征向量.解码器包括全连接层D2和D3和反卷积层T4⁃T1,而且D3层的神经元个数与F层的相同.F层、D1层、D3层为50个神经元,D2层的神经元个数为类别个数左右.由于D2层包含的神经元个数较少,信息量被大大地压缩,所以本文均使用F层的特征为输入图像的特征表示.

传统的卷积神经网络是模仿生物的视觉形成过程发展起来的,通常卷积与池化操作并存且交替进行.但有研究表明池化操作会丢失相邻数据的部分信息[23],因此以较大步长的卷积代替卷积和池化这一组合操作.本文ASCAE网络中C1和T1层的步长与卷积核大小相同,设定为3.设定步长等于卷积核大小,相当于将原始图片划分为不相交的若干部分,然后对各部分提取特征.该设定降低了卷积网络的计算量,增加了所提取特征的在整体上的鲁棒性.具体网络参数设置如表1所示.

表1   ASCAE网络参数设置

Table 1  Parameters settings of ASCAE network

LayersKernelStrides
C125×3×33
C250×3×32
C350×3×32
C450×2×21
F50-
D150-
D2K-
D350-

新窗口打开| 下载CSV


所有待聚类的图片均变换为28×28的灰度图片且不做归一化.在28×28图像上进行3×3卷积操作时舍弃边缘不重要的像素点.激活函数采用无上限的ReLU函数.不仅保证图片被顺利还原为0,255的范围,还加快了网络的收敛速度.损失目标是输入与输出之间的误差平方和函数:

J(θ;X)=1Ni=1Nxi-fθ(xi)2

其中,θ=θe,θd是网络参数.

在训练好的ASCAE网络上,用F层的输出作为特征信息,且保留C1⁃F层的网络结构和网络权重进行无监督深度嵌入聚类算法.

2.2 深度聚类Softmax算法(ASCAE⁃Softmax)已知含有N个图像的集合X=x1,x2,,

xN,通过ASCAE取得特征Z=z1,z2,,zN,获得关系映射为φθ:XZ.经典K⁃means算法对Z聚类,得到聚类中心集合C=c1,c2,,cK和类别硬指派Y=y1,y2,,yN,即每个zi(即xi)所属的yi1,2,,Ki=1,2,,N.

在ASCAE网络后接一个带参数的Softmax分类器,对特征集zi,yii=1N进行分类,计算特征点属于某一类的概率如式(2)所示:

pik=pyi=kzi,W=expwkTzil=1KexpwlTzi

其中,W=w1,w2,,wK为Softmax分类器的未知参数.

为了进一步减小同类的间隔,增大异类的间隔,先用同一类中数据的概率除以该类所有数据概率的总和即软聚类频率,接着重新计算每个数据属于不同类别的概率分布.即对分类概率矩阵P=pikN×K,其中每个特征的分类概率为pi=pi1,pi2,,piK,先对P每一个列向量归一化:

q˜ik=pikt=1Nptk

此时,特征属于类别的概率之和不为1,继续对其进行行向量归一化:

qik=q˜ikl=1Kq˜il

得到辅助概率分布Q.

该深度嵌入Softmax聚类方法的目标函数为:

L(θ,W;Z)=1Ni=1Nk=1Kqiklgqikpik+λ2θ22

其中,第一项是KL散度描述这两个概率分布的差异性.第二项是网络参数的L2正则项能稀疏化网络,提高网络的泛化能力,避免网络权值的爆炸式变化.

用随机梯度下降法更新网络参数和Softmax分类参数为:

Lzi=j=1K(qik-pik)wkTexp2wkTzi+λθ
Lwk=j=1K(qik-pik)ziexp2wkTzi

根据式(6)和链导法则更新ASCAE网络权值,再根据式(7)更新P值,然后计算Q值,用Q值继续更新网络权重和分类参数循环往复,直到Q值变化逐渐收敛至某一阈值.流程如图2所示.

图2

图2   特征优化

Fig.2   Feature optimization


3 实验与分析

本文在六个经典的图像数据集上进行实验,评价聚类性能的数值指标包括聚类精度(Accuracy,ACC)和标准互信息(Normalized Mutual Information,NMI).ACC表示聚类结果的正确率,而NMI衡量了预测分布与真实分布的相关程度.两个指标值越接近1,说明聚类准确度越高.实验环境为Intel Corei5⁃6300HQ处理器,NVIDIA 2.0 GB显存,8.0 GB RAM内存;基于TensorFlow2.0搭建网络.

3.1 MNIST数据集

在经典的手写数字集MNIST上,设D2层的神经元个数等于类别数10,用算法1端到端训练ASCAE直至收敛.对F层的特征进行K⁃means聚类分析(重复50次,取最好的聚类性能),取编码器F层及其左半部分,生成Softmax的聚类网络结构(如图2所示),用算法2优化ASCAE权值和Softmax参数W,直至满足停止条件.

算法1 ASCAE聚类算法(初始化ASCAE⁃Softmax算法)

输入:图像数据集、类簇个数K

输出:网络权值、特征表示;类中心和聚类指派

①使用端到端策略训练ASCAE,对目标函数(1)用随机梯度下降的算法最小化迭代直到收敛;

②输出网络参数值和F层的特征表示;

③K⁃means算法对特征进行聚类,得到聚类中心和聚类指派.

算法2 ASCAE⁃Softmax聚类算法

输入:编码器的参数值和特征表示

输出:类标向量和类簇中心

联合训练过程:

①根据式(2)在A和B网络计算真实概率分布;

② 根据式(3)和式(4)将A网络的真实分布生成为辅助概率分布;

③根据式(6)和式(7)在B网络上更新网络参数和聚类中心,不满足停止条件时回到①;

④对于每一个数据取概率分布最大值位置为所属类簇.

ASCAE算法的聚类指标和ASCAE⁃Softmax算法获取P值计算最终聚类性能指标列于表2.同时,本文还在相同的实验环境下复现了DEC[8],DBC[6]和DEPICT[5]三个深度聚类算法在MNIST上的聚类性能,并列于表2.最后,将Li et al[6]的三个以往算法的聚类性能也列于表2,其中黑体字表示最优的性能.

表2   在MNIST数据集上比较ASCAE,ASCAE⁃Softmax和六个聚类算法的聚类性能

Table 2  Clustering performances of ASCAE,ASCAE⁃Softmax and other six clustering algorithms on MNIST dataset

Algorithms

ACC

NMI

KMS[6]

0.535

0.531

AEC[6]

0.760

0.669

IEC[6]

0.609

0.542

DEC

0.889

0.856

DBC

0.766

0.759

DEPICT

0.924

0.850

ASCAE

0.925

0.854

ASCAE⁃Softmax

0.960

0.910

新窗口打开| 下载CSV


其中,KMS算法是经典K⁃means算法直接对原始图像进行聚类;AEC(Auto⁃encoder Based Data Clustering)算法是先用深度自编码器提取特征,然后用K⁃means聚类,而训练深度自编码器的目标函数由数据重构误差和紧致性两部分组成;IEC(Infinite Ensemble For Image Clustering)算法包含深度表示学习和聚类融合;DEC,DBC,DEPICT算法均为同时学习特征表示和聚类中心,采用深度自编码器学习特征表示和软K⁃means聚类,其中DEC,DEPICT为参考源代码的复现,得到与原论文相近的实验结果,DBC在没有源代码可参考的情况下尽可能地复现所有提到的细节,但结果不尽人意,可能是没抓到某些训练小细节,导致实验出现了一些偏差.

表2可以看出,本文的ASCAE⁃Softmax算法聚类性能最高(与DBC算法[6]最高的聚类精度0.964相当),说明Softmax分类结果有效地引导了网络更新,获得了更有辨识力的特征表示.而ASCAE算法(直接对编码器所提取的特征进行

K⁃means聚类)稍差,但都优于另外六个算法.且在与其他深度聚类算法相比较时,其他算法注重联合训练的优化,本文不仅对联合训练进行了优化,还对自编码器进行了大量的优化,进一步提高了联合训练时的下限,在初次联合训练时就能得到更好的概率分布.此外,KMS的聚类性能最差,说明以像素为特征时,很难区分同类图像的相似和异类之间的差异.

图3图4是ASCAE和ASCAE⁃Softmax的F层的二维特征可视化.图3中虽然各个团簇间有明显界限,但仍有一些数据散乱分布在整个特征空间.而图4中,散落在整个特征空间中的点少了很多,且较杂乱的点分布的位置相对集中,对于后续的数据处理有很大的优势.可视化图清晰地印证了ASCAE⁃Softmax优于ASCAE的原因.

图3

图3   MNIST在ASCAE训练后的F层特征

Fig.3   F⁃layer features of ASCAE on MNIST dataset


图4

图4   MNIST上ASCAE⁃Softmax的F层特征

Fig.4   F⁃layer features of ASCAE⁃Softmax on MNIST dataset


3.2 COIL⁃20物品数据集

COIL⁃20数据集是20个外形简单旋转角度不同的物品图像,每个物品有72张128×128灰度图片,部分图片展示于图5中.实验前先将图像缩小为28×28,且D2层的神经元个数设为20.本文还在相同的实验环境下复现了DEC[8],DBC[6]和DEPICT[5]三个深度聚类算法在COIL⁃20上的聚类性能,并列于表3.四个聚类算法和以往常用的两个聚类算法的聚类性能也列于表3,其中黑体字表示最优的性能.

图5

图5   COIL⁃20数据集中的部分图片

Fig.5   Some images of COIL⁃20 dataset


表3   ASCAE,ASCAE⁃Softmax和六个聚类算法在COIL⁃20上的聚类性能

Table 3  Clustering performances of ASCAE,ASCAE⁃Softmax and other six clustering algorithms on COIL⁃20 dataset

Algorithms

ACC

NMI

KMS[6]

0.592

0.767

DEN[6]

0.725

0.870

DEC

0.731

0.813

DBC

0.724

0.822

DEPICT

0.749

0.825

ASCAE

0.740

0.823

ASCAE⁃Softmax

0.755

0.833

新窗口打开| 下载CSV


根据表3可知,联合训练的ASCAE⁃Softmax和ASCAE和DEN相比,聚类精度提高了1.5%和3.0%,KMS仍是最差.在相同的实验环境下,与DEC,DBC,DEPICT相比亦在聚类精度上获得了些许提升,很大程度上说明了初始聚类概率分布对于最终结果的影响.虽然ACC精度优于其他六个算法,但NMI不及DEN算法.而且在实验中发现,较小的数据量不利于获取辅助目标的概率分布,使优化聚类特征较为困难.当自编码器提取出优异的特征,提供了较高的聚类精度,后续的联合优化能有限地提升聚类精度.

图6展示了COIL⁃20数据集在深度嵌入聚类算法的过程可视化.可以看出不同类别特征之间的距离逐渐增大,相同类别的特征逐渐变得紧凑.特征空间是逐渐向同类紧凑、异类稀疏的方向发展.

图6

图6   COIL⁃20上ASCAE⁃Softmax聚类过程的可视化

Fig.6   Visualization of ASCAE⁃Softmax clustering process on COIL⁃20 dataset


3.3 人脸数据集

在四个形态、角度各异的人脸图像集(CAS⁃PEAL⁃R1((http:∥www.jdl.ac.cn/peal/index.html),BioID⁃Face(https:∥www.bioid.com/About/BioID⁃Face⁃Database),IMM⁃Face(http:∥www.imm.dtu.dk/~aam/aamexplorer/),UMIST(https:∥blog.csdn.net/garfielder007/article/details/51480770)上进行了第三组实验,数据集的差异性如图7所示.先将人脸图像缩小为28×28的灰度图像.其次,通过镜像、旋转、调整亮度、饱和度等操作,将每个人的图片量扩充50倍.此组实验中,D2层的神经元个数为20.聚类性能如表4所示,其中黑体字表示最优的性能.

图7

图7   四个人脸图像集上的部分图片示例

Fig.7   Image examples from the four human face datasets


表4   ASCAE和ASCAE⁃Softmax算法在四个人脸图像集上的聚类性能

Table 4  Clustering performances of ASCAE and ASCAE⁃Softmax on four face datasets

ASCAEASCAE⁃Softmax
ACCNMIACCNMI
CAS⁃PEAL⁃R10.8900.9580.9000.959
BioID⁃Face0.8520.9490.8950.950
IMM⁃Face0.5500.7600.5710.763
UMISTS0.4420.6470.4470.654

新窗口打开| 下载CSV


图8

图8   四个人脸数据集上ASCAE和ASCAE⁃Softmax的F特征可视化

Fig.8   Visualization of F features: (a)ASCAE,(b) ASCAE⁃Softmax on the four face datasets


表4可以看出,在无旋转的人脸数据集CAS⁃PEAL⁃R1和BioID⁃Face上可以获得较好的实验结果,但是在有旋转角度的IMM⁃Face,UMISTS上,得到与 MNIST和COIL⁃20上相同的结论.即有旋转角度时,聚类精度较差;无角度的数据上有很高的聚类精度.结合了Softmax的联合训练虽然对于精度的提升不是很大,但在特征的可视化方面贡献突出,表现为特征在同类上更为紧凑,在异类上更为稀疏,从而类别间更易划分.

4 结 论

本文提出一种基于非对称卷积自编码器的特征提取器.用卷积核大小与步长相同的卷积方式在传统的卷积编码器上加了多个全连接层,且全连接层的神经元个数不一,整个网络呈非对称结构.在获取聚类特征后,采用深度Softmax聚类方法.用Softmax函数计算每个数据点的聚类概率分布,使用不含Dropout的网络获取构造辅助目标分布,优化有Dropout层的网络.不断优化特征得到了更优的聚类概率分布和特征生成空间.

实验表明,本文提出的基于非对称卷积编码器的深度Softmax聚类算法在没有角度的图像集上有很好的结果,优于其他深度聚类算法.在有旋转的图像上,聚类精度不是特别突出但仍能优于部分深度聚类算法.在本文的六个图像集生成的特征空间上,拥有同类紧凑异类稀疏的独特优势.因此本文的方法是行之有效的图像深度聚类方法之一.

显然,图像类型的多样性带来更多的不确定性,增加了图像级别知识颗粒的不可分辨性.如何有效地进行图像聚类分析将是下一步的研究内容.

参考文献

Zhang L HQi G JWang L Qet al. vs AET.

AED:unsupervised representation learning by auto⁃encoding transformations rather than data

2009 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Long Beach,CA,USAIEEE20192547-2555.

[本文引用: 1]

Kang G LJiang LYang Yet al.

Contrastive adaptation network for unsupervised domain adaptation

2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Long Beach,CA,USAIEEE20194893-4902.

Wu Z RXiong Y JYu S Xet al.

Unsupervised feature learning via non⁃parametric instance discrimination

2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City,UT,USAIEEE20183733-3742.

[本文引用: 1]

Caron MBojanowski PJoulin Aet al.

Deep clustering for unsupervised learning of visual features

The 15th European Conference on Computer Vision (ECCV). Springer Berlin Heidelberg,2018132-149.

[本文引用: 2]

Dizaji K GHerandi ADeng Cet al.

Deep clustering via joint convolutional autoencoder embedding and relative entropy minimization

2017 IEEE International Conference on Computer Vision (ICCV). Venice,ItalyIEEE20175736-5745.

[本文引用: 4]

Li F FQiao HZhang Bet al.

Discriminatively boosted image clustering with fully convolutional

[本文引用: 10]

auto⁃encoders

Pattern Recognition201883161-173.

[本文引用: 10]

Yang J WParikh DBatra D.

Joint unsupervised learning of deep representations and image clusters

2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas,NV,USAIEEE20165147-5156.

Xie J YGirshick RFarhadi A.

Unsupervised deep embedding for clustering analysis

2016

arXiv:1511

.06335.

[本文引用: 4]

Radford AMetz LChintala S. Unsupervised representation learning with deep convolutional generative adversarial networks. arxiv1511.064342015.

[本文引用: 2]

Wang W GSong H MZhao S Yet al.

Learning unsupervised video object segmentation through visual attention

IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Long Beach,CA,USAIEEE20193064-3074.

[本文引用: 1]

He K MFan H QWu Y Xet al. Momentum contrast for unsupervised visual representation learning. arXiv:1911.057222020.

[本文引用: 1]

Vo V HBach FCho Met al.

Unsupervised image matching and object discovery as optimization

IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Long Beach,CA,USAIEEE20198287-8296.

[本文引用: 1]

Fischer AIgel C.

An introduction to restricted Boltzmann machines

∥Alvarez L,Mejail M,Gomez L,et al. Progress in pattern recognition,image analysis,computer vision,and applications (CIARP). Springer Berlin Heidelberg,201214-36.

[本文引用: 1]

Rumelhart D EHinton G EWilliams R J.

Learning representations by back⁃propagating errors

Nature,1986323(6088):533-536.

[本文引用: 2]

Lecun YBottou LBengio Yet al.

Gradient⁃based learning applied to document recognition

Proceedings of the IEEE,199886(11):2278-2324.

[本文引用: 1]

Dosovitskiy ASpringenberg J TRiedmiller Met al.

Discriminative unsupervised feature learning with convolutional neural networks

Proceedings of the 27th International Conference on Neural Information Processing Systems. Montreal,CanadaMIT Press2014766-774.

[本文引用: 1]

Hinton G ESalakhutdinov R R.

Reducing the dimensionality of data with neural networks

Science,2006313(5786):504-507.

[本文引用: 1]

Masci JMeier UCireşan Det al.

Stacked convolutional auto⁃encoders for hierarchical feature extraction

The 21th International Conference on Artificial Neural Networks. Springer Berlin Heidelberg,201152-59.

[本文引用: 1]

Goodfellow IPouget⁃Abadie JMirza Met al.

Generative adversarial nets

Proceedings of the 27th International Conference on Neural Information Processing Systems. Montreal,CanadaMIT Press20142672-2680.

[本文引用: 1]

Caron MBojanowski PMairal Jet al.

Unsupervised pre⁃training of image features on non⁃curated data

2019 IEEE/CVF International Conference on Computer Vision (ICCV). Seoul,Korea (South)IEEE20192959-2968.

[本文引用: 1]

Ji XVedaldi AHenriques J F.

Invariant information clustering for unsupervised image classification and segmentation

2019 IEEE/CVF International Conference on Computer Vision (ICCV). Seoul,Korea (South)IEEE20199865-9874.

[本文引用: 1]

Van Der Maaten LHinton G.

Visualizing data using t⁃SNE

Journal of Machine Learning Research,200892579-2605.

[本文引用: 1]

Springenberg J TDosovitskiy ABrox Tet al.

Striving for simplicity:the all convolutional net

2015

arXiv:1412

.6806.

[本文引用: 1]

/