南京大学学报(自然科学), 2020, 56(4): 515-523 doi: 10.13232/j.cnki.jnju.2020.04.009

基于迁移学习的软子空间聚类算法

王丽娟1,2, 丁世飞,1, 丁玲1

1.中国矿业大学计算机科学与技术学院,徐州,221116

2.徐州工业职业技术学院信息与电气工程学院,徐州,221400

Soft subspace clustering algorithm based on transfer learning

Wang Lijuan1,2, Ding Shifei,1, Ding Ling1

1.School of Computer Science and Technology,China University of Mining and Technology,Xuzhou,221116,China

2.School of Information and Electrical Engineering,Xuzhou College of Industrial Technology,Xuzhou,221400,China

通讯作者: E⁃mail:dingsf@cumt.edu.cn

收稿日期: 2020-06-20   网络出版日期: 2020-08-05

基金资助: 国家自然科学基金.  61672522.  61976216
2020年江苏省高校“青蓝工程”

Received: 2020-06-20   Online: 2020-08-05

摘要

随着大数据时代的到来,大量的高维数据在生活中无处不在.聚类是分析描述数据并按照某种相似性将数据归类的一项技术.传统聚类算法在面对高维数据时,往往无法进行有效的聚类处理.软子空间聚类是通过分配权重,描述样本隶属于不同簇的不确定性来进行聚类,然而,当数据残缺或信息不准时,现有的软子空间聚类的准确度和效率会受到很大的影响.从软子空间聚类面临的问题出发,提出一种改进的软子空间聚类算法;同时针对数据残缺不足的问题,引入迁移学习来削弱数据量不足对聚类分析的影响;通过引入信息熵的概念,用信息熵确定高维数据权重.实验证明,通过结合迁移学习和信息熵,有效地提高了软子空间聚类算法精确度和准确度.

关键词: 子空间聚类 ; 迁移学习 ; 信息熵 ; 高维数据

Abstract

With the advent of the era of big data,a large number of high⁃dimensional data have become very common. Clustering is a technique of analyzing,describing and classifying data according to some similarity. When faced with high⁃dimensional data,the traditional clustering algorithms are often unable to carry out effective clustering processing. Soft subspace clustering is based on the distribution of weights to describe the uncertainty of samples belonging to different clusters. However,the accuracy and efficiency of existing soft subspace clustering will be significantly affected when the data is incomplete or the information is not timely. Starting from the problems faced by soft subspace clustering,this paper proposes an improved soft subspace clustering algorithm. At the same time,aiming at the problem of insufficient data,we introduce migration learning to reduce the impact of insufficient data on clustering analysis. By introducing the concept of information entropy,we use information entropy to determine the weight of high⁃dimensional data. By combining migration learning and information entropy,the accuracy and accuracy of soft subspace clustering algorithm are effectively improved.

Keywords: subspace clustering ; transfer learning ; information entropy ; high dimensional data

PDF (832KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

王丽娟, 丁世飞, 丁玲. 基于迁移学习的软子空间聚类算法. 南京大学学报(自然科学)[J], 2020, 56(4): 515-523 doi:10.13232/j.cnki.jnju.2020.04.009

Wang Lijuan, Ding Shifei, Ding Ling. Soft subspace clustering algorithm based on transfer learning. Journal of nanjing University[J], 2020, 56(4): 515-523 doi:10.13232/j.cnki.jnju.2020.04.009

大数据时代无时无刻地进行着海量的数据和信息交换,如何从海量的高维数据中挖掘提取有价值的信息是近年讨论的热点问题.数据聚类分析是数据挖掘的有效工具之一,是数据挖掘领域研究的重点和热点[1-3].聚类分析是一种通过算法自动分析数据对象之间的相似性或者相异性、自动地将数据集中未标记的数据分到不同的簇之中的方法.每个簇中的数据在某个标准下具有一定的相似性,而簇间的数据在这一标准下的相似性则很低[4].这种方法的用途是对原始的数据集合进行处理,得到一种聚类处理结果,再通过对聚类结果的分析,提取人们需要的有价值的信息.目前,聚类分析已被广泛应用到各个领域:在商业领域,聚类分析可以被用来发现不同的客户群,研究不同客户的消费行为,寻找潜在市场来制定不同的销售方案[5-6];在生物医学领域,聚类分析能够对基因进行分类,从而研究不同的种群结构,分析与各种疾病之间的潜在联系[7];在电子商务类行业,聚类分析能从网站建设的数据中挖掘分析出各个客户的相似习惯,达到优化服务的目的.

近年来,在各个应用领域的实际数据都呈现维度剧增的趋势,数据呈现高维化发展的态势并因此爆发了“维度灾难”[8-10].高维数据比低维有更多的难以处理的特性,比如在高维数据中,判断数据样本之间的相似性非常困难,因为数据样本之间的距离几乎一致,这是数据在高维空间的分布越来越稀疏导致的;其次,高维数据有大量的子属性,这些子属性中存在一些与特定簇无关或者冗余的属性,导致进行聚类时不同的子空间可能发现不同的簇的问题[11];并且,随着维数的不断增加,每个维度的取值将会呈现指数级别的增长,很难完全枚举所有的子空间.因此在高维数据领域,传统的聚类方法的表现并不理想.Agrawal et al[12]在SIGMOD会议上提出子空间聚类的概念.子空间聚类是对传统聚类的扩展,能从高维数据集中发现隐藏在不同低维子空间中的簇类.子空间聚类将原始数据集划分成不同的簇并同时搜索各个簇的子空间,对各个簇中关联的各个属性赋予不同的权重,从而研究属性与簇的关联程度.子空间聚类算法又分硬子空间(Hard subspace)和软子空间(Soft subspace)[13-16].硬子空间是采用自底向上或者自顶向下的搜索策略,按照一定的标准在源数据集的所有特征集中选取精确的特征子集组成子空间并进行聚类.对高维数据的聚类算法就是从硬子空间开始研究的,并且已经取得了很大成果,所以硬子空间聚类已经相对成熟,如CLIQUE算法[17]、PROCLUS算法[18]等.软子空间聚类则是在硬子空间聚类之后慢慢发展起来的,因为其在面对高维数据时有更好的适应性,因而引起国内外学者的广泛关注[19-20].软子空间算法为簇类各个特征赋予不同的权值,从而获知簇类与全特征空间中哪些特征具有相关性,并且反应各个特征与簇的相关程度与差异,为每个簇寻找一个模糊子空间.与硬子空间相比,面对高维数据时软子空间有更好的适应性与灵活性.

迁移学习是一种在已有的环境中认知和学习到的信息被应用到新的任务和环境下的能力.迁移学习作为一种能利用其他相似领域上学到的知识来辅助当前任务的一种方法,被广泛运用于各个邻域中[21].根据源任务和目标任务之间的差异,可将迁移学习大致分为归纳式迁移学习、直推式迁移学习和无监督学习[22].在聚类分析算法的过程中,需要大量已知数据支持,而实际情况下,很多时候会出现已知数据样本不足、数据残缺或者信息不准确的情况[23].因此本文引入熵的概念,根据信息熵来确定权重,并将迁移学习与子空间聚类算法结合,利用迁移学习改进优化软子空间聚类算法的聚类性能.

1 基础理论

1.1 子空间聚类算法

1.1.1 软子空间聚类算法

在传统的软子空间聚类算法中,所有的簇类共享相同的子空间和权重向量,例如WK⁃Means(Weights K⁃Means)算法和WFCM(Weighting Fuzzy C⁃Means)算法.

WFCM算法的全称为样本加权模糊C均值算法,它是对FCM((Fuzzy C⁃means))算法的改进[24].FCM算法基于传统欧式距离,每个数据样本对聚类的贡献几乎相同,然而实际上在高维领域,每个数据样本都会对聚类产生不同的程度的影响.用传统的FCM算法无法体现噪声点或者偏远数据样本集体对聚类的影响,所以WFCM引入一种点密度函数来作为样本点的加权系数计算方法,对于每个样本点,点密度函数计算方式为:

zi=j=1,jin1dij
dij=xi-xj,1in,1jn

其中,dij表示两个样本点之间的欧式距离,若数据样本点周围点越多,则z的值越大.用Wi表示第i个样本Xi对分类的影响程度:

Wi=zij=1nzj,1in

Wi引入到FCM的目标函数中得到新的目标函数公式:

J(u,v,w)=i=1cj=1nwjuijmdij2

聚类中心点vi和模糊隶属度uij的更新公式如下:

vi=j=1nwjuijmxjj=1nwjuijm,1ic
uij=k=1cvi-xjvk-xj2m-1-1,1ic,1jn

WFCM的算法流程如图1所示.

图1

图1   WFCM的算法流程图

Fig.1   Flow chart of WFCM algorithm


1.1.2 扩展软子空间聚类算法

扩展的软子空间聚类算法[25]通过引入新的机制来进一步优化提升传统软子空间聚类或者独立软子空间聚类算法的聚类效果,典型的有ESSC算法,ESSC算法原名Enhanced Soft Subspace Clustering,意为增强的软子空间聚类算法.该算法通过引入类间分离度的思想,其聚类效果经过实验表明明显优于之前只考虑类内相似度的算法.ESSC算法的目标函数为:

JESSC=i=1Cj=1Nuijmk=1Dwijxjk-vjk2+φi=1Ck=1Dwiklnwik-ηi=1Cj=1Nuijmk=1Dwikvik-v0k2

其中,全局中心点v0k的计算如式(8)所示:

v0k=j=1NxjkN

ESSC算法引入了一个参数η,用来调节类间分离度对聚类结果的影响.ESSC中对划分矩阵U、簇中心矩阵V和权值矩阵W的更新如式(9)和式(10)所示:

uij=dij-1m-1i=1Cdij-1m-1
vik=j=1Nuijmxik-ηv0kj=1Nuijm1-η

其中,dijδik的计算如式(11)和式(12)所示:

dij=k=1Dwikxjk-vik2-ηk=1Dwikvjk-v0k2
δik=j=1Nuijmxjk-vik2-ηj=1Nuijmvjk-v0k2

1.2 迁移学习

迁移学习作为机器学习领域的一个新的研究方向,近年来受到越来越多的关注.传统的机器学习方法要求源领域数据和目标领域数据同分布,而迁移学习放松了这一限制,能够把已经获得的知识应用到不同但相似的领域中,解决了目标领域中可用训练样本不足的学习问题.

为了解决目标任务数据仅存在少量或无标注数据问题,通过迁移学习将某个领域或任务已具有的先验知识或模型应用到与其相关的任务或问题中,更为有效地利用有标注数据[26].通常,迁移学习主要针对两个问题展开研究:(1)小数据问题:传统机器学习算法一般假设训练数据与测试数据服从相同的数据分布规律但实际应用中往往无法满足,为了保证训练效果,通常需要重新标注大量数据但有时会带来数据的浪费,而当训练数据过少时,还会出现严重过拟合问题;而迁移学习可从源域的小数据中抽取并迁移知识来完成新的学习任务.(2)个性化问题:当源领域过广又不够具体且研究需要专注于某一个特定目标领域时,可以通过迁移学习将源领域的预训练模型特征迁移到目标领域,从而实现个性化.

迁移学习中,域与任务是两个常见的基本概念.领域D(Domain)定义为由d维特征空间χ和边缘概率分布p(x)组成,即:

D=χ,p(x),xχ

迁移学习的任务T由对应某一领域的类别空间Y和模型f(x)组成,即:

T=Y,f(x),yY

目标领域Dt是最终要赋予知识和标注的对象,是关注的中心.知识从源域传递到目标域就完成了迁移建立模型的领域.Dt的数据集一般分为两部分:标注样本和无标注样本,有标注数据样本往往数量少且难以建立模型.源领域Ds是可以辅助目标领域建模的相近领域,数据集一般为:

Ds=xi,yii=1,2,,ns

源领域一般包含大量有标注数据,且源领域可以为一个或多个.由于DtDs为不同的领域,两者的数据分布存在差异,这也导致源领域不能直接用来辅助训练,必须通过迁移学习的方法提高领域之间的相似性.若只考虑一个源域和目标域的情况,可以定义迁移学习为给定源域D(s)和源任务T(s)以及目标域D(T)和目标任务T(T);当域或任务有一者不同时,迁移学习则通过使用源域D(s)和源任务T(s)对应的知识来改善目标域中转换函数f(x)性能,这一过程称为迁移学习.

迁移学习的关键在于找到源域与目标域或源任务与目标任务之间的共性,包括样本实例、网络架构或特征表示等方面,从而获得可以对目标域样本进行分类或识别的新模型,达到有效完成目标任务的目标,如图2所示.

图2

图2   知识迁移

Fig.2   Knowledge Transfer


迁移学习主要研究以下问题:(1)迁移什么和何时迁移,即源领域数据的哪些先验知识训练出新的模型应用到目标域中能够表现出优异的性能,也就是什么条件下可以迁移?(2)在无标注或少量标注数据的目标域中,如何在训练中与大量有标注的源数据结合,获得测试误差最小,即迁移学习算法的研究也就是如何迁移.目前的迁移学习技术涉及多种机器学习技术,如半监督学习、领域适配、鲁棒学习、样本选择偏置、多任务学习等.通过迁移学习的研究,不仅可以更加充分地利用现有已标签数据信息,而且可以利用模型的泛化能力和鲁棒性实现知识在新领域新应用模型中的迁移复用.

2 结合迁移学习的软子空间聚类算法

近年来,聚类分析在统计学、数据库领域和机器学习等领域得到广泛研究.传统聚类分析算法存在诸多限制,而子空间聚类算法能进一步提升聚类分析的性能和效果,其中软子空间聚类算法更是同时具有灵活性和适用性.目前大部分软子空间算法是基于传统k⁃Means/FCM框架进行聚类,而这类算法往往存在如下缺点:(1)无法为每个簇选择各自有用的特征维度,从而导致聚类精度大大降低;(2)算法在运算时需要已有的完整数据作为支撑,所以聚类效果往往不佳[27].

基于以上问题,本文将熵加权软子空间聚类算法(Entropy Weighting k⁃Means Algorithm for Subspace Clustering,EWKM)和迁移学习进行融合,通过引入信息熵的概念和迁移学习的思想,提出一种基于迁移学习的软子空间聚类算法(Soft Subspace Clustering Algorithm Based on Transfer Learning,TSC).

2.1 熵加权的k⁃Means软子空间聚类算法

熵加权的软子空间聚类算法通过引入信息熵的概念,使数据维度的权重由信息熵来计算和确定[28],因此权重不会使每个簇拥有相同的特征子空间维度.熵加权的软子空间聚类算法和以往的其他子空间聚类算法相比,如模糊加权软子空间聚类算法等,在大数据集或高维度数据集上往往能获得更好的聚类效果.

2.1.1 算法原理

熵加权的k⁃Means软子空间聚类算法的目标函数为:

JEWKMW,Z,Λ=l=1kj=1ni=1mwljλlizli-xji2+γi=1mλlilgλli
l=1kwlj=1,1jn,1lk,wlj0,1l=1kλlj=1,1lk,1jm,0λlj1

其中,W表示分配矩阵,大小为k×nZ表示当前聚类中心矩阵;k表示聚类总数,n表示数据集中对象个数,m表示对象的维数;λ表示每个簇所对应的权重,维度为k×mγ为大于0的参数.式(16)中矩阵Λλ所对应的矩阵,求和式中的第一项为簇内分散度的总和,第二项为负熵权.正参数γ控制了聚类在更多维度上的贡献程度.γi=1mλlilgλli的绝对值越大,对应目标函数的值就会越小.所以在最小化目标函数的过程中,熵项会尽量使各个权值值趋于平滑来避免某些维度权值为0的情况,起到一种平衡的作用.

2.1.2 EWKM算法流程输入:聚类中心数k,正参数γ.随机选取k个数据点作为聚类中心,初始化所有权重为1/m.

重复:

Step1.更新分配矩阵;

Step2.更新聚类中心矩阵;

Step3.更新特征权重矩阵.

直到:目标函数得到其局部最小值.

2.2 TSC算法

虽然EWKM算法能很好地解决数据分散在稀疏的高维子空间的问题,但其和以往的软子空间聚类算法一样,优点是建立在数据样本充足并且没有大量残缺数据信息的条件下.而当样本数据量不足或者存在信息缺失时,软子空间聚类的性能将大幅下降.为此,从熵加权软子空间聚类算法的基础上,尝试引入迁移学习来改善数据样本不足或信息缺失的问题.这种基于迁移学习的熵加权软子空间聚类算法的关键是如何用以往的数据信息作为辅助数据来弥补数据样本不足或信息缺失的缺点,从而得到更好的聚类效果.

TSC算法通过从历史数据中获得的聚类中心ẑ作为一种可以使用的知识,用来指导算法对目标域数据样本的聚类分析.

2.2.1 算法原理

TSC算法在进行计算时,其目标函数可以描述为:

JTSCW,Z,Ẑ,Λ=JEWKMW,Z,Λ+JTransferW,Z,Ẑ
JEWKMW,Z,Λ=l=1kj=1ni=1mwljλlizli-xji2+γi=1mλlilgλli
JTransferW,Z,Ẑ=β1l=1kj=1ni=1mwljλliẑli-xji2+β2l=1kj=1ni=1mwljλliẑli-zli2                              (20)
l=1kwlj=1,1jn,1lk,wlj0,1l=1kλlj=1,1lk,1im,0λli1

其中,n表示数据样本总数,m表示每个数据样本所含维数,k表示簇的个数;W表示分配矩阵,大小为k×nΛ表示权重矩阵,维度为k×mγ为大于0的参数;Z表示当前聚类中心矩阵,Ẑ表示从历史信息中获得的聚类中心矩阵;β1用来控制当前聚类的权重,β2用来平衡历史数据的应用.

式(18)可知,算法的目标函数中第一项是熵加权k⁃Means软子空间聚类算法,主要用来处理当前数据集;第二项为迁移学习项,主要作用是利用历史聚类中心来指导当前聚类任务.该算法的主要思想就是利用历史数据化指导目标数据聚类分析来强化熵加权软子空间聚类,弥补数据样本不足或信息残缺的问题.同样,使用拉格朗日乘子法可得到分配矩阵更新公式为:

wlj=1      if dljdrjwlj=0     otherwise   
dlj=i=1mλlizli-xji2+β1i=1mλliẑli-xji2+β2i=1mλliẑli-zli2

聚类中心更新公式为:

zli=j=1nwljxji+β2j=1nwljẑlij=1nwlj+β2j=1nwlj,1lk,1im

权重矩阵更新公式为:

λlt=exp-Dltγi=1Mexp-Dliγ
Dlt=j=1nwljzlt-xjt2+β1j=1nwljẑlt-xjt2+β2j=1nwljẑlt-zlt2
2.2.2 TSC算法流程输入:聚类中心数k,正参数γβ1β2.随机选取k个数据点作为聚类中心,初始化所有权重为1/m.

重复:

Step1.通过式(22)更新分配矩阵W.

Step2.通过式(18)更新聚类中心矩阵Z.

Step3.通过式(25)更新特征权重矩阵Λ.

直到:满足迭代终止条件.

3 实验与分析

用MATLAB R2019a进行仿真实验,选取UCI标准数据集中的Iriss、Wine、Vehicle和Australian这四个典型的数据集进行测试,并与以往的典型软子空间聚类分析算法EWKM,ESSC和FSC进行比较.本文设计的实验中,最大迭代次数iterations=100为算法终止条件,设置γ=50m=minN,D-1minN,D-1-2β1=1β2=1.

3.1 UCI数据集

为了测试算法的性能和有效性,本文选用三个UCI标准数据集,它们都是在聚类分析算法评测中广泛使用的典型的数据集.数据集的详细信息如表1所示.

表1   UCI数据集详细信息

Table 1  The details of UCI datasets

序号名称样本数N维度D聚类数目C
1Iris15043
2Wine178133
3Vehicle208184
4Australian690142

新窗口打开| 下载CSV


3.2 聚类评价指标

评测聚类分析算法的有效性需要有有效的评价指标,本文采用大多数研究文献中的评价标准,即兰德指数(RI)和标准化互信息(NMI)作为评价指标:

RI=f00+f11NN-1/2
NMI=i=1Kj=1Cnijlog2N×nijni×nji=1Knilog2niNi=1Cnjlog2njN

其中,N表示整个数据集样本数,C为簇的数目,K是数据集实际簇数;f00表示属于不同簇的具有不同标签的数据样本对数,f11表示属于相同簇且具有相同标签的数据样本对数;ni表示实际属于第i簇的样本点数,nj表示实验得出的属于第j簇的样本点数,nij表示分错类的样本点数,其中ij.

RINMI的评测值均在0,1,得分越高表示聚类效果越好;RINMI值为1则表示聚类结果完全匹配,准确度为100%;RINMI的值为0则表示聚类结果和实际情况完全不匹配.

3.3 实验结果分析

为了验证本文提出的基于迁移学习的软子空间算法的性能,将各个数据集中前70%的数据作为历史数据信息Xhistory,剩下的30%作为当下需要聚类数据集Xcurrent.又将Xcurrent分为两类:一类包含全部类别的数据样本⁃⁃Xcurrent-all,模拟数据样本不足的情况;一类缺失一种类别的数据样本Xcurrent-lost,模拟信息缺失的情况.实验时,先将三种传统算法在Xhistory数据集上运行,得到的聚类评测结果如表2表3所示.

表2   Xhistory聚类结果(RI指数)

Table 2  The clustering results of Xhistory (RI index)

数据集EWKMESSCFSC
Iris0.85230.87200.8423
Wine0.84150.89750.8358
Vehicle0.37470.52610.3854
Australian0.75520.71230.7348

新窗口打开| 下载CSV


表3   Xhistory聚类结果(NMI指数)

Table 3  The clustering results of Xhistory (NMI index)

数据集EWKMESSCFSC
Iris0.75230.74410.7105
Wine0.70150.70250.7158
Vehicle0.10420.12250.1156
Australian0.48350.34540.3855

新窗口打开| 下载CSV


然后加入TSC算法,将四种算法在Xcurrent-allXcurrent-lost上运行,结果如表4表5所示.

表4表5的评测结果可知,在多项不同类别的数据集上,TSC算法所得到的聚类结果要优于其他对比算法,即能够取得相对良好的处理结果;而在对数据进行聚类时,即使面临数据样本或者数据信息缺失,TSC算法也能取得最佳的聚类效果.这是由于该算法引入了迁移学习的思想,从以往的数据中获取历史中心来指导修正当前数据不足时的聚类分析任务;而其他算法由于数据样本太少,信息不足,导致性能下降.设置好的正参数对算法性能有很大提升.

表4   Xcurrent聚类结果(RI指数)

Table 4  The clustering results of Xcurrent (RI index)

数据集Xcurrent⁃allXcurrent⁃lost
EWKMESSCFSCTSCEWKMESSCFSCTSC
Iris0.62350.63580.61350.78520.54420.53170.54230.7561
Wine0.65520.68840.64510.72450.60750.60230.59970.8024
Vehicle0.65780.60210.60770.82450.38710.35610.35340.6122
Australian0.60210.59750.59880.78460.42230.41250.41080.7241

新窗口打开| 下载CSV


表5   Xcurrent聚类结果(NMI指数)

Table 5  The clustering results of Xcurrent (NMI index)

数据集Xcurrent⁃allXcurrent⁃lost
EWKMESSCFSCTSCEWKMESSCFSCTSC
Iris0.52470.53650.52860.68070.42750.45620.39250.5803
Wine0.62180.64520.61020.75340.58420.62310.57140.6744
Vehicle0.12040.10780.11070.16080.02140.04510.01680.1256
Australian0.25360.22370.24960.45320.24530.14310.10870.3998

新窗口打开| 下载CSV


4 结 论

针对传统的软子空间聚类算法在样本数据残缺时聚类准确度不高的问题,提出一种基于迁移学习的软子空间聚类算法,通过引入迁移学习与信息熵,用熵权法确定权重处理高维数据,并将历史数据用于指导和修正当前的聚类分析,有效地提升了算法在数据样本残缺情况下的聚类效果,拓展了软子空间聚类算法的应用范围.通过实验表明,在相同的高维数据集下,与三种典型的聚类算法相比较,本文算法在两种评价指标下均取得了更高的聚类准确度,得到了更好的聚类性能.

参考文献

Chan E YChing W KNg M Ket al.

An optimization algorithm for clustering using weighted dissimilarity measures

Pattern Recognition,200437(5):943-952.

[本文引用: 1]

Gan G JWu J HYang Z J.

A fuzzy subspace algorithm for clustering high dimensional data

International Conference on Advanced Data Mining and Applications. Springer Berlin Heidelberg,2006271-278.

Jing L PNg M KHuang J Z.

An entropy weighting k⁃means algorithm for subspace clustering of high⁃dimensional sparse data

IEEE Transactions on Knowledge and Data Engineering,200719(8):1026-1041.

[本文引用: 1]

Domeniconi CGunopulos DMa Set al.

Locally adaptive metrics for clustering high dimensional data

Data Mining and Knowledge Discovery,200714(1):63-97.

[本文引用: 1]

Deng Z HChoi K SChung F Let al.

Enhanced soft subspace clustering integrating within⁃cluster and between⁃cluster information

Pattern Recognition,201043(3):767-781.

[本文引用: 1]

Lu Y PWang S RLi S Zet al.

Particle swarm optimizer for variable weighting in clustering high⁃dimensional data

Machine Learning,201182(1):43-70.

[本文引用: 1]

Wang X BLei ZShi H Let al.

Co⁃referenced subspace clustering

2018 IEEE International Conference on Multimedia and Expo (ICME). San Diego,CA,USAIEEE20181-6.

[本文引用: 1]

Elhamifar E,Vidal R.

Sparse subspace clustering:algorithm,theoryand applications

IEEE Transac⁃tions on Pattern Analysis & Machine Intelligence, 2012, 35(11):2765-2781.

[本文引用: 1]

Dai WXue G RYang Qet al.

Transferring naive Bayes classifiers for text classification

Proceedings of the 22nd AAAI Conference on Artificial Intelligence. Vancouver,CanadaAAAI Press2007540-545.

Wei F MZhang J PChu Yet al.

FSFP:transfer learning from long texts to the short

Applied Mathematics & Information Sciences,20148(4):2033-2040.

[本文引用: 1]

Dai W YYang QXue G Ret al.

Boosting for transfer learning

Proceedings of the 24th international conference on Machine learning. Helsinki FinlandACM2007193-200.

[本文引用: 1]

Agrawal RGehrke JGunopulos Det al.

Automatic subspace clustering of high dimensional data for data mining applications

ACM SIGMOD Record. Seattle,WA,USAACM199894-105.

[本文引用: 1]

钱鹏江孙寿伟蒋亦棒.

知识迁移极大熵聚类算法

控制与决策,201530(6):1001-1006.

[本文引用: 1]

Qian P JSun S WJiang Y Bet al.

Knowledge Transfer based maximum entropy clustering

Control and Decision201530(6):1001-1006.

[本文引用: 1]

Yu JShi H BHuang H Ket al. Counterexamples to convergence theorem of maximum⁃entropy clustering algorithm. Science in China Series FInformation Sciences200346(5):321-326.

王熙照安素芳.

基于极大模糊熵原理的模糊产生式规则中的权重获取方法研究

计算机研究与发展,200643(4):673-678.

Wang X ZAn S F.

Research on learning weights of fuzzy production rules based on maximum fuzzy entropy

Journal of Computer Research and Development200643(4):673-678.

邓赵红王士同吴锡生.

鲁棒的极大熵聚类算法RMEC及其例外点标识

中国工程科学,20046(9):38-45.

[本文引用: 1]

Deng Z HWang S TWu X Set al.

Robust maximum entropy clustering algorithm RMEC and its outlier labeling

Engineering Science20046(9):38-45.

[本文引用: 1]

Jiang W HChung F L.

Transfer spectral clustering

Proceedings of the 2012 European conference on Machine Learning and Knowledge Discovery in Databases. Springer Berlin Heidelberg,2012790-803.

[本文引用: 1]

Jain A KMurty M NFlynn P J.

Data Clustering:a review

ACM Computing Surveys (CSUR),199931(3):265-320.

[本文引用: 1]

Guo G D,Chen S,Chen L F.

Soft subspace clustering with an improved feature weight self⁃adjustment mechanism

International Journal of Machine Learning & Cybernetics,2012,3(1):39-49.

[本文引用: 1]

Xu Y MWang C DLai J H.

Weighted multi⁃view clustering with feature selection

Pattern Recognition,20165325-35.

[本文引用: 1]

Zhao X REvans NDugelay J L.

A subspace co⁃training framework for multi⁃view clustering

Pattern Recognition Letters,20144173-82.

[本文引用: 1]

Ji J CBai TZhou C Get al.

An improved k⁃prototypes clustering algorithm for mixed numeric and categorical data

Neurocomputing,2013120590-596.

[本文引用: 1]

黄王非黎飞青山.

基于子空间维度加权的密度聚类算法

计算机工程201036(9):65-67.

(Huang W F,Li F,Qing S

Density clustering algorithm based on subspace dimensional weighting. Computer Engineering,201036(9):65-67.

)

[本文引用: 1]

Donoho D L.

High⁃dimensional data analysis:The curses and blessings of dimensionality

American Mathematical Society Math Challenges Lecture,2000132.

[本文引用: 1]

许亚骏. 子空间聚类算法研究及应用. 硕士学位论文. 无锡江南大学2016.

[本文引用: 1]

Xu Y J. Research on subspace clustering algorithms and its applications. Master Dissertation. WuxiJiangnan University2016.

[本文引用: 1]

Weiss KKhoshgoftaar T MWang D D.

A survey of transfer learning

Journal of Big Data,201639.

[本文引用: 1]

Günnemann SBoden BSeidl T.

DB⁃CSC: a density⁃based approach for subspace clustering in graphs with feature vectors

Joint European Conference on Machine Learning and Knowledge Discovery in Databases. Springer Berlin Heidelberg,2011565-580.

[本文引用: 1]

Wan S JWong S K MPrusinkiewicz P.

An algorithm for multidimensional data clustering

ACM Transactions on Mathematical Software,14(2):153-162.

[本文引用: 1]

/