南京大学学报(自然科学版), 2019, 55(4): 592-600 doi: 10.13232/j.cnki.jnju.2019.04.009

基于样本对加权共协关系矩阵的聚类集成算法

王彤1, 魏巍,1,2, 王锋1,2

1. 山西大学计算机与信息技术学院,太原,030006

2. 山西大学计算智能与中文信息处理教育部重点实验室,太原,030006

Sample pairwise weighting co⁃association matrix based ensemble clustering algorithm

Wang Tong1, Wei Wei,1,2, Wang Feng1,2

1. School of Computer and Information Technology, Shanxi University, Taiyuan, 030006, China

2. Key Laboratory of Computation Intelligence and Chinese Information Processing, Ministry of Education, Shanxi University, Taiyuan, 030006, China

通讯作者: E⁃mail:weiwei@sxu.edu.cn

收稿日期: 2019-05-14   网络出版日期: 2019-07-17

基金资助: 山西省高等教育机构科技创新项目.  2016111

Received: 2019-05-14   Online: 2019-07-17

摘要

聚类集成的目标是通过集成多个聚类结果来提高聚类算法的稳定性、鲁棒性以及精度.近些年,聚类集成受到了越来越多的关注.现有的集成聚类通常平等地对待所有基聚类,而不考虑它们的重要度.虽然学者们已经在这一方面做出了一些努力,例如使用加权策略来改进共协关系矩阵,但无论是给基聚类加权还是对类重要度评价时都忽略了样本对于其所在类贡献的差异.为此,提出了基于样本对加权共协关系矩阵的聚类集成算法,该算法利用k⁃means算法产生多个基聚类结果,然后对于其中的每个类再利用k⁃means算法产生多个小类,并计算去掉样本对所在的小类后类的不确定性变化的程度来评价该样本对的重要度,最后通过层次聚类算法得到聚类结果.在六个UCI数据集上的实验结果表明,基于样本对加权共协关系矩阵的聚类集成算法的性能优于三种经典的基于共协关系矩阵的聚类集成算法.

关键词: 聚类 ; 聚类集成 ; 共协矩阵 ; 加权策略

Abstract

The goal of clustering ensemble is to improve the stability,robustness and accuracy of the final clustering results by integrating multiple clustering results. In recent years,clustering ensemble has attracted more and more attention. One limitation of most existing clustering ensemble methods is that they generally treat all base clustering equally,regardless of their importance. Although scholars have made some efforts in this aspect,for example,the weighted strategy is used to improve the co⁃association matrix. However,they ignore the difference in the contribution of samples to the classes they belong to when either weighting the base clustering or evaluating the class importance. Therefore,sample pairwise weighting co⁃association matrix based ensemble clustering algorithm is proposed. The algorithm firstly uses the k⁃means algorithm to generate multiple base partition results and multiple small classes for each class. The importance of the sample to the class is evaluated by calculating the change degree of uncertainty of the class after removing the subclass of the sample pairwise. Finally,the final clustering result can be obtained through the hierarchical clustering algorithm. Experimental results on six UCI data sets show that the performance of sample pairwise weighting co⁃association matrix based clustering ensemble algorithm is superior to the three classical clustering ensemble algorithms based on co⁃association matrix.

Keywords: clustering ; clustering ensemble ; co⁃association matrix ; weighted strategy

PDF (1292KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

王彤, 魏巍, 王锋. 基于样本对加权共协关系矩阵的聚类集成算法. 南京大学学报(自然科学版)[J], 2019, 55(4): 592-600 doi:10.13232/j.cnki.jnju.2019.04.009

Wang Tong, Wei Wei, Wang Feng. Sample pairwise weighting co⁃association matrix based ensemble clustering algorithm. Journal of nanjing University(Natural Science)[J], 2019, 55(4): 592-600 doi:10.13232/j.cnki.jnju.2019.04.009

聚类分析是数据挖掘的一个基本问题,它能够根据相似性将一组未知分布的数据进行分类,同时也能够发现隐藏在数据中的结构.其中,数据聚类在数据挖掘以及机器学习的领域仍然是一个十分重要且具有挑战性的问题.数据聚类其实就是将物理或抽象样本集合分成由类似的样本组成的多个类的过程,并能够达到同一类中样本相似度高、不同类间样本相似度低的目的.在过去的十几年中,研究人员提出了很多聚类算法,有基于划分的方法[1,2]、基于层次的方法、基于密度的方法[3,4]、基于网格的方法[5]以及基于模型的方法.由于每个算法都有其特有的优化标准,对于特定数据结构以及类的形状才能够有很好的性能,也就是说没有一种单一算法能够适用于任意的数据结构及类型,这也是聚类集成出现的原因.

聚类集成根据多个聚类结果找到一个新的数据划分,这个划分在最大程度上共享了所有输入的聚类结果对数据集的聚类信息.相较于使用单一算法得到聚类结果,集成聚类的目标在于融合多个聚类结果以得到更优、更鲁棒聚类.常用的聚类集成的方法可分为基于图的方法、基于关系矩阵的方法、基于二部图的方法.基于图的方法是用图分割技术来挖掘数据的类结构,如超图[6]、Link[7]等.基于关系矩阵的方法是通过关系矩阵反映两两样本间的关系,然后再基于该矩阵设计集成算法,如共协关系矩阵[8].基于二部图的方法是通过构造样本与类的关联矩阵,利用图聚类方法(如谱聚类算法[9])进行集成.图1举例说明了两个基聚类的四种表现形式:超图、共协关系矩阵、二部图和二部关联矩阵.超图[6]中顶点代表数据样本,一个闭合的曲线是一个超边,代表一个基聚类.在共协关系矩阵[8]中,矩阵的行和列都是数据样本个数,对应的值是两个样本在整个集成中出现在一个类中的平均频率.二度图[10]中顶点代表数据样本和类,数据样本和类之间的线代表数据样本属于这个类.在二度关联矩阵中,矩阵的行是类的个数,列是数据样本的个数,若数据样本属于该类,对应元素是1,否则为0.

图1

图1   两个基聚类的四种表示方法

Fig.1   Four representations of two base partitions


聚类集成一般包括三个步骤:基聚类的生成、基聚类的加权和通过一致性函数得到最后的划分.基聚类的生成主要有几种方法:(1)通过使用相同聚类算法,每次运行都设置不同的参数和随机初始化生成基聚类;(2)使用不同的聚类算法,如k⁃means、层次聚类等生成基聚类;(3)使用同样的算法在数据集的不同样本集合上聚类生成基聚类;(4)在数据集的不同特征子集或在数据集的不同子空间的投影上聚类生成基聚类.这些方法可以单独使用,也可以任意组合.本文采用的是第一种方法生成基聚类.

集成聚类算法中通过对基聚类进行加权可以更好地平衡各基聚类对最终聚类结果的贡献,得到性能更好的集成聚类算法,再通过一致性函数来得到最后的划分.最常用的方法有k⁃means[1],PAM(Partitioning Around Medoid)[11]以及层次聚类的单连接、平均连接等方法.对于共协关系矩阵来说,任何一种聚类算法都可用于产生最终的聚类结果.

在过去的几年中,学者们提出许多聚类集成的方法[8,12,13,14,15,16,17,18].Fred and Jain[8]提出Evidence Accumulation Clustering(EAC)算法,构建共协关系矩阵,若一对样本出现在一个类中,值为1,否则为0,最后通过层次聚类的方法得到最后的聚类结果.这一方法平等地对待基聚类、类以及样本,但忽略了它们不同的贡献.许多学者为了改善这一情况,通过改进共协关系矩阵从而更大程度地利用聚类结果所给的信息,得到最后的聚类结果.其中,有通过评价基聚类的重要度来改进共协关系矩阵的一些方法,Yang and Chen[12]通过融合三个不同的评价聚类的指标来给基聚类一个权值,从而得到加权的共协关系矩阵.Nanda and Pujari[13]也提出了一个加权聚类集成的方法,通过计算样本和类中心的距离与类中心之间的距离的差值来评价一个基聚类的重要度,给基聚类一个权值,从而得到加权的共协关系矩阵.这一类方法造成在一个划分中所有被分到同一个类中样本对的值都是相同的结果,忽略了类与样本对于基聚类的贡献.为了改善这一问题,学者们又提出通过评价类的重要度来改进共协关系矩阵的一些方法.Zhong et al[14]通过计算样本之间的距离来评价一个类的可靠度.Huang et al[15]用熵来评价一个类的不确定程度从而得到类的重要度来给每对样本一个权值,但这样会使出现在同一个类中的所有样本给定的权值都是一样,也就是说在同一个类中的每个样本都被平等对待,显然,这样不能精准评价样本的贡献程度.

因此,本文提出了一种基于样本对加权共协关系矩阵的聚类集成算法,利用k⁃means算法对类进一步分类,产生若干个小类,通过考虑去掉所要计算的该对样本所在的小类之后类的不确定程度的变化来更加精准地评价每个样本对于所在的类的贡献程度.

1 相关知识

X={x1,x2,,xn}是样本的集合,其中,

xi={xi1,xi2,,xid}

d为维度,n是数据样本的个数.聚类集成就是在数据集X上重复地产生M个聚类结果,即:

={π1,π2,π3,,πM}

其中,

πi={C1i,C2i,C3i,,Cji,,Ckii}

是第i个划分,Cji代表第i个基聚类的第j个类,ki代表第i个划分中类的个数.

Fred and Jain[8]最先提出共协关系矩阵(CM矩阵),其定义如下:

CM={mij}n×n

其中,

mij=1Mm=1Mδijm
δijm=1,Clsm(xi)=Clsm(xj)0,otherwise

Clsm(xi)代表样本xi在基聚类πm中所属于的类,δijm代表样本xixj在基聚类πm中是否在同一个类中.若在一个类中,值为1,否则,值为0.

2 基于样本对加权的共协关系矩阵

传统的共协矩阵中,根据各样本对是否处于同一个类赋予其对应的矩阵元素0或1,各个样本对被同等对待.事实上,各样本对中的样本所处类的情况和各样本对其所在类的影响程度都不尽相同,平等地对待每个样本对有可能导致共协关系矩阵不能很好地反映各个基聚类的情况,进而影响到聚类集成的效果.为了解决这个问题,本文提出了一种样本对重要性度量,并基于该重要性度量定义新的共协矩阵.

由于样本对的重要性通常由各样本所处类的情况以及样本在其所在类中的地位决定,因此首先利用信息熵[15]给出关于基聚类的不确定性度量的定义:

Hm(Ct)=-k=1kmp(Ct,Ckm)log2p(Ct,Ckm)

其中,

p(Ct,Ckm)=|CtCkm||Ct|

CtCkmCt与类Ckm中相同样本的个数,|Ct|是类中样本的个数.显然,p(Ct,Ckm)的取值范围是[0,1],Hm(Ct)的取值范围是[0,∞].显然,p(Ct,Ckm)越大,Hm(Ct)越小,也就是Ct相对于πm这个基聚类不确定性度量越小.

此外,由于基聚类之间是独立的,因此,Ct相对于所有基聚类的不确定性度量定义为:

H(Ct)=m=1MHm(Ct)

由式(3)容易得出Hm的取值范围是[0,∞],Hm值越大,类Ct的不确定性就越大.

一个类相对于基聚类的不确定性实际上是由该类中样本造成的,容易想到每个样本对于类的不确定性度量的影响程度不同.为此,本文基于将一个样本从某个类中去掉后该类不确定性变化的程度,给出这个样本的权重.但是在实际应用中,由于单个样本对于整个类的影响过小,导致不同样本之间的权重差异过小.为此,利用k⁃means算法将每个类划分成若干个小类(其中,k⁃means算法的k值,根据类的规模设置),然后以这些小类为最小单位,通过从类中去除这些小类引起的类不确定性度量变化的程度评价样本对的重要性.

根据上述分析给出样本xixj重要性度量的定义:

H(Ct,xi,xj)=H(Ct)-H(Ct|(xi,xj))

其中,

H(Ct|(xi,xj))=m=1MHm(Ct|(xi,xj))
Hm(Ct|(xi,xj))=-m=1kmp((Ct|(xi,xj)),(Ckm|(xi,xj)))log2p((Ct|(xi,xj)),(Ckm|(xi,xj)))

Ct|(xi,xj)代表类Ct去掉xixj所在的小类中的所有样本之后的类.若xixj被分在同一个小类里,就去掉一个小类,被分到不同的小类中,就去掉两个小类.

由于去掉了与xixj在同一小类中的样本,类Ct的不确定性度量会有所减小,只不过有的减少得多,有的减少得少,所以由式(4)可以看出H(Ct,xi,xj)的取值范围是[0,∞],并且若H(Ct,xi,xj)越大,则从Ct中去掉样本xixj所在的小类后,Ct的不确定性减小的程度就越大.也就是说,样本xixj所在小类Ct导致的不确定性变小的程度很大,因此样本对xixj的权值应该很小.基于这样的分析,给出样本对xixj的权重如下:

w(Ct,xi,xj)=exp(-H(Ct,xi,xj)/(θ×M))

其中,参数θ>0,是用来调节样本对的不稳定性对于最后的权值的影响.

由式(5)可以看出权值w(Ct,xi,xj)的取值范围是[0,1],样本对导致类不确定性变化的程度越大,给的权值就越低.图2给出了不同的参数θ对于权值的影响,可以看到当θ<1时,随着H(Ct,xi,xj)的增加w(Ct,xi,xj)会显著地减少,当θ>4时,随着H(Ct,xi,xj)的增加w(Ct,xi,xj)减少的速度会很缓慢.

图2

图2   对于不同参数,权值与样本对不稳定程度之间的相关性

Fig.2   For different parameters, the correlation between weight and the degree of instability of the object


根据式(5),可以定义基于样本加权的共协关系矩阵WCM为:

WCM={mij}n×n

其中,

mij=1Mm=1Mwijmδijm
wijm=w(Cls(xi),xi,xj)
δijm=1,Clsm(xi)=Clsm(xj)0,otherwise

其中wijm代表样本xixj对所在类Ct的权值.

3 算法描述

基于第2节给出的基于样本对加权的共协关系矩阵设计了基于加权共协矩阵的聚类集成算法OWEC(Sample pairwise Weighting co⁃

association matrix based Ensemble Clustering

algorithm),该算法的详细描述如下:

算法1 基于样本对加权共协关系矩阵的聚类集成算法

输入:数据集X={x1,x2,...,xn}

小类的个数const_k

聚类结果中类的个数K

输出:聚类结果π*

步骤1.利用k⁃means算法得到M个基聚类结果.

步骤2.对于每一个在集合中的类,用k⁃means算法得到const_k个小类.

步骤3.利用式(6)计算基聚类集合中所有的类的不确定性度量.

步骤4.计算样本xixj以及类Ct所对应的权值.

步骤5.计算并得到加权的共协关系矩阵.

步骤6.利用层次聚类算法得到最后的聚类结果.

4 实验与结果

4.1 数据集

为了验证提出的改进聚类集成算法的有效性,选取六个UCI数据集来进行实验,数据集的详细描述如表1所示.

表1   数据集

Table 1  Datasets

DatasetsObjectsDimensionsClasses
Iris15043
Wine178133
Column_3C31063
Glass21496
Musk4761672
Seeds21073

新窗口打开| 下载CSV


4.2 评价指标

使用调整兰德系数(Adjusted Rand Index,ARI)和聚类精度(Clustering Accuracy,CA)来评价聚类算法的性能.

假设π'={π1'.....πKs'}是真实的基聚类结果,πG={π1G......πktG}是实验得到的基聚类结果,其中,ksktπ'πG的类别个数.

ARI通过考虑在两个基聚类中,样本对是否在相同的类来计算得到,其计算公式如下[19]

ARI(π',πG)=2(N00N11-N01N10)(N00+N01)(N01+N11)(N00+N10)(N10+N11)

其中,N11代表在基聚类π'πG中都出现在相同的类的样本对的个数,N00代表在基聚类π'πG中,都出现在不同的类的样本对的个数,N01代表在基聚类πG中出现在相同的类而在基聚类π'出现在不同的类的样本对的个数,N10代表在基聚类πG中出现在不同的类但在基聚类π'出现在相同类的样本对的个数.

CA的计算公式如下[20]

CA(π',πG)=1Ni=1kt|πiGmode(πiG,π')|

其中,

mode(πiG,π')=argmaxπj'π'|πiGπj'|

4.3 实验和结果

通过三组实验验证OWEC的性能.第一组实验研究参数的取值变化对提出方法性能的影响,第二组实验将OWEC算法与EAC[8],LWEA(Locally Weighted Evience Accumulation)[15]和LWGP(Locally Weighted Graph Partitioning)[15]算法进行比较.第三组实验研究集成规模对提出算法性能的影响.

首先,先分析参数对OWEC算法性能的影响.对于参数的每一个值,分别运行OWEC算法20次,求得平均的ARICA值.其中M=30,用k⁃means算法随机初始化产生基聚类,k是固定的,是每个数据集真实的k值.用k⁃means算法产生小类,k是固定的根据具体的数据集来变化,其中Iris,Wine,Seeds数据集设置const_k=10,Column_3C数据集设置const_k=20,Glass数据集设置const_k=3,Musk数据集设置const_k=30.结果如表2表3所示.从结果上来看,对于Iris数据集,θ的取值不论是怎样变化,ARICA值的变化都不明显,而对于其余的五个数据集,θ在0.1~1时,ARICA值的变化不明显,因此θ对于我们提出的算法的影响并不大,建议在[0.2,1]范围内选取.在之后的实验中,θ的值设置为0.3.

表2   对于不同的参数OWEC算法的平均性能(ARI)

Table 2  Average performance of OWEC algorithm for different parameters(ARI)

Datasetsθ
0.10.20.30.40.50.60.70.80.91.02.04.0
Iris0.62490.61410.61830.61670.61070.59850.60030.61700.61240.60230.59370.5976
Wine0.32380.36800.37210.37960.37940.37030.34980.35110.35950.33720.32010.3394
Column_3C0.36160.40570.44030.42340.43200.41960.40660.38000.44950.42060.41860.4226
Glass0.27320.30050.33570.31150.30940.35030.31450.33880.30380.33880.30380.7303
Musk0.16870.29140.25920.26390.25110.26440.29490.28760.29490.23550.20860.2444
Seeds0.36310.42830.45730.45750.46150.48610.47890.43520.54610.51530.48910.4681

新窗口打开| 下载CSV


表3   对于不同的参数OWEC算法的平均性能(CA)

Table 3  Average performance of OWEC algorithm for different parameters(CA)

Datasetsθ
0.10.20.30.40.50.60.70.80.91.02.04.0
Iris0.85670.84900.86030.85430.84800.84100.84430.84670.85600.84770.84630.8430
Wine0.66460.68200.67130.69040.64830.67890.66460.66120.68400.66210.65900.6671
Column_3C0.71520.74710.76900.75630.75710.74260.74500.74100.76870.75190.75180.7556
Glass0.69930.70080.70980.71780.71360.72030.72310.73760.72100.73760.72100.3318
Musk0.68180.75690.74200.72910.72320.72550.74500.75610.75610.72430.71430.7255
Seeds0.71400.75930.77310.77430.77020.78640.78070.76240.81880.79930.78810.7793

新窗口打开| 下载CSV


接下来,将本文提出的OWEC算法与EAC[8],LWEA[15]与LWGP[15]算法进行比较.

对于每一个测试的方法,都是用k⁃means算法固定的k值随机初始化产生基聚类,k值是数据集的真实类别个数.实验中基聚类个数M=100.为保证实验结果的有效性每个算法运行20次,得到平均ARI值和CA值,并且为了实验的公平公正,每一次运行,OWEC与现有的三个算法都是在相同的基聚类上进行的.其中,对于LWEA算法和LWGP算法选取参数θ=0.4,OWEC算法选取参数θ=0.3.实验结果如表4所示.OWEC算法在Iris,Glass,Seeds,Musk数据集上的ARI值和CA值得到了明显的提升,在Wine,Column_3C数据集上的性能虽然没有明显的提升,但是也是比所比较的方法好的.说明OWEC还是有很大优势的.

表4   不同的算法在不同数据集上的平均性能(ARICA)

Table 4  Average performance of different algorithms over different data sets (ARICA)

DatasetsARICA
OWECEACLWEALWGPOWECEACLWEALWGP
Iris0.63240.43940.46340.44000.85270.65330.75270.7413
Wine0.36320.30450.33310.32950.66070.63480.63540.6399
Column_3C0.43200.30540.39630.36750.75710.69350.73260.6944
Glass0.35810.20920.27010.25200.72900.67820.64490.6729
Musk0.28760.02910.17850.16870.75610.59240.68930.6890
Seeds0.50160.13170.25220.23850.79430.52860.59520.5886

新窗口打开| 下载CSV


进一步分析OWEC算法以及EAC,LWEA和LWGP算法在不同集成规模下的性能差异.对每一个集成大小M,在每个数据集上分别运行每个方法20次,计算出平均性能(ARICA值),其中LWEA,LWGP算法参数仍然取0.4,OWEC方法参数取0.3.不同集成规模M下不同数据集中各个方法的平均性能ARICA值如图3图4所示,可以看出随着集成规模的变化,OWEC算法在各个数据集上达到最好的ARICA值,整体的性能最好.

图3

图3   在不同集成规模下不同的算法在各个数据集上的平均性能(ARI

Fig.3   Average performance of different algorithms on each data set under different ensemble size (ARI)


图4

图4   在不同集成规模下不同的算法在各个数据集上的平均性能(CA

Fig. 4   Average performance of different algorithms on each data set under different ensemble size (CA)


5 结束语

本文提出了基于样本对加权共协关系矩阵的聚类集成算法,该算法首先利用k⁃means算法得到多个基聚类结果,然后利用熵计算样本对于类的影响程度,得到权值后的共协关系矩阵,最后利用层次聚类算法来得到最终的集成聚类结果.由于该算法在构建共协关系矩阵时考虑了不同样本对对于所在类的重要程度,因此提出的共协关系矩阵能够更好地刻画各基聚类的情况.在UCI数据集上的实验结果表明,提出的算法在调整兰德系数(ARI)和聚类精度(CA)两个指标上都在一定程度上优于对比算法.

参考文献

Van HamF.

Using Multilevel call matrices in large software projects∥IEEE Symposium on Information Visualization 2003

Seattle,WA,USAIEEE,2003227-232.

[本文引用: 2]

FurnasG F.

Generalized fisheye views∥Proceedings of the SIGCHI Conference on

[本文引用: 1]

Human Factors in Computing Systems

New York,NY,USAACM,198616-23.

[本文引用: 1]

SchafferD,ZaoZ P,GreenbergS,et al.

Navigating hierarchically clustered networks through fisheye and full⁃zoom methods

ACM Transaction on Computer⁃Human Interaction,1996,3(2):162-188.

[本文引用: 1]

贾云得,吕宏静,刘万春.

鱼眼变形立体图像恢复稠密深度图的方法

计算机学报,2000,23(12):1332-1336.

[本文引用: 1]

Jia Y D,Lu H J,Liu W C.

Fish⁃eye lens camera stereo vision for dense depth map recovery.

Chinese Journal of Computers,2000,23(12):1332-1336.

[本文引用: 1]

Van HeeK,SidorovaN,VoorhoeveM.

Soundness and separability of workflow nets in the stepwise refinement approach∥Proceedings of the 24th International Conference on Application and Theory of Petri Nets

Springer Berlin Heidelberg,2003,2679337-356.

[本文引用: 1]

StrehlA,GhoshJ.

Cluster ensembles⁃a knowledge reuse framework for combining multiple partitions

The Journal of Machine Learning Research,2003,3583-617.

[本文引用: 2]

Iam⁃OnN,BoongoenT,GarrettS,et al.

A link⁃based approach to the cluster ensemble problem

IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33(12):2396-2409.

[本文引用: 1]

FredA L N,JainA K.

Combining multiple clusterings using evidence accumulation

IEEE Transactions on Pattern Analysis and Machine Intelligence,2005,27(6):835-850.

[本文引用: 7]

NgA Y,JordanM I,WeissY.

On spectral clustering:analysis and an algorithm∥Proceedings of the 14th International Conference on Neural Information Processing Systems

Vancouver,CanadaMIT Press,2002849-856.

[本文引用: 1]

FernX Z,BrodleyC E.

Solving cluster ensemble problems by bipartite graph partitioning∥Proceedings of the 21st International Conference on Machine Learning

New York,NY,USAACM,200436-43.

[本文引用: 1]

KaufmanL,RousseeuwP J.

Finding groups in data:an introduction to cluster analysis

HobokenJohn Wiley and Sons Inc,1990.

[本文引用: 1]

YangY,ChenK.

Temporal data clustering via weighted clustering ensemble with different representations

IEEE Transactions on Know⁃ledge and Data Engineering,2010,23(2):307-320.

[本文引用: 2]

NandaA,PujariA K.

Weighted co⁃clustering based clustering ensemble∥3rd National Conference on Computer Vision,Pattern Recognition,Image Processing and Graphics

Hubli,IndiaIEEE Press,201146-49.

[本文引用: 2]

ZhongC M,YueX D,ZhangZ H,et al.

A clustering ensemble:Two⁃level⁃refined co⁃association matrix with path⁃based transformation

Pattern Recognition,2015,48(8):2699-2709.

[本文引用: 2]

HuangD,WangC D,LaiJ H.

Locally weighted ensemble clustering

IEEE Transactions on Cybernetics,2018,48(5):1460-1473.

[本文引用: 7]

黄栋,王昌栋,赖剑煌.

基于决策加权的聚类集成算法

智能系统学报,2016,11(3):418-425.

[本文引用: 1]

Huang D,Wang C D,Lai J H,et al.

Clustering ensemble by decision weighting

CAAI Transactions on Intelligent Systems,2016,11(3):418-425.

[本文引用: 1]

BerikovV,PestunovI.

Ensemble clustering based on weighted co⁃association matrices:error bound and convergence properties

Pattern Recognition,2017,63427-436.

[本文引用: 1]

NazariA,DehghanA,NejatianS,et al.

A comprehensive study of clustering ensemble weighting based on cluster quality and diversity

Pattern Analysis and Applications,2019,22(1):133-145.

[本文引用: 1]

RandW M.

Objective criteria for the evaluation of clustering methods

Journal of the American Statistical Association,1971,66(336):846-850.

[本文引用: 1]

NguyenN,CaruanaR.

Consensus clusterings∥Proceedings of the 7th IEEE International Conference on Data Mining

Omaha,NE,USAIEEE,2007607-612.

[本文引用: 1]

/