南京大学学报(自然科学版), 2019, 55(4): 546-552 doi: 10.13232/j.cnki.jnju.2019.04.004

基于稳定性的三支聚类

杨鑫1, 施虹1, 王平心,2, 徐刚3

1. 江苏科技大学计算机学院,镇江,212003

2. 江苏科技大学理学院,镇江,212003

3. 江苏科技大学船舶与海洋工程学院,镇江,212003

Three⁃way clustering based on sample‘s stability

Yang Xin1, Shi Hong1, Wang Pingxin,2, Xu Gang3

1. School of Computer Science, Jiangsu University of Science and Technology, Zhenjiang, 212003, China

2. School of Science, Jiangsu University of Science and Technology, Zhenjiang, 212003, China

3. School of Naval Architecture and Ocean Engineering, Jiangsu University of Science and Technology, Zhenjiang, 212003, China

通讯作者: E⁃mail:wangpingxin@just.edu.cn

收稿日期: 2019-05-22   网络出版日期: 2019-07-17

基金资助: 江苏省高校自然科学研究重大项目.  18KJA1300
江苏省高校自然科学研究项目.  15KJB110004

Received: 2019-05-22   Online: 2019-07-17

摘要

二支聚类要求聚类结果必须具有清晰的边界,即每个对象要么属于一个类,要么不属于一个类.然而在许多实际问题中,一个对象和类别可能会有三种关系:即确定属于、确定不属于和无法确定.为了克服二支聚类的这一问题,三支聚类使用核心域,边界域和琐碎域来表示每个类别,较好地处理了具有不确定性对象的聚类问题.给出一种基于样本稳定性的三支聚类算法.首先使用聚类集成的结果计算出每个数据的稳定性,然后基于阈值将这些数据元素分为两部分:核与环.对核中的数据采用硬聚类进行聚类,对环中的数据通过比较环中数据到聚类中心的距离将它们分到相应类的边界域中.通过以上策略,可以得到三支聚类的核心域和边界域.在UCI数据集上的实验结果显示,该方法能更好地显示出聚类的结构.

关键词: 聚类集成 ; 稳定性 ; 二支聚类 ; 三支聚类

Abstract

Two⁃way clustering algorithms produce clusters with clear and sharp boundaries,which does not truly reflect the fact that a cluster may not necessarily have a well⁃defined boundary in many real world situations. To tackle this deficiency,three⁃way clustering uses three regions through a pair of sets to represent a cluster instead of using two regions to represent a cluster by a single set,which reflects the three types of relationship between an object and a cluster,namely,belong⁃to definitely,uncertain and not belong⁃to definitely. In this paper,we propose a three⁃way clustering algorithm by using the stability of each sample. We use clustering ensemble results to compute the sample’s stability and divide the universe into cluster core and cluster halo based on sample’s stability. The elements in the cluster core are assigned into the core region of each cluster by using traditional clustering algorithm. The elements in the cluster halo are assigned into the fringe region of corresponding cluster according to distances between the elements and the centers of the cluster core region. Therefore,a three⁃way clustering is naturally formed. Experimental results on UCI datasets show that this method can improve the structure of the clustering results.

Keywords: clustering ensemble ; stability ; two⁃way clustering ; three⁃way clustering

PDF (345KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

杨鑫, 施虹, 王平心, 徐刚. 基于稳定性的三支聚类. 南京大学学报(自然科学版)[J], 2019, 55(4): 546-552 doi:10.13232/j.cnki.jnju.2019.04.004

Yang Xin, Shi Hong, Wang Pingxin, Xu Gang. Three⁃way clustering based on sample‘s stability. Journal of nanjing University(Natural Science)[J], 2019, 55(4): 546-552 doi:10.13232/j.cnki.jnju.2019.04.004

聚类是对一个数据对象的集合进行分析,它将数据集合分为多个簇,使簇内对象之间有较高的相似性,而不同簇中的对象有较大的差异.聚类分析是一种无监督的学习方法,事先不知道样本的标签,而是利用一些聚类算法将样本进行分类.经过多年发展,聚类已在机器学习、模式识别和数据挖掘中得到广泛应用.

由于数据集的不同,没有一个单一的聚类算法可以准确揭示数据内部的关系与结构,而集成聚类正是为了解决这一问题而被提了出来.集成聚类通过不同的聚类算法或者聚类算法参数的设置对同一个数据集进行集成,建立矩阵,然后通过层次聚类得到最终的结果.

传统的聚类方法都是一种二支决策,如果获取的信息不充分,直接运用传统的聚类算法可能会带来较高的决策风险.为了解决传统聚类算法存在的问题,许多新方法被提出.Hoppner et al[1]提出模糊聚类.Yao et al[2]用区间集来表示聚类结果中的一个类.Yu et al[3,4]提出三支决策方法,将类用核心域、边界域和琐碎域来表示.

所谓三支决策就是将一个研究对象分为三部分看待,即正域、负域和边界域.而三支聚类是在硬聚类的基础上发展而来,它采用了三支决策的思想,将研究对象分为核心域、边界域和琐碎域来表示.即对于一个数据集来说,核心域的点确定属于这个类,琐碎域的点确定不属于这个类,而边界域的点表示这个点可能属于这个类但也有可能属于其他类.

2019年,Li et al[5]提出了基于稳定性的集成算法.本文利用其中一种基于稳定性的方法将硬聚类转化为三支聚类,即利用稳定性把数据分为核与环,对核内数据进行传统的硬聚类,再对环中数据做三支聚类,从而进一步提高聚类质量,降低决策风险.

1 相关工作

1.1 三支决策聚类

2010年,Regina大学的姚一豫教授在研究粗糙集三个域和统计学中的假设验证基础上提出了三支决策理论[6,7,8],这个理论更精确地反映了粗糙集的近似原理,并可以用来解释实际应用中很多决策现象.三支决策将研究对象分为正域、负域和边界域.正域所对应的规则简称正规则,表示接收;负域对应的规则简称负规则,表示拒绝;边界域对应的规则简称边界规则,对应不做决定或者推迟决定.

现在,三支决策理论的发展越来越快,并在许多领域得到了应用.例如:Yu et al[9,10,11]提出了三支决策的框架,即用核心域和边界域来表示一个类.Zhang et al[12]提出了分类误差的三支决策模型.Li et al[13]提出了面向多粒度的三支认知概念学习.Hao et al[14]提出了基于序列三支决策的动态多尺度决策表的最优尺度选择.正是这些努力和研究,三支决策理论的内容越来越丰富.

李金海和邓硕[15]给出了三支决策的描述如下:设U是一个有限、非空实体集,其中A是有限条件集.基于有限条件集,三支决策主要的任务是将U划分成三个两两互不相交的域,这三个域分别称之为POS(正域)、NEG(负域)、BND(边界域).依据这三个域可以给出三支决策的规则:接受、拒绝以及不承诺规则.

传统的聚类大多是硬聚类,然而在许多实际问题中,一个对象和类别可能会有三种关系:即确定属于、确定不属于和无法确定.如果把无法确定的点强制划分到某类中可能会带来决策风险,这样的做法不十分合理.于是Yu et al[16]将三支决策思想引入到聚类中,提出了三支决策聚类方法.三支决策聚类用三个集合CiP,CiB,CiN,分别表示类的核心域、边界域和琐碎域.核心域的点表示这些点确定属于这个类,边界域的点表示这些点可能属于这个类,而琐碎域的点表示这些点不属于这个类.

本文使用CidCiu分别表示类i的核心域与边界域.根据聚类结果的定义,CidCiu须满足以下三个条件:

(1)Cip,i=1,2,,k

(2)i=1k(CipCiB)=U

(3)CipCiBCiN=U.

其中,条件(1)表示任意类簇都是非空的,条件(2)表示样本xiU至少属于一个类簇,条件(3)表示表示任意一个类簇的三个区域之并为U.

1.2 稳定性

2002年Strehl and Ghosh[17]提出聚类集成(Clustering Ensemble)的概念,给出聚类集成的定义:将两个或多个对同一组对象的数据划分得到的不同结果进行合并,而不使用对象原有的特征.现在对聚类集成问题的研究主要包括集成生成、集成选择和整体集成三个方面.

对于集成方法,可以通过不同的参数设置、不同的聚类方法、特征的不同表示以及弱的聚类等方式进行集成.通过对集成的结果构建矩阵,分析差异,寻找合适的算法对集成结果进行分析,最终得到较好的聚类结果.本文利用k⁃means算法[18]来聚类集成.

Li et al[5]提出基于稳定性的集成算法,其主要思想如下:

1.2.1 关系矩阵

首先需要聚类集成来构建关系矩阵.假定X={x1,x2,x3,,xn}表示数据有n个样本.经过不同的聚类方法或聚类算法参数的设置,得到一组聚类结果={C1,C2,,CL}.然后以此聚类结果构建关系矩阵,其中任意两点的关系计算如下:

pij=1Ll=1L(Cl(xi),Cl(xj))

L表示不同的聚类结果,xixj表示样本中的两个点,Cl(xi)表示第l个聚类结果中的点xi所在的簇编号.其中:

(Cl(xi),Cl(xj))=1     Cl(xi)=Cl(xj)0    Cl(xi)Cl(xj)

此时,关系矩阵就可以通过式(1)求得.

1.2.2 稳定性求法

采用一种线性的方法来求稳定性.首先定义关于变量pt的函数f,其中p[0,1],t[0,1],定义如下:

(1)如果p<tf'(p)<0;如果p>t,

f'(p)>0 .

(2)如果pi<t<pjt-pipj-t=t1-t,则f(pi)=f(pj).

其中,(1)表示当p<t时,函数f的导数小于零,函数单调递减;当p>t时,函数的导数大于零,函数f单调递增.(2)则表示存在t,当pi<t<pjt-pipj-t=t1-t时,函数f(pi)=f(pj).

假定一个数据集含有n个样本,基于这个函数f,对于每一个点xi,定义稳定性s(xi)如下:

s(xi)=1nj=1nf(pij)

根据函数f的定义,一个线性的方法可以定义如下:

fl(pij)= (pij-t)/t                 pij<t(pij-t)/(1-t)    pijt

这里,针对线性函数f,求每个点的稳定性:

sl(xi)=1nj=1nfl(pij)

在这里,采用Otsu算法[19]来求阈值t.Otsu算法的大致思想如下:

集合X={x1,x2,x3,,xn}含有n个元素.存在阈值t使得集合X被分为两部分,即:

X1={xi:xi<t,1in}
X2={xj:xjt,1jn}

此时需要学习阈值t,根据X1X2定义类间方差为:

βt=ω0(μ0-μ)2+ω1(μ1-μ)2

其中,

ω0=X1X,ω1=X2X
μ0=XiX1xiX1,μ1=XiX2xiX2,μ=yiXxiX

随后,根据式(5)求得集合βt的最大值,这样就得到阈值t

t=argmax(βt)

如此,就能求得每个点的稳定性.

1.2.3 核与环

接下来对于样本X={x1,x2,x3,,xn},通过式(4)求得每个点的稳定性SM={s1M,s2M,,snM},然后对这些点再次利用Otsu算法求得集合SM的阈值tS,通过tS可以将集合SM分为两部分,即核与环:

O={i|siM>ts,i=1,2,,n}
H={i|siMts,i=1,2,,n}

其中,集合O代表被分到核中的数据,即比较稳定的数据;H代表被分到环中的数据,即不稳定的数据.

寻找核与环的算法步骤如算法1所示.

算法1 寻找核与环

Step1.给定一组样本数据集

S=s1,s2,...,si,...,sn

其中siRli=1,2,...,n

Step2.使用聚类集成求得关系矩阵W

Step3.for i=1,2,3,...,n do

利用式(4)和W求得每个点的稳定性siM

end for

所有点的稳定性集合SM=s1M,s2M,,snM

Step4.利用Otsu算法应用到SM求得阈值tS

Step5.最终利用式(6)和(7)求得核与环.

2 基于稳定性的三支聚类

三支聚类的关键问题在于如何计算核心域和边界域,本节给出了一种求核心域和边界域的算法.即基于稳定性的三支聚类算法.

基于稳定性的三支聚类算法的主要思想是:给定数据集X={x1,x2,x3,,xn},先利用聚类集成求出关系矩阵,这里的聚类集成通过k⁃means每次返回的结果进行集成.使用Otsu算法求出关于这个关系矩阵的阈值t,然后根据定义的线性函数(式(4))计算出每个点的稳定性SM=s1M,s2M,,snM,再对集合SM中的数据点再次使用Otsu算法得出阈值ts.比较集合SM中的每一个数据,如果siM比阈值ts大,则把此点划分到核中,反之将它划分到环中,这样就求得核与环.随后对核中数据进行传统硬聚类k⁃means得到聚类结果Cii=1,2,,k.而对于环中数据,采用遍历的形式,依次计算环中的每个数据到聚类中心的距离d,先找出距离最小的值dmin,将此距离最小的所对应的数据点划分为此类的上界,然后计算此点到其他聚类中心的距离与dmin的差值dpoor,如果这个距离dpoor小于指定的阈值p,则把此数据点划分为该类的上界,直至环中数据全部遍历完成.最终得到三支聚类结果.算法步骤如算法2所示.

算法2 基于稳定性的三支聚类

输入:由算法1得到的稳定性数据O,不稳定数据H和关系矩阵W,聚类数目k,阈值p

输出:聚类结果

Step1.对稳定性的数据进行k⁃means聚类得聚类结果Ci,i=1,2,...,k.

Step2.取不稳定的数据H,进行遍历.

for i=1,2,3,...,|H| do

计算不稳定点Hi到每一个聚类C的聚

类中心的距离d={d1,d2,,dk}

找出集合d中的最小值dmin=min(d),将

dmin对应的数据Hi划分到其对应类C的上界.

接着计算集合d中其余点与dmin的差值dpoor

if dpoor<p

将样本Hi也添加到对应类C的上界

end if

end for

Step3.最终得到三支聚类结果.

3 聚类结果评价指标

聚类的评价指标大致分为两类:外部聚类和内部聚类.外部聚类评价指标包括Entropy,F⁃measure,Purity,Rand Statistic等.内部聚类评价指标包括轮廓系数(Silhouette Coefficient,SiDB_Index(Davies⁃Bouldin Index,DBI),Calinski⁃Harabasz(CH)指标,Krzanowski⁃Lai(KL)指标等.本文所用的评价指标为准确率(Accuracy,ACC),DBISi和平均轮廓系数(Average Silhouette Coefficient,AS).

3.1 准确率

ACC是一种常见的评价聚类结果好坏的外部指标,根据预测的结果与真实值做对比,此值越高说明聚类结果越好.

定义1ACC[20]

ACC=1Ni=1kCi

其中,N表示总样本个数,Ci表示正确划分到类i的样本个数,k表示聚类数.本论文的三支聚类算法实验所计算的ACC是使用核心域的对象来计算的.

3.2 Davies⁃Bouldin Index

DBI是Davies and Bouldin[21]于1979年提出的一种内部聚类评价指标,其主要思想是度量每个簇类最大相似度的均值.

定义2DBI[21]

DBI=1ki=1kmaxij(ci¯+cj¯||wi-wj||2)

其中,ci¯表示第i类中所有样本到聚类中心wi的平均距离,wi-wj2表示类i与类j聚类中心之间的欧式距离,k表示聚类数.

3.3 平均轮廓系数

Si是一种评价聚类结果好坏的指标,最早由Rousseeuw[22]在1986年提出.它结合内聚度和分离度两种因素,可以用来在相同原始数据的基础上评价不同算法、或者算法不同运行方式对聚类结果所产生的影响.

定义3 单个样本di的轮廓系数Si[22]

Si=bi-aimax(ai,bi)

其中,ai表示样本di与同类簇中其他所有样本的平均距离,称为类内相似度,ai越大说明该样本属于该类簇的可能性越大.bi=min{D(di-cj)},表示样本di到类cj中所有样本的最小平均距离,称为类间相异度,bi越大说明该样本属于其他类簇的可能性越小.

3.4 平均轮廓系数

定义4AS[22]

AS=1Ni=1NSi

其中,N表示样本总数,Si表示第i个样本的轮廓系数.平均轮廓系数是用所有样本的轮廓系数的均值表示,取值范围[-1,1],值越大表示样本属于该类簇的可能性越大,反之可能性就越小.

4 实验结果

UCI数据集的纯度高,噪音数据较少,因而被广泛认可.本文采用五组UCI数据集对算法进行验证,具体信息如表1所示.本文将基于稳定性的三支决策聚类与传统的聚类k⁃means进行ACCDBIAS等聚类指标的对比,得出了基于稳定性的三支决策聚类可以提高聚类精度、改善聚类性能的结论.

表1   实验中使用的数据集

Table 1  Datasets used in experiments

DatasetsSample numbers

Sample

dimensions

Categories
Bank137242
Glass21496
Wine178133
Congressional435162
Breast10696

新窗口打开| 下载CSV


本实验先对每组数据进行100次聚类集成,最后取得ACCASDBI的值作为实验结果,实验结果如表2所示.

表2   UCI数据集上的实验结果

Table 2  Experimental results on UCI datasets

DatasetsAlgorithmDBIASACC
Bankk⁃means1.19130.50000.5758
Three⁃k⁃means1.17720.50790.5751
Glassk⁃means0.96250.53250.5981
Three⁃k⁃means0.92520.61290.6774
Winek⁃means1.30530.47630.9550
Three⁃k⁃means1.24300.51210.9704
Congressionalk⁃means1.48650.44070.8666
Three⁃k⁃means1.38890.47230.8812
Breastk⁃means0.88260.56440.7735
Three⁃k⁃means0.72880.68170.7945

新窗口打开| 下载CSV


表2的实验结果可以看出,与k⁃means算法比较,本文提出的基于稳定性的三支聚类算法可以提高ACCAS,并且可以降低DBI,使得聚类结果更好,质量更高.但是此算法因为先开始使用了聚类集成,导致算法的开销增大,效率有所降低,这是一个待解决的问题.

5 结束语

本文利用样本的稳定性给出了一种基于稳定性的三支聚类算法.该算法首先通过聚类集成结果定义每个元素的稳定性,然后利用元素的稳定性将元素分为核心集合与边界集合.对核心集合中的元素采用硬聚类的方法聚类,而对边界集合中的元素,利用它们和核心集合的距离将它们分到相应的类别边界域中.实验也表明此方法可以提高聚类的精度.目前算法的不足之处在于:聚类集成的时候单一用k⁃means不是很好,可以尝试多种不同的聚类方法.另外,对于利用集成方法求样本的稳定性方面,尝试不同的集成算法,并且改进稳定点的求法使得此算法可以适应更多的数据.

参考文献

HoppnerF,KlawonnF,KruseR,et al.

Fuzzy cluster analysis:methods for classification,data analysis and image recognition

New YorkWiley,1999,770.

[本文引用: 1]

YaoY Y,LingrasP,WangR Z,et al.

Interval set cluster analysis:A re⁃formulation∥Sakai H,Chakraborty M K,Hassanien A E,

et al. Rough sets,fuzzy sets,data mining and granular computing. Springer Berlin Heidelberg,2009398-405.

[本文引用: 1]

YuH,ChuS S,YangD C.

Autonomous knowledge⁃oriented clustering using decision⁃theoretic rough set theory

Fundamenta Informaticae,2012,115141-156.

[本文引用: 1]

YuH,LiuZ G,WangG Y.

An automatic method to determine the number of clusters using decision⁃theoretic rough set

International Journal of Approximate Reasoning,2014,55(1):101-115.

[本文引用: 1]

LiF J,QianY H,WangJ T,et al.

Clustering ensemble based on sample’s stability

Artificial Intelligence,2019,27337-55.

[本文引用: 2]

YaoY Y.

Three⁃way decisions with probabilistic rough sets

Information Sciences,2010,180(3):341-353.

[本文引用: 1]

YaoY Y.

The superiority of three⁃way decisions in probabilistic rough set models

Information Sciences,2011,181(6):1086-1096.

[本文引用: 1]

YaoY Y.

An outline of a theory of three⁃way decisions∥Yao J

Rough sets and current trends in computing. Springer Berlin Heidelberg,20121-17.

[本文引用: 1]

YuH.

A framework of three⁃way cluster analysis∥Proceedings of International Joint Conference on Rough Sets

Springer Berlin Heidelberg,2017300-312.

[本文引用: 1]

YuH,JiaoP,YaoY Y,et al.

Detecting and refining overlapping regions in complex networks with three⁃way decisions

Information Sciences,2016,37321-41.

[本文引用: 1]

YuH,ZhangC,WangG Y.

A tree⁃based incre⁃mental overlapping clustering method using the three⁃way decision theory

Knowledge⁃Based Systems,2016,91189-203.

[本文引用: 1]

ZhangQ H,XiaD Y,WangG Y.

Three⁃way decision model with two types of classification errors

Information Sciences,2017,420431-453.

[本文引用: 1]

LiJ H,HuangC C,QiJ J,et al.

Three⁃way cognitive concept learning via multi⁃granularity

Information Sciences,2017,378244-263.

[本文引用: 1]

HaoC,LiJ H,FanM,et al.

Optimal scale selection in dynamic multi⁃scale decision tables based on sequential three⁃way decisions

Informa⁃tion Sciences,2017,415-416213-232.

[本文引用: 1]

李金海,邓硕.

概念格与三支决策及其研究展望

西北大学学报(自然科学版),2017,47(3):321-329.

[本文引用: 1]

Li J H,Deng S.

Concept lattice,three⁃way decisions and their research outlooks.

Journal of Northwest University (Natural Science Edition),2017,47(3):321-329.

[本文引用: 1]

YuH,ChuS S,YangD C.

Autonomous knowledge⁃oriented clustering using decision⁃theoretic rough set theory∥Yu J,Greco S,Lingras P,

et al. Rough set and knowledge technology. Springer Berlin Heidelberg,2010687-694.

[本文引用: 1]

StrehlA,GhoshJ.

Cluster ensembles:a knowledge reuse framework for combining multiple partitions

The Journal of Machine Learning Research,2002,3583-617.

[本文引用: 1]

MacQueenJ.

Some methods for classification and analysis of multivariate observations∥Proceedings of the 5th Berkeley Symposium on Mathematical Statistics and Probability

Berkeley,CA,USAUniversity of California Press,1967281-297.

[本文引用: 1]

OtsuN.

A threshold selection method from gray⁃level histograms

IEEE Transactions on Systems,Man,and Cybernetics,1979,9(1):62-66.

[本文引用: 1]

SchölkopfB,PlattJ,HofmannT.

A local learning approach for Clustering∥International Conference on Neural Information Processing Systems

Vancouver,CanadaMIT Press,20071529-1536.

[本文引用: 1]

孙吉贵,刘杰,赵连宇.

聚类算法研究

软件学报. 2008,19(1):48-61.

[本文引用: 2]

Sun J G,Liu J,Zhao L Y.

Clustering algorithms research.

Journal of Software,2008,19(1):48-61.

[本文引用: 2]

FahadA,AlshatriN,TariZ,et al.

A survey of clustering algorithms for big data:taxonomy and empirical analysis

IEEE Transactions on Emerging Topics in Computing,2014,2(3):267-279.

[本文引用: 3]

/