南京大学学报(自然科学版), 2019, 55(4): 529-536 doi: 10.13232/j.cnki.jnju.2019.04.002

基于极大相容块的邻域粗糙集模型

程永林1, 李德玉,1,2, 王素格1,2

1. 山西大学计算机与信息技术学院,太原,030006

2. 计算智能与中文信息处理教育部重点实验室,山西大学,太原,030006

Neighborhood rough set model based on maximal consistent blocks

Cheng Yonglin1, Li Deyu,1,2, Wang Suge1,2

1. School of Computer & Information Technology, Shanxi University, Taiyuan, 030006, China

2. Key Laboratory of Computational Intelligence and Chinese Information Processing of Ministry of Education, Shanxi University, Taiyuan, 030006, China

通讯作者: E⁃mail:lidy@sxu.edu.cn

收稿日期: 2019-05-28   网络出版日期: 2019-07-17

基金资助: 国家自然科学基金.  61672331,61573231,61432011,61806116
山西省重点研发计划.  201803D421024
山西省自然科学基金.  201801D221175
山西省高等学校科技创新项目.  201802014

Received: 2019-05-28   Online: 2019-07-17

摘要

对于数值型数据而言,邻域粗糙集模型是处理不确定信息的有效工具.现有的邻域粗糙集模型仅关注那些邻域中所有样本都属于同一个决策类的一致性情形,无法利用邻域中与多个决策类相交的边界样本所蕴含的信息.针对邻域粗糙集的这一局限性,将相容关系的极大相容块与邻域粗糙集相结合,选取样本邻域内的最大等价块作为最小的信息粒,通过重新定义邻域粗糙集的上下近似和属性重要度等概念,建立了一种基于极大相容块的邻域粗糙集模型.该模型可在更小的信息粒度下将原来边界样本转化成一致性样本来增大正域.运用前向贪婪策略构建了相应的属性约简算法.在七个公开的UCI数据集上的对比实验验证了提出模型的有效性.

关键词: 属性约简 ; 边界样本 ; 邻域粗糙集 ; 极大相容块

Abstract

For numerical data,neighborhood rough set model is an effective tool for dealing with uncertain information. The existing neighborhood rough set models only focus on the consistent situation that all samples in the neighborhood are in a single decision class. So they cannot make use of the information contained in the boundary samples with multiple decision class labels in the neighborhood. Aiming at this limitation of neighborhood rough set mode,we combine the concept of maximal consistent block of a tolerance relation with neighborhood rough set model and select the largest equivalent block in a sample neighborhood as the minimum information granule. We establish a new model,called neighborhood rough set model based on maximal consistent block,by redefining some concepts,such as upper and lower approximations, attribute importance and so on. The new model can enlarge the positive region by transforming the boundary samples into consistent samples in smaller information granules. In addition,we construct the corresponding attribute reduction algorithm by using the forward greedy strategy. The effectiveness of the proposed model is validated by the experiments on seven public UCI data sets.

Keywords: attribute reduction ; boundary sample ; neighborhood rough set ; maximal consistent block

PDF (463KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

程永林, 李德玉, 王素格. 基于极大相容块的邻域粗糙集模型. 南京大学学报(自然科学版)[J], 2019, 55(4): 529-536 doi:10.13232/j.cnki.jnju.2019.04.002

Cheng Yonglin, Li Deyu, Wang Suge. Neighborhood rough set model based on maximal consistent blocks. Journal of nanjing University(Natural Science)[J], 2019, 55(4): 529-536 doi:10.13232/j.cnki.jnju.2019.04.002

粗糙集理论是属性约简的有力工具.基于二元关系类型,经典粗糙集理论已从等价关系拓展到相似关系、相容关系、模糊关系、优势关系等,并产生了对应的粗糙集拓展模型[1,2,3,4,5,6,7,8].

为了提高模型的抗噪性能,确定型粗糙集模型被发展出变精度粗糙集模型和概率粗糙集模型[8,9,10,11,12,13].近年来,张清华等[14,15]将正域内样本个数与样本总数的比值作为参数,用来判断边界样本是否属于正域,提出了粗糙集的最优近似集.本质上,该模型利用全局参数代替了变精度模型中的人为参数.Fan et al[16]提出将边界样本的相似类与决策类做交运算,选择最大的交集作为边界样本新的相似类,提出了最优决策粗糙集模型.

邻域粗糙集模型被广泛应用于数值型数据的属性约简任务,并取得了良好的效果[1,3,4,5].Hu et al[1,4,5]提出基于邻域粒化和粗糙逼近的数值型属性约简加速算法.针对符号型数据的非完备系统,Yee and Li[17]和其他研究者[18,19,20,21]提出了基于极大相容块粗糙集模型.

针对数值型数据,本文将极大相容块概念与邻域粗糙集相结合,在样本的邻域内寻找条件属性空间中的最大不可区分信息粒去刻画决策不确定性信息.相比于采用邻域粒度进行分析,它是在更小的粒度下,将原来某些边界样本转化成邻域粗糙集能处理的一致性样本来增大决策正域,从而提高属性约简的质量.依据上述思想,本文重新定义了邻域粗糙集的上下近似和属性重要度等概念,构建了基于极大相容块的邻域粗糙集模型,讨论了该模型的性质,并运用前向贪婪策略提出了相应的属性约简算法.对比实验表明,基于提出的模型所获属性约简用于分类,可获得更高的分类精度.

1 相关理论

1.1 邻域粗糙集

给定决策表S=U,A,D

U={x1,x2,,xm}为非空有限样本集合,A={a1,a2,,an}为非空有限的条件属性集,D为决策属性.

定义1[1] 给定决策表S=U,A,DBA和实值参数δ0.x,yU,称LBδ为相容关系;xULBδ(x)作为xδ邻域.式(1)和式(2)中的dB(x,y)xy在属性集B下的欧氏距离:

LBδ={(x,y)U×U|dB(x,y)δ,δ0}
LBδ(x)={y|dB(x,y)δ,yU,δ0}

定义2[1] 给定决策表S=U,A,DDU划分为q个等价类,称为决策类D1,D2,,

Dq.对于BA且实值参数δ0生成U上的邻域关系NB,则称决策D关于条件属性集B的下近似是NBD,上近似是NB¯D

NBD=NBD1NBD2NBDq=i=1qNBDi
NB¯D=NB¯D1NB¯D2NB¯Dq=i=1qNB¯Di

这里:

NB̲Di={x|LBδxDi,xU}
NB¯Di={x|LBδxDi,xU}

由上下近似的定义可得正域POSB(D)、边界域BNB(D)

POSB(D)=NB̲D
BNB(D)=NB¯D-NB̲D

定义3[1] 给定决策表S=U,A,DB

A决策类D对属性集B的依赖程度是属性依赖度rB(D).若属性aB则属性a对于属性子集B的内部重要度是Sig1(a,B,D).若属性aA-B则属性a对于属性子集B的外部属性重要度是Sig2(a,B,D).如式(7)至式(9)所示:

rB(D)=|POSB(D)||U|
Sig1(a,B,D)=rB(D)-rB-a(D)
Sig2(a,B,D)=rBa(D)-rB(D)

1.2 极大相容块

定义4[17,19] 给定决策表S=U,A,DBAXU且实值参数δ0.如果对于x,yX,均满足相容关系LBδ,则称X关于B是相容的.如果对于U不存在子集Y,使得XY,且Y也是关于B相容的,则称XB的一个极大相容块CB.CB是一种极大的样本集合,即在给定可利用信息下,该样本集合下的所有样本都是不可区分的.对于xiU,在BA下确定的所有包含xi的集合为CB(xi)

CB={i=1mCB(xi),xiU,m=|U|}

根据定义4,采取蛮力搜索的方式计算每个样本与其他样本之间是否满足相容关系可得到一系列满足相容关系LBδ的二元对,然后计算其他样本与二元对中的每个样本是否满足相容关系得到三元对.以此类推,将得到的一致块全部并起来求得CB.

例1 样本集合X={x1,x2,x3,x4,x5}X在属性集B下满足实值参数δ的相容关系的矩阵表示如表1所示,表中“1”表示两个对象间的距离小于参数δ,“0”表示两个对象间的距离大于参数δ.由定义4和表1可得:

表1   X的相容关系矩阵

Table 1  The compatible relation matrix of X

x1x2x3x4x5
x111101
x211000
x310101
x400010
x510101

新窗口打开| 下载CSV


CB={{x1,x3,x5},{x1,x2},{x4}}CB(x1)={{x1,x3,x5},{x1,x2}}CB(x2)={{x1,x2}}CB(x3)={{x1,x3,x5}}CB(x4)={{x4}}CB(x5)={{x1,x3,x5}}

图1所示,CB={{x1,x3,x5},{x1,x2}{x4}},则X的极大相容块可以看作是几个等价块的集合,即{x1,x3,x5}{x1,x2}{x4}的集合.而对于x1而言,

CB(x1)={{x1,x3,x5},{x1,x2}}
LBδ(x1)={x1,x2,x3,x5}

图1

图1   例1中样本分布图

Fig.1   The distribution of samples in example 1


LBδ(x1)被分成{x1,x3,x5}{x1,x2}两个等价块且x1同时属于两个等价块.

2 基于极大相容块的邻域粗糙集模型

2.1 NMCBRS( Neighborhood Rough Set Model Based on Maximal Consistent Blocks)

定义5 给定决策表S=U,A,D和实值参数δ0BAxU,由定义4可得极大相容块CBCB(x).CB(x)中包含一系列的一致性块,也是等价块,用T表示,即:

CB(x)={T1,T2,,Ts|s=CB(x)}

使用CB(x)中的最大等价块MLB(x)作为描述x的最小信息粒,MLB(x)如式(11)所示:

MLB(x)={Tp| p=argmax{T1,T2,,Ts|s=CB(x)}}

定义6 给定决策表S=U,A,DDU划分为q个等价类,称为决策类:D1,D2,,

Dq.给定实值参数δ0,BA,则决策D关于B下的上近似是RNB¯D,下近似是RNB̲D

RNB̲Di={x|MLB(x)Di,xU}
RNB¯Di={x|MLB(x)Di,xU}
RNB̲D=RNB̲D1RNB̲D2RNB̲Dq=i=1qRNB̲Di
RNB¯D=RNB¯D1RNB¯D2RNB¯Dq=i=1qRNB¯Di

由上近似和下近似的定义可得正域RPOSB(D)、边界域RBNB(D):

RPOSB(D)=RNB̲D
RBNB(D)=RNB¯D-RNB̲D

定义7 给定决策表S=U,A,DBA,决策类D对属性集B的依赖程度是属性依赖度RrB(D)

RrB(D)=|RPOSB(D)||U|

如果CBA,满足RrC(D)RrB(D),则称在属性集C下对于全体样本U的辨别能力与在属性集B下的辨别能力相等,即属性集B-C为冗余属性,可以将属性集B-C约简掉.当属性aB,则属性a对于属性集B的内部重要度是RSig1(a,B,D).当属性aA-B,属性a对于属性子集B的外部属性重要度是RSig2(a,B,D)

RSig1(a,B,D)=RrB(D)-RrB-a(D)
RSig2(a,B,D)=RrBa(D)-RrB(D)

2.2 性 质

性质1 给定决策表S=U,A,DB1B2A在相同的实值参数δ下,xUMLB1(x)MLB2(x).

明 由B1B2A,可得x,yU

dB1(x,y)dB2(x,y).如果dB2(x,y)δ,则dB1(x,y)δ一定成立.反之,如果dB1(x,y)δ,则dB2(x,y)δ不一定成立.由此可以推出MLB1(x)MLB2(x).

性质2 给定决策表S=U,A,DB1B2A在相同的参数δ下,可得:

(1)RNB1̲DRNB2̲D

(2)RPOSB1(D)RPOSB2(D)

(3)RrB1(D)RrB2(D).

明 由性质1可知B1B2A,在相同的实值参数δ下,MLB1(x)MLB2(x),由式(12)和式(14)即可得到:

RNB1̲DRNB2̲D

再由式(16)可以推出:

RPOSB1(D)RPOSB2(D)

U一定的条件下,根据式(18)可推出:

RrB1(D)RrB2(D)

3 算 法

输入:决策表SU,A,D,参数δ

输出:约简后的属性子集redl

1.划分等价类U/D=D1,D2,,Dq

2.redl=

3. for aiA

4. 用式(19)计算内部属性重要度RSig1(ai,A,D)

5. if RSig1(ak,A,D)>0

6. akredl, B=A-redl

7. end if

8.end for

9.用式(18)计算RrA(D)

10.while B

11. 用式(18)计算Rrredl(D)

12. if Rrredl(D)<RrA(D)

13. for each amB

14. 用式(20)计算外部属性重要度RSig2(am,redl,D)

15. end for

16. RSig2(an,redl,D)=max(RSig2(am,

redl,D))
redlredlan
B=A-redl

17. else

18. break;

19. end if

20.end while

21.return redl

假设给定的决策表中有U个样本,D个类别,C个属性,属性子集中包含d个属性,判别所有样本是否属于某个决策类的时间复杂度为O(UD),计算加入候选属性后的样本的最大等价块的时间复杂度为O(U3),那该算法的时间复杂度为O(U3Cd).

4 实验及结果分析

4.1 实验设置

实验使用七个UCI数据集上的数值型数据集进行测试,数据集的信息如表2所示.

表2   数据集描述

Table 2  Description of datasets

数据集样本数属性数类别数
Wine178133
Wdbc569302
Glass214106
Wpbc198322
Ionos351332
Snoar208602
Cancer68392

新窗口打开| 下载CSV


实验采用近期提出类似的方法如经典邻域粗糙集(Neighborhood Rough Set,NRS)[1]、变精度邻域粗糙集(Variable Precision Neighborhood Rough Set,VP⁃NRS)[9]、最优决策邻域粗糙集方法(Max⁃Decision Neighborhood Rough Set,MAX⁃NRS)[16]与本文中提出的新的粗糙集模型NMCBRS以及原始数据集(Raw Data Set,RAW)进行对比.主要的对比数据是使用前向贪婪算法进行属性约简后得到的属性子集的属性个数以及使用这些属性子集在KNN(K⁃Nearest Neighbors)和SVM(Support Vector Machine)分类器上的分类精度进行比较,以此来验证基于极大相容块的邻域粗糙集属性约简算法的有效性.

4.2 参数设置

邻域参数δ以0.1为步长,从0到1之间寻找最佳邻域半径.针对变精度邻域粗糙集方法中精度参数α的设置,将从0到1以0.01为步长,寻找最佳的参数.采用十折交叉验证对最优属性子集进行分类测试,对于KNN分类器而言,选取参数k=3的KNN分类器进行分类.

4.3 实验结果

实验结果如表3表6所示.

表3   最优属性子集

Table 3  Best feature subsets from different models

DataNRSVP⁃NRSMAX⁃NRSNMCBRS
Wine

1,13,12,11,5,2,3,

7,4

1,12,13,2,5,9,31,7,3,13,4,10,5,91,12,13,5,2,11,3
Wdbc

1,28,22,12,25,10,

19,2

25,23,27,2,10,30,14,19,

24,28,15,5,22,21,11,9,1,

8,3,12,18,4,6,7,26,13

1,25,22,7,29,9,15,

3,4,12,2

1,28,22,26
Glass

1,9,2,10,5,6,4,

3,7,8

1,3,5,6,101,7,41,10
Wpbc

1,29,3,2,32,12,3,

10,6,26

1,11,9,13,3,10,2

1,13,12,6,10,32,5,

23,26,2

1,20,12,26,6
Ionos

1,26,8,2,31,6,5,

22,3,32,4,15,7

1,2,3,6,12,11,8,15,

5,4,7,9,10,28,13

1,2,3,12,6,28,4,8,5,

15,24

2,28,29,20,

21,1,19,4

Snoar

1,54,45,11,27,24,

37,17,29,13,12,39,

8,25,26,22,18,2

1,12,25,17,37,29,8,

27,40,22,2

1,12,24,16,26,5,56,

9,29,48,14,10,27,46,

23,2

1,23,22,36,19,12,13,45,

2

Cancer6,1,2,8,4,5,313,6,8,5,46,1,2,4

新窗口打开| 下载CSV


表6   最优属性子集在KNN(k=3)下的分类精度

Table 6  The classification accuracy with KNN(k=3)

DataRAWNRSVP⁃NRSMAX⁃NRSNMCBRS
Wine94.21±6.7797.60±4.4794.73±6.0897.89±2.7297.44±3.65
Wdbc97.23±1.8196.02±2.0096.71±2.7696.01±2.1895.26±2.40
Glass89.61±5.1790.67±2.6887.87±7.8793.11±6.4993.71±6.45
Wpbc70.14±8.7976.44±11.8076.89±8.5875.42±11.9181.82±7.93
Ionos83.52±9.5386.01±6.2685.01±4.4985.18±5.1989.18±3.97
Snoar80.23±9.6581.40±9.1880.14±8.4381.32±6.7181.51±9.06
Cancer96.62±3.9496.38±6.3889.00±4.7595.78±1.5196.68±2.02
Average87.36±6.5289.21±6.1187.19±6.1389.24±5.2490.85±5.21

新窗口打开| 下载CSV


七个UCI数据集在NRS,VP⁃NRS,MAX⁃NRS与NMCBRS模型上进行属性约简后的最优属性子集如表3所示,其中最优属性子集的排列是按属性重要度的值由大到小排列,从中可以发现同一数据集在不同的模型度量下的属性重要度不同.

表4表6中的RAW表示的是没有采用属性约简方法的原始数据集.表4所示的是七个数据集在不同的模型下最优属性子集的属性个数.从中可以发现相对于其他三种方法,我们提出的NMCBRS模型约简后的最优属性子集的属性个数最少.原始数据平均有26个属性,经过NMCBRS模型约简后平均只剩5.57个属性,减少78%的冗余属性.

表4   最优属性子集个数

Table 4  The number of best feature subsets from different models

DataRAWNRSVP⁃NRSMAX⁃NRSNMCBRS
Wine139787
Wdbc30826114
Glass1010532
Wpbc32107105
Ionos331315118
Snoar602011169
Cancer97154
Average26.711110.299.145.57

新窗口打开| 下载CSV


表5表6是约简后的最优属性子集在KNN和SVM分类器的实验结果,表中加粗的数据是性能最佳的分类结果.表5中七个数据集中有六个数据集是NMCBRS模型的精度最高,只有Ionos数据集中NMCBRS模型与其他模型的精度相差不大,但是最优属性子集属性个数比其他模型的都少.同理,表6的Wdbc数据集中NMCBRS模型在KNN分类器上的精度表现一样.从表5表6可以看出,NMCBRS模型在平均分类精度上高于NRS,VP⁃NRS,MAX⁃NRS.

表5   最优属性子集在SVM下的分类精度

Table 5  The classification accuracy with SVM

DataRAWNRSVP⁃NRSMAX⁃NRSNMCBRS
Wine93.68±4.8497.36±3.7295.26±3.8895.20±6.3197.89±2.42
Wdbc94.62±4.5395.15±1.7795.15±2.2694.63±2.0995.43±2.08
Glass77.55±8.5778.41±6.0180.33±5.0877.82±6.4980.92±6.57
Wpbc76.00±12.2875.94±9.8075.94±9.8475.94±9.8476.42±7.59
Ionos84.98±12.3487.45±5.0087.45±5.4687.72±5.4887.57±4.67
Snoar71.32+10.9872.82±10.0873.68±9.7870.62±12.7775.96±10.20
Cancer96.34±3.7796.50±2.4285.69±4.6395.93±1.8396.71±2.40
Average84.92±8.1886.23±5.5484.78±5.8485.40±6.4086.61+5.45

新窗口打开| 下载CSV


综上所述,我们提出的NMCBRS模型能够在保持更高的分类精度下约简更多的冗余属性,极大地降低数据的维度.

5 结束语

本文对经典邻域粗糙集模型进行属性约简过程中忽视了边界样本所蕴含的信息,导致属性约简不充分的问题,提出了基于极大相容块的邻域粗糙集模型.该模型在更小的粒度下度量和利用边界样本的信息,保证在保持更高的分类精度的条件下约简掉更多的冗余属性,进一步完善了利用邻域粗糙集进行属性约简的方法.下一步,将在新的模型下对前向贪婪算法进行改进,减小时间复杂度.

参考文献

HuQ H,YuD R, LiuJ F,et al.

Neighborhood rough set based heterogeneous feature subset selection

Information Sciences,2008,178(18):3577-3594.

[本文引用: 7]

QianY H,LiangJ Y,PedryczW,et al.

Positive approximation: an accelerator for attribute reduction in rough set theory

Artificial Intelligence,2010,174(9-10):597-618.

[本文引用: 1]

WangQ,QianY H,LiangX Y,et al.

Local neighborhood rough set

Knowledge⁃Based Systems,2018,15353-64.

[本文引用: 2]

胡清华,赵辉,于达仁.

基于邻域粗糙集的符号与数值属性快速约简算法

模式识别与人工智能,2008,21(6):730-738.

[本文引用: 3]

Hu Q H, Zhao H,Yu D R.

Efficient symbolic and numerical attribute reduction with neighborhood rough sets.

Pattern Recognition &Artificial Intelligence,2008,21(6):732-738.

[本文引用: 3]

陈铁桥柳嫁航朱锋.

适用于遥感分类的多邻域粗糙集加权特征提取方法

武汉大学学报(信息科学版),2018,43(2):311-317.

[本文引用: 3]

Chen T Q,Liu J H,Zhu F,et al.

A novel multi⁃radius neighbor⁃hood rough set weighted feature extraction method for remote sensing image classification.

Geomatics and Information Science of Wuhan University,2018,43(2):311-317.

[本文引用: 3]

SuoM L,AnR M,ZhouD,et al.

Grid⁃clustered rough set model for self⁃learning and fast reduction

Pattern Recognition Letters,2018,10661-68.

[本文引用: 1]

LuoC,LiT R,ChenH M,et al.

Incremental rough set approach for hierarchical multicriteria classification

Information Sciences,2018,42972-87.

[本文引用: 1]

MaY Y,LuoX Y,LiX L,et al.

Selection of rich model steganalysis features based on decision rough set α⁃positive region reduction

IEEE Transactions on Circuits and Systems for Video Technology,2018,29(2):336-350.

[本文引用: 2]

MiJ S,WuW Z,ZhangW X.

Approaches to knowledge reduction based on variable precision rough set model

Information Sciences,2004,159(3-4):255-272.

[本文引用: 2]

YaoY Y.

Probabilistic rough set approximations

International Journal of Approximate Reasoning,2008,49(2):255-271.

[本文引用: 1]

KangY,WuS X,LiY W,et al.

A variable precision grey⁃based multi⁃granulation rough set model and attribute reduction

Knowledge⁃Based Systems,2018,148131-145.

[本文引用: 1]

LiuJ B,ZhaoP Y,LiuJ,et al.

Multi⁃granularity fuzzy soft probability rough sets∥2018 Chinese Control And Decision Conference

Shenyang,ChinaIEEE,20186204-6209.

[本文引用: 1]

SuoZ Y,ChengS Y,RenJ S.

Probability rough set model based on the semantic in set⁃valued information system∥2nd IEEE International Conference on Computer and Communications

Chengdu,ChinaIEEE,20171244-1249.

[本文引用: 1]

张清华,薛玉斌,王国胤.

粗糙集的最优近似集

软件学报,2016,27(2):295-308.

[本文引用: 1]

Zhang Q H,Xue Y B,Wang G Y.

Optimal approximation sets of rough sets.

Journal of Software,2016,27(2):295-308.

[本文引用: 1]

杨帅华,张清华.

粗糙集近似集的KNN文本分类算法研究

小型微型计算机系统,2017,38(10):2192-2196.

[本文引用: 1]

Yang S H,Zhang Q H.

Research on k⁃nearest neighbor text classification algorithm of approximation set of rough set.

Journal of Chinese Computer Systems,2017,38(10):2192-2196.

[本文引用: 1]

FanX D,ZhaoW D,WangC Z,et al.

Attribute reduction based on max⁃decision neighborhood rough set model

Knowledge⁃Based Systems,2018,15116-23.

[本文引用: 2]

YeeL,LiD Y.

Maximal consistent block technique for rule acquisition in incomplete information systems

Information Sciences,2003,15385-106.

[本文引用: 2]

ClarkP G,GaoC,Grzymala⁃BusseJ W,et al.

Characteristic sets and generalized maximal consistent blocks in mining incomplete data

Information Sciences,2018,45366-79.

[本文引用: 1]

江效尧,程玉胜,胡林生.

基于极大相容块的粗糙性度量及其属性约简

合肥工业大学学报(自然科学版),2012,35(4):476-480.

[本文引用: 2]

Jiang X Y,Cheng Y S,Hu L S.

Roughness measure and attribute reduction based on maximal consistent block.

Journal of Hefei University of Technology(Natural Science),2012,35(4):476-480.

[本文引用: 2]

黄治国,张天伍.

基于极大团的不完备系统规则获取方法

重庆邮电大学学报(自然科学版),2017,29(2):279-284.

[本文引用: 1]

Huang Z G,Zhang T W.

Maximal clique⁃based method for acquiring association rules in incomplete system.

Journal of Chongqing University of Posts and Telecommu⁃nications(Natural Science Edition),2017,29(2):279-284.

[本文引用: 1]

钱宇华,梁吉业,王锋.

面向非完备决策表的正向近似特征选择加速算法

计算机学报,2011,34(3):435-442.

[本文引用: 1]

Qian Y H,Liang J Y,Wang F.

A positive⁃approximation based accelerated algori⁃thm to feature selection from incomplete decision tables.

Chinese Journal of Computers,2011,34(3):435-442.

[本文引用: 1]

/