南京大学学报(自然科学), 2023, 59(1): 1-11 doi: 10.13232/j.cnki.jnju.2023.01.001

加权变精度直觉模糊序信息决策表的近似约简

徐伟华,, 潘彦舟

西南大学人工智能学院,重庆,400715

Approximate reduction in weighted variable precision intuitionistic fuzzy ordered decision table

Xu Weihua,, Pan Yanzhou

College of Artificial Intelligence,Southwest University,Chongqing,400715,China

通讯作者: E⁃mail:chxuwh@gmail.com

收稿日期: 2022-09-26  

基金资助: 国家自然科学基金.  61976245

Received: 2022-09-26  

摘要

以直觉模糊信息表为背景,利用粗糙集和模糊集,旨在筛除信息表中冗余的属性,提出获取决策规则的近似约简方法.首先,通过在直觉模糊集中引入带权重评分函数来定义加权直觉模糊序关系;进一步,为了提高模型分类的容错率,结合变精度粗糙集模型构建加权变精度直觉模糊序决策信息表;接着,在该决策表中提出上、下近似约简的判定定理和可辨识矩阵,进而生成两种求解上、下近似约简的方法;最后,通过具体案例和数值实验分析验证了该方法的有效性.

关键词: 变精度粗糙集 ; 带权重评分函数 ; 近似约简 ; 可辨识矩阵 ; 直觉模糊集

Abstract

Aiming at removing irrelevant and redundant attributes,this paper proposes a method of approximate reduction to better require decision rules in intuitionistic fuzzy decision tables. The weighted system is defined via the introduction of a weighted score function in intuitionistic fuzzy sets. Additionally,variable precision rough sets are utilized for a better tolerance to misclassify. Hence,the weighted variable precision intuitionistic fuzzy sets are defined. On the basis of the constructed system,we give conceptions of the judgment theorem and identification matrix of both lower and upper approximate reduction,by which two approaches of reduction are put forward. Finally,a concrete example and numerical tests are used to illustrate the effectiveness of the proposed method.

Keywords: variable precision rough sets ; weighted score function ; approximate reduction ; identification matrix ; intuitionistic fuzzy sets

PDF (425KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

徐伟华, 潘彦舟. 加权变精度直觉模糊序信息决策表的近似约简. 南京大学学报(自然科学)[J], 2023, 59(1): 1-11 doi:10.13232/j.cnki.jnju.2023.01.001

Xu Weihua, Pan Yanzhou. Approximate reduction in weighted variable precision intuitionistic fuzzy ordered decision table. Journal of nanjing University[J], 2023, 59(1): 1-11 doi:10.13232/j.cnki.jnju.2023.01.001

1986年Atanassov基于模糊集理论1提出直觉模糊集2,在隶属度的基础上添加了非隶属度和犹豫度,更全面、精准地刻画了模糊概念.因此,和传统的模糊集概念相比,直觉模糊集能更有效地处理信息表中的不确定性和模糊性.该模型自提出以来,众多学者不断扩展,成功地将其应用在深度学习、排序分类、情感分析、决策准则、图像融合等3-6领域.

粗糙集模型是Pawlak7于1982年提出的处理不确定性、不一致性、不完整性的有效工具,旨在从不一致完备决策表中提取确定性规则和可能性规则.近年来,许多学者在经典Pawlak粗糙集的基础上提出了优势粗糙集8、邻域粗糙集9、模糊粗糙集10等模型.当前,这些理论模型也广泛应用于模式识别、知识发现11-14等领域.属性约简15-17作为粗糙集的重要应用,力求在不改变知识库分类和决策能力的同时,筛除表中冗余的属性,从而既不丢失必要信息又能降低决策的复杂程度.

然而,Pawlak粗糙集模型要求其所处理的分类必须完全精确,即只考虑完全“包含”或“不包含”.针对此问题,Ziarko18于1993年提出变精度粗糙集模型,通过引入阈值β来放宽要求,考虑某种程度上的包含与否,进而提高模型分类的容错率.目前,许多学者利用变精度粗糙集在各类关系下对属性约简进行深入研究,并取得了诸多成果19-21.

在进行属性约简时总是将各个属性视作等权重这一习惯忽略了决策者自身的偏好,不符合实际情况,而属性加权根据各属性的重要程度赋予其不同的权重,可以更好地区分属性.通常,权重可以通过主观经验、个人喜好来设置,也可以通过先验知识习得22-24.

现实生活中,许多信息表受诸多因素影响是基于直觉模糊序关系的,而且是不协调的25.为了更有效地从不协调直觉模糊序决策信息表中提取简洁的不确定性命题,同时提高对噪音数据的容纳能力,本文引入带权重评分函数,并利用变精度粗糙集进行属性约简,构建加权变精度直觉模糊序决策信息表.接着,根据变精度上、下近似算子,引入近似函数、近似协调集和近似可辨识矩阵,进而得到近似约简的求解方法,并通过具体案例分析两种约简方法的有效性.

1 相关工作

决策表涉及条件属性和决策属性,为了更好地探究条件属性同决策属性之间的关系,便于理解,首先介绍相关概念26-27.

三元组IS=U,AT,F是信息表,四元组DIS=U,ATDT,F,G是决策表.其中,U=x1,x2,,xn是非空有限论域;AT=a1,a2,

,ap是有限条件属性集;DT=d1,d2,,dq是决策属性集,并满足ATDTFUAT的笛卡尔积到a的有限值域Va的映射,即F=f:U×ATV,V=Va,aATG是论域UDT的笛卡尔积到d的有限值域Vd的映射,即G=g:U×DTV,V=Vd.

对于一个信息表,如果属性a对应的值域满足偏序关系“a”,则aAT是一个准则.若所有属性均为准则,此时该信息表称为序信息OIS表,记作IS.所构成的偏序关系可以是递增或递减的偏序关系,为保证简洁性又不失一般性,本文主要研究由递增偏序关系所形成的准则.

在序信息表IS中,对x,yU,“yax”表示对象y在准则a下至少同对象x一样好,即fy,aafx,a.AATA,“yAx”说明关于准则集A对象y至少同对象x一样好.因此,对于aAx,yU,属性集A的优势关系可以写为:

RA=x,yfy,aafx,a

A的优势类为:

xA=yx,yRA=yfayafax

对于序决策表DIS=U,ATDT,F,G,若AATDDT,则RARD称为DIS中条件属性集A和决策属性集D对应的优势关系.此时该信息表称为序决策表ODIS,记作DIS.

下面给出变精度粗糙集的定义.

定义128

定义包含度DXY=XYYX表示集合X的基数.对决策精度β0.5,11-β表示错误分类率.对XU,记RAβ̲XRAβ¯X分别为集合X关于Aβ下近似与β上近似,如式(1)和式(2)所示:

RAβ̲X=xU:DXxAβ=xA:DXxAβ
RAβ¯X=xU:DXxA>1-β=xA:DXxA>1-β

RAβ̲XRAβ¯X分别为基于β下近似和β上近似得到的粗糙集模型,即变精度粗糙集模型.

β=1时,RAβ̲X=RA̲XRAβ¯X=RA¯X,因此变精度粗糙集模型可以视作经典Pawlak粗糙集的推广.类似经典Pawlak粗糙集,若RAβ̲X=RAβ¯X,则在精度β下是精确的;若RAβ̲XRAβ¯X,则在精度β下是粗糙的.

接下来,为论述方便介绍直觉模糊集的相关概念,详见文献[26].

四元组DIS=U,ATDT,F,G为决策信息表.集合IF=μax,νaxaAT,xU是论域U上的一个直觉模糊集.定义直觉模糊数为f=μax,νax,其中,μa:U×a0,1表示U中元素x在条件属性a下的隶属度;νa:U×a0,1表示U中元素x在条件属性a下的非隶属度,并且,对于xU,均满足0μax+νax1.

进一步,定义θax:U×a0,1表示U中元素x在条件属性a下的犹豫度,并且,对于xU,均满足μax+νax+θax=1.隶属度、非隶属度和犹豫度分别描述了对象x属于直觉模糊集的支持、反对、中立的程度.

此时,记IFIS=U,AT,F是直觉模糊信息表.IFDIS=U,ATDT,F,G是直觉模糊决策信息表.其中,非空有限论域U=x1,x2,,xn;有限条件属性集AT=a1,a2,,ap;有限决策属性集DT=d1,d2,,dq,并满足ATDT

F=f:U×ATVμa×Vνa,aAT,其中,VμaVνa分别为对象x在条件属性a下对应的隶属度值域和非隶属度值域.G=g:U×DTVμd×Vνd,dDT,其中,VμdVνd是对象x在决策属性d下对应的隶属度值域和非隶属度值域.

定义228

四元组IFDIS=U,ATDT,

F,G是直觉模糊决策信息表.对于xUaAT定义对象x对属性a的带权重评分函数,如式(3)所示:

Sax=ω1μax-ω2νax-ω3θax

其中,μaxνaxθax分别表示元素x在属性a下的隶属度、非隶属度和犹豫度,权重系数满足ω1+ω2+ω3=1,且0μax+νax1μax+νax+θax=1.因此,带权重评分函数可进一步简化为:

Sax=1-ω2μax+ω3-ω2νax-ω3

带权重评分函数可以视作对决策的正向反映,因而可以认为非隶属度和犹豫度反映的是各自对决策的阻碍程度,则在带权重评分函数中对二者赋予一个负数权重.

另外,权重系数的最终取值应体现与决策偏好的一致性.例如,评价者越看重隶属度,就需要适当提高其在带权重评分函数中的重要度,即增加ω1.特别地,由于各ωi加和为1,故实际取值时只需给定隶属度和非隶属度的权重并保证ω1+ω21,就可以自动得到ω3的取值.

将带权重评分函数与直觉模糊决策信息表相结合.若IFDIS中的所有属性均为准则,则称该信息表为直觉模糊决策序信息表IFODISIFODIS=U,ATd,F,G,记作IFIS.直觉模糊序决策信息表IFIS中的偏序关系可以表示为对于fF,gG,aAT以及x,yU,均有:

fy,afx,aSaySaxgy,dgx,d

其中,Sax=ω1μax-ω2νax-ω3θax为对象x对属性a的带权重评分函数;f=μax,νaxg=μdx,νdx分别是对象x在条件属性a和决策属性d下的直觉模糊数.

定义328

直觉模糊决策序信息表IFODIS中,x,yUAATATaA,定义属性集A所对应的优势关系为:

RAs=x,ySaySax

决策属性d所对应的优势关系为:

Rds=x,ygy,dgx,d

对于直觉模糊决策序信息表IFODIS,若RAsRds,则称该直觉模糊决策序信息表是协调的;反之,RAsRds,不协调.然而在实际生活中,需处理的信息表大多是不协调的.

根据定义3,对x,yU,aA,属性集A的优势类为:

xA=yx,yRAs=yfayfax

决策属性d的优势类为:

xd=yx,yRds

2 不协调加权变精度直觉模糊序信息表的近似约简

基于变精度粗糙集、直觉模糊序信息表的相关理论,构建基于直觉模糊序信息表的变精度粗糙集模型.

定义4

IFODIS=U,ATd,F,G是直觉模糊决策序信息表,对AATXUβ0.5,1,定义X在直觉模糊优序关系RAs关于Aβ下近似和上近似,如式(4)所示:

RAsβ̲X=xDXxAsβRAsβ¯X=xDXxAs>1-β

与原有的上、下近似相比,决策精度β的引入放宽了下近似要求的同时,提高了上近似的条件.在此基础上对AAT,xU,定义RAsβRdsβ分别为准则集Ad对应的U上的优势关系URAsβ=xiAsURdsβ=D1,D2,,Dr.

σAsβλAsβ分别为论域U上元素x关于准则集A的下近似函数和上近似函数,其定义如式(5)所示:

σAsβ=RAsβ̲D1,RAsβ̲D2,,RAsβ̲DrλAsβ=RAsβ¯D1,RAsβ¯D2,,RAsβ¯Dr

定义5

IFODIS=U,ATd,F,G是直觉模糊决策序信息表,AAT,有:

σAsβ=σATsβ,则称Aβ下近似协调集.进一步,若Aβ下近似协调集,但A的任意真子集均不是β下近似协调集,则称Aβ下近似约简.

类似地,若λAsβ=λATsβ,则称Aβ上近似协调集.进一步,若Aβ上近似协调集,但A的任意真子集均不是β上近似协调集,则称Aβ的上近似约简.

由定义5可知,β上、下近似约简是保持每个决策类的β上、下近似不变的属性集,即在原信息表和约简表中,由同一个对象所产生的命题规则的决策相同.

定理1

IFODIS=U,ATd,F,G是直觉模糊决策序信息表,AATxU,若记:

KAsβx=Dj:xRAsβ̲DjTAsβx=Dj:xRAsβ¯Dj

则称:

(1)属性子集Aβ下近似协调集xU,均有KAsβx=KATsβx.

(2)属性子集Aβ上近似协调集xU,均有TAsβx=TATsβx.

证明

Aβ下近似协调集,则对任意jr,有RAsβ̲Dj=RATsβ̲Dj.又对属性子集AxRAsβ̲Dj等价于DjKAsβx,对全集ATxRATsβ̲Dj等价于DjKATsβx,则证.

(2)与(1)同理可得.

下面给出变精度直觉模糊决策序信息表的上、下近似约简的判定定理.

定理2

IFODIS=U,ATd,F,G是直觉模糊决策序信息表,AAT,对x,yU,令DDixAsβ=αDyAsβxAsβ=η,则:

属性子集Aβ下近似协调集DiU/RD,当xRATsβ̲DiyRATsβ̲Di时,若η=0aA,有Sax>Say;若η0,则当η+α-1ηβ时,aASax>Say.

属性子集Aβ上近似协调集DiU/RD,当xRATsβ̲DiyRATsβ̲Di时,若η=0aA,有Sax>Say;若η0,则当ηη+α-1>1-β时,aASax>Say.

证明

对任意的DiU/RD,有:

xRATsβ̲DiDiKATsβx
yRATsβ̲DiDiKATsβy

首先证明必要性.

η=0时,yAsβxAsβ=,则此时必存在aA,有Sax>Say.

η0时,假设D0,当xRATsβ̲DiyRATsβ̲Di时,对任意aASaxSay.于是,此时有yxAs.由于A是下近似协调集,故对DiURD,有RATsβ̲Di=RAsβ̲Di.

因为xRATsβ̲Di,所以有xRAsβ̲Di,即DDixAs=αβ.yxAs,则yAsxAs.

在最极端情况下,即当xAsβ-DiyAsβ时,有:

DDiyAs=DiyAsyAs=η+α-1×xAsη×xAs=η+α-1ηβ

η+α-1ηβ时有DDiyAsβ,即yRATsβ̲Dj,因此有yRAsβ̲Dj,矛盾.

接下来证明充分性.

A不是下近似协调集,则一定存在D0,使得RATsβ̲D0RAsβ̲D0,即有x0使x0RATsβ̲D0,但x0RAsβ̲D0.DD0x0ATβ,DD0x0A<β.

x0ATsx0As,故存在y0,有y0x0As,但是y0D0,即DD0y0AT<β.于是有x0RATsβ̲D0y0RATsβ̲D0.根据条件可知存在aA,使得Sax>Say,这与y0x0As矛盾.

(2)同理(1)可得.

3 可辨识矩阵约简方法

上节给出了β上、下近似函数的定义和β上、下近似约简以及判定定理,由此可以进一步得到相应的属性约简方法.为此,先给出β上、下近似可辨识属性集和β上、下近似可辨识属性矩阵.

定义6

IFODIS=U,ATd,F,G是不协调直觉模糊决策序信息表,对DiURdsβ记:

D1*=x,y:DiKATsβx,DiKATsβyD2*=x,y:DiTATsβx,DiTATsβy

aAT,对r=1,2均有:

Dirsβx,y=Sax>Sayx,yDr*
Dirsβx,y=x,yDr*

则分别称Di1sβx,yDi2sβx,y为对象关于直觉模糊优势关系的β下近似可辨识属性集和β上近似可辨识属性集.分别记:

Di1sβ=Di1sβx,yx,yU为不协调直觉模糊决策序信息表的β下近似可辨识矩阵;

Di2sβ=Di2sβx,yx,yU为不协调直觉模糊决策序信息表的β上近似可辨识矩阵.

定理3

IFODIS=U,ATd,F,G是不协调直觉模糊决策序信息表,对AAT,有:

Aβ下近似协调集x,yD1*β,有ADi1sβx,y

Aβ上近似协调集x,yD2*β,有ADi2sβx,y.

证明

首先证明必要性.

A是下近似协调集,对于任意x,yD1*β,存在D0,有D0URdsβ,使得xRATsβ̲D0yRATsβ̲D0.故由定理2可知,必存在aA,使得Sax>Say.于是有aDi1sβx,y.因此若A是下近似协调集,则对x,yD1*β,有ADi1sβx,y.

接下来证明充分性.

若对x,yD1*β,有ADi1sβx,y,则存在aA,使得aDi1sβx,y,故有Sax>Say.xRATsβ̲DiyRATsβ̲Di.故由定理2可知,A是下近似协调集.

(2)证明同(1).

定义7

IFODIS=U,ATd,F,G是不协调直觉模糊决策序信息表,Di1sβDi2sβ分别为β下、上近似可辨识属性矩阵.对akAT,对r=1,2,记Mi1sβMi2sβ分别是β下近似辨识公式和β上近似辨识公式,有:

Mirsβ=akDirsβx,yx,yU=akDirsβx,yx,yDr*β

定理4

IFODIS=U,ATd,F,G是不协调直觉模糊决策序信息表,对r=1,2,辨识公式Mirsβ的极小析取范式为Mirsβ=k=1ns=1qkars.Ark=ars:s=1,2,,qk,则Ark:k=1,2,,n分别是所有β下分布约简和β上分布约简形成的集合.

证明

此处仅证明Ark:k=1,2,,n是所有β下分布约简形成的集合.β上分布约简同理可得.

对于任意knx,yD1*β,由极小析取范式的定义可知A1kD1sβx,y=;再由定理3可知,A1k是下近似协调集.同时,由Mi1sβ可知当在A1k中去掉一个元素形成A1k'时,一定有x,yD1*β,使得A1k'D1sβx,y=.因此A1k'不是β下近似协调集,从而A1kβ下近似约简.

又由于β下近似辨识公式中包含了所有的D1sβx,y,因此不存在其他β下近似约简.

4 案例分析

某信贷公司的10位评级员需要对申请贷款的六家公司进行联合评定,以判断是否对该公司进行放贷,评级员需要根据公司经营状况a1、信用状况a2和偿债能力a3三个方面对申贷公司进行评估.评级员结合公司的财务数据和自身经验给出各公司指标的程度和情况,由于在评价申贷公司各方面状况和能力时均采用“良好”“较差”等模糊性用语,故采用直觉模糊集可以更精准地判断申贷公司是否为符合期望的申请者.判断情况分ABC三种,即令人满意的申请者、尚可的申请者、不符合预期的申请者.

表1给出了10位评级员对六家公司的评定情况.公司x1a1下的得分解释如下:10位评级员,其中八位认为该公司经营状况良好,一位评级员认为该公司经营状况较差,还有一位评级员无法给出准确判断.此时,认为公司x1对经营状况a1的隶属度是0.8,非隶属度是0.1,犹豫度是0.1,记作fx1,a1=0.8,0.1.类似地,可以对其他直觉模糊数进行解释.此外,在得分函数中,由于更看重隶属度,故对其赋予更大的权重,此处设置权重为ω1=0.6ω2=0.3ω3=0.1.

表1   加权变精度直觉模糊序决策信息表

Table 1  Weighted variable precision intuitionistic fuzzy ordered decision information system

Ua1a2a3d
x10.4,0.20.5,0.30.4,0.1A
x20.9,0.10.6,0.20.6,0.4B
x30.3,0.50.3,0.40.5,0.2C
x40.6,0.30.2,0.60.8,0.1B
x50.8,0.10.7,0.20.5,0.3A
x60.9,00.4,0.40.7,0C

新窗口打开| 下载CSV


为了便于后续计算加权变精度直觉模糊序决策信息表中的上、下近似约简,在表2中计算了每个对象在各个属性下的带权重评分函数.

表2   基于加权变精度直觉模糊序决策信息表(表1)的得分函数

Table 2  Weighted score function based on Table 1

Ua1a2a3d
x10.140.190.16A
x20.510.280.24B
x30.010.030.21C
x40.26-0.080.44B
x50.440.350.19A
x60.530.10.39C

新窗口打开| 下载CSV


β=0.8,根据表2可以得到:

U/Rds0.8=D1,D2,D3
D1=x1,x5
D2=x1,x2,x4,x5
D3=x1,x2,x3,x4,x5,x6
x1ATs0.8=x1,x2,x5
x2ATs0.8=x2
x3ATs0.8=x2,x3,x6
x4ATs0.8=x4
x5ATs0.8=x5
x6ATs0.8=x6

显然RATs0.8Rds0.8,则该信息表不协调,计算得:

RATs0.8̲D1=x5
RATs0.8̲D2=x1,x2,x4,x5
RATs0.8̲D3=x1,x2,x3,x4,x5,x6
RATs0.8¯D1=x1,x5
RATs0.8¯D2=x1,x2,x3,x4,x5
RATs0.8¯D3=x1,x2,x3,x4,x5,x6

方法一:首先利用判定定理求解约简后的属性.

若取A=a2,a3,则:

RAs0.8̲D1=x5
RAs0.8̲D2=x1,x2,x4,x5
RAs0.8̲D3=x1,x2,x3,x4,x5,x6
RAs0.8¯D1=x1,x5
RAs0.8¯D2=x1,x2,x3,x4,x5
RAs0.8¯D3=x1,x2,x3,x4,x5,x6

σATs0.8=σAs0.8,说明A=a2,a3是下近似协调集.验证可知,A的任意真子集均不为下近似协调集,所以A是下近似约简.

同理可得,当A=a2,a3a1,a3时,λATs0.8=λAs0.8,且A的任意真子集均不为上近似协调集,所以A=a2,a3A=a1,a3是上近似约简.

方法二:根据表1的加权变精度直觉模糊序决策信息表,可以分别得到该信息表的下近似辨识矩阵和上近似辨识矩阵,如表3表4所示.

表3   表1的下近似辨识矩阵

Table 3  The lower approximation identification matrix of Table 1

Ux1x2x3x4x5x6
x1a1,2a2
x2a1,2,3a2
x3
x4a1,3a3
x5a1,2,3a2a1,2a1,2a2
x6

新窗口打开| 下载CSV


表4   表1的上近似辨识矩阵

Table 4  The upper approximation identification matrix of Table 1

Ux1x2x3x4x5x6
x1
x2a1,2,3a1,3
x3a3a3
x4a1,3a3
x5
x6a1,3a1,3a1,2,3a1,2a1,3

新窗口打开| 下载CSV


Mi1s0.8=a2a3a1a3a1a2a1a2a3=a2a3
Mi2s0.8=a3a1a3a1a2a1a2a3=a3a1a2=a3a1a3a2

因此,方法一和方法二所得到的约简结果是一致的.

5 数值实验

本节根据辨识矩阵求解约简属性的方法进行实验算法的设计,给出下近似、上近似约简的伪代码,详见算法1、算法2以及对应的数值实验.

算法1 加权变精度直觉模糊序信息表的下近似约简算法

输入:信息表IFODIS=U,ATd,F,G,决策精度β

输出:加权变精度直觉模糊序信息表的下近似约简集red

1.初始化red

2.计算带权重评分函数

Sax=ω1μax-ω2νax-ω3θax

3. for i=1 to U do:

4. pre=

5. for j=1 to U do

6. if SxiSxj then do:

7. prexj

8. end if

9. end for

10. Pre=Prepre

11.end for

12.for i=1 to U do:

13. d=

14. for j=1 to U do:

15. if dxidxj then do:

16. dxj

17. end if

18. end for

19. D=Dd

20.end for

21.for i=1 to U do:

22. xred=

23. for j=1 to U do:

24. if Prei= then do:

25. degree=0

26. else:

27. degree=lenPreiDjlenPrei

28. if degreeβ then do:

29. xredxi

30. end if

31. end for

32. xred=xredxredi

33.end for

34.for m=1 to U do:

35. Dred=

36. for i=1 to U do:

37. for j=1 to U do:

38. if xixredm and xjxredm then do:

39. for p=1 to AT do:

40. if Sxip>Sxjp then do:

41. Dredap

42. end for

43. end if

44. end for

45. end for

46. R=RDred

47.end for

48.red是R的极小析取范式

49.end

算法2 加权变精度直觉模糊序信息表的上近似约简算法

输入:信息表IFODIS=U,ATd,F,G,决策精度β

输出:加权变精度直觉模糊序信息表的上近似约简集red

1.与算法1中的1~20相同

2.for i=1 to U do:

3. sred=

4. for j=1 to U do:

5. if Prei= then do:

6. degree=0

7. else:

8. degree=lenPreiDjlenPrei

9. if degree>1-β then do:

10. sredxi

11. end if

12. end for

13. sred=sredsredi

14.end for

15.for m=1 to U do:

16. Ured=

17. for i=1 to U do:

18. for j=1 to U do:

19. if xisredm and xjsredm then do:

20. for p=1 to AT do:

21. if Sxip>Sxjp then do:

22. Dredap

23. end if

24. end for

25. end if

26. end for

27. end for

28. R=RUred

29.end for

30.redR的极小析取范式

31. end

从UCI数据库中选取九个数据集以验证下近似约简和上近似约简方法的有效性,数据集相关信息见表5.

表5   实验中使用的数据集概述

Table 5  The description of datasets used in experiments

数据集简称样本数属性数分类数
WineWine178133
SeedsSeeds21073

Heart Failure

Clinical records

Heart299132
Forest FiresForest517132

Wisconsin Diagnostic

Breast Cancer

Wdbc569312
Australian CreditAust690142
German CreditGerman1000202
Maternal HealthHealth101473
CardiotocographyCard2093213

新窗口打开| 下载CSV


使用的计算机CPU为i5⁃11300H,内存为16 GB,Windows 11操作系统.实验程序采用Python 3.7.为进一步说明实验的有效性,将下近似约简算法VDR、上近似约简算法VUR与MR29进行比较,分别在KNN,SVM,BayesNet,RandomTree四个分类器上对约简结果进行分类,得到对应的分类精度如表6表7所示.

表6   不同算法在KNN和SVM上的分类精度

Table 6  Comparative classification results of three algorithms on KNN and SVM

数据集KNNSVM
VDRVURMRVDRVURMR
Average85.70%±6.96%85.50%±5.70%83.19%±6.81%86.01%±6.75%84.61%±6.62%84.47%±5.89%
Wine98.33%±5.00%96.33%±7.37%96.00%±0.6496.33%±7.37%96.00%±8.00%96.00%±0.64%
Seeds94.05%±7.32%95.48±6.94%92.38%±7.66%95.48%±6.94%96.90%±6.21%91.91%±8.12%
Heart82.22%±14.2373.33%±7.37%81.11%±12.22%76.67%±13.56%71.11%±7.37%83.33%±12.42%
Forest91.96%±6.59%97.14%±5.71%97.14%±5.71%94.46%±6.79%92.86%±9.58%98.75%±3.75%
Wdbc94.74%±5.55%94.12%±5.88%93.01%±6.29%95.88%±4.59%92.94%±5.76%93.56%±5.55%
Aust87.45%±5.37%87.48%±5.37%70.67%±10.42%85.95%±9.47%82.55%±10.54%73.02%±8.64%
German70.33%±5.47%73.33%±2.98%72.00%±8.59%73.00%±1.00%73.00%±1.00%72.00%±3.27%
Health64.62%±8.83%64.26%±6.03%61.63%±6.57%67.86%±7.46%67.20%±7.59%67.20%±7.59%
Card87.61%±4.20%88.09%±3.67%84.81%±3.17%88.41%±3.57%88.87%±3.52%47.49%±2.97%

新窗口打开| 下载CSV


表7   不同算法在BayesNet和RandomTree上的分类精度

Table 7  Comparative classification results of three algorithms on BayesNet and RandomTree

数据集BayesNetRandomTree
VDRVURMRVDRVURMR
Average83.72%±6.14%83.68%±6.69%81.76%±7.79%89.83%±7.18%89.82%±8.26%84.85%±5.89%
Wine95.00%±4.99%93.00%±7.37%90.98%±2.18%98.00%±8.19%98.33%±7.37%92.67%±1.74%
Seeds95.48%±6.94%96.9%±7.9%97.14%±5.71%96.67%±7.64%95.00%±8.12%93.81%±7.62%
Heart83.33%±12.62%82.22%±10.48%87.78%±20.76%89.96%±3.18%88.89%±7.45%82.22%±11.60%
Forest97.14%±5.71%97.14%±5.71%94.46%±6.55%98.75%±9.01%98.57%±9.46%95.71%±6.8%
Wdbc95.88%±3.90%95.39%±4.88%90.03%±5.44%96.47%±5.29%97.06%±6.34%91.80%±4.88%
Aust82.67%±7.03%82.67%±7.05%72.55%±10.18%88.40%±6.69%87.43%±5.98%75.41%±5.73%
German67.47%±4.16%69.33%±5.78%68.00%±8.14%73.33%±12.83%76.33%±14.59%70.33%±5.59%
Health61.69%±6.28%62.01%±7.51%62.01%±6.96%74.39%±6.67%74.73%±9.30%76.42%±9.30%
Card74.59%±3.63%74.44%±3.48%72.89%±4.18%92.47%±5.12%91.20%±5.74%84.59%±4.73%

新窗口打开| 下载CSV


由表可见,根据算法1和算法2求得的下近似约简和上近似约简结果,在KNN,SVM,BayesNet和RandomTree这四种分类器上的分类精度均在一个比较高的程度,并且九个数据集得到的平均分类精度均优于对比算法.说明本文所提出的算法不仅具有一定的可信度,还在原有算法上有所改进提升.

6 结论

本文以直觉模糊决策信息表为背景,借助带权重评分函数定义了直觉模糊序决策信息表.同时,为了提高模型分类的容错率,引入变精度粗糙集,构建加权变精度直觉模糊序信息表.在此信息表下引入近似约简的概念,并得到不协调信息表上、下近似约简的判定定理和可辨识矩阵,进而给出两种求解上、下近似约简的方法.最后,通过具体案例和数值实验证实了方法的可行性和有效性.

参考文献

Atanassov K T.

Intuitionistic fuzzy sets

Fuzzy Sets and Systems,198620(1):87-96.

[本文引用: 1]

Zadeh L A.

Fuzzy sets

Information and Control,19658(3):338-353.

[本文引用: 1]

那日萨孔茸高欢.

基于深度学习的直觉模糊集隶属度确定方法

运筹与管理,202231(2):92-98.

[本文引用: 1]

Na R SKong RGao H.

Deep learning⁃based determination method for membership degree in intuitionistic fuzzy sets

Operations Research and Management Science,202231(2):92-98.

[本文引用: 1]

Deng YRen Z QKong Y Yet al.

A hierarchical fused fuzzy deep neural network for data classification

IEEE Transactions on Fuzzy Systems,201725(4):1006-1012.

Zhang DLi Y LWu C.

An extended TODIM method to rank products with online reviews under intuitionistic fuzzy environment

Journal of the Operational Research Society,202071(2):322-334.

戴文战王琪.

基于PCNN与IFS的可见光与红外图像融合方法

光电子·激光,202031(7):738-744.

[本文引用: 1]

Dai W ZWang Q.

Research on fusion method of visible and infrared image based on PCNN and IES

Journal of Optoelectronics · Laser,202031(7):738-744.

[本文引用: 1]

Pawlak Z.

Rough sets

International Journal of Computer & Information Sciences,198211(5):341-356.

[本文引用: 1]

Greco SMatarazzo BSlowinski R.

Rough approximation of a preference relation by dominance relations

European Journal of Operational Research,1999117(1):63-83.

[本文引用: 1]

Yao Y Y.

Relational interpretations of neighborhood operators and rough set approximation operators

Information Sciences,1998111(1-4):239-259.

[本文引用: 1]

Dubois DPrade H.

Rough fuzzy sets and fuzzy rough sets

International Journal of General Systems,199017(2-3):191-209.

[本文引用: 1]

Chen X WXu W H.

Double⁃quantitative multigranulation rough fuzzy set based on logical operations in multi⁃source decision systems

International Journal of Machine Learning and Cybernetics,202213(4):1021-1048.

[本文引用: 1]

Che X YMi J SChen D G.

Information fusion and numerical characterization of a multi⁃source infor⁃mation system

Knowledge⁃Based Systems,2018145121-133. DOI:10.1016/j.knosys. 2018.01.008 .

王江荣黄建华罗资琴.

基于粗糙集的Logistic回归模型在矿井突水模式识别中的应用

煤田地质与勘探,201543(6):70-74.

Wang J RHuang J HLuo Z Qet al.

Application of logistic regression model based on rough set in recognition of mine water inrush pattern

Coal Geology & Exploration,201543(6):70-74.

Sang B BChen H MYang Let al.

Incremental attribute reduction approaches for ordered data with time⁃evolving objects

Knowledge⁃Based Systems,2021(212):106583. DOI:10.1016/j.knosys. 2020. 106583 .

[本文引用: 1]

林冰雁徐伟华杨倩.

带偏好度量的直觉模糊序决策信息系统的部分一致约简

计算机科学,201845(1):148-151187.

[本文引用: 1]

Lin B YXu W HYang Q.

Partially consistent reduction in intuitionistic fuzzy ordered decision information systems with preference measure

Computer Science,201845(1):148-151187.

[本文引用: 1]

Chen Y MZeng Z QZhu Q Xet al.

Three⁃way decision reduction in neighborhood systems

Applied Soft Computing,2016(38):942-954. DOI:10.1016/j.asoc.2015.10.059 .

龙柄翰徐伟华张晓燕.

不协调目标信息系统中基于改进差别信息树的分布属性约简

计算机科学,201946(S1):115-119.

[本文引用: 1]

Long B HXu W HZhang X Y.

Distribution attribute reduction based on improved discernibility information tree in inconsistent system

Computer Science,201946(S1):115-119.

[本文引用: 1]

Ziarko W.

Variable precision rough set model

Journal of Computer and System Sciences,199346(1):39-59.

[本文引用: 1]

Chen Y YChen Y M.

Feature subset selection based on variable precision neighborhood rough sets

International Journal of Computational Intelligence Systems,202114(1):572-581.

[本文引用: 1]

Chen P PLin M LLiu J H.

Multi⁃label attribute reduction based on variable precision fuzzy neighborhood rough set

IEEE Access,2020(8):133565-133576. DOI:10.1109/ACCESS.2020. 3010314 .

陈子春秦克云.

区间值信息系统在变精度相容关系下的属性约简

计算机科学,200936(3):163-166.

[本文引用: 1]

Chen Z CQin K Y.

Attribute reduction of interval⁃valued information system based on variable precision tolerance relation

Computer Science,200936(3):163-166.

[本文引用: 1]

Hu MTsang E C CGuo Y Tet al.

A novel approach to attribute reduction based on weighted neighborhood rough sets

Knowledge⁃Based Systems,2021(220):106908.

[本文引用: 1]

Xie X JQin X LYu C Qet al.

Test⁃cost⁃sensitive rough set based approach for minimum weight vertex cover problem

Applied Soft Computing,2018(64):423-435. DOI:10.1016/j.asoc.2017. 12.023 .

Aggarwal M.

Probabilistic variable precision fuzzy rough sets

IEEE Transactions on Fuzzy Systems,201624(1):29-39.

[本文引用: 1]

徐伟华张文修.

基于优势关系下的协调近似空间

计算机科学,200532(9):164-165.

[本文引用: 1]

Xu W HZhang W X.

Consistent approximation spaces based on dominance relations

Computer Science,200532(9):164-165.

[本文引用: 1]

徐泽水. 直觉模糊信息集成理论及应用. 北京科学出版社2008.

[本文引用: 2]

徐伟华. 序信息系统与粗糙集. 北京科学出版社2013.

[本文引用: 1]

张文修梁怡吴伟志. 信息系统与知识发现. 北京科学出版社2003.

[本文引用: 3]

陈德刚徐伟华李金海. 粒计算基础教程. 北京科学出版社2019.

[本文引用: 1]

/