南京大学学报(自然科学版), 2019, 55(4): 519-528 doi: 10.13232/j.cnki.jnju.2019.04.001

属性的变化对于流图的影响

姚宁1,2, 苗夺谦,1,2, 张远健1,2, 康向平1,2

1. 同济大学计算机科学与技术系,上海,201804

2. 同济大学嵌入式系统和服务计算教育部重点实验室,上海,201804

The impact of changing attributes on flow graph

Yao Ning1,2, Miao Duoqian,1,2, Zhang Yuanjian1,2, Kang Xiangping1,2

1. Department of Computer Science and Technology, Tongji University, Shanghai, 201804, China

2. Key Laboratory of Embedded System & Service Computing, Ministry of Education of China, Tongji University, Shanghai, 201804, China

通讯作者: E⁃mail:dqmiao@tongji.edu.cn

收稿日期: 2019-05-17   网络出版日期: 2019-07-17

基金资助: 国家重点研发计划.  213
公安部重大专项.  20170004

Received: 2019-05-17   Online: 2019-07-17

摘要

人类的认知中具有粒化特性,并且同一现象在不同粒度上具有不同的解释.流图为知识的一种表示形式,素有直观性、计算便捷性和并行处理等特征.以属性⁃值形式的信息系统作为研究对象,针对新属性的添加而诱导的粒度变化,研究流图在不同粒度上的具体演变.流图在新粒度上的有效性取决于所涉及的等价类的变化和Markov性质的成立.具体的,若新粒度上仅有部分等价类中的成员保持Markov性质成立,则粒度变化可将图形结构由一个粒度上的流图转化为新粒度上的用于构成完整流图的基本构件;若Markov性质在新粒度上不成立,则流图可被转化为新粒度上的与流图无关的结构;若新粒度上等价类中的每个成员皆满足Markov性质,则流图在新粒度上保持不变.流感病人信息系统在不同粒度上的具体分析进一步验证了理论结果.这些结论有助于理解和刻画知识与粒度之间的关系,为模拟人类学习和思维奠定基础.

关键词: 流 图 ; Markov性质 ; 等价类 ; 粒 度 ; 粗糙集

Abstract

Granulation is an inherent property of human cognition and the same phenomenon has different interpretations at different granularities. Flow graph is treated as a form of knowledge representation,and is known for its intuitive formation,straightforward computation and parallel processing. Taking the attribute⁃value information system as the research object,this paper studies the specific changes of the flow graph at different granularities which are induced by adding the new attribute(s). The validity of the flow graph at a new granularity depends on the change of the equivalence classes involved and the establishment of the Markov property. Specifically,if only parts of elements of the equivalence class at the new granularity maintain the Markov property,the change in granularity will then cause the graphical structure to be transformed from a flow graph at one granularity to a basic component for a complete flow graph at this new granularity. If the Markov property does not hold at the new granularity,the flow graph will be transformed into a structure that is unrelated to flow graph at this new granularity. If every element of the equivalence class at the new granularity satisfies the Markov property,the flow graph at one granularity will then remain unchanged at this new granularity. The illustrations of an information system on patients suffering from flu at different granularities further validate the proposed theoretical results. These conclusions can help to understand and characterize the relationship between knowledge and granularity,and lay the foundation for simulating human learning and thinking.

Keywords: flow graph ; Markov property ; equivalence class ; granularity ; rough set

PDF (370KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

姚宁, 苗夺谦, 张远健, 康向平. 属性的变化对于流图的影响. 南京大学学报(自然科学版)[J], 2019, 55(4): 519-528 doi:10.13232/j.cnki.jnju.2019.04.001

Yao Ning, Miao Duoqian, Zhang Yuanjian, Kang Xiangping. The impact of changing attributes on flow graph. Journal of Nanjing University(Natural Science)[J], 2019, 55(4): 519-528 doi:10.13232/j.cnki.jnju.2019.04.001

数据作为最重要的资源之一,在日常推理、机器学习、人工智能等研究中发挥着关键性作用.将数据作为研究的出发点,不需要关于数据的任何预备的或附加的信息,直接关注数据本身所能表示和传达的信息或知识,正是粗糙集理论在数据分析中所具有的优势和独特之处.

粗糙集理论由Pawlak[1]依据Frege[2](德国哲学家、逻辑学家、数学家、现代逻辑之父)的“模糊性关联于边界区域,即存在不能唯一被归类于一个集合或者其补集的对象”的观点的具体实现而提出,开始于形式化知识表示系统或信息系统或属性⁃值数据表格.该理论认为数据自身的不可区分性导致数据具有粒状结构,进而可被用于挖掘数据中蕴涵的信息[3].图表示的核心也是将数据或事实归类于结构,通过这些结构,所找寻的信息可与任务中涉及的变量关联起来,沿着图中展示的路径,人类的许多推理模式可得到阐述.Pawlak[4]还提出了粗糙集理论中的流图表示,将条件粒(条件属性诱导的数据的粒状结构)和决策粒(决策属性诱导的数据的粒状结构)之间的关系描述为流网络(Flow networks),流图中的信息流由确定因子和覆盖因子(二者皆为条件概率的粗糙集术语描述的对应物)决定,并受全概率公式和Bayes定理支配.这类流图关注于网络中的流分布建模,不同于Ford and Fulkerson[5]提出的流图(聚焦于图中的最优流分析).流图的这种形式上的直观性、计算上的简单便捷性和并行处理特性,使得基于流图的推理相比于直接从数据做推理更直观、更具可解释性.流图的研究成果主要集中于流图的构建(比如基于等价类[6]或者基于决策树[7])和流图中系数的确定(比如利用因式分解逐个消除变量[8]或者基于矩阵的表示形式[9]以多项式时间计算流图中的系数),近年来在应用方面粗糙集流图在多目标优化问题近似求解中展示了重要优势[10].

Yao and Miao[6]将流图解释为一类特殊的概率图模型,即具有Markov性质的有向非循环图(Directed acyclic graphs),从而基于属性诱导的等价类直接由数据构建流图.该图形结构描述变量间的一种层次架构,不同的属性值对应不同层,每层中节点间满足Markov性质,整个架构中两终端节点之间的条件概率满足全概率公式.姚宁等[11]还探析了因果信息对于属性变化而产生的迁移问题.本文是这些工作的延续,研究信息系统中属性的变化对于已抽取的流图的影响,或者流图在不同信息系统中的可迁移性.这里属性的变化侧重于属性个数的增加或删减,关于属性值层面的粒度变化的最新研究成果可参考文献[12].考虑到属性的变化与系统所能刻画的信息的粒度,即信息粒中所包含的成员的数量直接相关,文中给出的结论可窥见粒度变化与流图变化之间的关联,为理解和刻画人类认知中的粒化属性提供新的视角.

1 基本概念与相关工作

本节主要回顾粗糙集理论中与流图有关的基本概念和已有成果.

定义1 流 图[7] 流图为一有限的有向非循环图,记作G =(N,B,φ),其中N表示一节点集,BN × N表示一有向分支集,φ:BR+表示一个值域为非负实数的流函数.

(1)对于任意的w,yN,若(w,y)B,则称wy的一个输入,对应的,yw的一个输出;称φ(w,y)为从wy的一个流函数(也有将φ称作a throughflow)并且假设φ(w,y)0;所有w的输入集记作I(w),所有w的输出集记作O(w).流图G的输入和输出,分别记作I(G)O(G),定义如下:

I(G)={wN:I(w)=}
O(G)={wN:O(w)=}

G的输入和输出为G的外部节点,G的其他节点为G的内部节点.流图G的流函数(throughflow),记作φ(G)φinflow(G)表示G的输入流函数(简称为输入流),φoutflow(G)表示G的输出流函数(简称为输出流),定义为:

φoutflow(G)=wOGyIwφ(y,w)=φ(G)=wIGyOwφ(w,y)=φinflow(G)

相应的,节点w的流函数记作φ(w),节点w的输入流和输出流分别记作φinflow(w)φoutflow(w),具体定义如下:

φoutflow(w)=yOwφ(w,y)
φinflow(w)=yIwφ(y,w)

w为流图G的内部节点时,有:

φoutflow(w)=φ(w)=φinflow(w)

σ:B0,1,对于每个(w,y)B,定义σ(w,y)=φ(ω,y)φ(G),称σ(w,y)(w,y)的强度,则得到一正规化(normalized)流图,记作G=(N,B,σ).

(2)G中由wy (wy)的一条(有向)路(a (directed) path)定义为一节点序列w1,,wn,其中w1=wwn=y.对于每个i(1in-1)(wi,wi+1)B,采用符号术语记作[wy].G中从wy的所有路构成的集合记作w,y,称为G中从 wy的联结

(a connection).对于G中每个分支(w,y),指定两个数学量:确定因子(certainty factor)和覆盖因子(coverage factor),分别记作cer(w,y)cov(w,y),具体定义式为:

cer(w,y)=σ(w,y)σ(w)
cov(w,y)=σ(w,y)σ(y)

并且,σ(w)0σ(y)0.相应的,路[w1,,

wn]的确定因子和覆盖因子定义如下:

cerw1,,wn=i = 1n-1cer(wi,wi+1)
covw1,,wn =i = 1n-1cov(wi,wi+1)

联结w,y的确定因子和覆盖因子有如下定义:

 cerw,y=w, ,yw,ycerw,,y
 covw,y=w, ,yw,ycovw,,y

定义2 等价类[13]U为一有限的对象集合,称作全域,RU上由对象的属性诱导的一个等价关系.对于U上任意元素xUx关于等价关系R的等价类,记作xR={yU:xRy},称为R中的一个概念或者类别,有时也称作一个粒子.U/R表示R的所有等价类组成的集族,称作与R有关的知识(简称知识R),其构成了U的一个划分.

定义3 确定因子[4,6]U,A为一信息系统,其中有限非空集合U为对象集,称作全域;有限非空集合A称作属性集.若将属性集A区分为条件属性集C和决策属性集D,则称U,C,D为一决策表,其中C={C1,,Cn}D={D1,,Dm}nm为非负整数.对于任意xU,由x诱导的决策规则定义为一序列xC1,,xCn,xD1,,xDm,记作xC1,,

xCnxD1,,xDm(简记CxD).决策规则的确定因子,记作cerxC,D,具体定义式为:

cerxC,D=xCxDxC

其中,X表示集合X的基数,即集合X中元素的个数.决策规则的确定因子可从统计学上(频率)解释为一条件概率,即已知y属于xC,则y属于xD的条件概率,用符号术语标记为Px(DC).这里为书写方便,可省略下标x,直接写作CDcerC,DP(DC).决策规则的覆盖因子,记作covC,D,具体定义为:

covC,D=xCxDxD=P(CD)

可解释为已知决策属性D,则x属于条件类(由条件属性诱导的等价类)xC的条件概率.U中对象x满足条件属性C的边缘概率(无条件概率),记作P(C),定义为:

P(C)=xCU

决策规则的强度记作σ(C,D),定义为:

σ(C,D)=xCxDU

cer(C,D)=1(或者P(DC)=1),则称CD为系统中的确定决策规则;若0<cerC,D<1(或者0<P(DC)<1),则称CD为系统中的不确定决策规则.

注 释 定义1中基于流图的确定因子和覆盖因子的概念与定义3中基于数据表格的相应概念等价,并且定义1中的φ(w,y)指全域U中满足分支(w,y)的对象的个数.

下面给出基于等价类直接从数据中抽取流图的两个主要结论,即引理1和引理2,被用于粒度变化中识别流图存在的重要依据.

引理1[6]U,A为一信息系统,U为一非空有限对象集,称作全域,A为一有序属性集,即A=A1,,Ana1,,an为对应属性变量 A1,,An的属性值.设xai表示由属性Ai诱导的包含元素xU的等价类,U/Ai表示由属性Ai诱导的所有等价类组成的集族,称作U的一个划分.设符号表示集合的基数.则对于P(A1,,An-1)>0,若要使得:

P(AnA1,,An-1)=PAnAn-1

当且仅当对于属性An-1的每个等价类xan-1、由属性组合{A1,,An-2,An-1}诱导的每个等价类xa1,,an-2, an-1、由属性组合An-1,An诱导的每个等价类xan-1,an以及由属性组合{A1,,An-2,An-1,An}诱导的每个等价类 xa1,,an-2,an-1,an,存在某个系数γ1使得这些等价类满足下列等式:

xan-1=γxa1,,an-2,an-1
xan-1,an=γxa1,,an-2,an-1,an

引理2[6]U,A为一信息系统,U为一非空有限对象集,称作全域,A为属性集.设xU,并且W,Y,ZA,属性WYZ的属性值分别为w={wi:1in}y={yj:1jm}z={zk:1kq}(i,j,k,m,n,q为正整数).设xwi表示属性W取值为wi时诱导的等价类,xyj表示属性Y取值为yj时诱导的等价类,xzk表示属性Z取值为zk时诱导的等价类,U/W表示由属性W诱导的全域U的划分,即:

U/W={xw1,,xwi,,xwn}

U/Y表示由属性Y诱导的全域 U的划分,即:

U/Y={xy1,,xyj,,xym}

U/Z表示由属性Z诱导的全域U的划分,即:

U/Z={xz1,,xzk,,xzq}

(1)若对于每个等价类xzxz,yxz,wxz,y,w,存在某个系数γ1使得:

xz=γxz,w
xz,y=γxz,y,w

则下面等式成立:

P(yw,z)=P(yz)
P(yw)=zP(yz)P(zw)

同时属性WZY之间流图,即WZY存在.

(2)若对于每个等价类xzxz,yjxz,wixz,yj,wi,存在某个系数γ1使得:

xz=γxz,wi
xz,yj=γxz,yj,wi

则下列等式成立:

P(yjwi)=zP(yjz)P(zwi)

同时属性wizyj之间流图,即wizyj存在.

注 释 流图中变量之间的缺失箭头表示统计独立性的存在,或为条件独立或为相互独立;变量之间的箭头(有向连接)表示变量之间的概率依赖.流图存在的要求:对于由具体属性值诱导的等价类,比如xwi,yj,该等价类中每个成员皆满足关于有序三元组(wi,z,yj)的Markov性质,即等价类xwi,yj中的每个成员皆通过有向路(wi,z,yj)被输出.换言之,流图wizyj中输入流和输出流相等,二者皆为xwi,yj中的所有成员;若由所有属性值诱导的等价类xw,y中每个成员皆满足关于有序三元组 (w,z,y)的Markov性质,即每个成员皆通过有向路(w,z,y)被输出,则可得属性WZY之间的流图WZY.这里所出现的中间变量z可为属性Z对应的全部属性值,或者为属性Z对应的部分属性值,同时属性Z可为单个属性也可为多个属性的组合.

2 新属性的添加对于流图的影响

给定信息系统中的对象,当有新属性被观测到或被发现时,系统中由属性诱导的对象集的划分和描述将发生变化,基于引理2给出的原始系统中流图表示将如何变化?

假 设 设变量WYZ为一信息系统(U,A)中任意三个属性,wyz分别为三个属性对应的属性值,且属性WYZ之间的流图WZY存在.设Pold为系统(U,A)中的观测分布.当向该系统中添加一新属性S,原始系统(U,A)变为系统(U,AS),新系统中的观测分布记为P.

基于该假设前提,下面给出新属性的添加对于原始系统中流图的影响的相应结论.

定理1 在新系统(U,AS)中,若对于每个等价类xzxz,yxw,z,sxw,z,s,yxwxz,wxw,sxz,w,s,存在系数γ1,γ21使得:

xz=γ1xw,z,s
xz,y=γ1xw,z,s,y
xw=γ2xw,s
xz,w=γ2xz,w,s

则有:

P(yw,z,s)=P(yz)
P(zw,s)=P(zw)

此时,新属性S仅作用于W,同时原系统中的流图WZY在新系统中仍成立,并且新系统中还存在新的流图SWZY.

定理2 在新系统(U,AS)中,若对于每个等价类xzxz,yxw,z,sxw,z,s,yxwxz,wxw,sxz,w,s,仅存在系数γ1,γ21使得:

xz=γ1xw,z,s
xz,y=γ1xw,z,s,y
xz=γ2xw,z
xz,y=γ2xw,z,y

不存在系数γ31使得:

xw=γ3xw,s
xz,w=γ3xw,z,s

则有:

P(yw,z,s)=P(yz)=P(yw,z)
P(zw,s)P(zw)

此时,新属性S仅作用于Z或者W,Z.

若对于每个等价类xzxz,yxw,z,sxw,z,s,yxw,zxw,z,y,不存在系数γ11使得:

xz=γ1xw,z,s
xz,y=γ1xw,z,s,y

但仅存在系数γ21使得:

xz=γ2xw,z
xz,y=γ2xw,z,y

则有:

P(yw,z,s)P(yz)

但是

P(yw,z)=P(yz)

此时,新属性S作用于Y或者Z,Y或者W,Z,Y.这两种情形中原系统中的流图WZY在新系统中仍成立,即新系统和原始系统具有相同的流图WZY.

定理3 在新系统(U,AS)中,若对于每个等价类xzxz,yxw,z,sxw,z,s,yxz,w,yxz,w,不存在系数γ11使得:

xz=γ1xw,z
xz,y=γ1xw,z,y

则有:

P(yw,z)P(yz)

此时,原系统中的流图WZY在新系统中将不再成立.

定理4 在新系统(U,AS)中,若对于每个等价类xzxyxs,yxz,yxw,zxw,z,yxw,z,sxw,z,s,y,存在系数γ1,γ2,γ31使得:

xy=γ1xw,z,y
xs,y=γ1xw,z,s,y
xz=γ2xw,z
xz,y=γ2xw,z,y 
xz=γ3xw,z,s
xz,y=γ3xw,z,s,y

则有:

P(sw,z,y)=P(sy)
P(yw,z)=P(yz)=P(yw,z,s)

此时,仅属性Y作用于 S,同时原系统中的流图WZY在新系统中仍成立,并且新系统中还存在新的流图WZYS.

定理5 在新系统(U,AS)中,若对于每个等价类xzxw,zxz,sxz,yxw,z,yxw,z,sxw,z,s,y,存在系数γ1,γ2,γ3,γ41使得:

xz=γ1xw,z,y
xz,s=γ1xw,z,s,y
xz=γ2xw,z
xz,s=γ2xw,z,s
xz=γ3xw,z
xz,y=γ3xw,z,y
xz=γ4xw,z,s
xz,y=γ4xw,z,s,y

则有:

P(sy,w,z)=P(sz)=P(sw,z)
P(yw,z)=P(yz)=P(yw,z,s)

此时,仅属性Z作用于S,同时原系统中的流图WZY在新系统中仍成立,并且新系统中还存在流图WZS.

定理6 在新系统(U,AS)中,若对于每个等价类xwxzxyxsxs,yxs,zxz,yxw,sxw,zxw,yxw,z,yxw,z,sxz,y,sxw,y,sxw,z,s,y,首先存在系数γ1,γ21使得:

xz=γ1xw,z
xz,y=γ1xw,z,y
xz=γ2xw,z,s
xz,y=γ2xw,z,s,y

即有:

Pyw,z=Pyz=Pyw,z,s

成立.同时,

(1)若还存在系数γ31

xw=γ3xw,z,y
xw,s=γ3xw,z,s,y

即有:

P(sw,z,y)=P(sw)

此时,仅属性W作用于S.

(2)若还存在系数γ41,使得:

xw,z=γ4xw,z,y
xw,z,s=γ4xw,z,s,y

即有:

P(sw,z,y)=P(sw,z)

此时,仅W,Z作用于S.

(3)若还存在系数γ51,使得:

xz,y=γ5xw,z,y
xz,y,s=γ5xw,z,s,y

即有:

P(sw,z,y)=P(sz,y)

此时,仅Z,Y作用于S.

(4)若还存在系数γ61,使得:

xw,y=γ6xw,z,y
xw,y,s=γ6xw,z,s,y

即有:

P(sw,z,y)=P(sw,y)

此时,仅W,Y作用于S.

(5)若存在系数γ7,γ8,γ9,γ10,γ11,γ12,γ131使得:

U=γ7xwxs=γ7xw,s 
U=γ8xzxs=γ8xs,z
U=γ9xyxs=γ9xs,y
U=γ10 xw,yxs=γ10xw,y,s
U=γ11 xw,zxs=γ11xw,z,s
U=γ12xz,yxs=γ12xz,y,s
U=γ13xw,z,yxs=γ13xw,z,y,s

即有:

P(sw,z,y)=P(sw,z)=P(sz,y)=P(sw,y)=P(sw)=P(sy)=P(sz)=P(s)

此时,新属性SWYZ皆相互独立.

(6)或者若不存在系数使得P(sw,z,y)P(sw,y)P(sz,y)P(sw,z)P(sw)P(sz)P(sy)中的任何一个相等,此时有W,Z,Y作用于S.

此六种情形皆满足:原系统中流图 WZY在新系统中仍成立,即新系统和原始系统具有相同的流图WZY.

注 释 定理1至定理6的证明可直接依据引理1和引理2证得,此处省略具体证明过程.新属性S可看作单个属性或多个属性的组合;若有多个新属性同时被观测到,则可依据所需一次处理一个新属性或任意个新属性的组合,加之并行化处理.定理中所涉及的系数γi(i=1,13)可取相同的值也可为不同的数值,只要确保数值大于或等于1即可.

定理1至定理6详细分析了原始系统中流图在新系统中的有效性以及新属性对于流图自身的形状所产生的具体变化.由引理1和引理2可知流图的识别涉及等价类和Markov性质.新属性的增加会引起属性关于全域的划分发生变化,进而等价类中所含元素也会受到影响,使得原始系统中的流图在新系统中可能变为流图中的基本构建模块.因此流图在新系统中的变化需要同时考虑等价类和Markov性质,比如系统(U,A)中的流图wizkyj在新系统(U,AS)中仍成立,需要满足在新系统中:

P(yjwi,zk)=P(yjzk)

并且

xwi,yj=xwi,zk

3 实例分析

选取流感病人信息系统来具体解释属性⁃值信息系统中属性变化对于流图的影响,此信息系统也是粗糙集理论中Pawlak及其同行广泛用于数据分析的经典数据表格(见表1表3[14]),可作为上述定理的具体应用验证.表1中属性Headache和Temperature作为条件属性,属性Flu作为决策属性,全域U由六位病人组成,即U={p1,,p6}.表2中属性Muscle⁃pain和Temperature作为条件属性,属性Flu作为决策属性,全域U包含五个对象,共有六位病人即{p1,,p6}.为表述方便,用各属性英文名称的首字母的大写斜体形式表示各属性,相应的首字母的小写斜体形式表示属性值,其值域为二值1=yes,0=no或三值1= very high,2=high,3=normal.

表1   流感病人信息系统1

Table 1  The first information system about patients suffering from flu

PatientHeadache(H)Temperature(T)Flu(F)
p1nohighyes

p2

p3

p4

p5

p6

yes

yes

no

yes

no

high

very high

normal

high

very high

yes

yes

no

no

yes

新窗口打开| 下载CSV


表3   添加新属性Muscle⁃pain(or Headache)得到的

Table 3  Data table obtained fromTable 1 (orTable 2 )by adding the attribute Muscle⁃pain(or Headache)

PatientHeadache(H)Muscle⁃pain(M)Temperature(T)Flu(F)
p1noyeshighyes
p2yesnohighyes
p3yesyesvery highyes
p4noyesnormalno
p5yesnohighno
p6noyesvery highyes

新窗口打开| 下载CSV


表2   流感病人信息系统2

Table 2  The second information system about

Fact no.Muscle⁃pain(M)Temperature(T)

Flu

(F)

Patient name
1yeshighyesp1

2

3

4

5

no

yes

yes

no

high

very high

normal

high

yes

yes

no

no

p2

p3,p6

p4

p5

新窗口打开| 下载CSV


表1中的变量分布记作P1,此系统中存在流图h0t3f0,因为:

xh0, f0=p4=xt3,h0
xt3=xt3,h0
xt3,f0=xf0, t3,h0
P1(f0t3,h0)=P1(f0t3)=1

表2中的变量分布记作P2,此系统中存在流图m1t3f0,因为:

xm1,f0=p4=xt3,m1
xt3=xt3,m1
xt3,f0=xf0, t3,m1
P2(f0t3,m1)=P2(f0t3)=1

对于表1,若继续有新属性Muscle⁃pain被观测到,添加入新属性后所形成的新信息系统为表3;对于表2,添加新属性Headache后也形成新信息系统,也是表3.令表3中的变量分布记作P.

显然,属性Muscle⁃pain未影响表1中属性Headache,Temperature,Flu以及三者的任意组合诱导的全域的划分.或者说,属性Headache,Temperature,Flu没有受到属性Muscle⁃pain的影响.但是表2中的属性Muscle⁃pain,Temperature,Flu皆受到新属性Headache的影响.

关于表3,通过概率计算有:

xh0,f0=p4
xm1,f0=p4
P(f0t3,h0,m1)=P(f0t3)=1=P(f0t3,m1)
P(t3h0,m1)=P(t3h0)=1/3
P(t3h0,m1)P(t3m1)

针对表1,依据定理1可知新系统中流图h0t3f0仍成立,同时还存在新流图m1h0t3f0.针对表2,由定理2可知流图m1t3f0在新系统中仍成立.

4 总 结

本文主要探究了属性⁃值形式的信息系统中所抽取的流图对于添加新属性所导致的原始系统变化而产生迁移及变化的问题.一个信息系统对应一个概率分布.新属性的增加,必然引起系统中对象域的划分发生变化,系统所对应的概率分布将受影响.通过对属性诱导的等价类的相关计算,研究发现,若旧系统中属性间的Markov性质在新系统中保持不变,则可得旧系统中所抽取的这些属性间的流图为新系统中这些属性间的流图或流图中的基本构件.若进一步关于由输入属性和输出属性诱导的等价类中的每个成员皆满足Markov性质,则旧系统中所抽取的这些属性间的流图即为新系统中这些属性间的流图.此外,文中还给出了新属性对于流图的形状变化的细节研究.伴随新证据的习得,人们会重新审视以前的结论并做相应的更新,此为人类学习和思维中的一种常见现象.流图关于新属性的变化为理解和刻画这一现象提供新的理论依据,同时这种变化也可被用于人类行为的预测[15]、属性约简[16,17]和增量学习[18]等相关研究.

参考文献

PawlakZ.

Rough sets

International Journal of Computer and Information Sciences,1982,11(5):341-356.

[本文引用: 1]

FregeG.

Grundgesetzen der Arithmetik

JenaVerlag von Herman Pohle. 2. 190369.

[本文引用: 1]

PawlakZ,SkowronA.

Rudiments of rough sets

Information Sciences,2007,177(1):3-27.

[本文引用: 1]

PawlakZ.

In pursuit of patterns in data reasoning from data⁃the rough set way∥The 3rd International Conference on Rough Sets and Current Trends in Computing

Springer Berlin Heidelberg,20021-9.

[本文引用: 2]

FordL R,FulkersonD R.

Flows in networks

PrincetonPrinceton University Press,19731-35.

[本文引用: 1]

YaoN, MiaoD Q.

Identification of structures and causation in flow graphs

Information Sciences,2019,486287-309.

[本文引用: 5]

PawlakZ.

Decision trees and flow graphs∥International Conference on Rough Sets and Current Trends in Computing

Springer Berlin Heidelberg,20061-11.

[本文引用: 2]

ButzC J,YanW,YangB.

An efficient algorithm for inference in rough set flow graphs∥Peters J F, Skowron A

.Transactions on Rough Sets V. Springer Berlin Heidelberg,2006102-122.

[本文引用: 1]

ChitcharoenD,PattaraintakornP.

Novel matrix forms of rough set flow graphs with applications to data integration

Computers & Mathematics with Applications,2010,60(10):2880-2897.

[本文引用: 1]

LewickiA,EberbachE.

Learning network flow based on rough set flow graphs and ACO clustering in distributed cognitive environments∥International Workshop on Software Engineering for Cognitive Services

New York,NY,USAACM201818-24.

[本文引用: 1]

姚宁,苗夺谦,张志飞.

因果信息在不同粒度上的迁移性

计算机科学,2019,46(2):178-186.

[本文引用: 1]

Yao N,Miao D Q,Zhang Z F.

Transportability of causal information across different granularities.

Computer Science,2019,46(2):178-186.

[本文引用: 1]

LiaoS J,ZhuQ X,QianY H,et al.

Multi⁃granularity feature selection on cost⁃sensitive data with measurement errors and variable costs

Knowledge⁃Based Systems,2018,15825-42.

[本文引用: 1]

PawlakZ.

Rough sets:theoretical aspects of reasoning about data

Springer Berlin Heidelberg,1991,2-4.

[本文引用: 1]

PawlakZ.

Some issues on rough sets∥Transactions on Rough Sets I

Springer Berlin Heidelberg,20041-58.

[本文引用: 1]

CaoL B.

In⁃depth behavior understanding and use: The behavior informatics approach

Information Sciences,2010,180(17):3067-3085.

[本文引用: 1]

DaiJ H,HuQ H,HuH,et al.

Neighbor inconsistent pair selection for attribute reduction by rough set approach

IEEE Transactions on Fuzzy Systems,2018,26(2):937-950.

[本文引用: 1]

TanA H,WuW Z,QianY H,et al.

Intuitionistic fuzzy rough set⁃based granular structures and attribute subset selection

IEEE Transactions on Fuzzy Systems,2019,27(3):527-539.

[本文引用: 1]

XuJ F,MiaoD Q,ZhangY J,et al.

A three⁃way decisions model with probabilistic rough sets for stream computing

International Journal of Approximate Reasoning,2017,881-22.

[本文引用: 1]

/