基于邻域关系模糊粗糙集的分类新方法

时间:2022-05-20 07:07:25

基于邻域关系模糊粗糙集的分类新方法

摘要:针对目前模糊等价关系所诱导的模糊粗糙集模型不能准确地反映模糊概念范畴中数值属性描述的决策问题,提出一种基于邻域关系的模糊粗糙集模型NRFRS,给出了该粗糙集模型的相关定义,在讨论模型性质的基础上进行模糊化邻域近似空间上的推理,并分析特征子空间下的属性依赖性;最后在NRFRS的基础上提出特征选择算法,构建使得模糊正域增益优于具体阈值的特征子集,进而剔除冗余特征,保留分类能力强的属性。采用UCI标准数据集进行分类实验,使用径向基核函数(RBF)支持向量机作为分类器。实验结果表明,同基于邻域粗糙集的快速前向特征选择方法以及核主成分分析方法(KPCA)相比,NRFRS模型特征选择算法所得特征子集征数量依据参数变化更加平缓、稳定。同时平均分类准确率提升最好可以达到5.2%,且随特征选择参数呈现更加平稳的变化。

关键词:粒化和逼近;特征选择;邻域关系;属性依赖性

中图分类号: TP181

0引言

人类认识事物的过程是从建立概念开始的,在此基础上进行思维上的逼近,最终作出判断和决策。Pawlak粗糙集[1]在30多年的发展过程中,始终以人的认识方法为出发点,从粒化和逼近两个方面进行拓展。无论是在诸如人工智能、数据挖掘和机器学习等技术应用领域,还是在本身的模型理论创新方面都取得了较为显著的成果。然而,由于人类的思维世界是纷繁复杂并且模糊的,最初基于等价关系的经典粗糙集仅仅能够反映最为原始的思维模型[2]。面对这些问题,相关领域的专家学者纷纷从模型的粒化和逼近两个角度出发,提出了许多经典粗糙集的泛化模型。在逼近方面,1992年,Yao[3-5]提出决策理论粗糙集,通过结合决策以及相应的决策容错机制给出约简算法以及属性重要度的衡量方法,这个概念可以更好地模拟人类思维的不确定性。1993年,研究人员提出了可变精度粗糙集(Variable Precision Rough Set,VPRS)模型[6],允许一定的噪声存在,以包含度阈值来划分等价类。2005年,在VPRS模型的基础上引入随机概念,泛化产生概率粗糙集模型[7-8]以及贝叶斯粗糙集模型[9]。在粒化形式方面,Dubois和Prade将模糊概念引入经典粗糙集,形成粗糙模糊集[10]以及模糊粗糙集[11]的概念,从而在模糊等价关系的基础上进行推理。1990年Lin等[12]提出了邻域粗糙集的概念,使用邻域关系这种新的粒化方式来实施论域的逼近。在决策分析中,相关学者针对有序分类问题引入了优势关系粗糙集模型[13],用于决策属性间包含序结构的情况。

由于人类思维方式中存在着大量模糊性和复杂性,基于模糊思想的粒化以及逼近思想贯穿人类认识的发展全过程。虽然已经提出了诸多经典粗糙集的泛化模型,例如优势关系、相似关系和邻域关系等。然而目前大多数模糊粗糙集是基于模糊等价关系的,等价关系只能够简单反映各种概念结构。对于现有结合模糊粗糙集方法进行特征选择的分类方法而言,主要缺乏研究反映数值型属性以及混合值属性刻画的决策问题。原始的以等价关系或者模糊等价关系为基础的粗糙集模型在处理简单清晰概念的决策问题时能够获得理想的效果,面对模糊环境下复杂多变的数据类型,如何更好地对包括数值属性在内的特征进行准确的反映,是需要考虑的问题。因此,本文结合文献[14-16]中所阐述的邻域粗糙集以及前人在此方面所作的深入研究,将邻域关系引入模糊粗糙集中,提出一种基于邻域关系的模糊粗糙集模型(Neighborhood Relation basis Fuzzy Rough Set, NRFRS),以及相应的属性依赖性分析和特征选择算法。在借鉴快速前向属性选择算法[14]思想的同时,引入正域增益阈值α的概念,构造基于NRFRS的特征选择算法NRFRSReduction。最后通过实验证明方法的有效性,本文将NRFRSReduction 算法应用于UCI[17]标准数据集分类中,使用其进行数据预处理中的特征选择,使用RBFSVM作为分类器。实验结果显示,NRFRSReduction算法所对应的分类精度高于基于邻域粗糙集的前向属性约简算法(Naive Forward Attribute Reduct based on Neighborhood Rough Set model, NFARNRS)[18-19]以及核主成分分析方法(Kernel Principal Component Analysis, KPCA)[20]所对应的分类精度。

1相关理论

1.1模糊关系

普通关系只描述了元素彼此是否存在关联。模糊关系则可以具体描述元素间关联的程度, 它是模糊集合中较为基础的概念。

定义1[21] 假设U与V分别表示两个非空有限论域,U×V={(u,v):u∈U,v∈V}称为U与V的笛卡尔乘积,称U×V的任意一个模糊子集R~∈F~(U×V)为U到V的一个二元模糊关系。模糊关系R~由其隶属函数完全刻画,且表示u与v关于关系R~的关联程度或强度。当U与V是有限论域时,U到V的模糊关系R~可用一个矩阵表示R=(rij),其中:

rij=μR~(ui,vj); 0≤rij≤1(1

矩阵(rij)称为U到V的一个模糊关系矩阵[21]。

对于一个二元模糊关系R,当其满足自反性、对称性以及传递性时,称R为模糊等价关系[2]。引入T传递性之后,可以得到模糊T等价关系[2]的概念。

1.2邻域关系

定义2[2] 设〈U,Δ〉是非空度量空间,x∈U,δ≥0,称点集

δ(x)={y|Δ(x,y)≤δ,y∈U}(2)

为以x为中心,以δ为半径的闭球,又称为x的δ邻域。

论域U中样本xi的邻域粒子簇{δ(xi)i=1,2,…,n}诱导出论域空间U上的一个邻域关系,记为N,该关系可由一个关系矩阵来表示M(N)=(rij)n×n。如果xj∈δ(xi),则rij=1;否则rij=0。

在邻域关系中,更加强调相似样本之间的“亲密程度”。而等价关系中,则要求样本在特征空间下必须完全一致。

2模糊环境下的邻域关系

2.1模糊化邻域关系

定义3设U为非空有限论域,BR~为U上的二元模糊关系(Binary Fuzzy Relation)。对于任意x,y,z∈U,如果满足以下条件:

1)BR~(x,x)=1;

2)BR~(x,y)=BR~(y,x);

3)BR~(x,z)∈[0,1]时,SL(BR~(x,y),BR~(y,z))≥

BR~(x,z)。

那么,称BR~是一个模糊化的邻域关系,记作FN。

其中,SL对应于二元三角余数算子中的Lukasiewicz算子:SL(a,b)=min(a+b,1)。模糊化邻域关系BR~的具体形式有以下两种情况:

BR~(a,b)=

u[Δ(a,b)/δ],0≤Δ(a,b)≤δ

u[Δ(a,b)],Δ(a,b)>δ (3)

其中:δ是邻域半径,Δ(a,b)表示特征空间中的距离函数。u[θ]是一个从自变量θ到[0,1]的映射:u:θ[0,1]。这个映射可以根据实际应用来选取,本文采用如式(5)所示的映射关系:

u(θ;δ)=

1-lb (θδ-1+1), 0≤θ≤δ(θ-δ) sin (θ-δ)-1, θ>δ (4

2.2基于邻域关系的模糊粗糙集模型

根据上文回顾的基本概念模型和理论,本文在此基础上提出基于邻域关系的模糊粗糙集模型(NRFRS)以及其属性依赖性分析。首先给出几个重要的定义。

定义4设U是非空有限论域,U={x1,x2,…,xn},FN为U上的一个模糊化邻域关系。x∈U,x的模糊化邻域粒子定义为:

xFN=m1x1+m2x2+…+mnxn(5)

其中,mi表示xi属于xFN的模糊隶属度,即:mi=xFN(xi)。一般地,mi=ui[NS(Δ(a,b)/δ)],NS(a)为二元模糊算子中的标准补算子,即:NS(a)=1-a。

对于x∈U,xFN生成论域U的粒化,从而进一步得到论域U的模糊化邻域粒子簇,即用于逼近空间任意概念的基本概念系统。在模糊化邻域关系FN基础上,可以进一步得到基于此种关系的下、上近似集合的形式化描述。进而得到基于邻域关系的模糊粗糙集定义。

定义5设〈U,FN〉为模糊化邻域近似空间,记作FNAS(Fuzzy Neighborhood Approximation Space)。X在FNAS中的下、上近似定义为:

下近似:FNmaxX(x)=infy∈U max(X(y),1-FN(x,y))(6

上近似:FNminX(x)=supy∈U min(X(y),FN(x,y))(7)

将上述下、上近似定义推广到更为一般的模糊关系时,得到更为一般的下、上近似定义

下近似:FNSX(x)=infy∈U S(X(y),N(FN(x,y)))(8

上近似:FNTX(x)=supy∈U T(X(y),FN(x,y))(9

2.3模糊化邻域近似推理

具体应用中存在由模糊或数值条件属性以及精确决策属性构成的决策模型。同时,还会出现由精确条件属性和模糊决策属性构成的决策模型,此种情况对应由符号型数据组成的条件属性集,然而它的决策属性集却是模糊或者连续的值。

定理1设〈U,FN〉为一个模糊化邻域近似空间,U为非空有限论域,FN表示U上的一个模糊化的邻域关系。此时,对于任意XU,当X为精确集合时,下、上近似可以表示为:

下近似:FNSX(x)=minyX(1-FN(x,y)

上近似:FNTX(x)=maxy∈X{FN(x,y)}

证明令式(7)中的算子S=max, N(a)=1-a,此时FNSX(x)=miny∈U max(X(y),1-FN(x,y))。同时,由于决策属性分类是精确清晰的,那么有:

X(y)=

1,y∈X

0,yX (10

当y∈X时,max{X(y),1-FN(x,y)}=1; 当yX时,max{X(y),1-FN(x,y)}=1-FN(x,y)。所以,FNSX(x)=miny∈U(1-FN(x,y))=minyX(1-FN(x,y))。

通过与上述理解同样的推理过程,X在FNAS中的上近似FNTX(x)可以表示为:

FNTX(x)=maxy∈X{1-d(x,y)}(11

证毕。

定理1中的情况对应的是决策表中条件属性所传递的元组间关系为模糊的,而决策属性形成的样本间关系是具体、清晰的。通过推导,不难看出,X集之外的元素y决定了样本x属于下近似FNSX的隶属度值。这个隶属度大小由表达式1-FN (x,y)决定,并取其最小值。

如果将1-FN(x,y)理解成一种距离或不相似程度[21],则FNSX(x)表示在非X的类中寻找一个y使得1-FN (x,y)最小。此时可以令d (x,y)=1-FN (x,y),从而FNSX(x)=minyX(d(x,y))。

通过式(10)不难看出,X集内的元素y决定了样本x隶属于上近似FNTX(x)的隶属度值。这个隶属度值由1-d (x,y) 决定,同时取它的最大值。

定理2设〈U,FN〉为一个模糊化邻域近似空间,在U这个非空有限论域上,当FN表示精确(清晰)的邻域关系时,对于任意模糊集X∈F(U),下、上近似可以表示为:

下近似:NeSX(x)=miny∈δ(x)X(y)(12

上近似:NeTX(x)=maxy∈δ(x)X(y)(13

证明由于X∈F(U),说明决策属性生成的样本间关系是模糊的,而FN表示精确(清晰)的邻域关系。此时令FN=Ne,〈U,Ne〉表示邻域近似空间。对于X∈F(U),下近似记为:

NeSX(x)=miny∈U max(X(y),1-Ne(x,y))(14

由于Ne表示精确的邻域关系,那么对于Ne (x,y)只存在等于0或1两种情况。因此1-Ne (x,y)也对应精确值1和0。所以得到NeSX(x)=miny∈U X(y),又因为此时有y∈δ(x)成立。故有NeSX(x)=miny∈δ(x)X(y)。同样地,在FNTX(x)的证明中,令T=min,可推导出所求结果。证毕。

通过定理2的叙述可以发现,x的邻域粒子δ(x)中的元素y决定了x属于NeSX集合的隶属度值。元素y隶属于X的最小隶属度值最终作为NeSX(x)的值。

3邻域关系模糊粗糙集特征选择方法

首先明确属性子集上的依赖性度量,进而基于特征子空间上的属性依赖性进行特征选择,输出特征子集。

定义6设U为非空有限论域,xi表示论域中的样本。 C为条件属性集,D为决策属性集。{D1,D2,…,DM}表示由D划分U所形成的M个子集。B表示条件属性子集(特征子空间),即BC。D在B上的正域表示为:

POSSB(D)(xi)=∪Ma=0FNBSDa(xi)(15

定义7设U为非空有限论域,模糊化邻域近似空间〈U,C,D,FN〉中,{D1,D2,…,DM}表示由决策属性D划分U所形成的M个子集。决策属性D在条件属性子集B上的依赖度定义为:

γSB(D)=∪Ma=0FNBSDa(xi)U(16

性质1设U为非空有限论域,模糊化邻域近似空间〈U,C,D,FN〉,其中B1B2C,则可以得到POSSB1(D)POSSB2(D);γSB1(D)≤γSB2(D)。

证明设B1=s1,B2=s2。在B1、B2两个子空间中,假设POSSB(D)(xi)=∪Ma=0FNBSDa(xi)中的FNBSDa(x)值由一个值域在[0,1]内的模糊隶属函数f(x)计算。那么,对于子空间B1有:

FNSB1Dai(x)=f [Δ B1(h(x,pj),h(y,pj))]1≤j≤s1

对于子空间B2,有:

FNSB2Dai(x)=f [Δ B2(h(x,pj),h(y,pj))]1≤j≤s2

其中函数h(a,p)表示样本a在属性p上的值。由于B1B2C,从而s1≤s2。那么可以得到:

FNB2SDai(x)=f [ΔB1(h(x,pj),h(y,pj))]|1≤j≤s1+

f [ΔB2-B1(h(x,pj),h(y,pj))]|s1≤j≤s2;

FNB2SDai(x)=FNB1SDai(x)+

f [ΔB2-B1(h(x,pj),h(y,pj))]|s1≤j≤s2;

故而FNB2SDa(x)大于等于FNB1SDa(x)。由定义6以及模糊集的定义可知POSSB1(D)POSSB2(D)成立。同理,联系定义7可得γSB1(D)≤γSB2(D)。

性质1指出,属性依赖度、正域等指标会在一定范围内随着属性个数的增加而单调上升。这种现象同现实世界的分类问题是一致的。当描述分类问题的属性特征维数较低时,能够用来描述分类线索的信息过少,分类结果保持在一个普通水平。然而,随着逐步加入新的属性,即引入新的分类描述信息,问题描述的角度会更加丰富、粒化结构也变得越来越细致入微。此时决策模型的近似能力得到进一步的提升,从而对分类的结果产生更加积极的影响。

综合以上叙述,邻域关系模糊粗糙集特征选择(属性约简)过程可以用如下算法来描述。

算法基于NRFRS的特征选择算法NRFRSReduction。

输入决策表〈U,C,D,V, f〉,参数α;

输出约简集合red。

步骤1置约简集合red为空,令属性集合A=C,样本集合S为论域U,即S=U。

步骤2在A不为空的情况下,循环执行步骤3~步骤6。

步骤3令POSn=0,初始化POSt=0,循环执行步骤4~步骤6。

步骤4对A-red中的每个元素an,计算an对应的POSn的值。

步骤5在步骤4所得各个POSn中寻找最大的值POSm,如果PosInc (POSm,POSt) > α,则令POSt=POSm,同时记下对应的属性an′,执行步骤6;否则转到步骤7。

步骤6将an′并入约简集合red。

步骤7输出约简集合red。

首先以空约简集合red为起点,逐步向red集合中加入属性。在确保剩余属性集合不为空的前提下,力求每轮迭代过程中新加入的属性有利于使得正域的值最大化,同时保证正域增益度量函数PosInc(p1, p2)的值大于给定的正域增益阈值α。PosInc度量定义为:

PosInc(p1,p2)=φ(p1-p2)(17)

其中:p1, p2代表迭代过程中产生的两个相邻正域。PosInc度量用来得到算法迭代中产生的模糊正域值增益。通常概括成两个模糊正域值之差的函数φ,一般地,φ的常见形式有:

1)φ(d)=(1/2)d2;

2)φ(d)=λed(λ>0);

3)φ(d)=ρd

其中φ需按照具体的应用场合来选取适当的表达形式。

下面对算法中涉及到的模糊正域增益相关性质以及时间复杂性进行分析说明。首先,随着逐个属性的加入,会引起模糊正域的变化。算法在迭代计算模糊正域的过程中,假设其联合正域增益率用λ表示,可以由式(19)来描述:

λ=∑|C|i=1Δpi/ωi (18)

其中:Δpi表示每次加入属性时引起的正域变化量,ωi为对应权值。算法1要求迭代过程中的正域变化量不小于给定阈值,此时,对λ的最终结果会产生影响。假设总共进行Nj次实验,其中,Nj={1,2,…,N}(N∈N+)。αNj表示第Nj个增益阈值。这里将满足Δpi>αNj的称为优增益(Winner Gain, WG),其中i代表优元(Winner Element, WE),令μNj(i)代表第Nj次实验中优元组成的集合,由式(20)描述:

μNj(i)={i|Δpi-αNj>0}(19

至此,可以得到集合:

CNj={μNj(i)||μNj(i)|>0,

Nj={1,2,…,N},N∈N+} (20

式(21)描述所有非空优元集的全体。最后,引入优元评价因子mq来度量特征选择的质量,令N表示实验次数,这里给出mq定义:

mq=|CNj|/N(21

优元评价因子描述了非空优元集的全体集合的基数与实验总次数的比值。它从统计科学的观点出发,分别定性、定量地对特征选择质量进行度量。一方面注重于研究所有有意义的非空优元集合; 另一方面,使用统计学的思想对属性选择过程进行客观的分析、评价。

在时间复杂性分析方面,算法主要由属性组合计算以及分析样本一致性两个阶段组成。对于一个决策类数目为m的决策表,假设其条件属性集为C,决策类为Xi (X1,X2,…,Xm)。在计算样本一致性时,对应的复杂性为O(|X1|+|X2|+…+|Xm|)。考虑算法执行过程中的属性组合计算时,得到O(|C|(|C|+1)/2)的复杂情况。

综合上述结论,可得到实际计算复杂度为O((|X1|+|X2|+…+|Xm|)*|C|(|C|+1)/2)。由于决策类将整个样本集合划分成为若干个子集Xi。故将每个子集的基数求和可以得到整个样本集合的基数|S|。因此上述的复杂性又可以描述成为:O(|S|*|C|(|C|+1)/2)。

4实验分析

4.1实验说明

以分析说明特征选择算法NRFRSReduction性能为目的,采用UCI数据集[17]作为实验数据。分别使用UCI数据集中的Breast cancer、WDBC(Wisconsin Diagnostic Breast Cancer)和WPBC(Wisconsin Prognostic Breast Cancer)三组数据作为实验对象(见表1)。这三组数据的条件属性均为数值型,且为二分类数据。在进行特征选择之前,为避免属性值量纲不一致所产生的影响,对全部属性进行归一化操作,将其映射到[0,1]内。

4.2受参数影响的属性选择结果分析

对于文献[18-19]中提到的NFARNRS算法,以及本文的NRFRSReduction算法,均为与参数相关的特征选择算法。它们分别对应邻域半径r和正域增益阈值α两个参数。参数的选择对于算法的执行结果有至关重要的作用。目前已有相关研究人员从某些角度出发探究出邻域半径r的设定方法,但大多数情况下其取值是通过实验分析来确定的,r的值与具体的分类问题有关。同邻域半径r一样,本文首先通过实验来探究NRFRSReduction算法中参数α的取值与属性选择结果之间的联系。

下面对参数r和α在其固定的取值范围内产生的属性选择结果进行对比分析。使用Breast cancer、WDBC和WPBC三组数据集作为约简对象,首先对数据进行[0,1]内的归一化,然后设置r的区间为[0.05,1],α的区间为[0,10]。图1~3描述了三组数据集的约简集合属性数量随参数r和α的变化情况。

从图1~3可以看出,对于使用参数r的NFARNRS算法,当r初始较小时,所选择出的特征数量也较少。在一定的范围内随着邻域半径的增大,所需的特征数量逐渐上升。然而当r超过某个值时,特征数量急剧下跌。这个现象符合实际规律,r可以看作描述问题的粒化尺度。r较小时,需要少量的属性就可以对问题进行分类。随着这个尺度的增大,描述问题则需要更多的属性。当粒化尺度超过某一值时,无论多少属性也不能对分类问题作出刻画,此时属性数量便保持在较低水平。

另外,由图1~3还可看出,通过分析参数影响下的特征选择结果,本文算法NRFRSReduction较NFARNRS算法更加稳定,属性数量随参数变化更加缓和,而NFARNRS算法的结果存在急剧跳跃点,稳定性稍弱。

4.3分类准确率的分析

为了探究特征选择算法对后续分类过程的影响,本文使用RBFSVM作为分类算法。将NRFRSReduction算法、NFARNRS算法和基于KPCA[20]的特征选择算法进行比较。以特征选择算法得到的特征子集作为输入,在Breast cancer、WDBC和WPBC三组数据集上进行10层交叉确认的分类,并比较分类准确率。以上三种算法对应分类准确率如图4~6所示。

通过图4~6可以看出,本文提出的NRFRSReduction特征选择算法所得特征子集的分类准确率较NFARNRS算法和基于KPCA的特征选择算法所得特征子集的分类准确率更加稳定。同时,不难发现算法NRFRSReduction对应的分类准确率在某些参数点对应的分类准确率高于后两者。最后,可由图7~9的结果看出,在这3组数据集上,NRFRSReduction特征选择算法对应最终的平均分类准确率均优于后两个算法。

5结语

本文在传统模糊粗糙集的概念上引入邻域关系,构造基于邻域关系的模糊粗糙集,讨论了相关概念与性质,并提出对应的属性依赖性分析和特征选择算法,在特征选择算法中引入正域增益计算函数以及正域增益阈值来较好地收敛约简结果。然后,将本文提出的属性选择算法应用于UCI标准数据集的分类,同时使用RBFSVM分类算法作为分类器。实验结果显示,较其他两个特征选择算法,本文算法得到的约简结果依参数变化较为稳定,并且平均分类准确率较高。对于实际应用中的各种数据,本文算法是否可以得出理想的分类准确率,是下一步的研究方向。

参考文献:

[1]PAWLAK Z. Rough sets[J]. International Journal of Information and Computer Science,1982,11(5):129-141.

[2]HU Q,YU D. Application of rough calculation[M]. Beijing: Science Press,2012:16-97.(胡清华,于达仁.应用粗糙计算[M]. 北京:科学出版社,2012:16-97.)

[3]YAO Y. Threeway decisions with probabilistic rough sets[J]. Information Sciences,2010,180(3):341-353.

[4]YAO Y. The superiority of threeway decisions in probabilistic rough set models[J].Information Sciences, 2011,18(6):1080-1096.

[5]YAO Y. Two semantic issues in a probabilistic rough set model[J]. Fundamenta Informaticae,2011,108(3/4): 249-265.

[6]SHARMA R, JAIN P, SHRIVASTAVA K S, et al. An optimize decision tree algorithm based on variable precision rough set theory using degree of βdependency and significance of attributes[J]. International Journal of Computer Science and Information Technologies, 2012,3(3):3942-3947.

[7]ZHANG W, WU W, LIANG J. Rough set theory and method[M]. Beijing: Science Press,2005:132-157.(张文修,吴伟志,梁吉业.粗糙集理论与方法[M]. 北京:科学出版社,2005:132-157.)

[8]WANG G, MA X, YU H. Monotonic uncertainty measures for attribute reduction in probabilistic rough set model[J]. International Journal of Approximate Reasoning, 2015,59(3): 41-67.

[9]JIA X, TANG Z, LIAO W, et al. On an optimization representation of decisiontheoretic rough set model[J]. International Journal of Approximate Reasoning, 2014, 55(1): 156-166.

[10]NGUYEN X T, NGUYEN D D. Rough fuzzy relation on two universal sets[J]. International Journal of Intelligent Systems and Applications, 2014, 6(4): 49-52.

[11]CHEN D, YANG Y. Attribute reduction for heterogeneous data based on the combination of classical and fuzzy rough set models[J]. IEEE Transactions on Fuzzy Systems, 2014, 22(5): 1325-1334.

[12]LIN T Y,HUANG K J,LIU Q,et al. Rough sets, neighborhood systems and approximation[C]// ISMIS 1990: Proceedings of the 5th International Symposium on Methodologies of Intelligent System. Charlotte: Elsevier Science, 1990: 19-90.

[13]LINGRAS P, CHEN M, MIAO D. Qualitative and quantitative combinations of crisp and rough clustering schemes using dominance relations[J]. International Journal of Approximate Reasoning, 2014,55(1):238-258.

[14]HU Q,YU D, LIU J. Neighborhood rough set based heterogeneous feature subset selection[J].Information Science,2008,178(18):3577-3594.

[15]HU Q, YU D, XIE Z. Numerical attribute reduction based on neighborhood granulation and rough approximation[J]. Journal of Software,2008,19(3):640-649.(胡清华,于达仁,谢宗霞.基于邻域粒化和粗糙逼近的数值属性约简[J].软件学报,2008,19(3):640-649.)

[16]HU Q, YU D, XIE Z. Neighborhood classifiers[J]. Expert Systems with Applications, 2008,34(2): 866-876.

[17]FRANK A, ASUNCION A. UCI machine learning repository[DB/OL]. [20131212]. http://archive.Ice.Uci.Edu/ml.

[18]HU Q, AN S, YU D. Soft fuzzy rough sets for robust feature evaluation and selection[J]. Information Sciences, 2010,180(22): 4384-4400.

[19]LIU Y, HUANG W, JIANG Y, et al. Quick attribute reduct algorithm for neighborhood rough set model[J].Information Sciences,2014,271(7):65-81.

[20]KUANG F, XU W, ZHANG S.A novel hybrid KPCA and SVM with GA model for intrusion detection[J].Applied Soft Computing,2014,18(4):178-184.

[21]MIAO D, LI D. Rough sets theory algorithms and applications[M].Beijing: Tsinghua University Press,2008:246-247.(苗夺谦,李道国.粗糙集理论、算法与应用[M]. 北京:清华大学出版社,2008:246-247.)

上一篇:浅谈如何改善公立医院人力资源管理 下一篇:基于高阶统计量的压缩宽带频谱盲检测方法