软覆盖熵及其在多属性群决策中的应用
吴家明1, 黄哲煌1, 李进金1,2, 刘丹玥1, 吴哲1
1.华侨大学 数学科学学院 泉州 362021
2.闽南师范大学 数学与统计学院 漳州 363000
通讯作者:

黄哲煌,博士,副教授,主要研究方向为粗糙集、粒计算.E-mail:hqufuzzy@163.com.

作者简介:

吴家明,硕士研究生,主要研究方向为粗糙集、不确定性分析及其应用.E-mail:wjmfuzzy@163.com.

李进金,博士,教授,主要研究方向为一般拓扑学、粗糙集、概念格.E-mail:jinjinlimnu@126.com.

刘丹玥,硕士研究生,主要研究方向为粗糙集、不确定性分析及其应用.E-mail:dannylous@163.com.

吴哲,硕士,讲师,主要研究方向为图像处理、机器视觉、模式识别.E-mail:WUzhe33@hqu.edu.cn.

摘要

结合软覆盖与信息熵,提出软覆盖信息熵.定义软覆盖信息熵、软覆盖联合熵、软覆盖条件熵,并研究这些熵之间的关系及它们的重要性质.最后给出两种基于软覆盖条件熵的多属性群决策的算法,举例说明这两种算法的结果具有一致性.

关键词: 软覆盖; 信息熵; 条件熵; 多属性群决策
中图分类号:TP301
Soft Covering Entropy and Its Applications in Multi-attribute Group Decision-Making
WU Jiaming1, HUANG Zhehuang1, LI Jinjin1,2, LIU Danyue1, WU Zhe1
1. School of Mathematical Sciences, Huaqiao University, Quan-zhou 362021
2. School of Mathematics and Statistics, Minnan Normal University, Zhangzhou 363000
Corresponding author:
HUANG Zhehuang,Ph.D., associate professor. His research interests include rough set and granular computing.

About Author:
WU Jiaming, master student. His research interests include rough set, uncertainty analysis and its application.
LI Jinjin, Ph.D., professor.His research interests include topology, rough set and concept lattice.
LIU Danyue, master student. Her research interests include rough set, uncertainty analysis and its application.
WU Zhe, master, lecturer. Her research interests include image processing, machine vision and pattern recognition.

Abstract

Information entropy and soft coverings are combined to propose soft covering information entropy. Soft covering information entropy, soft covering joint entropy and soft covering conditional entropy are defined. The relationships between these entropies and their important properties are studied. Two kinds of algorithms for multi-attribute group decision making based on soft covering conditional entropy are presented, and the consistency between the results of these two algorithms is illustrated by examples.

Key words: Key Words Soft Covering; Information Entropy; Conditional Entropy; Multi-attribute Group Decision-Making

本文责任编委 苗夺谦

Recommended by Associate Editor MIAO Duoqian

粗糙集理论[1, 2]是使用集合论处理某些不确定知识的数学方法.作为解决不确定性的一种工具, 粗糙集只使用内部知识, 而不依赖于先前的模型假设, 因此引起研究人员的广泛关注[3, 4, 5, 6, 7].但粗糙集需要在给定论域的元素之间产生等价关系, 在现实中这种等价关系很难得到.因此, 研究者们对粗糙集进行扩展, 包括邻域粗糙集[8]和基于覆盖的粗糙集[9, 10, 11].随后学者们发现基于覆盖的粗糙集理论的重要性并强调它的很多特征, 此理论越来越受到重视.陈应生等[12]在多尺度决策信息系统中, 把划分推广为覆盖, 并建立多尺度覆盖决策信息系统模型.

Molodtsov[13]提出软集理论, 这是另一种处理不确定性的数学工具.相比传统的数学工具, 软集理论最大的优势就是参数工具.软集理论可给出丰富的信息描述和计算操作, 因此, 在信息理论、决策分析、模式识别、数据挖掘中具有重要作用.Li等[14]结合软集和覆盖的概念, 提出软覆盖的概念和相关的参数约简.根据软粗糙集的思想, 研究人员将这些混合软集模型应用于决策, Feng等[5] 研究粗糙集和软集, 得出一些重要结论, 并建立基于软粗糙集的多准则群体决策.Zhan等[15]和Zhang等[16]提出基于粗糙集的软覆盖的邻域和补邻域, 并应用于多属性群决策.

信息熵是表征不确定性信息的有效工具, 熵及其变体的扩展已应用于粗糙集领域[17, 18, 19, 20, 21, 22].Liang等[23, 24]提出评价信息系统知识不确定性和模糊性的方法.陈东晓等[25]从信息粒角度提出基于信息熵研究形式背景的属性约简的方法.Lei等[26]定义平方粗糙熵, 用于度量图像的粗糙度, 并提出相应的图像阈值分割算法.还有一些研究者基于邻域系统, 建立信息熵及其变体, 并进行特征选择.Wang等[27]引入邻域可分辨矩阵的概念, 表征特征子集的分类能力, 并构造基于可辨性矩阵的特征评价函数.Sun等[28]基于模糊邻域多粒度粗糙集, 提出基于模糊神经网络的特征选择方法.Zhang等[29]使用基于模糊粗糙集的信息熵, 研究增量特征选择.但是, 目前尚未见到软覆盖与信息熵的融合研究.

本文以信息熵理论为基础, 结合软覆盖与信息熵, 提出软覆盖信息熵及其变体以及在多属性群决策中的应用.首先利用软覆盖定义5种类型的软覆盖信息熵并研究其性质, 再定义软覆盖联合熵、软覆盖条件熵.最后利用软覆盖条件熵进行多属性群决策, 并通过2种算法的对比发现结果具有一致性, 说明本文算法合理有效.

1 基础知识
1.1 软集

定义1[30]K=(G, B)为论域U上的软集, 其中, BE, E为参数; G:BP(U), P(U)为U的幂集.序对P=(U, K)称为软近似空间.

定义2[30] 若(G, B)为论域U上的软集, 若

bBG(b)=U,

且∀ bB, G(b)≠ Ø , 称(G, B)为软覆盖.

定义3[15]P=(U, CK)为U上的软覆盖近似空间, 对于∀ xU, x的软邻域定义为

N P1(x)={G(b):bBxG(b)}.

定义4[15]P=(U, CK)为U上的软覆盖近似空间, 对于∀ xU, x的软补邻域定义为

N P2(x)={tU:xN P1(t)}.

结合软邻域和软补邻域, 可定义另外两种混合软邻域算子:

N P3(x)=N P1(x)∩ N P2(x),

N P4(x)=N P1(x)∪ N P2(x).

定义5[15]P=(U, CK)为U上的软覆盖近似空间, 对于∀ xU, x的软粘连定义为

N P5(x)= {t∈ U:∀ bB(x∈ G(b)tG(b))}.

1.2 信息熵

定义6[27] 信息熵的定义为

H(B)= i=1m-p(Xi)ln p(Xi),

其中

U/B={X1, X2, …, Xm},

Xi的概率

p(Xi)= Xi|U|,

|Xi|为Xi的基数.

定义7[27] 联合熵的定义为

H(BC)=- i=1mj=1np(XiYj)ln p(XiYj),

其中

U/C={Y1, Y2, …, Yn}.

定义8[27] 条件熵的定义为

H(B|C)描述在已知C的条件下B的不确定性, 显然H(B|C)≥ 0.若∃XiB, 使对于∀ YjC, 有p(Xi|Yj)=1, 则H(B|C)=0.这意味属性子集B的区分能力完全包含在C中.

2 软覆盖熵及其变体

定义9 令N Pr(x), r=1, 2, …, 5, 为xU上的软邻域, 软覆盖熵定义为

其中, |· |表示集合的基数,

N Pr={N Pr(x1), N Pr(x2), …, N Pr(xn)}, r=1, 2, …, 5.

性质1 令N Pr(x), r=1, 2, …, 5, 为xU上的软邻域, 则

0≤ H(N Pr)≤ ln n.

证明 因为N Pr(x)为xU上的软邻域, 故

1≤ |N Pr(xi)|≤ |U|,

所以

0≤ H(N Pr)≤ ln n.

特别地, 对

xiU, |N Pr(xi)|=1

时,

H(N Pr)=ln n.

xiU, |N Pr(xi)|=|U|

时,

H(N Pr)=0.

性质2 令N Pr(x), r=1, 2, …, 5, 为xU上的软邻域, 则

1)H(N P5)=H(N P3)≥ H(N P1)≥ H(N P4),

2)H(N P5)=H(N P3)≥ H(N P2)≥ H(N P4).

证明 先证1).由软邻域定义易知

N P5(xi)=N P3(xi)⊆N P2(xi)⊆N P4(xi),

|N P5(xi)|=|N P3(xi)|≤ |N P2(xi)|≤ |N P4(xi)|,

所以

H(N P5)=H(N P3)≥ H(N P1)≥ H(N P4).

再证2).同1)类似证明可得.

例1 学校足球队有5位学生报名, 记为U={x1, x2, …, x5}.社团的成员从5方面对这5位学生进行考核, 记为B={b1, b2, …, b5}, 这5方面分别是耐力、速度、力量、反应能力、团队精神, 这5人在5方面的特征可被记为一个软覆盖K=(G, B), 具体如表1所示.

表1 例1中学生的特征描述K=(G, B) Table 1 Students feature description K=(G, B) in example 1

显然P=(U, CK)为U上的软覆盖近似空间, 则有

1)若r=1,

N P1(x1)={x1, x2, x3, x5}, N P1(x2)={x2}, N P1(x3)={x3}, N P1(x4)={x4}, N P1(x5)={x1, x2, x3, x5}.

计算第一类软覆盖熵:

2)若r=2,

N P2(x1)={x1, x5}, N P2(x2)={x1, x2, x5}, N P2(x3)={x1, x3, x5}, N P2(x4)={x4}, N P2(x5)={x1, x5}.

计算第二类软覆盖熵:

3)若r=3,

N P3(x1)={x1, x5}, N P3(x2)={x2}, N P2(x3)={x3}, N P2(x4)={x4}, N P2(x5)={x1, x5}.

计算第三类软覆盖熵:

4)若r=4,

计算第四类软覆盖熵:

5)若r=5,

N P5(x1)={x1, x5}, N P5(x2)={x2}, N P5(x3)={x3}, N P5(x4)={x4}, N P5(x5)={x1, x5}.

计算第五类软覆盖熵:

可看出例1符合性质2, 熵值越小说明其不确定性越小, 故对于软邻域N Pr, r=1, 2, 3, 4, 5, 软邻域N P4的不确定性最小.

性质3 令N Pr1(x)、N Pr2(x)为xU上的软邻域, 其中r1=1, 2, …, 5, r2=1, 2, …, 5, 若N Pr1N Pr2, 则

H(N Pr1)≥ H(N Pr2).

证明

由于N Pr1N Pr2, 所以对

xiU, N Pr1(xi)⊆N Pr2(xi),

|N Pr1(xi)|≤ |N Pr2(xi)|,

因此可得

H(N Pr1)≥ H(N Pr2).

性质3表明软覆盖熵具有单调性.

定义10 令N Pr1(x)、N Pr2(x)为xU上的软邻域, r1=1, 2, …, 5, r2=1, 2, …, 5, N Pr1N Pr2的软覆盖联合熵定义为

性质4 令N Pr1(x)、N Pr2(x)为xU上的软邻域, r1=1, 2, …, 5, r2=1, 2, …, 5, 则

H(N Pr1, N Pr2)≥ H(N Pr1), H(N Pr1, N Pr2)≥ H(N Pr2).

证明 对于∀ xiU, 有

N Pr1(xi)∩ N Pr2(xi)⊆N Pr1(xi),

|N Pr1(xi)∩ N Pr2(xi)|≤ |N Pr1(xi)|,

所以

因此

H(N Pr1, N Pr2)≥ H(N Pr1).

同理可得

H(N Pr1, N Pr2)≥ H(N Pr2).

定义11 令N Pr1(x)、N Pr2(x)为xU上的软邻域, r1=1, 2, …, 5, r2=1, 2, …, 5, N Pr2关于N Pr1的软覆盖条件熵定义为

软覆盖条件熵描述基于已知条件N Pr1N Pr2的不确定性信息.

性质5 令N Pr1(x)、N Pr2(x)、N Pr3(x)为xU上的软邻域, r1=1, 2, …, 5, r2=1, 2, …, 5, r3=1, 2, …, 5, 满足

1)若N Pr1N Pr2, 则H(N Pr2|N Pr1)=0.

2)若N Pr2N Pr3, 则

H(N Pr2|N Pr1)≥ H(N P3| NPr1).

证明 先证1).显然得证.

再证2).由于

N Pr2N Pr3,

情况1)表示若N Pr1包含在N Pr2中, 则N Pr2不会引入任何关于N Pr1的不确定性信息.情况2)表明软覆盖条件熵H(N Pr2|N Pr1)是关于N Pr2单调的.需要注意的是, 软覆盖条件熵H(N Pr2|N Pr1)相对于N Pr1不是单调的.

性质6 令N Pr(x), r=1, 2, …, 5, 为xU上的软邻域, 则

1)H(N P5|N P4)=H(N P3|N P4)≥ H(N P1|N P4),

2)H(N P5|N P4)=H(N P3|N P4)≥ H(N P2|N P4).

证明 先证1).因为N Pr(x), r=1, 2, …, 5, 为xU上的软邻域, 故

N P5(xi)=N P3(xi)⊆N P1(xi)⊆N P4(xi),

所以

从而

所以

因为

|N P5(xi)|=|N P3(xi)|≤ |N P1(xi)|,

所以

H(N P5|N P4)=H(N P3|N P4)≥ H(N P1|N P4).

再证2).类似1)的证明可得.

例2 学校排球队有6位学生报名, 记为U={x1, x2, …, x6}.社团的成员从5方面对这6位学生进行考核, 记为B={b1, b2, …, b5}, 这5方面分别是耐力、速度、弹跳、反应能力、团队精神.6人在5方面的特征可被记为一个软覆盖K=(G, B), 具体如表2所示.

表2 例2中学生的特征描述K=(G, B) Table 2 Students feature description K=(G, B) in example 2

则有

3 基于软覆盖熵的多属性群决策应用

软集模型在决策、综合评价、测度理论等领域都具有较广泛的应用.多属性的群决策是处理决策问题的有效方式, 它可让不同的专家在众多的候选者中做出不同的选择.在此基础上, 根据候选者的特点, 参照所有专家的意见寻找最佳的候选者方案, 如校队选人、学校招聘新教师等.在本文中, 利用软覆盖条件熵进行多属性的群决策.

NPrU上的软邻域, IiU上的一般二元关系,

Ii={Ii(x1), Ii(x2), …, Ii(xn)},

类似软覆盖条件熵, H(Ii|$N_{P}^{r}$)可用于表征$N_{P}^{r}$区分不同决策样本的能力.对于相同的 NPr, H(Ii|$N_{P}^{r}$)值越小, 说明Ii的决策越优.当所有样本被正确分类到它们各自的类别中时, H(Ii|$N_{P}^{r}$)=0.

3.1 问题叙述

首先给出对U最初始的一个描述, 即软集K=(G, B), 如表3所示, 其中

B={b1, b2, …, bm}⊆E.

表3 候选人的特征描述K=(G, B) Table 3 Candidates feature description K=(G, B)

例如在一个学校学生会招新成员的活动中, U表示应聘的所有人, B表示学生会应聘条件, b1表示性格, b2表示应变能力等.对于每个对象xi, i=1, 2, …, n, 属性bj, j=1, 2, …, m的值使用aij表示, aij∈ {0, 1}.显然应聘者和应聘条件构成一个软覆盖.假设I={I1, I2, …, Il}表示l位面试官, 对于每个对象xi, i=1, 2, …, n, Ik, k=1, 2, …, l, xi的值使用bik表示, bik∈ {0, 1}.

K1=(M, I)为U上的软集, M(Ik)表示面试官Ik对于所有应聘者的选择.例如面试官Ik认为应聘者x1x2可以胜任这个工作, 表示为M(Ik)={x1, x2}.Ik(xi)表示与xi分类相同的集合.例如, 面试官Ik认为应聘者x1x2可以胜任这个工作, 反之x3x4x5x6不胜任这个工作, 可记为

Ik(x1)={x1, x2}, Ik(x3)={x3, x4, x5, x6}.

Ik={Ik(x1), Ik(x2), …, Ik(xn)},

则面试官的选择K1=(M, I)如表4所示.

表4 面试官的选择K1=(M, I) Table 4 Interviewers choice K1=(M, I)
3.2 决策算法

首先给出U上的软覆盖K=(G, B), 软集K1=(M, I), 这里软覆盖是对U的描述, 软集是专家对于U的选择.根据软覆盖K=(G, B), 可计算每个xiU的软邻域N Pr(xi), r=1, 2, …, 5.再利用软覆盖熵计算在软覆盖K=(G, B)下, K1=(M, I)的软覆盖条件熵:

熵值越小表示专家的选择越优.

算法1 基于第一类软邻域多属性群决策算法

step 1 输入集合U, 软覆盖K=(G, B), 软覆盖近似空间(U, CK).

step 2 输入软集K1=(M, I), 表示专家组的评估结果.

step 3 由软覆盖K=(G, B)得出软邻域N P1.

step 4 计算基于软覆盖近似空间(U, CK)的软覆盖条件熵H(Ii|N P1).

step 5 找出最小值H(Ij|N P1).

step 6 决策目标为Ij.

例3 一所学校要招募4名教师, 由3位面试官进行面试, 记为I={I1, I2, I3}.有7位应聘者参加面试, 记为U={x1, x2, …, x7}.B表示对7位应聘者的特征描述, 记为B={b1, b2, …, b5}, b1, b2, …, b5分别表示耐心、热情、学历、经验、应变能力.K=(G, B)是对于7位应聘者的特征描述, 如表5所示.表6为3位面试官I1I2I3的选择, 则

M(I1)={x1, x2, x4, x6}, M(I2)={x1, x2, x3, x7},

M(I3)={x2, x5, x6, x7}.

表5 例3中应聘者的特征描述K=(G, B) Table 5 Candidates feature description K=(G, B) in example 3
表6 例3中面试官的选择K1=(M, I) Table 6 Interviewers choice K1=(M, I) in example 3

由此可得

N P1(x1)={x1, x2, x5, x6}, N P1(x2)={x2, x5, x6}, N P1(x3)={x3, x6}, N P1(x4)={x4, x6},

N P1(x5)={x2, x5, x6}, N P1(x6)={x6}, N P1(x7)={x6, x7}.

I1(x1)=I1(x2)=I1(x4)=I1(x6)={x1, x2, x4, x6}, I1(x3)=I1(x5)=I1(x7)={x3, x5, x7}.

I2(x1)=I2(x2)=I2(x3)=I2(x7)={x1, x2, x3, x7}, I2(x4)=I2(x5)=I2(x6)={x4, x5, x6}.

I3(x2)=I3(x5)=I3(x6)=I3(x7)={x2, x5, x6, x7}, I3(x1)=I3(x3)=I3(x4)={x1, x3, x4}.

因此选择I3, 即x2x5x6x7更能胜任这个工作.同时可认为面试官I3更公正合理, 更有能力担任面试这个工作.

算法2 基于第二类软邻域多属性群决策算法

step 1 输入集合U, 软覆盖K=(G, B), 软覆盖近似空间(U, CK).

step 2 输入软集K1=(M, I), 表示专家组的评估结果.

step 3 由软覆盖K=(G, B)得出软邻域N P2.

step 4 计算基于软覆盖近似空间(U, CK)的软覆盖条件熵H(Ii|N P2).

step 5 找出最小值H(Ij|N P2).

step 6 决策目标为Ij.

例4 由例3可得

N P2(x1)={x1}, N P2(x2)={x1, x2, x5}, N P2(x3)={x3}, N P2(x4)={x4}, N P2(x5)={x1, x2, x5},

N P2(x6)={x1, x2, x3, x4, x5, x6, x7}, N P2(x7)={x7}.

I1(x1)=I1(x2)=I1(x4)=I1(x6)={x1, x2, x4, x6}, I1(x3)=I1(x5)=I1(x7)={x3, x5, x7}.

I2(x1)=I2(x2)=I2(x3)=I2(x7)={x1, x2, x3, x7}, I2(x4)=I2(x5)=I2(x6)={x4, x5, x6}.

I3(x2)=I3(x5)=I3(x6)=I3(x7)={x2, x5, x6, x7}, I3(x1)=I3(x3)=I3(x4)={x1, x3, x4}.

因此选择I3, 即x2x5x6x7更能胜任这个工作.同时可认为面试官I3更公正合理, 更有能力担任面试这个工作.

由结论可发现, 上述两类软邻域的多属性群决策方式具有高度一致性, 均可得出面试官I3的决策优于面试官I1I2的决策, 这说明上述决策合理可行.

对例3、例4使用不同类型的软覆盖条件熵的决策, 结果如表7所示.由表可看出, 无论r为多少, 得到的最优专家均为I3.同时还发现, 使用r=1, 2软覆盖条件熵的区别性更明显, 由此可见本文算法具有较高的一致性, 合理可行.

表7 例3和例4中使用不同软邻域的排序结果 Table 7 Sorting results using different soft neighborhoods in example 3 and example 4

下面进一步用实例对算法进行说明.

例5 一家公司要选择4名员工进行提拔, 现有8位候选人(以x1, x2, …, x8表示).B表示对8位候选人的特征描述, 记为

B={b1, b2, …, b5},

b1, b2, …, b5分别表示业绩、应变能力、热情、领导能力、工作经验.K=(G, B)是对于8位候选人的特征描述, 如表8所示.

表8 例5中应聘者的特征描述K=(G, B) Table 8 Candidates feature description K=(G, B) in example 5

3位主管对8位候选人进行选择, 如表9所示.3位主管I1, I2, I3的选择分别为

表9 例5中主管的选择K1=(M, I) Table 9 Superintend choice K1=(M, I) in example 5

使用不同软覆盖条件熵对例5进行决策, 决策结果如表10所示.由表可看出, 主管I1的选择更优, 即x1x4x6x8更适合得到提拔的机会.同时可认为主管I1更公正合理, 有更好的判断力对员工进行提拔.

表10 例5中使用不同软邻域的排序结果 Table 10 Sorting results using different soft neighborhoods in example 5

对5种类型的软覆盖条件熵的决策结果可看出, r=1, 2软覆盖条件熵区别性更明显.由于r=3, 5软邻域实际上是一种等价关系, 要求过于严格, 故得出的结果会较相近.而r=4软邻域的要求过于宽松, 故得出的结果也可能会较相近.因此使用r=1, 2软覆盖条件熵进行多属性群决策效果更优.

4 结束语

本文提出软覆盖信息熵、软覆盖联合熵、软覆盖条件熵的概念, 并研究它们的重要性质及关系.进一步结合软覆盖邻域算子与信息熵, 并推广到多属性群决策的环境下, 在此基础上, 认为r=1, 2软覆盖条件熵值得关注.提出2种基于软覆盖条件熵的算法, 并对2个示例进行充分研究, 经过对比发现, r=1, 2的决策结果区别性更明显, 所有类型的软覆盖条件熵模型的最优结果具有一致性, 由此说明本文决策方法合理可行.今后考虑将信息熵引入模糊信息系统中, 进一步探究在模糊信息系统下的群决策算法.

参考文献
[1] PAWLAK Z. Rough Sets. International Journal of Computer and Information Sciences, 1982, 11(5): 341-356. [本文引用:1]
[2] PAWLAK Z. Rough Sets and Intelligent Data Analysis. Information Sciences, 2002, 147(1/2/3/4): 1-12. [本文引用:1]
[3] ALI M I. A Note on Soft Sets, Rough Soft Sets and Fuzzy Soft Sets. Applied Soft Computing, 2011, 11(4): 3329-3332. [本文引用:1]
[4] 纪霞, 赵鹏, 姚晟. 加权多粒度直觉模糊信息系统的粗糙集模型及其决策. 模式识别与人工智能, 2017, 30(11): 971-982.
(JI X, ZHAO P, YAO S. Rough Set Model and Decision Research in Intuitionistic Fuzzy Information System Based on Weighted Multi-granulation. Pattern Recognition and Artificial Intelligence, 2017, 30(11): 971-982. ) [本文引用:1]
[5] FENG F, LIU X Y, LEOREANU-FOTEA V, et al. Soft Sets and Soft Rough Sets. Information Sciences, 2011, 181(6): 1125-1137. [本文引用:2]
[6] 薛占熬, 赵丽平, 张敏, . 多粒度支持直觉模糊粗糙集的多属性决策方法. 模式识别与人工智能, 2019, 32(8): 677-690.
(XUE Z A, ZHAO L P, ZHANG M, et al. Multi-attribute Decision-Making Method Based on Multi-granulation Support Intuitionistic Fuzzy Rough Sets. Pattern Recognition and Artificial Intelligence, 2019, 32(8): 677-690. ) [本文引用:1]
[7] ZHANG Q H, XIE Q, WANG G Y. A Survey on Rough Set Theory and Its Applications. CAAI Transactions on Intelligence Technology, 2016, 1(4): 323-333. [本文引用:1]
[8] LUO S, MIAO D Q, ZHANG Z F, et al. A Neighborhood Rough Set Model with Nominal Metric Embedding. Information Sciences, 2020, 520: 373-388. [本文引用:1]
[9] ZHANG L, ZHAN J M, XU Z S, et al. Covering-Based General Multigranulation Intuitionistic Fuzzy Rough Sets and Corresponding Applications to Multi-attribute Group Decision-Making. Information Sciences, 2019, 494: 114-140. [本文引用:1]
[10] WANG Z H, ZHANG X P, DENG J P. The Uncertainty Measures for Covering Rough Set Models. Soft Computing, 2020, 24: 11909-11929. [本文引用:1]
[11] ZHANG L, ZHAN J M, XU Z S. Covering-Based Generalized IF Rough Sets with Applications to Multi-attribute Decision-Making. Information Sciences, 2019, 478: 275-302. [本文引用:1]
[12] 陈应生, 李进金, 林荣德, . 多尺度覆盖决策信息系统的布尔矩阵方法. 模式识别与人工智能, 2020, 33(9): 776-785.
(CHEN Y S, LI J J, LIN R D, et al. Boolean Matrix Approach for Multi-scale Covering Decision Information System. Pattern Recognition and Artificial Intelligence, 2020, 33(9): 776-785. ) [本文引用:1]
[13] MOLODTSOV D. Soft Set Theory-First Results. Computers and Mathematics with Applications, 1999, 37(4/5): 19-31. [本文引用:1]
[14] LI Z W, XIE N X, WEN G Q. Soft Coverings and Their Parameter Reductions. Applied Soft Computing, 2015, 31: 48-60. [本文引用:1]
[15] ZHAN J M, WANG Q M. Certain Types of Soft Coverings Based Rough Sets with Applications. International Journal of Machine Learning and Cybernetics, 2019, 10(5): 1065-1076. [本文引用:4]
[16] ZHANG L, ZHAN J M. Fuzzy Soft β-Covering Based Fuzzy Rough Sets and Corresponding Decision-Making Applications. Internatio-nal Journal of Machine Learning and Cybernetics, 2019, 10(6): 1487-1502. [本文引用:1]
[17] DENG Z X, ZHENG Z L, DENG D Y, et al. Feature Selection for Multi-label Learning Based on F-Neighborhood Rough Sets. IEEE Access, 2020, 8: 39678-39688. [本文引用:1]
[18] WANG C Z, HUANG Y, SHAO M W, et al. Feature Selection Based on Neighborhood Self-Information. IEEE Transactions on Cybernetics, 2020, 50(9): 4031-4042. [本文引用:1]
[19] WANG C Z, HE Q, SHAO M W, et al. A Unified Information Measure for General Binary Relations. Knowledge-Based Systems, 2017, 135: 18-28. [本文引用:1]
[20] LEI D F, LIANG P, HU J H, et al. New Online Streaming Feature Selection Based on Neighborhood Rough Set for Medical Data. Symmetry, 2020, 12(10). DOI: DOI:10.3390/sym12101635. [本文引用:1]
[21] WANG C Z, HE Q, SHAO M W, et al. Feature Selection Based on Maximal Neighborhood Discernibility. International Journal of Machine Learning and Cybernetics, 2018, 9: 1929-1940. [本文引用:1]
[22] REHMAN N, SHAH N, ALI M I, et al. Uncertainty Measurement for Neighborhood Based Soft Covering Rough Graphs with Applications. Revista de la Real Academia de Ciencias Exactas, Físicas y Naturales. Serie A. Matemáticas, 2019, 113: 2515-2535. [本文引用:1]
[23] LIANG J Y, CHIN K S, DANG C Y, et al. A New Method for Measuring Uncertainty and Fuzziness in Rough Set Theory. International Journal of General Systems, 2002, 31(4): 331-342. [本文引用:1]
[24] LIANG J Y, WANG F, DANG C Y, et al. A Group Incremental Approach to Feature Selection Applying Rough Set Technique. IEEE Transactions on Knowledge and Data Engineering, 2014, 26(2): 294-308. [本文引用:1]
[25] 陈东晓, 李进金, 林荣德, . 基于信息熵的形式背景属性约简. 模式识别与人工智能, 2020, 33(9): 786-798.
(CHEN D X, LI J J, LIN R D, et al. Attribute Reductions of Formal Context Based on Information Entropy. Pattern Recognition and Artificial Intelligence, 2020, 33(9): 786-798. ) [本文引用:1]
[26] LEI B, FAN J L. Image Thresholding Segmentation Method Based on Minimum Square Rough Entropy. Applied Soft Computing, 2019, 84. DOI: DOI:10.1016/j.asoc.2019.105687. [本文引用:1]
[27] WANG C Z, HU Q H, WANG X Z, et al. Feature Selection Based on Neighborhood Discrimination Index. IEEE Transactions on Neural Networks and Learning Systems, 2018, 29(7): 2986-2999. [本文引用:4]
[28] SUN L, WANG L Y, DING W P, et al. Feature Selection Using Fuzzy Neighborhood Entropy-Based Uncertainty Measures for Fuzzy Neighborhood Multigranulation Rough Sets. IEEE Transactions on Fuzzy Systems, 2021, 29(1): 19-33. [本文引用:1]
[29] ZHANG X, MEI C L, CHEN D G, et al. Active Incremental Feature Selection Using a Fuzzy-Rough-Set-Based Information Entropy. IEEE Transactions on Fuzzy Systems, 2020, 28(5): 901-915. [本文引用:1]
[30] YÜKSEL S, TOZLU N, DIZMAN T H. An Application of Multicriteria Group Decision Making by Soft Covering Based Rough Sets. Filomat, 2015, 29(1): 209-219. [本文引用:2]