林艺东,博士,副教授,主要研究方向为不确定性理论及其应用.E-mail:yidong_lin@yeah.net.
作者简介:
梁涛巨,硕士研究生,主要研究方向为粒计算、概念认知学习.E-mail:liangtaoju22@163.com.
林梦雷,硕士,教授,主要研究方向为不确定性理论及其应用.E-mail:menglei36@126.com.
王启君,硕士研究生,主要研究方向为粒计算、概念认知学习.E-mail:wqj_1106@163.com.
现有概念认知学习模型往往存在忽略属性与决策间的相关性、涉及的概念空间存在冗余性、学习效果有限等问题.因此,文中提出面向属性加权的概念认知学习模型(Weighted Attributes-Based Concept-Cognitive Learning Model, WACCL).首先,探讨属性与决策之间的相关性,提出属性的加权机制.考虑到概念空间冗余性问题,探索不同概念的地位,实现概念空间压缩.然后,结合概念间的相似性,实现概念聚类,为线索的学习提供依据.最后,在13个数据集上的实验验证WACCL的有效性.
LIN Yidong, Ph.D., associate professor. His research interests include uncertain theories and application.
About Author:
LIANG Taoju, master student. His research interests include granular computing and concept-cognitive learning.
LIN Menglei, master, professor. His research interests include uncertain theories and application.
WANG Qijun, master student. Her research interests include granular computing and concept-cognitive learning.
In the existing concept-cognitive learning models, correlations among attributes and decisions are ignored, the concept space involved is redundant and the learning effectiveness is poor. Aiming at these problems, a weighted attributes-based concept-cognitive learning model(WACCL) is proposed in this paper. Firstly, the relevance of attribute-decision is discussed, and a weighting mechanism for attributes is proposed. With the consideration of the concept space redundancy, the positions of different concepts are explored and the compression of the concept space is achieved. Subsequently, conceptual clustering is implemented by combining similarities between concepts to provide a basis for learning clues. Finally, the effectiveness of WACCL is demonstrated by experiments on 13 datasets.
认知计算作为人工智能的重要组成部分, 是模拟人类大脑认知过程的计算机系统.认知计算旨在解决生物系统中不确定、不精确和不完整的问题[1].经过多年发展, 认知学习现已成为实现认知计算的有利工具之一, 广泛应用于认知心理学[2]、机器学习[3, 4]、信息科学[5, 6, 7, 8]、分类任务[9, 10, 11, 12]等领域.
形式概念分析(Formal Concept Analysis, FCA)[13, 14]是一种数据分析工具, 为揭示数据中的隐藏关系和潜在知识提供重要的数学基础, 在知识表示与发掘、信息检索、对象分类等领域具有广泛的应用前景.
概念是FCA研究的基本单元, 为了提升对数据和信息的理解能力, 学者们研究来自不同关系的概念, 如模糊概念[15]、三支概念[16]、多尺度概念[17]和加权概念[18].
概念作为人类认知的基本构筑单位, 在认知计算中扮演着重要角色.于是学者们开始将FCA融入认知计算中, 提出概念认知学习.概念认知学习模拟人类学习特点, 关注如何通过经验和学习过程获取、组织和应用概念.在抽象层和机器层[19], 概念认知学习被认为是采用一定的方法学习未知概念和概念结构, 如概念聚类[20]和模仿人类认知过程[21].
为了提高概念学习的效率和灵活性, Li等[21]在认知计算的角度上讨论基于粒计算的概念学习.Niu等[22]结合局部粒概念, 提取全局粒概念, 并且实现多源数据的信息融合.李金海等[23]研究概念渐进式认知机理, 讨论在不完全条件下概念的获取问题.
为了处理解决问题的基本技能被忽视的问题, Xie等[24]将一般信息粒转化为基于能力的充分必要信息粒, 从能力视角提出Cb-CCLM(Competence-Based Concept-Cognitive Learning Model).
随着新的信息和经验的累积, 个体需要不断调整和更新概念的分类方式, 以更好地理解和应对新的情景和任务.为了衡量概念结构的稳定性, Zhang等[3]基于属性拓扑的概念树表示概念, 降低概念认知过程的复杂性.Mi等[9]提出用于动态分类的概念认知计算系统, 提高决策者在动态环境下对问题解决的反应能力.
为了克服个体认知和认知环境的限制, Yuan等[10]结合隶属度和非隶属度, 设计ILMPFTC(Incre-mental Learning Mechanism Based on Progressive Fuzzy Three-Way Concept).Xu等[25]从概念运动视角研究概念的进化机制, 增强双向概念学习在概念学习中的灵活性和进化能力.
概念聚类是概念认知学习的基本方法之一, 目的是使相似概念越近、相异概念越远.概念分类和概念生成是概念聚类的两个关键任务.Mi等[6]结合属性和对象信息, 提出FCLM(Fuzzy-Based Concept Learning Model), 用于概念分类和概念发现.Xu等[11]考虑注意力对概念聚类的影响, 提出MA-CLM(Multi-attention Concept-Cognitive Learning Model), 提高分类效率.
一般来说, 通过概念加权, 可以根据个人的喜好和要求选择有用的信息.Singh等[26]在计算概念前研究属性权重之间的相关性.Zhang等[12]在决策信息中探讨条件属性的权重信息, 设计DMPWFC(Dynamic Updating Mechanism Algorithm Based on Progressive Weighted Fuzzy Concept).然而生活中存在着不同决策下属性权重不同的情况, 权重的差异反映不同决策类下属性的不同重视程度.在不同决策任务中, 属性被分配不同的权重, 以提高概念认知学习的准确性.
因此, 受文献[11]和文献[12]的启发, 本文利用属性与决策之间的相关性, 提出基于属性加权的概念认知学习模型(Weighted Attributes-Based Con-cept-Cognitive Learning Model, WACCL).首先, 利用属性与决策之间的相关性, 刻画属性在各决策中的影响作用, 探讨概念的重要性度量.然后, 通过概念的重要性, 在不同决策类下生成K-决策概念空间.为了降低概念认知的复杂性和提高学习效率, 通过概念聚类获得具有更强泛化能力的伪概念, 进行概念预测.最后, 通过实验验证WACCL的可行性、有效性及准确性.
由于现实中的许多分类任务是使用模糊数据描述的, 因此本节主要回顾模糊形式背景及其相关的定义.
定义1[15] 设三元组(U, A,
U={x1, x2, …, xm},
表示非空有限对象集,
A={a1, a2, …, an},
表示非空有限属性集,
即对∀ x∈ U, a∈ A, 都存在一个隶属函数
μ (x, a)∈ [0, 1],
记μ (x, a)为
LA为A上所有的模糊集合, 对
∀ X⊆2U,
对象学习算子
和属性学习算子
定义如下:
$\begin{array}{l} \widetilde{F}(X)(a)=\bigwedge_{x \in X} \widetilde{I}(x, a), a \in A, \\ \widetilde{G}(\widetilde{B})=\{x \in X: \forall a \in A, \widetilde{I}(x, a) \geqslant \widetilde{B}(a)\} . \end{array}$
若
称序对(X,
对
$\left(X_{1}, \widetilde{B}_{1}\right) \in L(U, A, \tilde{I}), \quad\left(X_{2}, \widetilde{B}_{2}\right) \in L(U, A, $\tilde{I})
可定义偏序关系
$\left(X_{1}, \widetilde{B}_{1}\right) \leqslant\left(X_{2}, \widetilde{B}_{2}\right) $
当且仅当X1⊆X2或
定义2[15] 设(U, A,
D={d1, d2, …, dk}
为决策属性集,
对∀ x∈ U, 有且仅有一个d∈ D, 使得
J(x, d)=1.
根据D可将U划分为
U\D={C1, C2, …, Ck}.
定义3[21] 设(U, A,
Qi={(
本文讨论的概念均为模糊概念, 后面不再突出“ 模糊” 二字.
例1 表1为一个模糊决策形式背景, 包含10个对象和2个条件属性.该模糊决策形式背景中有2个决策, 则对象集划分为2个决策类:
${{\text{}}_{1}}=\left\{ {{x}_{1}}, {{x}_{2}}, \cdots , {{x}_{8}} \right\}$, ${{\text{}}_{2}}=\left\{ {{x}_{9}}, {{x}_{10}} \right\}$.
决策粒概念空间
$\begin{align} & {{\text{}}_{1}}=\left\{ \left( \left\{ {{x}_{1}} \right\}, \left\{ 0.70, 0.46 \right\} \right); \left( \left\{ {{x}_{2}} \right\}, \left\{ 0.77, 0.38 \right\} \right) \right.; \\ & \begin{matrix} {} & \begin{matrix} {} & \left( \left\{ {{x}_{1}}, {{x}_{2}}, {{x}_{3}} \right\}, \left\{ 0.63, 0.26 \right\} \right); \left( \left\{ {{x}_{1}}, {{x}_{2}}, {{x}_{4}} \right\}, \right. \\\end{matrix} \\\end{matrix} \\ & \begin{matrix} {} & {} & \left. \left\{ 0.61, 0.31 \right\} \right) \\\end{matrix}; \left( \left\{ {{x}_{1}}, {{x}_{2}}, {{x}_{3}}, {{x}_{4}}, {{x}_{5}} \right\}, \left\{ 0.56, 0.21 \right\} \right); \\ & \begin{matrix} {} & {} & \left( \left\{ {{x}_{1}}, {{x}_{2}}, {{x}_{3}}, {{x}_{4}}, {{x}_{6}} \right\}, \left\{ 0.40, 0.24 \right\} \right) \\\end{matrix}; \\ & \begin{matrix} {} & {} & \left( \left\{ {{x}_{1}}, {{x}_{2}}, {{x}_{3}}, {{x}_{4}}, {{x}_{5}}, {{x}_{7}} \right\}, \left\{ 0.48, 0.15 \right\} \right); \\\end{matrix} \\ & \begin{matrix} {} & {} & \left. \left( \left\{ {{x}_{1}}, {{x}_{2}}, {{x}_{3}}, {{x}_{4}}, {{x}_{5}}, {{x}_{8}} \right\}, \left\{ 0.44, 0.21 \right\} \right) \right\} \\\end{matrix}, \\ & {{\text{}}_{2}}=\left\{ \left( \left\{ {{x}_{9}} \right\}, \left\{ 0.67, 0.09 \right\} \right); \left. \left( \left\{ {{x}_{10}} \right\}, \left\{ 0.24, 0.27 \right\} \right) \right\} \right.. \\ \end{align}$
后面使用C1~C10依次表示上述10个概念.
在购买商品的决策问题中, 会有价格导向决策、品质导向决策及功能导向决策等.对于不同决策任务, 属性可能会被分配到不同的权重, 灵活地调整属性权重可以更好地处理复杂的信息.为了提高属性在不同决策任务中的灵活性, 本文建立属性与类别之间的相关性描述, 提出基于属性加权的概念认知学习模型(WACCL).模型结合属性权重, 刻画概念的重要性.然后, 选择重要性较高的概念, 减少概念空间的冗余性.最后, 建立概念聚类机制, 进一步提高概念认知学习的效率.
定义4 设(U, A,
属性与决策类的相关性表示属性对决策的预测能力或影响程度, 反映不同属性对于决策的重要性和贡献程度.在进行决策时, 属性权重可以帮助识别更具有影响力的属性, 以实现个性化决策和提高决策的准确性.下面结合属性与类别的相关性, 给出属性权重的定义.
定义5 设(U, A,
ω ij=
显然, 每个属性在不同决策中被分配到不同的权重, 反映该属性在不同分类任务中的重要性.记权重矩阵:
ω =
其中ω ij为属性aj在决策类Ci下的权重.
例2 (接例1) 由定义5可得权重矩阵
ω =
定义6 设(U, A,
Cva(X,
例3 (接例2) 决策粒概念空间Q1中所有概念的贡献值分别为
Cva(C1)=0.6208, Cva(C2)=0.6413, Cva(C3)=0.5079, Cva(C4)=0.5110, Cva(C5)=0.4445, Cva(C6)=0.3472, Cva(C7)=0.3711, Cva(C8)=0.3641.
在概念空间中, 不同概念以贡献值体现类重要程度, 概念的贡献值越高, 它在概念空间中越显著.选择贡献值较高的概念可以降低概念空间的复杂性, 提高学习效率.
算法1 构建K-概念空间
输入 模糊形式背景(U, A,
输出 K-概念空间QK
QK← Ø ; U=C1∪ C2∪ …∪ Ck
for i=1∶ k
for x∈ Ci
构造粒概念(
根据定义6计算贡献值Cva(
if Cva(
end
end
QK=QK∪
end
定义7 对于决策粒概念空间Qi, 给定阈值K(0≤ K≤ 1), K-决策概念空间定义为:
$\text{}_{i}^{K}=\left\{ \left( X, \tilde{B} \right)\in {{\text{}}_{i}}, \right.\left. Cva\left( X, \tilde{B} \right)\ge K \right\}.$
阈值K为概念贡献值的一个临界值, 不仅可以筛选贡献值较高的概念, 还可以控制概念空间中的概念数量.阈值过高会导致重要的概念被错误删除, 而阈值过低会导致概念空间过于庞大和冗余, 需要根据特定的任务和领域对阈值进行调整和优化.
算法1总结K-概念空间的构建过程.显然, 不同的决策将QK划分为k个K-决策概念空间.
例4 (接例3) 设阈值K=0.4, K-决策概念空间
根据现代范畴理论[27]基本思想, 同一范畴内的各个成员都由家族相似性联系在一起, 而人们对事物的分类和认知是基于抽象的范畴, 不是基于单个特征.概念聚类将相似事物归为一类, 是形成范畴的过程.在概念认知学习中, 核心概念是具有重要性和代表性的概念.因此, 核心概念可以作为现代范畴理论中原型的一种表现形式, 即最典型或最常见的代表[28].下面给出概念空间中的核心概念定义.
定义8[11] 设M为K-决策概念空间
∀ (Xi,
有
Cva(X,
称(X,
在认知心理学中, 邻接概念用于解释人类思维和语言理解中概念之间的关系和联系.如果两个概念的外延有交集, 那么这两个概念之间存在一定的联系.
定义9[11] 设(X1,
X1∩ X2≠ Ø ,
称(X1,
在概念聚类中, 概念的相似度可以用来划分概念簇.在描述概念之间相似性时, 不仅要关注对象信息, 还要关注对概念分类和聚类分析同样重要的属性信息.下面给出概念之间相似性度量的定义.
设(U, A,
∀ (X,
|X|表示概念(X,
定义10 设(X1,
θ 1, 2=
其中,
∂ 1=Cva(X1,
θ 1, 2的值越大, 两个概念相似性越强.
定义11 设G为
1)(Xs,
∀ (Xi,
都为(Xs,
2)若(Xs,
∀ (Xi,
有θ s, i≥ β ,
3)一个概念只存在一个概念簇里面, 则称G为K- β 概念簇.下面简称G为概念簇.
在概念认知学习中, 将概念簇的概念进行抽象化, 形成具有更强泛化能力的伪概念是常用手段之一.伪概念是基于已有概念进行抽象化和泛化得到的, 它们不是真正的概念, 只是特殊情形下有用的概念.
此外, 伪概念的泛化能力可能会受特定学习环境的影响, 需要进行进一步的实验以评估其泛化能力的有效性.
定理1 对于
证明 阈值β 增大时, 与G中核心概念相似度大于β 的概念会不变或变少, 因此G的概念基数不变或减小.
对于概念簇G, r=|G|表示G中的概念基数, 对∀ (Xi,
vi=
定义12 设G为K- β 概念簇, (Xs,
$\begin{array}{l} X_{p}=X_{s} \cup_{i=1}^{r} X_{i}, \\ \widetilde{B}_{p}=\left(\widetilde{B}_{p}\left(a_{1}\right), \widetilde{B}_{p}\left(a_{2}\right), \cdots, \widetilde{B}_{p}\left(a_{n}\right)\right), \end{array}$
其中,
则称(Xp,
算法2 生成伪概念
输入 概念子集M, 核心概念(Xs,
输出 概念簇G, 伪概念(Xp,
for (Xi,
if Xi∩ Xs≠ Ø
根据定义10计算相似度θ s, i
if θ s, i≥ β then
G ← (Xi,
end
end
end
通过定义12得到伪概念(Xp,
算法2总结从一个概念子集得到伪概念的过程.概念聚类将相似的概念聚类在一个簇中, 从而减少概念空间的维度, 提高概念认知学习的效率.下面给出基于属性加权的概念聚类过程.
算法3 基于属性加权的概念聚类
输入 K-概念空间QK, 阈值β
输出 伪概念空间D
D← Ø ; QK=
for i=1∶ k
M=
while |M|> 0
G=Ø ; 找出M的核心概念(Xs,
通过算法2得到概念簇G和伪概念(Xp,
M=
end
D=D∪ Di
end
K-决策概念空间
例5 (接例4) 设阈值β =0.4, 则K-决策概念空间
{C2, C3, C4}→ {C1}→ {C5},
对于概念簇{C2, C3, C4}, 用伪概念表示为
({1, 2, 3, 4}, {0.6779, 0.3217}).
概念预测指在给定一些信息的情况下, 根据已有的知识和经验, 预测与这些信息相关的概念和类别.
在K-概念空间完成概念聚类后, 得到伪概念空间:
D=
其中,
m(i)=|Di|
表示Di中的伪概念基数, Di为由决策为i所有伪概念组成的伪概念空间.
定理2 设QK为K-概念空间, D为由QK生成的伪概念空间, |D|为D中的伪概念基数, k为决策个数, 则
k≤ |D|≤ |QK|.
证明 从式(1)显然有
|D|≤ |QK|.
由于每个K-决策概念空间通过聚类都会生成至少一个伪概念, 故|D|≥ k.综上所述,
k≤ |D|≤ |QK|
可证.
定理3 设(U, A,
|
证明 由K1> K2可得,
对于
∀ (X,
在概念聚类后会有如下3种情况:
1)(X,
|
2)(X,
|
3)(X,
|
综上所述, |
概念预测可以通过不同的方法实现, 本文通过欧氏距离描述物体之间的相似性.
定义13 设(U, A,
$E_{i}\left(x_{r}, p_{s}\right)=\min _{s \in S}\left(\sum_{j=1}^{n} \omega_{i j}\left(\widetilde{B}_{r}\left(a_{j}\right)-\widetilde{B}_{i, p_{s}}\left(a_{j}\right)\right)^{2}\right)^{\frac{1}{2}}, $
其中S={1, 2, …, m(i)}.
对于一个新样本, 算法4给出概念预测的过程.值得一提的是, 基于属性加权的分类实质上是一个多分类的过程, 而不是多标签的过程.
算法4 基于属性加权的概念认知学习模型(WACCL)
输入 伪概念空间D, 新增对象xr
输出 xr的类别标签l
for 每个伪概念空间Di∈ D
根据定义13, 计算得到最小距离Ei(xr, ps)
end
l=arg
返回类别标签l
因此, 基于属性加权的概念认知学习模型(WACCL)主要包括3个部分: 构建K-概念空间、构造伪概念空间、概念泛化.WACCL的简化框架如图2所示, 考虑3个决策类的数据集.首先根据认知算子和阈值K构建K-概念空间; 然后进行概念聚类, 得到伪概念空间; 最后对新样本进行预测并输出类别.
在第一阶段, 构建K-概念空间需要识别所有概念, 时间复杂度为O(|U|).在第二阶段, 最不理想的情况下, 即每个概念簇都只有一个概念时, 时间复杂度为O(|QK|).在第三阶段, 需要识别所有的伪概念并进行概念预测, 时间复杂度为O(|D|).整个过程总的时间复杂度为
O(|U|+|QK|+|D|).
为了验证本文模型(WACCL)的可行性、有效性及学习效果, 选择如下概念认知学习算法进行对比: ILMPFTC[10]、DMPWFC[12]、决策重要度的动态更新机制(Incremental Learning Mechanism for Fuzzy Concept Based on Decision Signification, FCDS)[29].
从UCI知识库上选择13个数据集用于数值仿真实验, 数据集具体信息如表2所示.
针对每个数据集, 利用
$\begin{array}{l} \widetilde{R}\left(x_{i}, a_{j}\right)= 0.8\left(\frac{f\left(x_{i}, a_{j}\right)-\min \left(f\left(a_{j}\right)\right)}{\max \left(f\left(a_{j}\right)\right)-\min \left(f\left(a_{j}\right)\right)}\right)+0.1 . \end{array}$
进行模糊化处理, 使属性值域为[0.1, 0.9], 其中, f(xi, aj)为xi对属性aj的隶属值, max(f(aj))和min(f(aj))分别表示属性aj中所有对象的最大隶属值和最小隶属值.需要说明的是, 值域为[0.1, 0.9]是为了避免DMPWFC中出现log20的情形, 因此通过
在实验中, 对每个数据集进行划分, 80%的数据用于训练模型, 剩下的数据平均分为10份, 逐次添加到测试集上, 以此评估WACCL的分类性能.
实验在个人计算机上的Matlab2016b上实现, 计算机的配置为Intel(R) Core(TM) i5-8265U CPU@1.60 GHz, 8 GB内存.
在实验中, WACCL的参数K、 β 的选择范围为[0, 1], K的步长为0.01, β 的步长为0.1.ILMPFTC、DMPWFC、FCDS的参数δ 选择范围为[0, 1], 步长为0.01.
选取Breast EW、Derm、Wdbc、Splice EW数据集进行参数分析.对于参数K, 若取值过大会导致概念空间中所有概念被删除掉, 故选择范围为[0, 0.5], 步长为0.1.部分数据集在K=0.5时无法输出结果, 此时取K能达到的最大值.而参数β 选取范围为[0, 1], 步长为0.2.
当参数变化时, WACCL分类精度的可视化结果如图3所示.显然, K在[0, 0.3]时, 分类精度几乎没有变化, 这是因为大部分概念的贡献值都大于或等于0.3.由于删除概念会改变概念空间中的概念数量, 从而对分类精度造成一定的影响, 所以K在[0.3, 0.5]区间中, WACCL的分类精度变化相对较大.参数β 在某些数据集上变化不会对分类精度造成影响, 而对于大部分数据集, 分类精度会随K的增大而减小.
在Breast EW数据集上参数的变化对分类精度影响较大, 当K=0.4时, 分类精度较低, 说明过大的K值会导致重要的概念被错误删除, 该数据集上K的最优值范围为[0, 0.3], β 的最优值范围为[0, 0.2].
在Derm数据集上, K的最优值在0.45左右, β 的最优值范围为[0, 0.6].在Wdbc数据集上, K的最优值在0.3左右, β 的最优值范围为[0, 0.2].在Splice EW数据集上, 参数变化对分类精度影响较小, 说明参数在此数据集上的灵敏度较低.
在实验中, 各算法选择的参数都为近似最优, WACCL在13个数据集上的参数选择如表3所示.
各算法在13个数据集上的分类精度对比如表4所示, 表中黑体数字为最优值.由表可见, WACCL在12个数据集上的分类精度最高, 尤其在Iris、Zoo数据集上分类精度达到100%.同时WACCL在13个数据集上的平均分类精度也最高, 相比ILMPFTC, 平均分类精度提高3.46%, 相比DMPWFC, 平均分类精度提高4.43%, 相比FCDS, 平均分类精度提高9.94%.
各算法10次分类精度对比如图4所示, 随着数据的逐次添加, 4种算法在大部分数据集上的分类精度呈下降趋势.从图中可以看出WACCL在Breast EW、German、Horse、Ionosphere EW、Iris、Sick、Wdbc、Zoo数据集上几乎每次分类精度都最高.由表4和图4结果可说明AWFC的分类机制优于对比算法.
在信息检索中, 往往会关心检索的信息中用户感兴趣的比例、用户感兴趣的信息中有多少被检索, 查全率和查准率可以更好地适用此类需求.
对于二分类问题, 将样例根据其真实类别与学习器预测类别的组合划分为真正例(True Positive, TP)、假正例(False Positive, FP)、真反例(True Negative, TN)、假反例(False Negative, FN)4种情形, 则样例总数表示为TP+FP+TN+FN.
分类结果的混淆矩阵如表5所示.
查准率P与查全率R分别定义为
$\begin{array}{l} P=\frac{T P}{T P+F P}, \\ R=\frac{T P}{T P+F N} . \end{array}$
F1值为查全率和查准率的调和平均, 定义为
F1=
在执行多分类任务时, 会有多个混淆矩阵, 为了在多个混淆矩阵上综合考察查准率和查全率, 直接的做法是在各混淆矩阵上分别计算查全率和查准率, 再计算平均值, 从而得到宏查准率(macro-P)、宏查全率(macro-R)以及相应的宏F1(macro-F1).具体公式如下:
$\begin{array}{l} \text { macro- } P=\frac{1}{n} \sum_{i=1}^{n} P_{i}, \\ \text { macro- } R=\frac{1}{n} \sum_{i=1}^{n} R_{i}, \\ \text { macro-F } 1=\frac{2 \cdot \text { macro- } P \cdot \text { macro- } R}{\text { macro }-P+\text { macro }-R} . \end{array}$
WACCL、ILMPFTC、DMPWFC和FCDS在13个数据集上的查准率和查全率如表6所示, 表中黑体数字表示最优值.由表可知, WACCL在8个数据集上的查全率和查准率都大于或等于其它算法, 在Derm、German、Wdbc数据集上取得最大的查准率, 在Ionosphere EW数据集上的查全率最大.
4种算法在13个数据集上的F1值对比如表7所示, 表中黑体数字表示最优值.由表可见, WACCL在9个数据集上取得最大值.
查准率、查全率和F1值都说明WACCL具有优越的综合性能.
为了进一步验证各算法的分类性能, 本节首先验证WACCL、ILMPFTC、DMPWFC、FCDS的差异是否显著.在此选用Friedman检验[30]对其进行验证.定义如下:
$\chi_{F}^{2}=\frac{12 N}{k(k+1)}\left(\sum_{i=1}^{k} R_{i}^{2}-\frac{k(k+1)^{2}}{4}\right) $
其中, N为数据集个数, k为算法个数, Ri为所有数据集上第i种算法平均排名.
F遵循自由度为k-1和(k-1)(N-1)的Fisher分布.
F=
WACCL、ILMPFTC、DMPWFC、FCDS的分类精度排名如表8所示, 表中黑体数字表示最优值.由表可见, WACCL在9个数据集上排名第一, 说明此算法的分类结果更准确.
选用α =0.1, F检验的临界值F=2.243.根据Friedman检验的定义, 计算可得F=9.853, 大于临界值, 说明算法性能具有差异性.所以, 使用Bonferroni-Dunn进行后续检验[31].平均序值差别的临界值域为:
CDα =qα
其中, N为数据集个数, k为算法个数, qα 为Tukey分布的临界值.
当
k=4, N=13, α =0.1
时, q0.1=2.291, 则CD0.1=1.160.若两种算法的距离超过临界值, 说明两种算法存在显著性能差异.
各算法的Bonferroni-Dunn测试图如图5所示.由图可以直观看到, WACCL与其它3种算法的平均排名的差值都大于临界值, 由此可知WACCL与其它3种算法差异显著.
面向模糊决策形式背景, 本文提出基于属性加权的概念认知学习模型(WACCL).模型认为每个属性在不同决策中的作用不一样, 通过概念聚类的方法压缩概念空间中概念的数量, 使学习更高效.最后通过实验分析说明WACCL的有效性和实用性.实际上, WACCL只讨论概念的生成和概念分类, 未涉及动态更新的问题, 如何实现新增对象后与原来概念空间之间的动态概念学习是值得研究的关键问题.此外, 目前概念认知学习的研究集中在属性是单一尺度的情况下, 因此多尺度的概念认知学习方法将是今后的工作重心之一.
本文责任编委 张燕平
Recommended by Associate Editor ZHANG Yanping
[1] |
|
[2] |
|
[3] |
|
[4] |
|
[5] |
|
[6] |
|
[7] |
|
[8] |
|
[9] |
|
[10] |
|
[11] |
|
[12] |
|
[13] |
|
[14] |
|
[15] |
|
[16] |
|
[17] |
|
[18] |
|
[19] |
|
[20] |
|
[21] |
|
[22] |
|
[23] |
|
[24] |
|
[25] |
|
[26] |
|
[27] |
|
[28] |
|
[29] |
|
[30] |
|
[31] |
|