基于属性树的并行化增量式动态属性约简算法
秦廷桢1, 丁卫平1, 鞠恒荣1, 李铭1, 黄嘉爽1, 陈悦鹏1, 王海鹏1
1.南通大学 信息科学技术学院 南通 226019
通讯作者:

丁卫平,博士,教授,主要研究方向为数据挖掘、机器学习、粒计算、演化计算、大数据分析等.E-mail:dwp9988@163.com.

作者简介:

秦廷桢,硕士研究生,主要研究方向为数据挖掘、粒计算、粗糙集.E-mail:qtz517469152@163.com.

鞠恒荣,博士,副教授,主要研究方向为粒计算、粗糙集、机器学习、知识发现.E-mail:juhengrong@ntu.edu.cn.

李 铭,硕士,主要研究方向为数据挖掘、粒度计算、大数据分析.E-mail:1930310041@stmail.ntu.edu.cn.

黄嘉爽,博士,副教授,主要研究方向为脑网络分析、深度学习.E-mail:hjshdym@163.com.

陈悦鹏,博士研究生,主要研究方向为粒计算、粗糙集、机器学习.E-mail:15850623872@163.com.

王海鹏,硕士研究生,主要研究方向为模糊理论、粒度计算、深度学习.E-mail:1781053215@qq.com.

摘要

传统增量算法主要侧重于从更新近似的角度进行属性约简,但在处理大规模数据集时需要评估所有属性并反复计算重要度,提升时间复杂度,降低效率.针对上述问题,文中提出基于属性树的并行化增量加速策略,关键步骤是将所有属性聚类成多棵属性树进行并行化动态属性评估.首先,根据属性树相关性度量选择合适的属性树进行属性评估,降低时间复杂度.再增加分支系数至停止准则中,随着分支深度的增加进行动态增加,可使算法在达到最大阈值后自主跳出循环,有效避免原先的冗余计算,提高效率.基于上述策略,提出基于属性树的增量属性约简算法,同时与Spark并行机制结合,设计基于属性树的并行化增量式动态属性约简算法.在多个数据集上的广泛实验表明,文中算法在保持分类性能的同时,可提高动态变化数据集约简的搜索效率,具有较好的性能优势.

关键词: 属性约简; 属性树; 知识粒度; 并行计算; 增量学习; Spark框架
中图分类号:TP 18
Parallel Incremental Dynamic Attribute Reduction Algorithm Based on Attribute Tree
QIN Tingzhen1, DING Weiping1, JU Hengrong1, LI Ming1, HUANG Jiashuang1, CHEN Yuepeng1, WANG Haipeng1
1. School of Information Science and Technology, Nantong University, Nantong 226019
Corresponding author:
DING Weiping, Ph.D., professor. His research interests include data mining, machine learning, granular computing, evolutionary computing and big data analytics.

About Author:
QIN Tingzhen, master student. His research interests include data mining, granular computing and rough sets.
JU Hengrong, Ph.D., associate professor. His research interests include granular computing, rough sets, machine learning and know-ledge discovery.
LI Ming, master. His research interests include data mining, granular computing and big data analytics.
HUANG Jiashuang, Ph.D., associate pro-fessor. His research interests include brain network analysis and deep learning.
CHEN Yuepeng, Ph.D. candidate. His research interests include granular computing, rough sets and machine learning.
WANG Haipeng, master student. His research interests include fuzzy theory, granular computing and deep learning.

Abstract

Traditional incremental methods mainly focus on the attribute reduction from the perspective of updating approximation. However, while processing large-scale data sets, the methods need to evaluate all attributes and calculate importance repeatedly. Thus, time complexity is increased and efficiency is decreased. To solve the problems, an incremental acceleration strategy for parallelization based on attribute tree is proposed. The key step is to cluster all attributes into multiple attribute trees for parallel dynamic attribute evaluation. Firstly, an appropriate attribute tree is selected for attribute evaluation according to the attribute tree correlation measure to reduce the time complexity. Then, the branch coefficient is added to the stop criterion, and the dynamic increase is conducted with the increase of the branch depth. Consequently, the algorithm can jump out of the cycle automatically after reaching the maximum threshold to avoid the original redundant calculation and improve the efficiency effectively. Based on the above improvements, an incremental dynamic attribute reduction algorithm based on attribute tree is proposed, and a parallel incremental dynamic attribute reduction algorithm based on attribute tree is designed by being combined with Spark parallel mechanism. Finally, experiments on multiple datasets show that the proposed algorithm improves the search efficiency of dynamically variational dataset reduction significantly while maintaining the classification performance, holding a better performance advantage.

Key words: Attribute Reduction; Attribute Tree; Knowledge Granularity; Parallel Computing; Incremental Learning; Spark Framework

近年来, 随着信息技术的发展, 科学和工业等现实领域产生大量的数据, 而许多应用程序处理的数据量通常大幅超过其承受阈值, 计算需求也随之增加.现代化信息技术蓬勃发展使记录和数据收集变得越来越细粒度和多维度[1, 2], 导致海量数据的数据处理和知识发现一直是数据挖掘领域的研究热点.大数据可定义为超出传统系统存储和处理能力的数据, 包含巨大的潜在价值.然而, 这些庞大而复杂的数据集往往伴随着显著的数据冗余[3, 4], 浪费存储空间.这种大规模数据集的产生也带来数据存储、计算效率和计算精度等诸多挑战.

粗糙集理论(Rough Set Theory, RST)[5]是一种常用的分析决策不确定性信息的数学工具.粗糙集可通过不可辨识关系划分不确定性知识概念, 得到不同等价关系下的等价类集合, 从而建立一个近似空间.RST现已成功应用于图像处理[6]、聚类分析[7]、模式识别[8]、机器学习[9, 10]、特征选择[11]、决策支持和数据挖掘[12, 13, 14]等多个研究领域.属性约简是粗糙集理论中的一个重要概念, 成为近年来备受关注的一种重要的数据预处理工具, 在知识发现、专家系统、决策支持、机器学习等研究领域中, 可提高识别精度, 发现潜在有用的知识.

经典的属性约简算法, 如基于正区域的属性约简算法[15, 16]、基于信息熵的属性约简算法[17, 18]、基于差别矩阵的属性约简算法[19, 20]等, 是一次性将小数据集装入单机主存中进行约简计算, 因此无法处理海量数据.随着Hadoop[21]、MapReduce[22]等大数据技术的发展, 使利用大数据技术进行并行属性约简的研究成为人们关注的焦点.为了解决串行算法的局限性, Zhang等[23]在MapReduce基础上提出PLAR(Parall Large-Scale Attribute Reduction), 得到与传统方法相同的属性约简.Raza等[24]提出基于正区域的并行属性约简算法, 可并行搜索所有正区域, 大幅提升计算效率.Qian等[25, 26]深入研究MapReduce框架中的属性约简过程, 在并行阶段计算等价类, 经过shuffle过程后, 再通过约简聚合相同键值的等价类, 提出基于MapReduce的并行知识约简算法.

上述算法表明, 在MapReduce上并行化传统的属性约简算法, 实现海量数据的属性约简是可行的.但是, 由于MapReduce和传统约简算法存在一些固有的局限性, 所以需要进一步改进.近年来, 对于解决静态决策系统[27, 28]的属性约简问题, 学者们提出很多非增量约简算法.然而, 如今许多决策系统的对象集是动态变化的, 决策系统可能也会随着时间变化而变化.由于对象集是动态变化的, 为了得到新的约简, 需要对决策系统进行重新计算, 耗费大量的计算时间.

显然, 这些属性约简算法在处理动态决策系统时效率低下, 如何更新约简是提高数据预处理效率的关键问题.增量学习是一种利用原有决策系统的结果以提高知识发现效率的有效方法.针对不同情形, 学者们提出许多增量算法, 用于处理动态数据.对于对象集不断变化的动态不完备决策表, Shu等[29]提出通过更新正区域以获取约简的增量方法.Liu等[30]提出通过构造3个新矩阵(支持矩阵、精度矩阵和覆盖矩阵)以获取属性约简的增量方法.通过计算更新后的知识粒度, Jing等[31]提出相应的增量式属性约简算法.钱进等[32]根据属性集的可辨识性和不可辨识性, 给出可辨识对象对和不可辨识对象对的定义和相关性质, 结合MapReduce技术, 设计适合大规模数据集的并行计算等价类的算法.Liang等[33]系统研究添加到决策表中一组对象的熵的性质, 并提出有效的增量属性约简算法.

显然, 上述方法主要侧重于更新近似的角度进行约简, 对大规模决策系统的简化是低效的.因此本文深入研究Spark并行技术, 分析现有增量式约简算法, 同时融合Chen等[34]提出属性组的概念与二叉树的机制, 结合Spark并行框架, 设计增量式属性约简算法.首先, 从属性组概念入手, 引入二叉树机制寻找约简, 将所有条件属性通过聚类划分为多棵属性树.再在每轮属性树分支中挑选合适属性树进行属性评估, 并在计算过程中加入分支阈值系数α , 避免冗余计算, 有效减少属性评估数量, 提高属性约简效率和精度.同时当多个增量对象加入决策系统时, 可利用增量机制更新约简, 提出基于属性树的增量式属性约简算法(Incremental Dynamic Attribute Re-duction Algorithm Based on Attribute Tree, IARAT).在上述基础上, 结合Spark并行技术, 并行化数据处理, 加快搜索效率, 利用Spark框架进行经典属性约简算法并行化优势, 提出基于属性树的并行化增量式动态属性约简算法(Parallel IARAT, PIARAT).在多个数据集上的实验表明, PIARAT在保持分类性能的同时, 提高动态变化数据集约简的搜索效率, 具有较好的性能优势.

1 相关知识
1.1 粗糙集

四元组S=< U, CD, V, f > 为一个决策信息系统, 其中:U={x1, x2, …, xN}为对象空间, 是一个有限非空对象集, 称为论域, N表示论域中的样本个数; C={a1, a2, …, an}表示所有条件属性的非空有限集合, n表示决策信息系统中条件属性的个数; D={d1, d2, …, dm}表示所有决策属性的非空有限集合, m表示决策信息系统中决策属性的个数, CD=Ø ; V= aCDVa, Va表示属性a的值域.定义映射f:U× CDV为一个信息函数, 且∀ aCD, xU, f(x, a)∈ Va.

定义1[5] 给定决策表S=< U, CD, V, f > , 对于每个属性子集RA, 定义不可分辨关系:

IND(R)= {(x, y)U× U|aR, f(x, a)=f(y, a)}.

关系IND(R)构成U的一个划分, 表示为U/IND(R), 简记为U/R.U/R中的任何元素

[x]R={y|∀ aR, f(x, a)=f(y, a)}

称为等价类.不失一般性, 假设决策表S仅有一个决策属性D={d}, 其决策属性值映射为1, 2, …, k, 由D导出的U上的划分为U/D={Z1, Z2, …, Zk}, 其中

Zi={xU|f(x, D)=i}, i=1, 2, …, k.

不可分辨关系是一种等价关系.

定义2[35] 给定决策表S=< U, CD, V, f > , 对于每个子集XU和不可分辨关系R, X的下近似集与上近似集分别可由R定义如下:

R¯X=∪ {xU|[x]RX},

R¯X=∪ {xU|[x]RXØ }.

论域U被这2个近似集( R¯X, R¯X)划分为3个不相交的区域:正区域POSR(X)、负区域NEGR(X)和边界域BNDR(X), 分别定义如下:

POSR(X)= XU/DR¯X,

NEGR(X)=U- XU/DR¯X,

BNDR(X)= XU/D( R¯X- R¯X).

1.2 知识粒度

定义3[28] 给定决策表S=< U, CD, V, f > , 条件属性集C对于U的划分为

U/C={X1, X2, …, Xn'},

n'为划分后的子集数量, 则条件属性集C的知识粒度定义为

GPU(C)= i=1n'( |Xi|2|U|2).

属性集(CD)对于U的划分为

U/(CD)={Y1, Y2, …, Yh},

h为划分后的子集数量, 则条件属性集C相对于决策属性集D的知识粒度定义为

GPU(D|C)=GPU(C)-GPU(CD).

定义4[28] 给定决策表S=< U, CD, V, f > , 条件属性集C对于U的划分为

U/C={X1, X2, …, Xn'},

n'为划分后的子集数量, 属性集BC, ∀ aB, 属性aB中相对于决策属性集D的内部属性重要度定义为

Si ginnerU(a, B, D)=GPU(D|(B-a))-GPU(D|B).

若∀ a∈ (C-B), 则属性a在(C-B)中相对于决策属性集D的外部属性重要度定义为

Si gouterU(a, B, D)=GPU(D|B)-GPU(D|(Ba)).

定义5[28] 给定决策表S=< U, CD, V, f > , 属性集BC.当且仅当满足

1)GPU(D|B)=GPU(D|C),

2)∀ aB, GPU(D|(B-a))≠ GPU(D|B),

则称B为决策表S的相对约简.条件1)表示约简后的属性集B与所有条件属性集C关于D的知识粒度相等, 表现的意义是属性集B与条件属性集C对数据样本U的分类能力相同, 即找到的约简集是合格的.条件2)表示若从B中剔除某个属性之后, 会降低分类能力, 这意味着B中无任何冗余的属性.这两个条件共同作为属性约简的正确性标准.

定理1[25] 给定决策表S=< U, CD, V, f > , 令AC, U/A表示为{A1, A2, …, Ar}, U被划分成多个数据子集{U1, U2, …, UL},

Ui/A={Ai1, Ai2, …, Air},

则最终约简集

Ap= 1iLAip, p=1, 2, …, r.

证明 如果关于A的任意两个对象相同, 可将它们合并为一个等价类.不同数据拆分之间的相同等价类可组合为更大的等价类.因此, 对于

U/A={A1, A2, …, Ar}, Ui/A={Ai1, Ai2, …, Air},

可得

Ap= 1iLAip, p=1, 2, …, r.

定理2[25] 并行属性约简算法得到的约简与相应的串行方法得到的约简相同.

证明 传统的属性约简算法主要分为4个基本步骤:子集生成、子集评估、停止标准、结果验证.并行算法和串行算法之间的唯一区别是属性子集评估过程, 主要包括等价类和属性重要度的计算.

1)根据定理1,

U={U1, U2, …, UL}, Ap= 1iLAip, p=1, 2, …, r,

这意味着串行算法中的等价类与相应并行算法中的等价类相同.

2)由于串行算法中的等价类与相应并行算法中的等价类相同, 则它们计算所得的属性重要度也相同.

因此, 并行算法得到的约简与相应的串行算法得到的约简相同.

1.3 Spark框架

Hadoop MapReduce[36]是一个分布式计算框架, 允许开发人员使用简单的代码在巨大的集群上实现大规模的数据计算.但由于磁盘I/O和网络传输过多, 不适合迭代计算和在线计算任务.为了克服MapReduce的不足, 学者们提出新一代集群计算引擎Spark.Apache Spark[37]是在MapReduce基础上改进的分布式计算框架, 具有快速、易用、通用、兼容等优点.

Spark的运行流程主要分为如下步骤.

1)首先启动 SparkContext, 并向Cluster Manager注册, 申请Executor资源, Cluster Manager为 Execu-

tor分配资源并启动进程.

2)SparkContext构建有向无环图(Directed Acyclic Graph, DAG), 将DAG图分解成多个阶段, 并发送给Task Scheduler.

3)Executor向SparkContext申请Task, SparkCon-

text将应用程序代码发放给Executor.

4)Task在Executor上运行完毕后, 把执行结果反馈给Task Scheduler和DAG Scheduler, 并写入数据.最后, SparkContext注销并释放所有资源.

弹性分布式数据集(Resilient Distributed Data-set, RDD)是Spark中基本的数据抽象.在代码中是一个抽象类, 表示一个弹性、不可变、可分区、里面的元素可并行计算的集合.RDD表示只读的分区的数据集, 改动RDD, 只能通过RDD的转换操作, 然后得到新的RDD, 并不会对原RDD有任何的影响.

2 并行化增量式动态属性约简算法

本文分析现有增量式约简算法, 同时融合属性组[34]的概念与二叉树的概念, 并结合Spark并行框架, 设计基于属性树的并行化增量式动态属性约简算法(PIARAT).首先, 对原始数据进行预处理操作, 满足算法的输入要求, 然后, 提出基于属性树的增量式属性约简算法(IARAT), 删除冗余属性, 提出核心属性, 最后, 将IARAT结合Spark并行机制, 提出PIARAT, 可有效加快动态属性约简的过程.

2.1 原始数据并行预处理算法

本文改进传统的并行数据预处理算法, 使其更满足后续算法的数据输入要求, 提出原始数据并行预处理算法, 处理原始数据集, 具体流程图如图1所示.具体算法步骤如下所示.

图1 原始数据并行预处理算法流程图Fig.1 Flowchart of parallel preprocessing algorithm of raw data

算法1 原始数据并行预处理算法

输入 原始决策表S_raw

输出 处理后的决策表S

step 1 在每个子节点slavei上读取原始决策表, 删除其中含有缺失属性值的样本数据.

step 2 调用Spark计算引擎中的mapPartitions算子, 将删除后的数据对象转换为键值对RDD数据集合.

step 3 调用Spark计算引擎中的mapValues算子, 对RDD数据集中的value部分进行step 4的操作, 消除决策表中重复样本和不一致部分.

step 4

/* 存在2个数据样本的key值相同时* /

If s1.key=s2.key, then

If s1.value=s2.value

Remove s2;

Else

Remove s2;

s1.value← valueMAX+1;

End

End

step 5 调用Spark计算引擎中的sortByKey算子, 并对数据按属性值进行由小到大的排序, 方便后续计算.

step 6 返回处理后的决策表S.

算法1的执行过程具体如下.首先, 由于原始数据集中包含许多无法参与计算的含有缺失值的数据, 而包含缺失值的数据会对后续约简计算产生影响, 需要删除此类缺失值数据.然后, 将数据集转化为所有条件属性为key值, 决策属性为value值的k-v键值对.遍历所有样本, 对于key和value相同的重复数据样本, 选择删除其一; 而对于key相同、value不同的一对样本(决策表不一致部分), 删除key值, 并将后者的value值修改为决策表中最大value值加1.最后, 对整个数据子集按属性值进行由小到大的sort排序, 方便后续计算.

2.2 基于属性树的增量式属性约简算法

如今许多决策系统是随着时间而动态变化的, 为了得到新的约简, 需要重新对决策系统进行约简计算, 耗费大量时间.为了解决该问题, 本文从属性组的概念入手, 引入二叉树的机制, 设计搜索策略寻找约简, 并且借助基于知识粒度的增量约简算法[31], 将知识粒度加入迭代停止准则中, 提出基于属性树的增量式属性约简算法(IARAT), 具体算法步骤如下所示.

算法2IARAT

输入 原始样本数据U, 增量样本数据U',

原约简集B, 分支阈值α max

输出 约简子集R

R← B, K← 1;

计算知识粒度GPU'(D|R)和GPU'(D|C);

If GPU'(D|R)=GPU'(D|C), then

Return R

End

Cluster C into{C1, C2, …, CN};

/* C聚类成N个属性树根结点* /

While GPU'(D|R)≠ GPU'(D|C) and K< α max:

For each treei:

treei.right.data← treei.data∩ R;

/* 存在原约简属性, 置于右节点* /

treei.left.data← treei.data-treei.right.data;

/* 剩下的属性置于左节点* /

For each attribute c being evaluated:

/* 评估无兄弟结点属性树* /

If c是核心属性 then

treei.right.data← c;

R← (R∪ c);

treei.left.data← treei.data-c;

Break

Else

C← (C-c);

End

End

End

For each treei:

If treei.left≠ Ø then

treei=treei.left;

Else

remove the tree; /* 移除该树* /

K=K+1;

End

End

End

Return R

IARAT首先需要对决策表进行预先判断:加入增量数据集后是否需要进一步的约简计算.若在增量数据集上, 决策属性D分别关于原约简子集R与条件属性集C的知识粒度相等(GPU'(D|R)和GPU'(D|C)), 即在增量数据集上, 约简子集R依然可保持与条件属性集C相同的分类能力, 可知增量数据集的加入未影响原约简结果, 无需进一步计算; 若不相等, 需要进一步计算, 得到新的约简.根据相应聚类算法, 将所有条件属性划分为多个属性树根结点并进行分支操作, 在进行每轮的属性评估过程中, 跳过与约简集相关性较高的属性树, 对剩下的属性树加以评估, 同时根据评估结果的不同, 进行不同子结点的分支.在计算过程中引入分支系数α 并设定阈值, 方便跳出循环, 避免冗余计算和陷入死循环.

属性树结构如下.根节点包含聚类算法划分的条件属性簇, 在每轮属性树分支中, 将核心属性置于树的右子结点, 其余部分划分为左子结点, 在下次分支中, 根据相应策略对左子结点进行再划分.属性树的结构及分支策略如图2和图3所示.

图2 单棵属性树结构Fig.2 Structure of single attribute tree

图3 属性树分支策略Fig.3 Branch strategy of attribute tree

在属性树的初始判别阶段, 通过增量机制减少属性评估数量, 提高属性约简的效率和精度, 当多个增量对象加入决策系统时, 可利用增量机制更新约简.在属性评估阶段, 采用Yin[38]设计的核心属性约简算法代替传统的属性重要度约简算法, 不仅在计算效率上拥有优势, 而且避免二次循环评估, 提高计算效率.该算法的优化策略每次只判断一个属性是否为核心属性, 避免时间复杂度较高的正区域计算, 减少获取约简子集所需的时间, 时间复杂度仅为|C|.

核心属性约简算法机制如下.在决策表S=< U, C∪ D, V, f > 中, 对于某条件属性ci, 若删除ci, 存在2个数据样本x、y的条件属性值(即C-ci)相等, 而决策属性值不相等, 则认定属性ci为核心属性, 否则, ci不是核心属性.

属性树分支策略如下.在预先判断后得知决策属性D分别关于原约简子集R与条件属性集C的知识粒度不相等, 说明增量数据集的加入影响原约简结果, 原数据的约简集已无法对现有增量数据保持有效的分类性能, 所以需要进一步进行如下计算.

1)对加入的增量数据集S'的条件属性C执行相应的聚类算法.根据属性与属性之间相关性及属性与属性簇之间的相关性, 将所有条件属性集C划分成多个属性簇群{C1, C2, …, CN}, 目的是聚集具有较大依赖关系(冗余度高)的属性, 具有高相关性的每个属性子集转换成一棵属性树treei的根节点.

2)进行逐棵属性树treei的分支.为了避免重复计算, 利用原约简集B, 参与到分支过程中, 把多棵属性树的根节点与原约简集B中相交的部分置于右子结点treei.right.这一步是为了找出与原约简集B存在相关性的属性树, 在下轮分支时跳过该树的属性评估, 其余部分划分为左子结点treei.left, 后续的分支计算在该结点上进行.同时设置分支系数α 并初始化为1, 在每次分支之后进行递增, 当达到最大阈值时跳出循环, 阈值即属性树的最大分支深度.基于最坏的打算, 为了避免冗余计算和陷入死循环, 一般设置为属性树根结点中最大的属性数量.

3)在每次分支过程中运用核心属性约简算法逐个评估无兄弟结点属性树(即评估本轮与约简集相关性较低的属性树).如果不是核心属性, 直接从节点中删除, 不再参与后续计算, 继续评估下一属性, 直到找出该属性树中第一个核心属性; 如果是核心属性, 加入约简集R并停止本棵树余下属性的评估.

直到所有属性树评估完成, 该轮分支结束.

4)属性树与约简集的相关性度量取决于上一轮中约简集是否加入某棵属性树中的属性.每棵树都是由聚类算法生成的属性簇群, 属性之间存在较高相关性, 若上一轮评估过程中添加某棵树的属性进入约简集, 因为其它属性树中存在核心属性的可能性较高, 所以可跳过对该树的属性评估, 缩小搜索空间, 提升检索效率.

5)在分支过程中, 如果遇到某棵树左节点为空, 说明该属性树分支完成, 所有属性树全部分支完成后, 输出新约简集.

2.3 基于属性树的并行化增量式动态属性约简算法

本节首先引入IARAT, 在此基础上, 融入Spark并行机制, 实现分布式的内存计算任务, 在不牺牲性能的情况下找出不同数据子集中的冗余属性并行化数据处理, 降低数据规模和计算时间, 提高效率.由此, 设计基于属性树的并行化增量式动态属性约简算法(PIARAT), 流程图如图4所示.PIARAT具体步骤如下所示.

图4 PIARAT流程图Fig.4 Flowchart of PIARAT

算法3PIARAT

输入 原始数据集S_raw

输出 约简子集R

step 1 将原始数据集S_raw存入HDFS文件系统.

step 2 在主节点master中读取文件系统中的数据集.

step 3 将数据集S_raw以1:1的比例划分成原决策表S和增量决策表S'.

step 4 调用算法1对增量决策表S'进行并行预处理操作.

step 5 对原决策表S进行属性约简计算, 得到原约简集B.

step 6 将原决策表S和原约简集B发送到所有子节点slavei上.

step 7 将增量数据集切分成n份, 分别发送到n个工作节点上.

step 8 在所有子节点slavei上调用算法2进行基于属性树的增量式属性约简, 返回, 得到各约简子集{R1, R2, …, Rn}.

step 9 将各个子节点slavei上得到的约简子集{R1, R2, …, Rn}发送到主节点master上.

step 10 对约简子集Bi进行并集操作, 得到最终约简集R.

step 11 返回 R.

PIARAT首先将搜集的海量大规模数据集存入HDFS(Hadoop Distributed File System)文件系统[39].再按照比例将数据集划分为原始数据集和增量数据集, PIARAT主要侧重于增量数据集上的并行属性约简, 所以主要对增量数据集进行约简计算.然后, 对增量数据集进行二次划分, 划分成多个数据子集, 并分发到对应的多个工作节点上, 采用基于属性树的增量式属性约简算法, 在各子节点上并行处理数据.最后, 将处理完成的多个结果返回主节点进行最终并集操作, 得到最终约简子集.

2.4 时间复杂度分析

为了进一度凸显算法优势, 对IARATPIARAT进行时间复杂度分析.给定决策表S=< U, C∪ D, V, f > , 设定U表示原始数据集样本, U'表示增量数据集样本, C表示所有条件属性并聚集成k棵属性树, k≪C, 最终的约简子集为R, 并设置n个并行计算节点.

PIARAT在算法的初始判别阶段, 需要计算知识粒度并判断是否需要进一步约简, 时间复杂度为$O\left(|C|\left|U^{\prime}\right|^{2}\right)$.在step 8的属性遍历过程中, 传统算法是逐个计算属性的重要性, 导致大部分属性的重复计算, 时间复杂度为

$O\left(|C||R|-\frac{|R|^{2}}{2}+\frac{|R|}{2}\right), $

PIARAT的时间复杂度仅为O(|C|), 有效提升计算效率.

在此基础上, 进一步合理发挥二叉树的优势, 避免某些属性评估, 缩小搜索空间, 进一步减少耗时.为了简化讨论, 假设聚类后每棵树上的属性个数为 |C|k, 则属性树搜索核心属性的时间复杂度为

$O\left(k \log _{2}\left(\frac{|C|}{k}\right)\right).$

最后, IARATPIARAT的时间复杂度分别为

$\begin{array}{l} O\left(k \log _{2}\left(\frac{|C|}{k}\right)+|C|\left|U^{\prime}\right|^{2}\right) \\ O\left(\frac{k}{n} \log _{2}\left(\frac{|C|}{k}\right)+\frac{1}{n}|C|\left|U^{\prime}\right|^{2}\right)\end{array}$

由此可得出, PIARAT的时间复杂度远低于传统串行算法, 具有良好的加速性能.

3 实验及结果分析

本文采用的实验平台为PC(Intel(R) Core(TM) i5-10400H CPU@2.30 GHz, RAM 16 GB), Windows 10家庭中文版操作系统, 开发工具为JetBrains PyCharm, 使用Python语言实现实验中相关算法.

Windows 10系统上搭建MapReduce Hadoop-2.7.1和Spark-3.0.0-preview的模拟环境平台, 集群运行模式采用本地模式“ local” .

在实验过程中, 通过Spark框架中的Python API进行编写, 将本地模式中的参数设置为local[* ].

3.1 实验数据集

本文从UCI机器学习知识库上选择8个数据集作为实验数据集, 分为5个小型数据集和3个较大数据集.所有数据集的详细信息如表1所示.

表1 实验数据集 Table 1 Experimental datasets

小型数据集分别为QsarMushroomNurseryShuttleLetter数据集, 样本量由几千至几万不等.较大数据集为Poker HandKDD CupHIGGS数据集, 拥有几十个属性, 但包含百万级的样本量.

3.2 实验设置

首先对数据集进行原始数据和增量数据的划分, 从表1中的每个决策系统中选取50%初始的数据样本量作为原始数据集, 然后从剩余的50%数据样本量中分别选取20%, 40%, 60%, 80%, 100%的数据作为增量数据集填充.在原始决策系统中添加增量对象集时, 采用不同的增量约简算法对各决策系统的约简进行更新并进行对比讨论.

在属性聚类阶段, 采用的聚类算法为K-means, 对数据集采用肘部法则[40]分别确定K值.肘部法则使用的聚类评价指标为:数据集上所有样本点到其簇中心的距离之和的平方.肘部法则会画出不同值的成本函数.随着值的增大, 每类包含的样本数会减少, 于是样本离其重心会更近, 平均畸变程度会更小.而分支系数α 的引入是为了引导算法达到最大阈值时跳出循环, 避免冗余计算和陷入死循环.阈值的确定也就是属性树的最大分支深度, 基于最坏的打算, 一般设置为属性树根结点中最大的属性数量.K值和分支系数α 的选取如表2所示.

表2 参数设置 Table 2 Parameter setting

本文采用粗糙集中两种常用指标评估寻找的约简子集质量, 分别为近似分类质量(Approximate Classified Quality, AQ)和近似分类精度(Approximate Classified Precision, AP), 并通过运行时间和分类准确率评估算法的加速性能和分类性能.

定义6[41] 给定决策表S=< U, C∪ D, V, f > , 决策属性D对于U的划分为U/D={Z1, Z2, …, Zm'}, m'为划分后的子集数量, 则条件属性集C关于决策属性集D的近似分类精度为:

APC(D)= |POSC(D)|i=1m'|C¯Zi|.

定义7[41] 给定决策表S=< U, C∪ D, V, f > , 条件属性集C关于决策属性集D的近似分类质量为:

AQC(D)= |POSC(D)||U|.

如果约简子集的AQ值和AP值与原决策系统相同, 认为该约简子集与原决策系统具有相同的区分能力.

3.3 实验结果

3.3.1 计算时间对比

为了验证IARAT在运行时间和分类精度上的高效性和有效性, 在表1所示的前5个不同的小型数据集上对比算法的计算时间.实验中选取的对比算法分别为IARC(An Incremental Algorithm for Redu-ct Computation Based on Knowledge Granularity)[31]GIARC(A Group Incremental Algorithm for Reduct Computation)[33]、文献[34]算法(Bucket and Attri-bute Group for Obtaining Reduct)、IARM(Incremen-tal Attribute Reduction Algorithm)[42]和文献[43]算法.各算法在5个数据集上的运行时间对比如图5所示.由图可见, 随着动态数据集的增加, 各算法的运行时间都在增加, 而IARAT的运行时间在各数据集上增幅均最小, 在一定范围内随着增量数据占比的增大, IARAT的运行时间也在可控范围内平稳增加.这表明IARAT可有效提高属性约简的计算效率, 减少运行时间.

图5 各算法在5个数据集上的运行时间对比Fig.5 Running time comparison of different algorithms on 5 datasets

3.3.2 有效性对比

为了进一步验证IARAT的有效性, 说明其可在不损失分类性能的情况下有效提高搜索速度并找到可行的属性约简, 进行如下对比实验.

本文设置数据集上50%的样本为增量数据, 并且通过CART(Classification and Regression Tree)和10倍交叉验证的方式计算分类准确率.将样本划分为10个不相交的样本组, 在第一轮中设置第一组为测试集, 剩下的样本为训练集, 第二轮中设置第二组为测试集, 以此类推.这里的分类准确率表现为:在多种约简算法分别进行属性约简之后, 每种算法保留下来的核心属性集各不相同, 此时CART利用不同的核心属性集对样本进行分类以计算分类准确率.

分类准确率由CART预测正确的样本数量在全部样本中的占比决定, 计算公式如下:

Accuracy= NCSNAS,

其中, NCS表示算法预测正确样本的数量, NAS表示所有预测样本的总数.

为了更直观地展示实验结果, 计算加速比:

Speedup(A)= TmaxTA,

其中, Tmax表示运行时间最长的算法耗时, TA表示算法耗时.加速比越高, 运行时间越少, 效率越高.

各算法在5个数据集上的分类准确率和加速比如表3表4所示.由表可看出, 在大多数情况下, IARAT分类准确率未下降, 并且略高于其它算法.由于数据集的差异, IARAT的分类准确率在个别情况下略有下降, 但在可接受的范围内, 这表明该算法可在不牺牲分类准确率的情况下有效减少耗时.由此得到如下结论:IARAT是有效且高效的.

表3 各算法在5个数据集上的分类准确率对比 Table 3 Classification accuracy comparison of different algorithms on 5 datasets %
表4 各算法在5个数据集上的加速比对比 Table 4 Speedup ratio comparison of different algorithms on 5 datasets %

3.3.3 加速性能对比

为了更直观地展现PIARAT在并行属性约简方面的加速效果, 选取含有百万数据样本量的Pokerhand、KDD Cup、HIGGS这3个较大型数据集进行对比实验.

IARAT和PIARAT的加速性能对比如表5所示, 表中“ -” 表示IARAT无法运行或运行时间太长.由表可看出, 相比IARAT, PIARAT在处理大规模数据集时总体运行时间大幅缩短, 对于IARAT无法运行的数据集也可在可控的时间内计算出约简结果, 这表明PIARAT具有良好的加速能力.在向决策系统中添加一些对象时, IARAT和PIARAT划分属性子集的AP值和AQ值非常接近或相同, 表现为1或0.99.这说明, 经过Spark并行机制加速后的增量算法生成的约简与原算法生成的约简具有几乎相同的分辨能力, 即算法3找到的约简是可行的.

表5 IARAT和PIARAT加速性能对比 Table 5 Comparison of speedup performance between IARAT and PIARAT
3.4 讨论与分析

本文在8组UCI数据集上进行运行时间、分类性能及加速性能的对比实验.

由图5可看出, IARAT的运行时间在不同数据集上均小于对比算法, 而且在一定范围内随着增量数据规模的增大, 运行时间也在可控范围内平稳增加.例如, 在Qsar数据集上, IARAT和GIRAC在增量数据不断增大的过程中运行时间始终保持平稳, 而IARC和IARM在后半段运行时间涨幅均存在明显变大趋势.而在样本数最大的Letter数据集上, IARAT的计算优势更明显, 这主要是因为在属性树每轮分支过程中只需要评估少量的候选属性(取决于属性树的数量), 由于搜索空间的减小, 可缩短相应的运行时间.同时, 使用核心属性约简算法替代传统约简算法, 避免每轮循环中非常耗时的属性重要性的计算过程, 进一步缩短运行时间.

表3表4可得出, IARAT在缩短运行时间的同时, 也保持算法的分类质量及分类精度.这样的结果表明, IARAT通过构建属性树并进行分支的策略可在不牺牲分类准确率的情况下有效减少属性约简的计算时间.然而如下问题值得考虑:1)在属性聚类阶段, 选择K-means, 不同聚类算法的选取是否会影响分类精度; 2)在IARAT中, 对于不同的数据集, 并未相应调整属性树的数量, 如何找到最优的聚类中心数量以达到最低的耗时.这些问题依然值得继续研究.

表5可看出, 相比IARAT, PIARAT在处理大规模数据集时的总体运行时间大幅缩短, IARAT无法运行或运行时间太长的数据也可进行有效约简计算, 因此, 通过Spark并行计算机制可有效提高算法2的计算效率, 减少运行时间.这主要是因为Spark计算引擎可对属性约简算法进行并行化, 以分布式计算的机制替代传统的串行机制, 由此实现海量数据的并行约简计算.但是, 在并行处理方面, 本文算法的多棵树分支策略和多节点并行机制的深度契合值得进一步优化, 对于不同的数据集(不同样本数量、不同属性数量), 如何进行数据集的最优划分和子集的最优分配将是今后工作的重点.

4 结束语

本文针对传统属性约简算法在处理大规模数据集时时间复杂度较高、效率较低等问题, 从属性组概念入手, 引入二叉树机制寻找约简, 提出基于属性树的增量式属性约简算法(IARAT).同时根据评估结果的不同进行不同子结点分支, 在计算过程中加入分支系数, 提高属性约简的效率和精度.同时结合Spark并行技术, 利用Spark框架在经典属性约简算法上的并行优势, 提出基于属性树的并行化增量式动态属性约简算法(PIARAT).实验表明本文算法在处理大规模动态数据集时是有效且高效的.今后工作重点是面对属性增加和属性值变化的增量问题时, 如何更新属性约简, 在属性聚类阶段选择更好的聚类算法及寻找最优聚类中心数量, 进一步降低时间损耗, 并对本文算法的多棵树分支策略和多节点并行机制的深度契合进行进一步优化.

本文责任编委 张燕平

Recommended by Associate Editor ZHANG Yanping

参考文献
[1] CHEN M, MAO S W, LIU Y H. Big Data: A Survey. Mobile Network and Applications, 2014, 19(2): 171-209. [本文引用:1]
[2] TANG J J, LIANG J, ZHANG S, et al. Inferring Driving Trajectories Based on Probabilistic Model from Large Scale Taxi GPS Data. Physica A(Statistical Mechanics and Its Applications), 2018, 506: 566-577. [本文引用:1]
[3] HAN L X, LIEW C S, VAN HEMERT J, et al. A Generic Parallel Processing Model for Facilitating Data Mining and Integration. Para-llel Computing, 2011, 37(3): 157-171. [本文引用:1]
[4] SRINIVASAN A, FARUQUIE T A, JOSHI S. Data and Task Para-llelism in ILP Using MapReduce. Machine Learning, 2012, 86(1): 141-168. [本文引用:1]
[5] PAWLAK Z. RoughSets. International Journal of Computer and Information Science, 1982, 11(5): 341-356. [本文引用:2]
[6] HASSANIEN A E, ABRAHAM A, PETERS J F, et al. Rough Sets and Near Sets in Medical Imaging: A Review. IEEE Transactions on Information Technology in Biomedicine, 2009, 13(6): 955-968. [本文引用:1]
[7] HERAWAN T, DERIS M M, ABAWAJY J H. A Rough Set Approach for Selecting Clustering Attribute. Knowledge-Based Systems, 2010, 23(3): 220-231. [本文引用:1]
[8] SWINIARSKI R W, SKOWRON A. Rough Set Methods in Feature Selection and Recognition. Pattern Recognition Letters, 2003, 24(6): 833-849. [本文引用:1]
[9] LINGRAS P, CHEN M, MIAO D Q. Rough Cluster Quality Index Based on Decision Theory. IEEE Transactions on Knowledge and Data Engineering, 2009, 21(7): 1014-1026. [本文引用:1]
[10] RIZA L S, JANUSZ A, BERGMEIR C, et al. Implementing Algorithms of Rough Set Theory and Fuzzy Rough Set Theory in the R Package "RoughSets". Information Sciences, 2014, 287: 68-89. [本文引用:1]
[11] CHEN Y M, MIAO D Q, WANG R Z, et al. A Rough Set Approach to Feature Selection Based on Power Set Tree. Know-ledge-Based Systems, 2011, 24(2): 275-281. [本文引用:1]
[12] ANANTHANARAYANA V S, MURTY M N, SUBRAMANIAN D K. Tree Structure for Efficient Data Mining Using Rough Sets. Pattern Recognition Letters, 2003, 24(6): 851-862. [本文引用:1]
[13] YAO Y Y, ZHAO Y. Attribute Reduction in Decision-Theoretic Rough Set Models. Information Sciences, 2008, 178(17): 3356-3373. [本文引用:1]
[14] YAO Y Y. Three-Way Decisions with Probabilistic Rough Sets. Information Sciences, 2010, 180(3): 341-353. [本文引用:1]
[15] 徐章艳, 刘作鹏, 杨炳儒, . 一个复杂度为max( O(| C|| U|), O(| C|2| U/C|))的快速属性约简算法. 计算机学报, 2006, 29(3): 391-399.
(XU Z Y, LIU Z P, YANG B R, et al. A Quick Attribute Reduction Algorithm with Complexity of max( O(| C|| U|), O(| C|2·| U/C|)). Chinese Journal of Computers, 2006, 29(3): 391-399. ) [本文引用:1]
[16] QIAN Y H, LIANG J Y, PEDRYCZ W, et al. Positive Approximation: An Accelerator for Attribute Reduction in Rough Set Theory. Artificial Intelligence, 2010, 174(9/10): 597-618. [本文引用:1]
[17] 苗夺谦, 胡桂荣. 知识约简的一种启发式算法. 计算机研究与发展, 1999, 36(6): 681-684.
(MIAO D Q, HU G R. A Heuristic Algorithm for Reduction of Knowledge. Journal of Computer Research and Development, 1999, 36(6): 681-684. ) [本文引用:1]
[18] 王国胤, 于洪, 杨大春. 基于条件信息熵的决策表约简. 计算机学报, 2002, 25(7): 759-766.
(WANG G Y, YU H, YANG D C. Decision Table Reduction Based on Conditional Information Entropy. Chinese Journal of Computers, 2002, 25(7): 759-766. ) [本文引用:1]
[19] SKOWRON A, RAUSZER C. The Discernibility Matrices and Fun-ctions in Information System // SLOWINSKI R, ed. Intelligent De-cision Support. Berlin, Germany: Springer, 1992: 331-362. [本文引用:1]
[20] QIAN J, MIAO D Q, ZHANG Z H, et al. Hybrid Approaches to Attribute Reduction Based on Indiscernibility and Discernibility Relation. International Journal of Approximate Reasoning, 2011, 52(2): 212-230. [本文引用:1]
[21] LIANG J Y, WANG F, DANG C Y, et al. An Efficient Rough Feature Selection Algorithm with a Multi-granulation View. International Journal of Approximate Reasoning, 2012, 53(6): 912-926. [本文引用:1]
[22] LI M J, YU X M, RYU K H. MapReduce-Based Web Mining for Prediction of Web-User Navigation. Journal of Information Science, 2014, 40(5): 557-567. [本文引用:1]
[23] ZHANG J B, LI T R, PAN Y. Parallel Large-Scale Attribute Reduction on Cloud Systems[C/OL]. [2022-08-20]. https://arxiv.org/pdf/1610.01807.pdf. [本文引用:1]
[24] RAZA M S, QAMAR U. A Parallel Rough Set Based Dependency Calculation Method for Efficient Feature Selection. Applied Soft Computing, 2018, 71: 1020-1034. [本文引用:1]
[25] QIAN J, MIAO D Q, ZHANG Z H, et al. Parallel Attribute Reduction Algorithms Using MapReduce. Information Sciences, 2014, 279: 671-690. [本文引用:3]
[26] QIAN J, XIA M, YUE X D. Parallel Knowledge Acquisition Algorithms for Big Data Using MapReduce. International Journal of Machine Learning and Cybernetics, 2018, 9(6): 1007-1021. [本文引用:1]
[27] 王磊, 李天瑞. 一种基于矩阵的知识粒度计算方法. 模式识别与人工智能, 2013, 26(5): 447-453.
(WANG L, LI T R. A Matrix-Based Approach for Calculation of Knowledge Granulation. Pattern Recognition and Artificial Intelligence, 2013, 26(5): 447-453. ) [本文引用:1]
[28] 徐久成, 史进玲, 孙林. 一种基于相对粒度的决策表约简算法. 计算机科学, 2009, 36(3): 205-207.
(XU J C, SHI J L, SUN L. Attribute Reduction Algorithm Based on Relative Granularity in Decision Tables. Computer Science, 2009, 36(3): 205-207. ) [本文引用:4]
[29] SHU W H, SHEN H. Incremental Feature Selection Based on Rough Set in Dynamic Incomplete Data. Pattern Recognition, 2014, 47(12): 3890-3906. [本文引用:1]
[30] LIU D, LI T R, ZHANG J B. A Rough Set-Based Incremental Approach for Learning Knowledge in Dynamic Incomplete Information Systems. International Journal of Approximate Reasoning, 2014, 55(8): 1764-1786. [本文引用:1]
[31] JING Y G, LI T R, LUO C, et al. An Incremental Approach for Attribute Reduction Based on Knowledge Granularity. Knowledge-Based Systems, 2016, 104: 24-38. [本文引用:3]
[32] 钱进, 苗夺谦, 张泽华. 云计算环境下知识约简算法. 计算机学报, 2011, 34(12): 2332-2343.
(QIAN J, MIAO D Q, ZHANG Z H. Knowledge Reduction Algorithms in Cloud Computing. Chinese Journal of Computers, 2011, 34(12): 2332-2343. ) [本文引用:1]
[33] LIANG J Y, WANG F, DANG C Y, et al. A Group Incremental Approach to Feature Selection Applying Rough Set Technique. IEEE Transactions on Knowledge and Data Engineering, 2014, 26(2): 294-308. [本文引用:2]
[34] CHEN Y, LIU K Y, SONG J J, et al. Attribute Group for Attri-bute Reduction. Information Sciences, 2020, 535: 64-80. [本文引用:3]
[35] PAWLAK Z, SKOWRON A. Rudiments of Rough Sets. Information Sciences, 2007, 177(1): 3-27. [本文引用:1]
[36] DEAN J, GHEMAWAT S. MapReduce: Simplified Data Processing on Large Clusters. Communications of the ACM, 2008, 51(1): 107-113. [本文引用:1]
[37] 吴信东, 嵇圣硙. MapReduce与Spark用于大数据分析之比较. 软件学报, 2018, 29(6): 1770-1791.
(WU X D, JI S W. Comparative Study on MapReduce and Spark for Big Data Analytics. Journal of Software, 2018, 29(6): 1770-1791. ) [本文引用:1]
[38] YIN L Z, QIN L Y, JIANG Z H, et al. A Fast Parallel Attribute Reduction Algorithm Using Apache Spark. Knowledge-Based Systems, 2021, 212. DOI: DOI:10.1016/j.knosys.2020.106582. [本文引用:1]
[39] KARUN A K, CHITHARANJAN K. A Review on Hadoop-HDFS Infrastructure Extensions // Proc of the IEEE Conference on Information and Communication Technologies. Washington, USA: IEEE, 2013: 132-137. [本文引用:1]
[40] KODINARIYA T M, MAKWANA P R. Review on Determining Number of Cluster in K-means Clustering. International Journal of Advance Research in Computer Science and Management Studies, 2013, 1(6): 90-95. [本文引用:1]
[41] PAWLAK Z. Rough Sets: Theoretical Aspects of Reasoning about Data. Berlin, Germany: Springer, 1991. [本文引用:2]
[42] SHU W H, QIAN W B. An Incremental Approach to Attribute Reduction from Dynamic Incomplete Decision Systems in Rough Set Theory. Data and Knowledge Engineering, 2015, 100: 116-132. [本文引用:1]
[43] WEI W, SONG P, LIANG J Y, et al. Accelerating Incremental Attribute Reduction Algorithm by Compacting a Decision Table. International Journal of Machine Learning and Cybernetics, 2019, 10(9): 2355-2373. [本文引用:1]