模式识别与人工智能
2025年4月5日 星期六   首 页     期刊简介     编委会     投稿指南     伦理声明     联系我们                                                                English
模式识别与人工智能  2007, Vol. 20 Issue (1): 72-84    DOI:
综述与评论 最新目录| 下期目录| 过刊浏览| 高级检索 |
如何增加人工神经元网络的透明度?*
胡包钢,王泳,杨双红,曲寒冰
中国科学院自动化研究所 北京 100080
中国科学院研究生院 北京 100080
How to Add Transparency to Artificial Neural Networks
HU BaoGang, WANG Yong, YANG ShuangHong, QU HanBing
Institute of Automation, Chinese Academy of Sciences, Beijing 100080
Graduate School, Chinese Academy of Sciences, Beijing 100080

全文: PDF (782 KB)   HTML (1 KB) 
输出: BibTeX | EndNote (RIS)      
摘要 针对人工神经元网络应用中最主要的问题之一——“黑箱”特性进行文献综述.增加人工神经元网络系统的透明度是解决该问题必不可少的手段.为了便于理解各种已有方法的应用特点及其局限性,提出“透明度”研究中的方法分类框架.首先将“透明度”研究划分为两种基本策略:1)将先验信息引入系统设计;2)从模型中提取系统相关规则或知识.在此基础上,对各种主要方法进一步分类并进行应用特点介绍.最后对机器学习多目标研究进行讨论.提出基于“性能价格比”与基于提高系统“透明度”的目标函数.指出提高“透明度”是神经元网络研究中最为基本而又直接的解决方案.为此提出“反馈知识增长(KnowledgeIncreasingviaFeedback)”型机器学习方法.
服务
把本文推荐给朋友
加入我的书架
加入引用管理器
E-mail Alert
RSS
作者相关文章
胡包钢
王泳
杨双红
曲寒冰
关键词 机器学习人工神经元网络先验知识归纳演绎黑箱    
Abstract:The main issue about “black box” inherent in artificial neural networks (ANN’s) is discussed. Adding transparency is well recognized to be an effective solution to dealing with this problem. Significant benefits are obtained through using this approach, such as providing a certain degree of comprehensive power, decreasing model size, speeding learning process and improving generalization capability. A hierarchical classification is applied to the existing approaches for better understanding of their intrinsic features and limitations. The first level of classification is made by two strategies: building prior knowledge into neural networks; extracting rules embedded within networks. Most of important approaches are introduced and compared in detail with further classifications within each strategy. Finally, the personal perspectives to the studies of machine learning are presented. Other objective functions are suggested for the extension of studies, such as performancetocost ratio and transparency. The study of increasing transparency to ANN’s is considered as the most fundamental and direct solution to the other existing issues. A new machine learning approach called Knowledge Increasing via Feedback is proposed.
Key wordsMachine Learning    Artificial Neural Networks    Prior Knowledge    Induction    Deduction    Black Box   
收稿日期: 2006-07-27     
ZTFLH: TP183  
  TP181  
基金资助:国家自然科学基金项目(No.60073007)、国家自然科学基金创新集体项目(No.60121302)资助
作者简介: 胡包钢,男,1955年生,教授,博士生导师,主要研究方向为智能系统.Email:hubg@nlpr.ia.ac.cn.王泳,男,1975年生,博士研究生,主要研究方向为模式识别与数据挖掘.杨双红,男,1985年生,硕士研究生,主要研究方向为机器学习与建模仿真.曲寒冰,男,1977年生,博士研究生,主要研究方向为机器学习与建模仿真.
引用本文:   
胡包钢,王泳,杨双红,曲寒冰. 如何增加人工神经元网络的透明度?*[J]. 模式识别与人工智能, 2007, 20(1): 72-84. HU BaoGang, WANG Yong, YANG ShuangHong, QU HanBing. How to Add Transparency to Artificial Neural Networks. , 2007, 20(1): 72-84.
链接本文:  
http://manu46.magtech.com.cn/Jweb_prai/CN/      或     http://manu46.magtech.com.cn/Jweb_prai/CN/Y2007/V20/I1/72
版权所有 © 《模式识别与人工智能》编辑部
地址:安微省合肥市蜀山湖路350号 电话:0551-65591176 传真:0551-65591176 Email:bjb@iim.ac.cn
本系统由北京玛格泰克科技发展有限公司设计开发 技术支持:support@magtech.com.cn