模式识别与人工智能
2025年4月11日 星期五   首 页     期刊简介     编委会     投稿指南     伦理声明     联系我们                                                                English
模式识别与人工智能  2024, Vol. 37 Issue (4): 328-338    DOI: 10.16451/j.cnki.issn1003-6059.202404004
研究与应用 最新目录| 下期目录| 过刊浏览| 高级检索 |
基于混合知识分解的增强残差网络
唐圣汲1, 叶鹏1, 林炜豪1, 陈涛1
1.复旦大学 信息科学与工程学院 上海 200433
Enhanced Residual Networks via Mixed Knowledge Fraction
TANG Shengji1, YE Peng2, LIN Weihao3, CHEN Tao3
1. School of Information Science and Technology, Fudan University, Shanghai 200433

全文: PDF (1152 KB)   HTML (1 KB) 
输出: BibTeX | EndNote (RIS)      
摘要 

当前如刺激性训练、组知识训练等方法收集残差网络中浅层网络的组知识进行自蒸馏,可提升网络性能,然而上述方法获取的组知识面临知识更新较慢、难以与数据混合技术结合等问题.为了解决此问题,文中提出基于混合知识分解的增强残差网络,通过最小化分解误差,将混合知识分解建模为二次规划问题,从而能从混合知识中获取高质量的组知识.为了提升知识的鲁棒性与多样性,结合多种数据混合技术,构建复合数据混合技术.不同于效率较低的高精度优化算法,采用简单高效的线性知识分解方法,将先前的组知识作为知识基,并将混合知识分解到知识基上,利用增强后的组知识蒸馏采样的子网.在多个主流的残差模型及图像分类数据集上的实验验证文中网络的有效性.

服务
把本文推荐给朋友
加入我的书架
加入引用管理器
E-mail Alert
RSS
作者相关文章
唐圣汲
叶鹏
林炜豪
陈涛
关键词 深度学习神经网络知识蒸馏网络增强残差网络    
Abstract

Methodssuch as stimulative training and group knowledge based training are employed to collect group knowledge from shallow subnets in residual networks for self-distillation, thereby enhancing network performance. However, the group knowledge acquired by these methods suffers from issues such as slow updating and difficulties in combining with DataMix techniques. To address these issues, enhanced residual networks via mixed knowledge fraction(MKF) are proposed. The mixed knowledge is decomposed and modeled as quadratic programming by minimizing the fraction loss, and thus high-quality group knowledge is obtained from the mixed knowledge. To improve the robustness and diversity of the knowledge, a compound DataMix technique is proposed to construct a composite data augmentation method. Different from high-precision optimization algorithms with poor efficiency, a simple and efficient linear knowledge fraction technique is designed. The previous group knowledge is taken as knowledge bases, and the mixed knowledge is decomposed based on the knowledge bases. The enhanced group knowledge is then adopted to distill sampled subnetworks. Experiments on mainstream residual networks and classification datasets verify the effectiveness of MKF.

Key wordsDeep Learning    Neural Network    Knowledge Distillation    Network Enhancement    Residual Network   
收稿日期: 2024-03-25     
ZTFLH: TP 37  
基金资助:

国家重点研发计划项目(No.2022ZD0160100)、国家自然科学基金项目(No.62071127,62101137)、上海市自然科学基金项目(No.23ZR1402900)、上海市科技重大专项计划项目(No.2021SHZDZX0103)资助

通讯作者: 陈 涛,博士,教授,主要研究方向为计算机视觉、机器学习.E-mail:eetchen@fudan.edu.cn.   
作者简介: 唐圣汲,硕士研究生,主要研究方向为深度学习、模型高效化、模型设计与增强.E-mail:21210720037@m.fudan.edu.cn. 叶 鹏,博士研究生,主要研究方法为计算机视觉、模型设计和优化、人工智能探索科学.E-mail:20110720039@fudan.edu.cn. 林炜豪,博士研究生,主要研究方向为计算机视觉、图像识别、视频处理、模型压缩.E-mail:21110720038@m.fudan.edu.cn.
引用本文:   
唐圣汲, 叶鹏, 林炜豪, 陈涛. 基于混合知识分解的增强残差网络[J]. 模式识别与人工智能, 2024, 37(4): 328-338. TANG Shengji, YE Peng, LIN Weihao, CHEN Tao. Enhanced Residual Networks via Mixed Knowledge Fraction. Pattern Recognition and Artificial Intelligence, 2024, 37(4): 328-338.
链接本文:  
http://manu46.magtech.com.cn/Jweb_prai/CN/10.16451/j.cnki.issn1003-6059.202404004      或     http://manu46.magtech.com.cn/Jweb_prai/CN/Y2024/V37/I4/328
版权所有 © 《模式识别与人工智能》编辑部
地址:安微省合肥市蜀山湖路350号 电话:0551-65591176 传真:0551-65591176 Email:bjb@iim.ac.cn
本系统由北京玛格泰克科技发展有限公司设计开发 技术支持:support@magtech.com.cn