模式识别与人工智能
2025年4月2日 星期三   首 页     期刊简介     编委会     投稿指南     伦理声明     联系我们                                                                English
模式识别与人工智能  2024, Vol. 37 Issue (9): 824-838    DOI: 10.16451/j.cnki.issn1003-6059.202409006
研究与应用 最新目录| 下期目录| 过刊浏览| 高级检索 |
面向多域数据场景的安全高效联邦学习
金春花1, 李路路1, 王佳浩1, 季玲1, 刘欣颖1, 陈礼青1,2, 张浩1, 翁健3
1.淮阴工学院 计算机与软件工程学院 淮安 223003;
2.福建师范大学 福建省网络安全与密码技术重点实验室 福州 350007;
3.暨南大学 信息科学技术学院 广州 510632
Secure and Efficient Federated Learning for Multi-domain Data Scenarios
JIN Chunhua1, LI Lulu1, WANG Jiahao1, JI Ling1, LIU Xinying1, CHEN Liqing1,2, ZHANG Hao1, WENG Jian3
1. Faculty of Computer and Software Engineering, Huaiyin Institute of Technology, Huaian 223003;
2. Fujian Provincial Key Laboratory of Network Security and Cryp-tology, Fujian Normal University, Fuzhou 350007;
3. College of Information Science and Technology, Jinan University, Guangzhou 510632

全文: PDF (1532 KB)   HTML (1 KB) 
输出: BibTeX | EndNote (RIS)      
摘要 针对联邦学习在不同领域数据训练中面临的泛化能力差、灾难性遗忘和隐私攻击等挑战,文中提出面向多域数据场景的安全高效联邦学习方案.在本地训练阶段,结合知识蒸馏技术,防止模型在不同领域数据训练时发生灾难性遗忘,同时加速知识在各领域间的迁移,提高训练效率.在上传阶段,提出高斯差分隐私机制,分别对本地更新的梯度和各领域间的泛化差异添加高斯噪声,实现安全上传,增强训练过程的保密性.在聚合阶段,采用动态泛化权重聚合算法,减少各领域间的泛化差异,提升模型的泛化能力.理论分析证明该方案具有较强的鲁棒性.在PACS、Office-Home数据集上的实验表明此方案具有较高的准确度和较短的训练时间.
服务
把本文推荐给朋友
加入我的书架
加入引用管理器
E-mail Alert
RSS
作者相关文章
金春花
李路路
王佳浩
季玲
刘欣颖
陈礼青
张浩
翁健
关键词 联邦学习域泛化推理攻击知识蒸馏差分隐私    
Abstract:To tackle the challenges of poor generalization, catastrophic forgetting and privacy attacks that federated learning faces in multi-domain data training, a scheme for secure and efficient federated learning for multi-domain scenarios(SEFL-MDS) is proposed. In the local training phase, knowledge distillation technology is employed to prevent catastrophic forgetting during multi-domain data training, while accelerating knowledge transfer across domains to improve training efficiency. In the uploading phase, Gaussian noise is added to locally updated gradients and generalization differences across domains using the Gaussian differential privacy mechanism to ensure secure data uploads and enhance the confidentiality of the training process. In the aggregation phase, a dynamic generalization-weighted algorithm is utilized to reduce generalization differences across domains, thereby enhancing the generalization capability. Theoretical analysis demonstrates the high robustness of the proposed scheme. Experiments on PACS and office-Home datasets show that the proposed scheme achieves higher accuracy with reduced training time.
Key wordsFederated Learning    Domain Generalization    Inference Attack    Knowledge Distillation    Differential Privacy   
收稿日期: 2024-07-31     
ZTFLH: TP 309  
  TP 181  
基金资助:江苏省高等学校基础科学(自然科学)研究重大项目(No.23KJA520003)、江苏省研究生科研与实践创新计划项目(No.SJCX24_2144)、淮阴工学院研究生科技创新计划项目(No.HGYK202418)资助
通讯作者: 金春花,博士,副教授,主要研究方向为信息安全、云存储、区块链、联邦学习.E-mail:xajch0206@163.com.   
作者简介: 李路路,硕士研究生,主要研究方向为密码学、区块链、联邦学习.E-mail:1327043890@qq.com.王佳浩,硕士研究生,主要研究方向为密码学、区块链、联邦学习.E-mail:2984606018@qq.com. 季 玲,硕士研究生,主要研究方向为图像加密、图像检索.E-mail:944139820@qq.com. 刘欣颖,硕士研究生,主要研究方向为密码学、联邦学习.E-mail:3099664677@qq.com. 陈礼青,博士,副教授,主要研究方向为信息与网络安全、公钥密码学.E-mail:chenlq@hyit.edu.cn. 张 浩,博士,副教授,主要研究方向为交通大数据、交通安全、物流与供应链.E-mail:zhhao@hyit.edu.cn.翁 健,博士,教授,主要研究方向为公钥密码学、云安全、区块链.E-mail:cryptjweng@gmail.com.
引用本文:   
金春花, 李路路, 王佳浩, 季玲, 刘欣颖, 陈礼青, 张浩, 翁健. 面向多域数据场景的安全高效联邦学习[J]. 模式识别与人工智能, 2024, 37(9): 824-838. JIN Chunhua, LI Lulu, WANG Jiahao, JI Ling, LIU Xinying, CHEN Liqing, ZHANG Hao, WENG Jian. Secure and Efficient Federated Learning for Multi-domain Data Scenarios. Pattern Recognition and Artificial Intelligence, 2024, 37(9): 824-838.
链接本文:  
http://manu46.magtech.com.cn/Jweb_prai/CN/10.16451/j.cnki.issn1003-6059.202409006      或     http://manu46.magtech.com.cn/Jweb_prai/CN/Y2024/V37/I9/824
版权所有 © 《模式识别与人工智能》编辑部
地址:安微省合肥市蜀山湖路350号 电话:0551-65591176 传真:0551-65591176 Email:bjb@iim.ac.cn
本系统由北京玛格泰克科技发展有限公司设计开发 技术支持:support@magtech.com.cn