论文笔记 - Neurotoxin: Durable Backdoors in Federated Learning
发布时间
阅读量:
阅读量
Neurotoxin: Durable Backdoors in Federated Learning
1. 基本信息
| 论文标题 | Neurotoxin: Durable Backdoors in Federated Learning |
|---|---|
| 论文作者 | Zhengming Zhang, Ashwinee Panda, Linyue Song, Yaoqing Yang, Michael W. Mahoney, Joseph E. Gonzalez, Kannan Ramchandran, Prateek Mittal |
| 科研机构 | Southeast University, Princeton University, University of California at Berkeley |
| 会议年份 | ICML 2022 |
| 摘要概括 | 联邦学习的客户端本地数据不共享的性质,是联邦学习系统容易受到后门攻击的重要原因。在前人提出的联邦学习后门攻击中,当恶意用户停止上传恶意模型更新时,随着迭代轮数增强,后门触发器的作用会削弱。本篇论文围绕者上述问题,提出Neurotoxin 算法,该算法有效解决了联邦学习后门攻击持久性问题 |
| 开源代码 | https://github.com/jhcknzzm/federated-learning-backdoor |
2. 研究动机
在联邦学习系统中, 当参与者退出训练模型的迭代过程时, 后门攻击点会随着正常用户的参与度提升而减弱. 其持续存在是这项研究的核心目标.

3. 攻击模型
基本思想
基本思想
基本方法
基本思想
攻击者获取了上一轮聚合过程中的梯度信息,并对恶意客户端本地模型参数进行了重新设置;随后收集了排名前 k% 小幅度的梯度值所对应的参数集合(即所谓的约束集)。
攻击者通过利用中毒样本对恶意客户端本地模型进行了训练,并获得了相关的梯度信息。需要注意的是,在该过程中需要特别关注那些不属于约束集的梯度变化 g_{i}^{t}\cup S=\empty。

4. 实验结论
评判标准
评判标准
全部评论 (0)
还没有任何评论哟~
