Advertisement

论文笔记 - Neurotoxin: Durable Backdoors in Federated Learning

阅读量:

Neurotoxin: Durable Backdoors in Federated Learning

1. 基本信息

论文标题 Neurotoxin: Durable Backdoors in Federated Learning
论文作者 Zhengming Zhang, Ashwinee Panda, Linyue Song, Yaoqing Yang, Michael W. Mahoney, Joseph E. Gonzalez, Kannan Ramchandran, Prateek Mittal
科研机构 Southeast University, Princeton University, University of California at Berkeley
会议年份 ICML 2022
摘要概括 联邦学习的客户端本地数据不共享的性质,是联邦学习系统容易受到后门攻击的重要原因。在前人提出的联邦学习后门攻击中,当恶意用户停止上传恶意模型更新时,随着迭代轮数增强,后门触发器的作用会削弱。本篇论文围绕者上述问题,提出Neurotoxin 算法,该算法有效解决了联邦学习后门攻击持久性问题
开源代码 https://github.com/jhcknzzm/federated-learning-backdoor

2. 研究动机

在联邦学习系统中, 当参与者退出训练模型的迭代过程时, 后门攻击点会随着正常用户的参与度提升而减弱. 其持续存在是这项研究的核心目标.

在这里插入图片描述

3. 攻击模型

基本思想

基本思想

基本方法

基本思想

攻击者获取了上一轮聚合过程中的梯度信息,并对恶意客户端本地模型参数进行了重新设置;随后收集了排名前 k% 小幅度的梯度值所对应的参数集合(即所谓的约束集)。
攻击者通过利用中毒样本对恶意客户端本地模型进行了训练,并获得了相关的梯度信息。需要注意的是,在该过程中需要特别关注那些不属于约束集的梯度变化 g_{i}^{t}\cup S=\empty

在这里插入图片描述

4. 实验结论

评判标准

评判标准

全部评论 (0)

还没有任何评论哟~