READ-2335 Toward Cleansing Backdoored Neural Networks in Federated Learning
发布时间
阅读量:
阅读量
| 论文名称 | Toward Cleansing Backdoored Neural Networks in Federated Learning |
|---|---|
| 作者 | Chen Wu, Xian Yang, Sencun Zhu, Prasenjit Mitra |
| 来源 | IEEE ICDCS 2022 |
| 领域 | Machine Learning - Federal learning - Security - Backdoor poisoning attack |
| 问题 | 修剪后门神经元可以大大减轻后门攻击,但是已有的剪枝方法依赖于干净数据源,而出于隐私考虑,在FL场景下难以保证获取可靠数据源 |
| 方法 | 服务器将根据客户端提供的信息确定休眠神经元,并在一个小的验证数据集上检查模型的性能,从而稳定地对神经网络进行剪枝 |
阅读记录



总结
针对后门攻击+缩放攻击:
后门输入会在受控于其影响的特定位置上嵌入触发器,而干净输入则不会受此影响.基于此,通过去除那些不常被激活的休眠神经元,可以有效消除后门攻击.然而,由于 server side 无法直接访问 client 提供的数据用于训练 neural network,也无法从 client 方面获得干净数据源用于激活模型,因而 server side 仍无法获得剪枝后的neuron序列.不过, server side 可以利用 client 提供的数据来进行检测工作.
全部评论 (0)
还没有任何评论哟~
