Advertisement

READ-2335 Toward Cleansing Backdoored Neural Networks in Federated Learning

阅读量:
论文名称 Toward Cleansing Backdoored Neural Networks in Federated Learning
作者 Chen Wu, Xian Yang, Sencun Zhu, Prasenjit Mitra
来源 IEEE ICDCS 2022
领域 Machine Learning - Federal learning - Security - Backdoor poisoning attack
问题 修剪后门神经元可以大大减轻后门攻击,但是已有的剪枝方法依赖于干净数据源,而出于隐私考虑,在FL场景下难以保证获取可靠数据源
方法 服务器将根据客户端提供的信息确定休眠神经元,并在一个小的验证数据集上检查模型的性能,从而稳定地对神经网络进行剪枝

阅读记录

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

总结

针对后门攻击+缩放攻击:

后门输入会在受控于其影响的特定位置上嵌入触发器,而干净输入则不会受此影响.基于此,通过去除那些不常被激活的休眠神经元,可以有效消除后门攻击.然而,由于 server side 无法直接访问 client 提供的数据用于训练 neural network,也无法从 client 方面获得干净数据源用于激活模型,因而 server side 仍无法获得剪枝后的neuron序列.不过, server side 可以利用 client 提供的数据来进行检测工作.

全部评论 (0)

还没有任何评论哟~