Advertisement

隐私保护技术自学

阅读量:

差分隐私

差分隐私学习博客1

隐私保护–>最早:进行数据去标识化处理;后来:将原始数据转换为低粒度的统计信息(研究发现:是否存在数据重构攻击?即从统计数据中反向推导出原始数据);如今:采用更加复杂的发布模式?例如利用多种统计模型生成多维度的摘要报告,并辅以可视化工具展示详细信息

  • non-interative: 对原始数据加噪音
  • interative: 对查询结果加噪音

差分隐私的原理

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

从不满足差分隐私的算法出发

往算法中适当地加入一定噪音,使其输出满足差分隐私要求
噪音机制

随机化回答

拉普拉斯噪声生成机制
拉普拉斯噪声详解

在这里插入图片描述
在这里插入图片描述

指数机制
指数噪声详解

在这里插入图片描述

高斯机制(对于该机制的工作原理和应用范围仍存在一定的认识不足)

在这里插入图片描述
在这里插入图片描述

RR机制
0

差分隐私数据库
差分隐私机器学习

机器学习模型的数据安全问题不容忽视。
针对机器学习模型的隐私威胁:
当向模型输入一组数据时,在其快速且直接地处理下即可完成任务。这表明该组数据很可能存在于训练数据集中。

差分隐私数据采集
差分隐私数据合成

安全多方计算

一个任务有多方的数据参与进来,但各方不希望自身数据对其他方公开

基于噪音的多方安全计算

通过注入噪声干扰计算过程,并使原始数据被噪声覆盖以隐藏其真实值, 从而使得外界无法有效推测出原始数据. 典型技术: 差分隐私

不是基于噪音的

全部评论 (0)

还没有任何评论哟~