Advertisement

联邦学习研究综述【联邦学习】

阅读量:

文章目录

  • 0 前言

    • 机器学习两大挑战:
  • 1 什么是联邦学习?它的基本概念是什么?

    • 联邦学习的过程通常包括以下几个阶段:

      • 其核心技术体现在以下几个方面:
    • 2 联邦学习的算法原理

      • 目标函数
      • 本地目标函数
      • 联邦学习的迭代过程
    • 3 联邦学习分类

      • 横向联邦学习
      • 纵向联邦学习
      • 联邦迁移学习
  • four challenges

      • 4.1 Communication efficiency exhibits significant shortcomings

      • Currently, research efforts primarily focus on three key strategies to address communication efficiency issues:

        • (1) Algorithm enhancement
      • (2) Data compression techniques

      • (3) Decentralized training methodologies

      • A combination of these approaches is often employed for optimal results.

      • 4.2 隐私安全仍有缺陷

      • 4.3 缺乏信任与激励机制

    • 5 研究热点

      • (1)系统异构
      • (2)统计异构
      • (3)无线通信
      • 结合边缘计算的应用
  • 6 前景展望

    • (1)边缘计算技术与物联网的发展
  • (2)智慧医疗体系的建设

  • (3)金融风险管理机制的完善

  • (4)智慧城市系统的构建

  • (5)涉密数据的安全共享机制的优化

0 前言

机器学习两大挑战:

  1. 数据安全的问题难以完全得到保障,并且隐私数据泄露的问题亟需采取措施加以解决。
  2. 网络安全与行业隐私之间的隔离问题以及各行业的内部‘孤岛’现象较为突出,并且这些障碍使得资源的安全共享面临巨大挑战;另一方面,在这种背景下建立统一的数据治理机制会面临诸多困难:一方面造成了各行业的内部‘孤岛’现象较为突出,并且难以实现资源的安全共享;另一方面,在这种背景下建立统一的数据治理机制会面临诸多困难

为了解决以上问题

谷歌推出了fed学习(简称FL)技术这一创新方法,并将其定义为一种通过将数据及模型训练过程转移至本地设备后仅在本地设备之间进行数据更新交流的技术方案。该方案旨在确保参与者在数据共享过程中的隐私权益得到严格保护。

1 什么是联邦学习?

现有的机器学习方法必须要求用户将原始数据传输至高性能计算平台进行统一处理。

researchers于2016年提出联邦学习技术,使得参与机器学习的各方能够在保护自身隐私的前提下,无需将原始数据汇总即可实现模型训练与数据共享

联邦学习本质上是一种分布式的机器学习技术,其流程如图 1 所示。

在这里插入图片描述

在多个客户端设备(包括平板电脑、手机以及物联网设备)与中心服务器(例如服务提供商)协同下共同训练一个全局模型的过程中,在客户端端负责利用本地数据进行模型训练以获得相应的本地模型(local model),而中心服务器则负责将各客户端端训练所得的本地模型进行加权聚合从而生成最终的一个全局模型(记为 w )。经过多轮迭代过程后可得最终生成效果与传统集中式机器学习方案相当的全局模型(记为 w )。

联邦学习的一次迭代过程如下:

  1. 客户端从服务器获取上一轮全局模型参数 w_{t-1}
  2. 客户端 k 基于本地数据集生成本地更新版本参数 w_{t,k}(即第k个客户端在t轮通信中完成的局部优化结果)。
  3. 各个客户端完成本地模型更新后上传至中心节点。
  4. 中心节点综合收集所有客户端的最新信息后运用加权融合技术计算出新的全局参数版本 w_t(这是在当前通信轮次中完成的)。

联邦学习技术具有以下几个特点:

  1. 本地客户端存储着参与联邦学习的所有原始数据,而仅在模型更新阶段与中心服务器进行交互.
  2. 各方将共享由联邦学习参与方协同训练得出的模型参数 w.
  3. 通过联邦学习获得的整体模型精度与集中式机器学习相当.
  4. 联邦学习参与者提供的高质量训练数据能够显著提升全局模型的整体精度.

2 联邦学习的算法原理

联邦学习的目标是确保数据隐私的前提下,在多个客户端设备之间协作训练一个全局模型 \mathbf{w} 。在该方法中, data storage and processing are conducted on local client devices, with only the gradient information from model updates needing to be uploaded to the central server.

目标函数

中心服务器的作用是提升全局模型的目标函数 F(w) ,这个目标函数一般情况下被定义为所有客户端设备的按权重计算的综合评估指标:

\min_{w} F(w), \quad F(w) = \sum_{k=1}^{m} \frac{n_k}{n} F_k(w) \tag{1}

其中:

  • m 表示参与训练的所有客户端设备数量。
    • 总数据量n等于各客户端的数据总量之和。
    • 其中n_k表示第k个客户端所拥有的数据总量。
    • 每个设备的本地目标函数由其对应位置参数\theta_{k,j}来代表。

本地目标函数

每个客户端 k 的本地目标函数 F_k(w) 定义为其本地数据损失函数的平均值:

F_k(w) = \frac{1}{n_k} \sum_{i \in \mathcal{D}_k} f_i(w) \tag{2}

其中:

  • 客户端本地数据集的大小n_k被定义为第k个客户端所拥有的本地数据样本数量。
    • k个客户端的所有本地数据由记号\mathcal{D}_k表示。
    • 损失函数f_i(w)定义为与给定样本i(即第i个数据实例)相关的模型参数向量#w在位置#的位置处的值。
      这里的#指的是特定的数据点索引。

联邦学习的迭代过程

初始化全局模型 :中心服务器初始化全局模型参数 \mathbf{w}_0

客户端接收全局模型:在每个迭代周期t进行时,中心服务器将当前的全局模型参数\mathbf{w}_t传递给所有参与训练的客户端。

本地模型更新过程:每个客户端 k 接收并处理全局训练后的参数 \mathbf{w}_t 后,在其拥有的局部数据集 \mathcal{D}_k 上完成一次完整的训练周期,并在此基础上更新自身的模型权重。这一过程通常采用小批量随机梯度下降算法进行优化:
\mathbf{w}_{t+1}^k = \mathbf{w}_t - \eta \nabla F_k(\mathbf{w}_t)
其中 \eta 表示优化器的学习率参数。

各客户端将提交最新更新的本地模型参数 \mathbf{w}_{t+1}^k 至中心服务器。

全局模型聚合:中心服务器收集各客户端上传的本地训练结果,并通过加权求和的方式生成新的全局模型参数估计值 \hat{\mathbf{w}}_{t+1}。这一过程通常采用按权重计算综合结果的方法:
\hat{\mathbf{w}}_{t+1} = \sum_{k=1}^{m} \frac{n_k}{n} \mathbf{w}_{t+1}^k

反复执行 :直至满足预先设定的终止准则(包括达到最大迭代次数或模型精度达到预期)。

3 联邦学习分类

联邦学习的应用场景不同,客户端之间持有的数据集特征各不相同。

假设:

客户端 m 持有的数据由 \mathcal{D}_m 表示;
样本 ID 由 I 表示;
数据集标签信息通过 Y 给出;
数据集特征信息用 X 表示;
完整的训练数据集 \mathcal{D} 必须由 (I,Y,X) 构成。

基于参与训练客户端的数据集的特征信息 X 的不同依据,联邦学习按照其性质被划分为横向联邦学习、纵向联邦学习以及联邦迁移学习。


横向联邦学习

横向联邦学习的核心特征在于其数据集中的特征 X 和标签属性 Y 在本质上是一致的,在此过程中各参与方仅共享标识码而非具体的数据内容,则可看出这一特性。

在这里插入图片描述

基于移动设备输入法数据构建的一阶时序预测模型


纵向联邦学习

纵向联邦学习的主要特点是各个数据集所具有的特征 X 和相关信息 Y 不同, 但样本 ID 信息是一致的, 如图所示内容.

在这里插入图片描述

在纵向联邦学习中,一方拥有训练数据的标签信息Y;而各方基于输入的特征信息X,则能够共同建立一个纵向全局模型。

其典型应用场景如同一地区的银行和电商平台:

  • 银行掌握本地客户的资金流动信息 x_1
  • 该平台收集客户网购行为及浏览偏好数据 x_2
  • 双方希望通过数据整合来评估客户的信用等级 Y 以实现精准营销

其本质是将多方对相同目标的不同特征描述进行训练提取


联邦迁移学习

联邦迁移学习的核心在于其数据集特征 X、标签信息 Y 以及样本 ID 信息均存在显著差异性。从图中可以看出这些特征的具体分布情况

在这里插入图片描述

联邦迁移学习特别适用于处理标注样本稀缺及数据资源匮乏的情况 ,例如,在中国电商平台与国际银行之间开展的数据迁移项目中。由于跨部门间的跨境数据交互往往面临诸多障碍,并且传统的方法难以有效应对这些问题,在这种背景下,“通过联邦转移学习技术,则能够有效地缓解这些问题。”


4 Challenges

4.1 通信效率短板明显

分布式机器学习技术 (Distributed Machine Learning)作为一种联邦学习方法,在实际应用中面临诸多威胁与挑战。尽管它能够有效保障数据隐私安全并实现数据资源的整合利用以进行模型训练但其在通信效率方面的不足依然存在这成为制约其广泛应用的关键因素下面列举了几个主要的问题与挑战:

通信性能问题 : 在联邦学习网络中,服务器与各个远程客户端之间需要定期传输更新数据以实现模型同步。由于大量客户端的存在,在传输过程中会消耗大量带宽。一般情况下,联邦学习系统的整体训练时间主要由数据处理时间和传输过程中的延迟组成。随着计算设备的处理能力在不断提高(即算力提升),数据处理所需的时间也在逐步缩短;然而,在当前技术条件下(尤其是在客户端数量极多的情况下),传输过程中的延迟仍然是制约系统整体效率的主要因素之一。

数据分布的不一致性
分布在不同终端用户的数据集其产生的数据特征通常是非独立同分布(Non-IID)的。具体而言客户端i和客户端j的数据分布可能不同(即P_i与P_j可能不相同)。传统的分布式计算框架算法在处理独立同分布(IID)数据时表现良好 但面对非独立同分布(Non-IID)数据则可能导致训练过程难以收敛并需要更多的通信轮次

通信开销问题
在互联网环境下,在线进行大量本地模型的更新与上传可能会给中心服务器带来过重的通信负担。这不仅可能导致系统性能下降,并且可能超出实际应用所需的能力范围。此外,在前后两次模型更新过程中还可能存在大量冗余信息或者不涉及全局模型同步的内容。


目前的研究中针对通信效率的改进主要有以下 3 种方法:

(1)算法优化

设计一种适用于处理非IID及非均衡分布数据的模型训练算法,并降低传输过程中的数据量以提高收敛效率。
通过改进该算法,在相同的数据量下能够更快地达到预期的性能水平。
这种方法显著降低了通信负担。

(2)压缩

通过压缩技术可以显著减少通信数据量的同时也会带来一定的性能损失

(3)分散训练

采用分层分级的方式构建联邦学习框架能够有效减轻中心服务器的工作压力;具体而言,在各区域设立区域性计算节点来处理各区域本地模型的数据更新工作之后,并将各区域更新后的模型数据上传至中心服务器并整合形成全局模型;这种做法不仅显著降低了中心 server 的工作负担还能进一步提升系统的整体通信效率水平

综合方法

通常情况下

以实现

文献 压缩 本地优化 算法性能 算法特点
基准算法 FedSGD 分布式计算基准算法
McMahan 等针对联邦学习的低带宽环境提出 FedAvg 算法 FedAvg 算法与其优化
MFL、LoAdaBoost 针对 FedAvg 算法的优化
CMFL 优化筛选机制,过滤无关更新
Konečný 等提出针对本地模型的结构化更新和草图更新算法 传统压缩方法
Caldas 等将Konečný 等提出方法应用于对全局模型更新的压缩中,同时提出 Federated Dropout 思想优化模型更新 传统压缩方法+算法优化
Lu 等提出自适应阈值梯度压缩算法 适应性修改压缩阈值
Sattler 等提出一种新的稀疏三元压缩(STC)框架 对 non-IID 数据表现较好

注:基于 FedAvg 的标准下进行评估时显示:当算法性能超过3倍时被视为强压缩;而当其低于3倍时则被视为弱压缩;其中√被用来标识通信效率类别的算法类别。


4.2 隐私安全仍有缺陷

联邦学习采用无需本地存储源数据仅交换模型更新(例如梯度信息)的方法来维护用户的隐私数据,在数据安全性领域开创了创新模式。在理想状态下,在联邦学习体系中客户端经过训练的源数据会被上传至本地设备上建立本地模型;服务器则负责收集并分发每一轮迭代所产生的全局模型。然而,在实际网络环境下存在着多种潜在的安全威胁;这些威胁表明仅依赖于模型更新来保障用户隐私的方式显然已不足以应对现实挑战。

主要威胁

模型反演攻击
研究发现,在深度学习系统中存在严重的隐私泄露风险。攻击者能够通过客户端上传的梯度信息推断出标签信息以及数据集成员的身份。Carlini等研究者在训练用户的语言数据递归神经网络中成功提取出了用户的信用卡号等敏感数据。Fredrikson等则深入探究了从模型中获取用户隐私的方法,并通过药量预测实验成功实现了对线性回归模型的反演攻击,并获得了患者的 sensitive 信息。

成员推理攻击
攻击者解析了各参与方提供的最新版本模型更新数据,并基于此推断用户的原始数据特征。研究团队利用生成对抗网络技术试图从各参与者提供的最新版本模型更新中提取用户的原始数据特征。实验证明参与方能够通过此方法推断用户的原始数据特征。

模型推理攻击
恶意攻击者试图获取客户端原始数据。Gei等人成功展示了通过梯度特征重建原始样本的可能性,并利用余弦相似度与对抗攻击方法恢复了一批测试图像。

在这里插入图片描述

如图5所示,联邦学习主要存在三种威胁:

  • 攻击性客户端干扰模型更新过程,阻碍全局模型聚合。
  • 攻击性分析者通过分析模型更新信息推断出源数据隐私信息。
  • 攻击性服务器试图获取客户端的源数据。

增强隐私安全性的方案

面对这一挑战,在提升联邦学习中的隐私安全性方面的主要方案与经典的机器学习privacy保护机制进行了融合研究

差分隐私(DP)
利用数据或梯度信息中的噪声来保护用户隐私。已有大量研究表明, 联邦学习与差分隐私结合能够在大规模客户端参与时提供较强的安全性保障。然而, 当客户端参与数量较少时, 噪声的影响会导致模型精度显著下降, 并且由于差分隐私算法中涉及较多超参数的情况限制了其应用的进一步扩展。

考虑随机化算法 A ,对于两个最多仅有一条数据差异的数据集 DD' 以及任意可能的结果值域中的元素 S ,如果该算法满足以下条件:

Dwork 等人开创了差分隐私概念,并通过严谨的数学推导验证了其安全性。一般而言而言,在实际应用中差分隐私算法的噪声机制主要分为三类:指数型噪声、拉普拉斯型噪声以及高斯型噪声。其中指数型噪声主要应用于处理离散数据集;而拉普拉斯型和高斯型噪声则主要用于处理连续数据集。

安全多方计算(MPC)
允许多个参与者在无需泄露各自的输入信息的情况下进行联合计算,并能有效保护隐私。联邦学习与MPC结合后不会影响整体模型的安全性,并且虽然增加了通信开销但通过优化可以在两者间找到平衡点。

在以下情况下,在不泄露各自输入数据的前提下,这些 n 个参与者将各自拥有各自的敏感数据 m_1, m_2, \ldots, m_n ,并共同参与完成一个协议函数 f(m_1, m_2, \ldots, m_n)

安全多方计算的核心关注点在于在不依赖于任何可信任的第三方实体的情况下实现各参与方的安全性计算一个共同的安全约束函数。姚期智于 1983 年首次提出并完善了安全多方计算这一概念他通过设计混淆电路不经意传输和秘密共享等核心技术手段实现了多个实体的安全协同运算并确保了所有参与者的数据安全性

同态加密(HE)
同态加密支持对加密数据进行运算处理,并有效实现数据的私密性。尽管同态加密技术能够保证模型更新过程中的数据安全, 然而, 在实际应用中存在较高的计算与通信开销问题.

给定一组明文数据d_1,d_2,\dotsc,d_n及其对应的加密数据m_1,m_2,\dotsc,m_n。如果该加密算法满足:将函数f(\cdot)作用于明文数据后再进行加密的操作结果与先对每个明文数据分别进行加密然后再应用相同函数f(\cdot)的操作结果一致,则称该加密算法满足同态加密特性。

该技术允许对密文执行密码运算,并保证解密后的结果与明文域上的直接运算结果一致。该概念于1978年由Rivest等学者首次提出,并逐渐发展出多种实现方案。按其支持的操作类型划分,现有方案可分为全同态和部分类别的两种主要类型。其中针对单一种类操作的数据处理能力则进一步划分为乘法型与加法型两大类方法;同时具备这两种性质的方案则被定义为全同态加密方案。


4.3 缺乏信任与激励机制

联邦学习构建了现代 society 的数据安全共享架构,在万物互联未来场景下,在不同机构与部门之间形成一个巨大的联邦学习联合体以构建基于大数据及多特征融合的形式实现智能分析决策模型。其理想的实现面临两大关键挑战:首先需解决数据隐私保护问题占据首要地位;其次需要解决如何高效整合来自多元领域的多源数据资源作为技术难题。

缺少完善的激励机制:
联邦学习体系中需要充分调动客户端参与到数据训练的过程中。由于缺乏有效的激励措施,难以支撑足够多的数据训练进而严重影响最终模型的质量。客户端的参与意愿直接关系到模型的整体性能及其覆盖范围。从而推动智能模型优化进程的关键在于建立科学合理的激励机制。

缺少完善的信任机制体系:在联邦学习框架中,由于缺乏统一的信任机制,在对参与方的信誉评价体系尚未形成统一标准的前提下,默认采取简单的投票或加权平均方式进行评估。这种简单的评估方式不仅会削弱优质参与方的选择能力,并且可能导致部分不成熟或低效节点的存在,在一定程度上制约了整体模型训练效果的提升。

结合区块链技术的解决方案

为了应对上述问题,在学术界提出了结合区块链技术的解决方案。区块链作为比特币的基础技术,并非传统意义上的数据库系统而是充当了一种安全可靠、可追溯性和可验证性的分布式分类账记账系统,在解决数据安全存储和信任问题方面发挥了重要作用。该技术为联邦学习提供了以下几大优势:其一在于通过去中心化架构实现了数据的安全存储;其二是通过密码学算法保障了数据的安全性;其三是通过共识机制确保了数据的一致性;其四是通过时间戳机制保证了数据的时间戳可追溯性。

安全记录模型更新
通过结合区块链技术,联邦学习方法得以以一种安全可靠且具有抗干扰能力的方式记录模型更新信息,并为系统架构提供可追溯性和不可否认性保障。每次模型更新的具体信息都能在区块链链式结构中实现精准记录与多重验证机制确保数据完整性和安全性不受威胁

激励机制
区块链技术中的激励机制旨在为联邦学习提供一种有效的物质奖励方案。根据客户端在模型构建过程中所做出的贡献给予相应的物质奖励。具体来说,这些激励方案可以通过发放加密货币或代币的形式来实现,从而促进更多客户端参与到训练过程中,并提供高质量的数据样本。通过这一激励机制的设计,在提高参与度的同时也能有效提升数据质量和模型精度

信誉机制
区块链技术能够为每位客户端构建一个信誉评估体系,并将该体系的参数设置为依据其历史贡献与行为模式作为评价标准。通过该体系的运行与应用,能够有效识别并筛选出具有较高可信度的客户端,并以此为基础确保模型训练过程中的可靠性和准确性。所有参与方的行为轨迹与贡献信息都可以清晰地展示在区块链链上,并形成一套可信赖的综合评价框架。

5 研究热点

不同于传统的分布式机器学习技术,在 federated learning 领域的发展趋势下,海量客户端与非独立同分布数据集之间的协同合作成为新的研究热点。当前,在这一前沿领域中已取得了诸多重要进展。值得注意的是,在这一前沿领域中,研究者不仅需要具备扎实的机器学习基础,并且还需要深入掌握分布式算法优化、密码学、压缩量化等核心技术领域的知识;此外,在这一前沿领域中还需要掌握信息论和统计学的相关理论支持。本文重点综述了联邦学习在通信效率优化、隐私保护机制以及信任激励机制等方面的主要研究成果;然而,在现有研究的基础上仍有许多有待进一步探索的方向。

(1)系统异构

在联邦学习环境中,在各个参与训练的设备之间存在硬件配置、网络带宽与电池容量等方面的差异性。因此,在这种情况下各设备之间的计算能力、通信速度与存储能力各有差异。通常情况下,在面对数十万甚至数百万设备参与训练时,只有数百个客户端能够保持活跃状态。然而,在这种架构下每个客户端并非总是可靠的,在实际应用中可能会随时因网络故障或算力限制等问题而退出当前任务的学习过程。这些系统级别的异构性给模型的整体效能带来了巨大的挑战:因此,在设计适用于此类异构场景的联邦学习算法时需要考虑以下三点要求:

  • 客户端的低参与率;
  • 兼容不同的硬件结构;
  • 能够容忍训练设备的中途退出。

(2)统计异构

采用多种不同的生成、存储以及传输机制的不同终端设备之间所具有的数据特征及其规模可能存在显著差异, 从而导致其呈现出非同质性(Non-IID)分布以及不平衡分布特征. 尽管这类具有特殊统计特性的数据集可以通过通信效率优化的方法进行处理, 但仍存在一些专门针对统计异构问题的方法. 例如,在多任务学习框架下训练出各自适应不同场景的局部模型. 与元学习的理念相似, 在支持个性化建模的前提下, 多任务学习已逐渐成为解决此类问题的主要方案.

(3)无线通信

在5G技术日益普及的今天,联邦学习开始逐渐应用于无线网络领域。

受限于无线信道有限的带宽容量,在传输信息之前需对模型更新执行量化压缩;一种常见的方式是在传输前需对模型更新执行量化压缩;在这一框架下,一个关注点是当存在量化误差时模型更新的稳定性。

除了通信带宽外,在无线通信环境中复杂的噪声和干扰因素也会影响信道容量

因此,开发适用于无线通信的联邦学习算法具有突出的研究意义。

结合边缘计算的应用

此外,在联邦学习技术层面实现了升级;本研究的主要创新点在于将边缘计算与物联网技术进行深度融合的应用实践。

在这里插入图片描述

因为部分终端设备的计算能力有限,并且在推动智能决策的过程中要求实现低时延响应的需求下

联邦学习以其"操作系统"作为支撑,成功满足了智能边缘设备实现实时决策、多点协同以及自主可控的需求。

充分运用智能边缘服务器的计算能力、存储能力和传输能力,并非传统的集中式数据收集和决策模式。这一创新性技术成功解决了传统机器学习系统中数据难以统一聚合成一个统一平台、隐私保护存在漏洞以及云数据中心存在单一故障点等问题。通过这种方法的应用,在构建高效的安全决策平台方面取得了显著成效。

6 前景展望

在大数据时代下, 为了维护数据安全与隐私而实现数据共享, 推动多源数据间的融合与交互, 最大限度地释放数据价值, 已成为学术界与产业界的共同难题之一. 而联邦学习作为一种前沿技术, 在多个领域展现出巨大的应用潜力.

(1)边缘计算和物联网

随着智能手机与移动互联网的普及应用,在其端产生了大量数据, 移动边缘计算通过本地设备完成运算而不必传输隐私数据至云端. 联邦学习作为一种新兴的技术方案, 为各参与方提供了标准化的数据交互规范, 从而实现无需向云端设备传输原始数据即可协同训练出最优全局机器学习模型. 在物联网快速发展的背景下,人工智能技术与边缘计算将朝着更加融合的方向稳步发展.

(2)智慧医疗

为了降低人工成本并减少人为操作失误的可能性,在医疗领域中应用日益广泛地渗透着机器学习技术

(3)金融风控

旨在保障金融行业的稳健运行并实施风险管理措施的同时防范金融诈骗活动;银行及金融机构致力于通过人工智能技术向客户提供高效且安全的服务方案。在实际应用场景中;客户个人特征通常由资质信息、消费能力、偏好倾向以及商品属性等多个方面构成;这些信息主要存在于商业银行系统、电商平台记录以及个人社交媒体平台上。考虑到隐私保护的需求;联邦学习技术能够为构建跨企业间的数据共享与AI应用提供可靠的技术支持

(4)智慧城市

伴随着人工智能技术、物联网技术和5G技术的进步

(5)涉密数据的安全共享

在大数据环境下,在信息安全方面存在较高的敏感性。传统的安全共享模式往往会导致多部门间的数据汇聚出现权限难以有效掌控、责任划分不够明确以及问题难以追查等情况,并可能因疏忽大意而引发失泄密等严重安全事故。对于如何解决涉密领域的安全共享难题,在联邦学习技术中具备跨组织的数据共享优势:它使得各参与方无需进行数据汇总即可实现对敏感信息的跨组织安全共享。

全部评论 (0)

还没有任何评论哟~