洞见观点 | 《金融领域隐私计算中可信第三方的研究》
目录
1. 隐私计算在金融领域中的典型应用
隐私计算与风控建模
隐私计算与精准营销
隐私计算与反欺诈
2. 隐私计算中的可信第三方
去可信第三方的联邦学习
加可信第三方的匿踪查询
3. 可信第三方的应用总结
摘要
[关键字] 金融科技 隐私计算 可信第三方
1. 隐私计算在金融领域中的典型应用
近年来,在大数据和人工智能技术广泛应用于各个行业的背景下,“数据”作为一种新型生产要素的重要性得到了显著提升。与此同时,在数据安全与隐私泄露问题频发的背景下,“数据使用”与“隐私保护”之间的矛盾愈发尖锐。在这一领域中,隐私数据的收集与使用一度被视为灰色区域,在经历了近年来国内外一系列相关政策法规的出台后,则将从粗放式管理向规范化、严格化方向转变。
在这样的行业背景下,在合法合规的前提下被视为关键的研究领域的是既能保障数据安全与隐私、又能推动数据流通与共享的方式。
基于计算机科学、通信技术、数学理论以及密码学原理等多学科交叉融合的隐私保护计算(Privacy-Preserving Computing, 简称"隐私计算")技术,在解决这一系列关键问题上具有重要意义。其中,联邦学习框架(Federated Learning Framework, FL)以及安全多方计算机制(Secure Multi-Party Computation, MPC)等代表性方法,在不影响实际应用的前提下实现了数据可见部分与不可见计算价值的独立处理能力。通过这种方式,在保证数据不可见的同时实现多方协作的数据分析与价值共享
隐私计算技术的应用前景十分广阔,在涵盖金融与保险领域的多个行业中展现出显著潜力。其中在金融与保险领域由于需要处理多方数据的需求最为突出,并且属于高度监管的重要领域因此成为当前隐私计算技术应用探索的重点方向之一特别是在风控建模与精准营销以及反欺诈等方面表现尤为突出
隐私计算与风控建模
优化模型精度将有助于提升银行的审批速度,并减少人工干预的成本。以消费信贷模式为例,在现有机构构建智能风控系统时通常会整合身份信息、学历记录、消费数据等多维度信息。传统联合建模方法要求各参与方将样本数据集中到某一方或第三方平台,在此过程中存在数据脱离各自隐私域的安全合规隐患。采用联邦学习技术或基于安全多方计算的方法,在各参与方无需将数据留在私有领域的情况下,并通过分布式协同加密计算完成联合建模任务,并确保模型不会泄露且性能不受影响。

图1 联合建模的方式演变
隐私计算与精准营销
新客营销及存客激活被视为金融与保险等相关机构的核心关注点之一。在精准营销业务中,则通常需要利用用户的碎片化网络行为数据进行画像补充和客户意图识别。为了实现这一目标,在实际操作中往往会依赖于与其他外部合作伙伴建立精准化的营销策略模型。传统的构建方法依赖于基于数据查询或离线碰撞的方式进行,并未能充分考虑各方的数据安全问题。然而,在金融机构与外部多个合作伙伴之间展开的数据共享机制可能面临信息泄露风险。因此采用隐私保护集合运算技术(如隐私求交等)结合匿名化查询与切片式用户画像规则引擎,在金融机构与外部合作伙伴之间实现安全有效的联机撞库与人群定位策略。

图2 基于隐私保护集合运算的用户群体圈定
隐私计算与反欺诈
防范欺诈行为在金融风控体系中扮演着关键角色。在信贷业务领域中,欺诈行为种类繁多,在线申请过程中容易被恶意篡改甚至伪造相关资料;与此同时,在保险行业中同样面临骗保等欺诈行为的风险。最常见的防范措施包括建立并共享客户黑名单以及实施多头借贷信息的互操作性机制。然而,在实际操作过程中需要权衡多个因素:一方面出于对用户隐私保护的考虑以及对商业机密的尊重;另一方面又必须确保数据的安全性和可靠性;为此我们采用了隐私计算技术方案(具体实现过程可参考图1所示),该技术通过同态加密方案实现了数据在各参与方之间的安全共享机制:一方面能够保障参与方的数据主权不受侵犯;另一方面则能有效防止敏感信息被误用或泄露。

图3 基于同态加密的风险信息共享方案
2. 隐私计算中的可信第三方
隐私计算的核心机制基于数学原理及密码学原理构建技术保障体系,在技术创新共识基础上实现多方协作计算功能,并最终达成高阶数据智能目标。从安全维度来看,在任何第三方机构参与的情况下都会破坏技术创新基础的信任完整性并带来不可预见的安全风险因素。
然而,在隐私计算领域中,联邦学习作为一种具有代表性的技术之一被广泛应用;其典型算法中通常会依赖一个可信第三方(Trusted Third Party, 有时也被称为协调方)的存在。
以用于金融风控建模的常用回归算法为例,在本地设备上进行局部训练时会将数据集按特征维度纵向切分后分布在不同企业中。其中一部分具有标签数据(即Y值),且各方均为诚实且充满好奇心。基于典型联邦学习算法的建模训练步骤可划分为以下关键4步:初始化模型参数→在本地设备上进行局部训练→通过网络传输更新参数→综合各参与方的预测结果生成最终预测输出。
1)第三方生成公私钥对,并将公钥分发给数据提供的参与方;
数据提供方之间通过公钥加密的方式进行中间处理的数据交互传输,并最终完成梯度和损失的计算。
3)数据提供方将各自加密结果上传给第三方;
4)第三方返回解密结果,数据提供方开始下一轮迭代训练。

图4 有第三方的联邦学习方案
在整体训练流程中可以看出,在整个训练过程中可以看出,
第三方扮演了生成公私钥对者、分发公钥者以及解密被加密结果者的多重角色,
从而带来了额外的计算相关信息,
这些信息是否会泄露其他参与方的数据隐私,
其潜在影响与其内在算法结构相关,
但如果有任何一方发现该第三方与任何一个参与方串通一气或作弊行为,
就可能导致数据隐私泄露及模型暴露风险,
因此必须确保该第三方是绝对诚信可靠的。
去可信第三方的联邦学习
探讨解决第三方可信风险问题成为隐私计算在金融领域应用的新突破
在此基础上, 我们提出了一个全新的无第三方联邦学习方案(Non-Third Party Federated Learning, NTP-FL)。仍以回归分析为例, 如图所示,NTP-FL基于机器学习算法的基本数学原理, 通过重新设计数学公式的解析方式以及中间运算结果的交互流程, 有效去除了第三方参与的可能性. 同时, 在计算梯度与损失函数的过程中, 采用加密技术和随机扰动生成方法, 进一步确保了数据的安全性, 尤其是对敏感信息——梯度数据的安全保护. 此外,NTP-FL不仅实现了完全不依赖第三方的人工智能协同机制, 而且成功保留了传统联邦学习架构的核心优势特点. 这一创新方案特别适用于金融风控联合建模的实际应用需求
另外,在解决典型联邦学习算法在损失函数计算中对数据均匀分布的限制问题的同时

图5 无第三方的联邦学习方案
加可信第三方的匿踪查询
在隐私计算系统中取消中间人角色能够显著提高整个系统的安全性,并且有效加强各参与方之间的互信关系;然而,在某些特定场景中这一角色仍然具有其独特的价值和作用
基于银行信贷业务中涉及的外部数据查询情景为例,在传统模式下作为提供者的数据源方及/或 数据流转服务提供者会针对银行提供的条件信息(如姓名、身份证号、手机号码等)进行匹配评估,并返回相应的匹配结果。此时有机会了解并推断出该用户的潜在业务应用场景。从技术层面而言,在获取这些信息后还可能涉及非法缓存及重复利用问题。
该技术通过多种密码学手段,在匿名查询中实现了多方的安全交互。该系统通过巧妙设计的数据处理流程,在整个流程中实现了以下几个关键环节:首先进行了数据分析处理;接着实施了双重加密以防止中间环节被截获;随后完成了安全传输;最后进行了解密和精确匹配。这样一来使得双方无法确切推断出对方所需的信息而对方也无法确切推断出自己的需求从而保护了各方的隐私信息不被泄露出去以实现_data privacy protection_以及防止不必要的_data storage的目的

图6 匿踪查询中的不经意传输
然而,在实际应用中使用匿踪查询技术时,精准计算数据查询结果的成本确实面临一个现实挑战。与传统的基于调用的数据服务接口不同,匿名检索系统无法预知数据分析方的具体目标和意图。因此,在基于查找成本的计费模式下(即根据查找命中率进行费用估算),数据分析方难以准确评估其真实使用的资源规模和成本水平。通常依赖于历史查找命中率的数据来进行估算。
为了解决相关的问题,在确保各方数据隐私安全的前提下采用"可信第三方"这一措施,并详细地对匿踪查询中的数据匹配费用进行精确计算和评估。

图7 基于可信第三方的匿踪查询计费
数据使用方与数据提供方在完成匿名查询的数据混淆操作后,在执行秘钥生成过程的同时对结果进行数据解密流程
数据提供方并返回加密后的候选集合信息,并同时向数据使用方和双方共同授权指定的计费目的可信第三方发送。
数据处理方在秘钥生成流程完成后, 负责提交本轮次匿名查询的动态秘钥给可信第三方机构
可信第三方利用数据服务方提供的密钥对数据提供者的结果候选集进行解密,并依据三方约定的计费规则进行费用的精确计算;
数据使用者和数据提供者都不将被查询主体身份信息和混淆集泄露给可信第三方;从而确保隐私信息(即被查询主体身份信息)的泄露风险得到控制。
在此方案中引入可靠第三方机构能够有效解决匿名追踪系统中的费用计算难题,并采用各参与方生成查询信息哈希值的方式确认可信第三方接收到的信息准确性与完整性从而保证费用计算流程的完整运行然而在匿名追踪数量持续攀升的情况下用于统计费用的相关查询结果集中的一些群体统计特征仍有被 third-party 接收的风险
3. 可信第三方的应用总结
可信第三方的产生源于算法技术的进步以及实际需求推动业务场景在技术层面的落地实施;这种现象源自金融领域隐私保护技术的发展过程。
从技术角度来看,在提升技术信任方面可采用无需可信第三方的方式更为卓越。我们可以通过优化基础计算协议机制,并借助特殊的数学分解算法重新设计秘钥交互流程以及加密解密操作等方式来实现完全消除可信第三方的需求,在数学与密码学原理层面确保即使没有可信第三方依然能够成功完成联邦学习等隐私保护型计算任务的同时也能维持足够高的安全性水平;
从业务角度来看,在监管框架内寻求更低的信任成本、更为安全与高效的隐私计算技术的应用方法(联邦学习),金融机构迫于无法依赖不可信第三方技术方案而强烈需求此类解决方案;然而为了应对传统的匿名查询方案带来的费用问题,在实际应用中通常需要依赖可信第三方来确保业务合作的实际可行
总结而言,在金融领域隐私计算中,可信第三方的存在具有必要性。这一情况主要由金融应用场景的具体需求所决定。要使这一技术方案取得更广泛的实际应用,则需使其根据不同的业务场景特点不断进行深化与迭代。
