【阅读笔记】Federated Learning for Privacy-Preserving AI

本文探讨了联邦学习作为克服数据孤岛、小数据及隐私问题的有效手段。它通过允许各方在不分享原始数据的情况下共同训练模型,为金融、医疗等领域提供了隐私保护型AI解决方案。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

前言

一篇来自 Communications of ACM 的文章,这类期刊相当于magazine性质的文章,所以大多很短。之前阅读了PPFL的综述,对PPFL有了更深刻的认识,这篇文章的作者也是《联邦学习》的作者,所以我认为这篇会是《联邦学习》的精简版,阅读起来应该没什么瓶颈,那么就当做小说一样过一遍吧~


一、论文解析

如今在人工智能领域存在两大挑战:

  • 数据孤岛;
  • PPAL的需求日益增长。

传统的基于集中数据收集的人工智能方法无法应对这些挑战。如何在遵循隐私保护法律法规同时解决数据孤岛和碎片化问题,是当今人工智能领域的重大挑战。
法律层面的法律法规在不断完善,旨在保护用户的隐私不被泄露。在这样法律环境下,收集共享数据变得更加困难,一些敏感数据如医疗、金融数据更不允许获取。这也很自然联想到构建不依赖于将数据集中收集进行训练的模型。一个有吸引力的想法是使用本地数据集训练子模型,然后多方共享子模型构建全局模型。为了保护用户隐私和数据机密性,通信过程经过精心设计防止其他节点的反向重构,这就是FL(federated machine learning)背后的核心。

Definition

FL可以应用在B2C(企业->消费者),如谷歌的输入预测模型,所有的移动设备共享相同的数据特征训练ML模型。此外FL在B2B模式下可以支持“打破数据孤岛”场景,每个参与方有不同的数据特征。总之,FL通过安全的方式传输模型参数使各方不能访问他人的数据,FL的特征如下:

  • 多个参与方共建模型;
  • 每个参与方持有训练的数据集;
  • 模型训练过程中本地数据不会离开;
  • 模型在加密方案下从一方转移到另一方;
  • FL的性能接近集中式数据集构建的理想模型。

PPFL已经得到广泛研究,如:

  • 差分隐私
  • 安全多方计算

差分隐私是在训练数据中加入噪声,涉及到准确性和隐私性的权衡。

Categorization

根据数据在特征空间和样本空间的分布情况,FL可以分为横向联邦学习(HFL),纵向联邦学习(VFL)以及联邦迁移学习(FTL)。
在这里插入图片描述HFL应用在双方数据特征空间重叠样本空间不重叠的场景,VFL适用于双方样本空间重叠但数据特征不重叠的场景,FTL适用于数据样本和特性重叠较少的场景。

Architecture

FL系统体系结构可以采用client-server模型,如图2(a)所示,协调者C可以是权威机构(如政府)扮演,或者是安全计算节点。C与A,B之间的通信可以进一步加密(同态加密)防止传输过程中隐私被泄露,当然,协调者C也可以是逻辑实体位于A和B中。FL架构也可以采用对等模型,如图2(b)所示,数据所有者不需要第三方的协助。
以client-server模型为例,在将两个数据集数据样本对齐后,使用VFL加密和安全训练的步骤如下:

  1. 协调者C创建加密秘钥对分发给A,B;
  2. A和B加密并交换中间计算结果(梯度、权重);
  3. A和B各自计算加密的梯度并添加掩码,B同时计算被加密的损失,A和B把加密结果发送给C;
  4. C解密梯度和损失,把相应结果发送回A和B。A和B去除掩码并更新各自模型参数。
    在这里插入图片描述

Application Examples

FL可以在符合法律法规的前提下构建跨企业、跨数据、跨领域的AI应用。它在金融、保险、医疗、教育、智慧城市和边缘计算等领域有潜在的应用前景,这里介绍已经在实际中部署的两个案例。

Use Case 1:FedRiskCtrl

第一个例子是FL应用在金融领域。这是微众银行对于小型贷款企业(SME)实施的风控例子。一家发票代理公司A和银行B,A有许多相关的数据特征,如对于第k个SME有 { X m ( k ) } m = 1 M \left \{X_{m}^{(k)}\right \}_{m=1}^{M} {Xm(k)}m=1M,银行B有与信贷相关的数据特征,比如对于第k个SME有 { X n ( k ) } n = M + 1 N \left \{X_{n}^{(k)}\right \}_{n=M+1}^{N} {Xn(k)}n=M+1N以及Y(k),其中N > M。A和B利用VFL合作构建了SME的风控模型。
在训练之前,需要对A和B的SME数据进行对齐(安全实体对齐),之后可以按照图2的训练步骤进行训练。
模型的训练结果接近集中式数据集训练结果,并且由于仅仅由B银行数据建立的模型。

Use Case 2:FedVision

第二个用例是边缘计算中FL的运用。这是微众银行部署的目标检测联邦计算机视觉(federvision)的一个例子。
由于隐私方面的考虑和视频数据传输成本较高,在实践中很难集中采集监控视频数据进行模型训练。使用FedVision,不需要将每个监控公司的边缘云采集到的视频数据上传到中央云进行集中式模型训练。在FedVision中,最初的目标检测模型从FL服务器发送到每个边缘云,然后边缘云使用本地数据进行训练。经过几次本地训练后每个边缘云的模型再加密发送回FL服务器,FL服务器聚合多方模型参数成一个全局模型,并发送回每个边缘云。此过程不断迭代直到满足停止条件。
最终的模型会被分发给参与FL的监控公司,用于目标检测。

Outlook

FL是AI的发展方向,可以帮助AI爆发更大的潜能。虽然现在仍有一系列问题,比如数据所有者和协调器之间通信缓慢或者不稳定、不同数据所有者数据分布不一致等等,此外,为了激励更多参与方参与到FL中来,以及保证公平性和可持续性,还需要对FL的激励机制进行设计。

二、论文总结

本篇论文从需求出发,指出了当今AI遇到的一系列问题,接着简单介绍了FL,说明了FL的优势,最后列举两个实际应用的例子,总结一下,正如文中所说:FL can overcome the challenges of data silos, small data,privacy issues, and lead us toward privacy-preserving AI.(FL可以克服数据孤岛、小数据、隐私问题的挑战,并引领我们走向面向隐私保护的AI。)

三、个人感悟

正如前言预测,这篇论文确实是《联邦学习》的精简版,甚至配图都一样,但是这也只是简单介绍了《联邦学习》的前几章内容,对于激励机制部分只是一笔带过,应用部分举了两个实例,确实很典型,也很有应用前景。总而言之,这篇文章可以说是一篇科普文,文章简短干练,适合对FL感兴趣的初学者阅读,如果已经对FL有所了解可以直接跳过了。

Privacy-preserving machine learning is becoming increasingly important in today's world where data privacy is a major concern. Federated learning and secure aggregation are two techniques that can be used to achieve privacy-preserving machine learning. Federated learning is a technique where the machine learning model is trained on data that is distributed across multiple devices or servers. In this technique, the model is sent to the devices or servers, and the devices or servers perform the training locally on their own data. The trained model updates are then sent back to a central server, where they are aggregated to create a new version of the model. The key advantage of federated learning is that the data remains on the devices or servers, which helps to protect the privacy of the data. Secure aggregation is a technique that can be used to protect the privacy of the model updates that are sent to the central server. In this technique, the updates are encrypted before they are sent to the central server. The central server then performs the aggregation operation on the encrypted updates, and the result is sent back to the devices or servers. The devices or servers can then decrypt the result to obtain the updated model. By combining federated learning and secure aggregation, it is possible to achieve privacy-preserving machine learning. This approach allows for the training of machine learning models on sensitive data while protecting the privacy of the data and the model updates.
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

HERODING77

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值