找回密码
 立即注册
搜索

联邦学习下的安全矩阵分解 | 2021 WAIC 论文分享

联邦学习下的安全矩阵分解 | 2021 WAIC 论文分享-1.jpg


7月8日,为期三天的2021 年世界人工智能大会(WAIC)于上海世博展馆拉开序幕。本届大会继续秉持「智联世界」的理念,以「众智成城」为主题,集聚全球范围内的人工智能创新思想、技术、运用、人才和资本,推进全球科技的创新协同。8日下午,星云Clustar受邀出席同期举行的「2021 WAIC· 隐私计算学术交流会」,并停止了基于联邦学习的安全矩阵分解框架的论文分享。

论文分享的标题是《Secure Federated Matrix Factorization》,该论文基于联邦学习环境,首创性地提出了名为「FedMF」的安全矩阵分解框架。框架初次从数学上验证了矩阵分解在横向联邦学习中交换梯度明文信息会形成隐私泄露,并提出了运用同态加密对梯度信息停止保护的处理方案。

联邦学习下的安全矩阵分解 | 2021 WAIC 论文分享-2.jpg


本文第一作者为香港科技大学计算机博士在读、星云Clustar算法工程师柴迪;北京大学助理教授、博士导师、星云Clustar首席AI迷信家王乐业(按姓氏拼音排序);第二作者为香港科技大学教授、星云Clustar创始人陈凯;第三作者为香港科技大学教授、微众银行首席人工智能官杨强。论文已发表在IJCAI 2019 Federated Machine Learning Workshop,IJCAI国际人工智能结合会议是全球人工智能范畴最威望的学术会议。

在论文中,星云Clustar团队证明了传统的矩阵分解引荐系统中,当用户将梯度信息以明文方式发送到服务器,仍有泄露用户的评分信息、特征向量等信息的能够性,进而暴露用户的年龄、性别、地址等等隐私数据,形成难以预估的严重风险。

为此,星云Clustar团队设计了一个用户级的分布式矩阵分解框架FedMF,采用同态加密来加强该分布式矩阵分解框架,并用一个真实的电影分级数据集对其停止了测试。经过测试,这套框架规避了传统矩阵分解引荐系统暴露用户隐私数据的风险,采用同态加密大幅加强了矩阵分解框架的安全性,并完成了与原始数据相比分歧的准确度。

据悉,FedMF曾经成功落地于全球首个工业级联邦学习开源框架FATE。星云Clustar合作设计了基于FedMF安全矩阵分解框架的联邦引荐算法(FedRec),该算法在FATE框架中的有效运用使得联邦学习在引荐系统的运用愈加明白化。同时,FedRec广泛支持各种引荐场景,对于开发者而言,可以分明提高产品分发效率和算法预测效果,优化用户体验,还可处理数据不足和标签短缺等成绩。

以下是由星云Clustar团队带来的《Secure Federated Matrix Factorization 》论文解读:本文围绕6个角度来讲述这篇论文,研讨意义、先行概念、分布式矩阵分解、联邦矩阵分解、实验评价结果、下一步研讨方向。

1 研讨意义


联邦学习下的安全矩阵分解 | 2021 WAIC 论文分享-3.jpg


以General Data Protection Regulation为代表,政府末尾出台各类规章和法律条文,用来加强对隐私性数据的保护力度,学院机构以及工业企业也因此末尾关注隐私保护机器学习这一技术范畴。目前引荐系统是一个广受关注的研讨课题,矩阵分解是常见的技术手腕。

但是,传统的矩阵分解引荐系统,会走漏用户的评分信息、特征向量,能够大家会觉得走漏这两种信息不重要,但是经过这两种信息,恶意攻击者可以停止inference attack,也就是从这两种信息推断用户的性别、年龄、住址,而后面的这些信息都属于非常隐私的数据。

联邦学习下的安全矩阵分解 | 2021 WAIC 论文分享-4.jpg


目前针对这类成绩,次要有两种处理方案:Obfuscation-based和Full-Homomorphic encryption-based。前者次要采用的方法是经过将用户的原始偏好数据停止混淆后,再发送到地方服务器,以完成某种程度上的隐私保护。不言而喻的是,这种方法会导致预测精度的损失。

为了保证预测精度,Full-Homomorphic encryption-based方法引入了一个第三方的私密服务提供商,但是这种方法会增大系统完成难度,同时这类私密服务提供商的牢靠性难以保障,一旦他们与引荐服务节点存在不合理合作关系,那对用户来说,任何信息都毫无隐私可言。

2先行概念


联邦学习下的安全矩阵分解 | 2021 WAIC 论文分享-5.jpg


在正式引见我们的方法前,首先需求了解2个概念:

Horizontal Federated Learning:用户的特征空间相反,但是用户群体不同。这类成绩下,我们普通规定,用户是诚实的,系统的目的是保护用户的隐私,免于遭到诚实但猎奇的服务器的侵犯。

Homomorphic Encryption:一种仅享有数据处理权,但不具有数据访问权的方法。换句话说,这种方法允许任何第三方对曾经加密过的数据停止运算,而不可以在运算前对数据停止解密。

联邦学习下的安全矩阵分解 | 2021 WAIC 论文分享-6.jpg


在矩阵分解引荐系统中,我们通常会拿到一个稀缺的用户评分矩阵 X,而我们的义务是经过计算出user profile 矩阵U和item profile矩阵V,来将X中的空缺信息补全。普通来说,SGD(Stochastic Gradient Descent,随机梯度下降)是用来处理矩阵分解的主流方法。详细loss function和updating formula的定义如图所示。

3分布式矩阵求解


联邦学习下的安全矩阵分解 | 2021 WAIC 论文分享-7.jpg


不言而喻的,想要保护用户的隐私,就是将服务器与用户的数据停止隔离,避免服务器对用户数据的直接访问,所以我们希望用户可以把本人的数据保留在本地。

基于此,我们设计了一个分布式的矩阵分解系统,在这个系统中,一切的评分数据都掌握在用户手中。一个全局的item profile矩阵为一切用户提供一个本地的update,同时用户将会把gradient传回给服务器,用来更新item profile。总结来说,服务器只会收到用户的gradient,不会收到用户的任何评分信息。

这样看来,我们的义务目的就完成了,但是让我们再思索一个成绩,传输gradient就真的能保障用户隐私了吗?

联邦学习下的安全矩阵分解 | 2021 WAIC 论文分享-8.jpg


假如已知恣意2个延续step的gradients,已知user profile的更新公式,我们可以求得一个多元高阶方程组7、8、9。求解这个方程组的过程比较复杂,我们在这里不对求解过程做过多描画,仅仅把结果展如今途中。在等式24中,u是独一的未知量,并且我们已知u一定存在一个实数解。我们可以应用一些迭代方法(比如牛顿法)来求得一个数值解。当我们算出u,评分信息r就可以应用等式25求解出来。

总结来说,我们刚刚证明了在矩阵分解场景下,gradient会走漏用户的信息。那么我们又该怎样处理这个成绩呢?

4联邦矩阵求解


我们的处理方案是对系统中加入homomorphic encryption,也就是联邦矩阵分解系统。假设用户和服务器曾经完成了对密钥的生成和分发,其中服务器拥有公钥,用户拥有彼此相反的私钥,那么整个系统就可以分为4个步骤:

第一步,对参数停止初始化,参数包括item profile矩阵和user profile矩阵,与此同时服务器对item profile运用公钥停止加密;第二步,服务器提供加密后的item profile矩阵,供一切的用户来停止下载;

第三步,用户停止本地的update,这一步中可以拆分成若干个环节:用户首先下载加密后的item profile矩阵,并将其解密成一个plaintext V,然后用户会停止本地的update并计算gradient,最后用户会对gradient停止加密并且将ciphertext发给服务器;

接上去让我们回到全体的架构,在第四步,服务器在接收到加密后的gradient之后,会根据附加的homomorphic encryption对item profile矩阵停止更新,请留意,服务器会提供给用户最新一次加密后的item profile用作下载,此时我们就需求再一次回到第二步。

整个系统经过反复第二、三、四步,会完成整个训练过程。普通来说,用户的评价信息由一个系数矩阵组成,这也就意味着一个用户的评价其实是非常有限的。因此,两个不同的设置在我们的系统中是implemented。这两个设置会遵照系统的各个环节但是会在用户的上传环节由些许的不同。其中一种设置叫做fulltext,在这种设置中,用户会对一切的item都会上传gradient,当用户对某一个item不做出评价时,gradient为0;另外一种设置叫做parttext,用户只会将评价后的item的gradient停止上传。

这两种方式有利有弊,parttext会走漏哪些item是用户打过分的,同时在计算效率上表现更好,而fulltext不会走漏用户的信息,但是会需求更多的计算耗时。

实验评价结果为了测试我们设计的系统的可行性,我们运用了一个MovieLens上一个真实的电影评分数据集,这个数据集包括了100K个评分信息,由610个用户对9724个电影的打分组成。这个数据集也被用于很多其他的矩阵分解研讨工作中。

在图中的参数配置下,表1显示了每次迭代过程中,运用parttext方法和fulltext方法的耗时(一次迭代,是指一切610名用户上传的gradient被用来更新一次item profile矩阵)。无论是parttext还是fulltext,当item数量不是很多时,这两种方法的耗时都比较少,同时我们可以观察到,耗时会随着item数量的添加而增长。与fulltext相比,parttext会占用更少的工夫,但是parttext会走漏一部分信息。值得一提的是,parttext会比fulltext提升了20倍的效率。

为了验证我们的系统不牺牲任何准确度,我们在一个小规模的数据集上做了一系列实验。我们采用RMSE来作为度量目的,参考图4和表2,标准矩阵分解和联邦矩阵分解的评价结果是非常相近的,区别不足0.3%。如此小的区别是由于在联邦矩阵分解中,为了简化implementation,服务器会对itemvector停止更新,仅当一切的用户都上传了他们的gradient。

在普通的矩阵分解中,服务器会更新itemvector当任何用户提供了gradient。假如这些设置都相反的话,评价结果就会完全分歧。图2和3显示了随着item数量的变化,用户和服务器的更新工夫的比例的变化。从图可见,约95%的工夫用于了服务器的更新,这就意味着假如我们添加了服务器的算力,或者提升homomorphic encryption方法,以降低密文计算的复杂度,则计算效率会有分明提升。这就是我们下一步要做的次要工作。

5下一步研讨方向


最后,想和大家引见一下我们将来研讨工作的3个次要方向:

愈加有效的homomorphic encryption。如上文提到的,约95%的工夫都花在服务器update上,其中计算次要用于密文。假如我们可以提升homomorphic encryption的效率,我们的系统表现会大幅提升。

在fulltext和parttext中。实验曾经显示parttext比fulltext效率更高,但是parttext会暴露用户对哪些item停止了评分。这个信息,即便没有确切的评分,能够照旧会走漏用户敏感信息[Yang et al., 2016]。或许我们可以要求用户上传更多的gradient,而不只仅是评分后的items,但不是全部的items,这样做可以相比较fulltext添加系统效率,同时不会走漏评分的item。

更多安全定义。目前我们用了经典的horizontal联邦学习安全定义,这个定义架设了参与方的诚实性,以及服务器的honest-but-curious。接上去我们可以去探求更具应战的安全定义,比如如何去建立一个安全的系统以应对honest-but-curious的服务器,同时有一些用户是恶意的,甚至有一些参与方会与server结合谋策。

由于微信公众号试行乱序推送,您能够不再能准时收到AI科技回复的推送。为了第一工夫收到AI科技回复的报道, 请将“AI科技回复”设为星标账号在看”。
回复

使用道具 举报

大神点评3

喺歡Iしov妳 2021-7-10 13:41:08 来自手机 显示全部楼层
一点毛病没有,顶你
回复

使用道具 举报

坤儿holic 2021-7-11 13:59:36 显示全部楼层
鼎力支持!!
回复

使用道具 举报

609344505 2021-7-12 13:19:09 显示全部楼层
好棒的分享楼主多写点吧,写完记得通知我,哈哈
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册