智客公社

标题: 引荐两个AI攻防安全的比赛:第一个谷歌,第二个清华+阿里 [打印本页]

作者: kulelala    时间: 2021-7-19 14:14
标题: 引荐两个AI攻防安全的比赛:第一个谷歌,第二个清华+阿里
(, 下载次数: 1125)


这里有两个比赛:
第一个是谷歌在顶级学术会议NIPS 2017上的比赛,应该是世界上第一个AI安全比赛。

大多数现有的机器学习分类器都非常容易遭到对抗样本的影响。对抗性示例是输入数据的样本,该样本经过细微修正,旨在导致机器学习分类器对其停止错误分类。在许多状况下,这些修正能够非常巧妙,以致于人类观察者根本不会留意到这些修正,但分类器照旧会出错。
对抗性示例会惹起安全成绩,由于它们可用于对机器学习系统停止攻击,即便对手无法访问底层模型。
为了加速对抗样本的研讨,Google Brain正在NIPS 2017 竞赛内组织对抗性攻击和防御竞赛。
对抗性攻击和防御竞赛包括三个子竞赛:
非针对性对抗性攻击。非针对性攻击的目的是稍微修正源图像,使图像被通常未知的机器学习分类器错误分类。
有针对性的对抗性攻击。针对性攻击的目的是稍微修正源图像,使图像被通常未知的机器学习分类器分类为指定的目的类。
防御对抗性攻击。防御的目的是构建机器学习分类器,该分类器对对抗性示例具有鲁棒性,即可以正确分类对抗性图像。
在每个子竞赛中,您都被约请制造并提交一个处理相应义务的程序。在比赛结束时,我们将针对一切防御运转一切攻击,以评价每种攻击对每种防御的表现。

(, 下载次数: 1101)

第二个是最近清华和阿里办的一个比赛,代表了学术界最近比较关怀的成绩。
如今,大多数机器学习模型都容易遭到对抗样本的攻击,成为近年来被广泛研讨的新兴话题。目前很多对抗防御方法被提出以减轻对抗样本的要挟。但是,其中一些防御可以被更弱小或更具针对性的攻击攻破,这使得很难判别和评价当前防御和将来防御的有效性。假如不能对防御模型停止片面而正确的鲁棒性评价,那么此范畴的停顿将遭到限制。


为了加快对当前防御模型在图像分类中的对抗性鲁棒性停止牢靠评价的研讨,我们组织本次比赛,目的是为了产生新颖的攻击算法来愈加有效,牢靠地评价对抗鲁棒性。我们鼓励参与者开发弱小的白盒攻击算法,以发现各种模型的最坏状况下的鲁棒性。
本次比赛将在对抗性鲁棒性评价平台ARES上停止。

(, 下载次数: 1176)

(完)
亲爱的数据,出品
相关阅读:开源系列:AI对抗攻防算法开源平台,哪家强?

(, 下载次数: 1209)

作者: kaiteandefish    时间: 2021-7-19 14:26
高手对决,点个赞。
作者: 小璐児161    时间: 2021-7-20 12:05
珍爱生命,果断回帖。
作者: 897799893    时间: 2021-7-21 10:57
在撸一遍。。。
作者: 单人走天下丶    时间: 2021-7-22 11:26
前排顶,很好!




欢迎光临 智客公社 (https://bbs.cnaiplus.com/) Powered by Discuz! X3.5