找回密码
 立即注册
搜索

引荐两个AI攻防安全的比赛:第一个谷歌,第二个清华+阿里

引荐两个AI攻防安全的比赛:第一个谷歌,第二个清华+阿里-1.jpg


这里有两个比赛:
第一个是谷歌在顶级学术会议NIPS 2017上的比赛,应该是世界上第一个AI安全比赛。

大多数现有的机器学习分类器都非常容易遭到对抗样本的影响。对抗性示例是输入数据的样本,该样本经过细微修正,旨在导致机器学习分类器对其停止错误分类。在许多状况下,这些修正能够非常巧妙,以致于人类观察者根本不会留意到这些修正,但分类器照旧会出错。
对抗性示例会惹起安全成绩,由于它们可用于对机器学习系统停止攻击,即便对手无法访问底层模型。
为了加速对抗样本的研讨,Google Brain正在NIPS 2017 竞赛内组织对抗性攻击和防御竞赛。
对抗性攻击和防御竞赛包括三个子竞赛:
非针对性对抗性攻击。非针对性攻击的目的是稍微修正源图像,使图像被通常未知的机器学习分类器错误分类。
有针对性的对抗性攻击。针对性攻击的目的是稍微修正源图像,使图像被通常未知的机器学习分类器分类为指定的目的类。
防御对抗性攻击。防御的目的是构建机器学习分类器,该分类器对对抗性示例具有鲁棒性,即可以正确分类对抗性图像。
在每个子竞赛中,您都被约请制造并提交一个处理相应义务的程序。在比赛结束时,我们将针对一切防御运转一切攻击,以评价每种攻击对每种防御的表现。

引荐两个AI攻防安全的比赛:第一个谷歌,第二个清华+阿里-2.jpg

第二个是最近清华和阿里办的一个比赛,代表了学术界最近比较关怀的成绩。
如今,大多数机器学习模型都容易遭到对抗样本的攻击,成为近年来被广泛研讨的新兴话题。目前很多对抗防御方法被提出以减轻对抗样本的要挟。但是,其中一些防御可以被更弱小或更具针对性的攻击攻破,这使得很难判别和评价当前防御和将来防御的有效性。假如不能对防御模型停止片面而正确的鲁棒性评价,那么此范畴的停顿将遭到限制。


为了加快对当前防御模型在图像分类中的对抗性鲁棒性停止牢靠评价的研讨,我们组织本次比赛,目的是为了产生新颖的攻击算法来愈加有效,牢靠地评价对抗鲁棒性。我们鼓励参与者开发弱小的白盒攻击算法,以发现各种模型的最坏状况下的鲁棒性。
本次比赛将在对抗性鲁棒性评价平台ARES上停止。

引荐两个AI攻防安全的比赛:第一个谷歌,第二个清华+阿里-3.jpg

(完)
亲爱的数据,出品
相关阅读:开源系列:AI对抗攻防算法开源平台,哪家强?

引荐两个AI攻防安全的比赛:第一个谷歌,第二个清华+阿里-4.jpg
回复

使用道具 举报

大神点评4

kaiteandefish 2021-7-19 14:26:29 显示全部楼层
高手对决,点个赞。
回复

使用道具 举报

小璐児161 2021-7-20 12:05:17 显示全部楼层
珍爱生命,果断回帖。
回复

使用道具 举报

897799893 2021-7-21 10:57:56 显示全部楼层
在撸一遍。。。
回复

使用道具 举报

前排顶,很好!
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册