找回密码
 立即注册
搜索

人工智能图像辨认正在改变这个时代

研讨表明,,一幅出租车的图片仅仅是改变一个像素,电脑能够会被骗。


这一限制来自于日本人的工作方式,他们的方法是捉弄运用的基于人工智能的图像辨认系统。

许多其他的迷信家如今正在创建“敌对”的例子来暴露某些类型的辨认软件的脆弱性。

专家们正告说,修复图像辨认系统并不是一种疾速简便的方法,以防止他们被这种方式捉弄。

轰炸机或斗牛犬吗?

在他们的研讨中,来自九州大学的苏家伟和他的同事对大量的图片停止了宏大的改动,这些图片被广泛运用的基于ai的图像辨认系统停止了分析。



他们所测试的一切系统都是基于一种被称为“深度神经网络”的人工智能。普通来说,这些系统经过接受大量不同的例子来学习,让他们了解诸如狗和出租车这样的物体是如何不同的。

研讨人员发现,在大约74%的测试图像中改变一个像素使神经网络错误地标记了他们所看到的。一些错误是近间隔的失误,比如一只猫被误以为是一只狗,但是其他的错误,包括把一只隐形轰炸机标记为一只狗,这些错误的范围更广。

日本的研讨人员开发了一系列基于像素的攻击,这些攻击捕捉到了他们所测试的一切最先进的图像辨认系统。

“据我们所知,没有数据集或网络比其他更弱小,”来自九州的Jiawei说,他指导了这项研讨。

深入的成绩

麻省理工学院(麻省理工学院)的Anish Athalye说,世界各地的许多研讨小组如今都在开发“敌对的例子”,暴露了这些系统的弱点。他也在研讨这个成绩。

Athalye和他的同事们所做的一个例子是一个3D打印的海龟,一个图像分类系统坚持把它标记为步枪。

他告诉BBC:“越来越多的理想世界的系统末尾整合神经网络,这是一个很大的成绩,这些系统有能够应用敌对的例子来毁坏或攻击。”

他说,虽然在理想生活中并没有出现恶意攻击的例子,但这些所谓的智能系统很容易被骗,这一理想令人担忧。包括Facebook、亚马逊和谷歌在内的网络巨头都在研讨如何抵制敌对的剥削。

他说:“这也不是什么奇异的“角案”。“我们曾经在我们的工作中证明,你可以拥有一个单一的物体,它总是捉弄一个人的观点,即便是在理想世界中。

他补充说:“机器学习社区并不完全了解敌对的例子发生了什么,也不知道它们为什么会存在。”

Jiawei揣测,敌对的例子应用了神经网络在学习过程中构成的成绩。

一个基于神经网络的学习系统通常需求在大量节点之间建立衔接,就像大脑中的神经细胞一样。分析包括网络对它所看到的内容做出许多决议。每一个决议都应该让网络更接近正确的答案。

但是,他说,敌对的图像在这些决议之间处于“边界”,这意味着它没有花太多的工夫来迫使网络做出错误的选择。

他说:“对手可以经过添加宏大的干扰,最终被错误分类,从而使他们进入到边界的另一边。”

Athalye说,修复深度神经网络,让他们不再容易遭到这些成绩的影响,这能够是一件棘手的事情。

“这是一个开放的成绩,”他说。“有很多提议的技术,几乎一切的技术都被打破了。”

Athalye说,一种有希望的方法是在培训过程中运用敌对的例子,因此网络被教育要承认它们。但是,他说,即便这样也不能处理这个研讨所暴显露的一切成绩。

他说:“这里一定有一些奇异和风趣的事情发生,我们只是不知道它到底是什么。”

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复

使用道具 举报

大神点评3

Fate0垨堠 2019-8-17 08:06:45 显示全部楼层
前排,哇咔咔
回复

使用道具 举报

Eiiejej 2019-8-18 09:21:29 显示全部楼层
嘘,低调。
回复

使用道具 举报

漠风逆 2019-8-19 11:50:33 显示全部楼层
看起来好像不错的样子
回复

使用道具 举报

高级模式
B Color Image Link Quote Code Smilies