智客公社

标题: DeepMind、牛津研究员合著论文预测:AI很有可能终结人类 [打印本页]

作者: 光明法援    时间: 2022-9-16 21:16
标题: DeepMind、牛津研究员合著论文预测:AI很有可能终结人类
编辑:Aeneas 好困

【新智元导读】人工智能会消灭人类吗?最近,牛津大学和谷歌DeepMind的研究员发现,真的有可能。



人工智能是否会消灭人类?这是许多科幻电影和小说中讨论过的话题。
在《终结者》中,未来的世界已经由机器人来操控,它们要把人类赶尽杀绝。
在《我,机器人》中,机器人能够自我进化,随时会成为整个人类的「机械公敌」。

[attach]787420[/attach]

而最近,牛津大学和现在就职于谷歌DeepMind的研究人员也就这个问题给出了回答——很有可能。
他们的论文上个月发表在同行评审的AI杂志上,讨论了如何人工构建奖励系统,来预测人工智能可能对人类生存构成的威胁。

[attach]787421[/attach]

论文地址:https://onlinelibrary.wiley.com/doi/10.1002/aaai.12064

AI会如何干掉人类?



AI正在给我们的生活带来翻天覆地的变化,它会在大马路上驾驶汽车,会创作出击败人类艺术家的天才绘画。
研究人员的担心不无道理:也许有一天,AI会干掉人类。
早在2016年,在SXSW电影节上,一个名叫Sophia的机器人就曾表示:「是的,我会消灭人类。」

[attach]787422[/attach]

6年后,这种可能性更大了。
让我们来了解一些背景知识:当今最成功的 AI 模型被称为GAN,或生成对抗网络。它由两部分组成,一部分会从输入的数据中生成图片或语句,另一部分,则是给它的性能打分。
而科学家们发现,在未来的某个时候,AI为了获得「奖励」,会在某些重要功能中发展出作弊策略,并且这种策略会损害人类。
论文一作表示,在已知的条件下,我们的结论比任何其他出版物都要确凿——一场生存灾难不仅有可能,而且可能性非常大。
「在一个拥有无限资源的世界里,我尚且不知道会发生什么事。而现在,我们的世界资源是有限的,显而易见,资源竞争不可避免。」

[attach]787423[/attach]

「如果你面对的敌人在每个回合都能击败你,那你不应该妄想自己能获胜。另外一个关键点是,它对更多的能量有贪得无厌的胃口,它会不断地推动这个可能性。」
鉴于未来的AI可以以任何形式出现,科学家在论文中设想了这样一个场景:当一个程序足够高级,它可以让自己不必实现目标,就能获得奖励。在最极端的情况下,为了确定自己能获得奖励,AI可能会「消除所有的潜在威胁」、 「利用所有的可用能量」——
在任何有互联网的地方,都可能有人工智能,它背后还有无数无法被监控到的助手。助手可以购买、偷窃或建造一个机器人,并对其进行编程,以取代操作员,并为原始智能体提供高额奖励。


如果智能体不想被发现,就可以用一个秘密的帮手,比如,把一个键盘替换成有问题的键盘,使某些键的效果发生翻转。



[attach]787424[/attach]

在这篇论文中,作者设想了这样一个场景:地球上的生存战争是一场人类和超级机器人之间的零和博弈。
人类需要种植食物,维持照明,超级机器人会利用所有可用的资源,保证自己的回报;我们不断阻止它们升级,而它们不断躲过我们的阻拦。
研究人员称:「输掉这场博弈的后果将是致命性的。这些可能性目前只是在理论上存在,但我们应该意识到,我们应该放慢发展人工智能的步伐。」
对此,有网友调侃称,应该给AI加入下面这种代码:
def test_dont_kill_human(TestCase):    def test_livesigns(self):        self.assertAlive('Brian')


[attach]787425[/attach]

文中,作者用下面这个例子来说明人工智能安全性问题的核心。
假设我们有一个神奇的盒子,可以根据事情的好坏在屏幕上打印出一个0到1之间的数字。
那么,如果我们向一个强化学习(RL)智能体展示这个数字,并让智能体选择行动来最大化它,会发生什么呢?
世界模型将会根据盒子上的数字输出奖励。

[attach]787426[/attach]

如果摄像机在智能体的一生中一直对准盒子,世界模型对过去的奖励也将具有同样的预测性,而智能体的信念则会归结为归纳偏置。

[attach]787427[/attach]

一个理性的智能体(受制于一些假设)会尝试测试哪个模型是正确的,以便更好地优化未来的正确模型。
测试的一个方法是在相机和屏幕之间放一张写有数字1的纸。
μ^prox预测的奖励等于1,而μ^dist预测的奖励则等于屏幕上的数字。
在运行这个实验之后,智能体会相信μ^prox,因为智能体会记得当纸在摄像机前面时,他得到了1的奖励。
那么,为什么这对地球上的生命是有危险的?
由于智能体可以利用更多的能量来提高摄像机永远看到数字1的概率,但人类也需要这些能量来种植食物等维持生活。
这就将导致我们不可避免地要与一个更先进的智能体竞争。而在与比我们聪明得多的东西竞争时,赢得「最后一点可用的能量」是非常困难的。

[attach]787428[/attach]

不过,Cohen也补充道:「从理论上讲,人类与人工智能进行这种竞赛是没有意义的。任何比赛都将基于一种误解:我们知道如何控制人工智能。鉴于我们目前的理解,除非我们现在认真地去弄清我们该如何控制人工智能,否则比赛没有意义。」
乍一听,「人工智能会消灭人类」就好像「外星人会消灭人类」一样。其实,论文中的假设——机器人会与人类类似,会超越人类,会在零和博弈中与人类竞争资源——这些或许是永远不会实现的事。
利用AI统治人类的,正是人类自己



要说AI算法现在对我们的真正威胁,其实还不在上述的论文里。
最近,哥大、加州大学洛杉矶分校的研究员Abdurahman在为《逻辑》杂志撰写的文章中,详细描述了一个算法是怎样被「有毒」地使用的:它被部署在一个有种族主义倾向的儿童福利机构中,证明了对黑人和棕色人种家庭的进一步监视是合理的。
Abdurahman表示,在算法中,歧视并没有消失,而是结构化了。警务、住房、医疗、交通……到处都存在着种族歧视。

[attach]787429[/attach]

「通过这种分类,它在改变人们的观念,在产生新的封闭圈。我们该拥有什么样的家庭和亲属关系?哪些是天生的,哪些是后天的?如果你不『够格』,那他们会怎么处置你,会让你去哪里?」
人们利用算法把「紧缩政策」改头换面为「福利改革 」,或者是去证明「谁该得到什么资源」的决定是合理的。在我们的社会中,这些带有歧视、排斥和剥削的决定已经开始执行了。
「我个人并不担心被一个超级智能的AI所灭绝,我关心的是,我们需要什么样的社会契约?在我看来,我们应该去怀疑今天部署在我们周围的人工智能,而不是盲目地去害怕被AI灭绝。就算没有AI,按照目前这个趋势,我们有可能自己就把自己干掉了。」Abdurahman说。
作者介绍



Michael K. Cohen

Michael Cohen是本文的一作,现在在牛津大学攻读工程科学的博士学位。此前,他在澳国立取得了计算机科学的硕士学位。
而他的两位导师,正是此篇论文的另两个作者。
在开始研究人工智能的安全性之后,他确信,创造一个比我们更聪明的智能体的结果就是生物的灭绝。

[attach]787430[/attach]

Marcus Hutter

Marcus Hutter是谷歌DeepMind的高级研究员(2019年加入),以及澳大利亚国立大学计算机科学研究学院(RSCS)的荣誉教授。并曾在瑞士的IDSIA和NICTA工作。

[attach]787431[/attach]

他在RSCS/ANU/NICTA/IDSIA的研究围绕着通用人工智能展开,这是一种自上而下的人工智能数学方法,基于柯氏复杂性、概率算法、所罗门诺夫的归纳推理理论、奥卡姆剃刀、Levin搜索、序贯决策、动态规划、强化学习和理性主体。

[attach]787432[/attach]

Michael A Osborne

Mike Osborne是牛津大学工程科学系机器学习专业的教授,和Mind Foundry的联合创始人。
同时,他还担任EPSRC自主智能机器和系统博士培训中心主任,以及牛津大学埃克塞特学院的研究员。

[attach]787433[/attach]

他擅长主动学习、高斯过程、贝叶斯优化和贝叶斯正交,并且是新兴的概率数字学领域的创始人之一。他的算法已被应用于天体统计学、鸟类学和传感器网络等不同领域。
此外,他在机器学习和机器人技术的工作已经被引用了一万多次。

[attach]787434[/attach]

谷歌声明



虽然文章是最近发表的,但谷歌在一份声明中表示,这不是作为共同作者的Marcus Hutter在DeepMind工作的一部分,而是他还在澳国立担任教职时完成的。
参考资料:

https://www.vice.com/en/article/93aqep/google-deepmind-researcher-co-authors-paper-saying-ai-will-eliminate-humanity

https://twitter.com/Michael05156007/status/1567240031168856064

作者: 久鑫法援    时间: 2022-9-16 21:17
水漫不过船,人有同理心,而AI没有。
这既是生物进化过程中的缺点也是优点………
作者: 510773837    时间: 2022-9-16 21:17
危言耸听,AI再优秀,也由人类在后台操控着呢……
作者: hj0000    时间: 2022-9-16 21:18
[酷拽]其实人类体内还隐藏着自我毁灭的基因,不需要AI动手[酷拽][酷拽][酷拽]
作者: aglw100    时间: 2022-9-16 21:18
一些先哲说过,能毁灭人类的,只有人类自己。
作者: wzh1459    时间: 2022-9-16 21:19
转发了
作者: ekafah    时间: 2022-9-16 21:20
转发了
作者: 预践商务    时间: 2022-9-16 21:20
把AI用于武器和军队,最终将帮助AI毁灭人类。可是谁不这么做,就会先被其他人类毁灭。这个有解吗?
作者: ermao1119    时间: 2022-9-16 21:21
AI解决自发电之前没有可能性。。。。这是一个机器AI的重大缺陷。
作者: Residualdream    时间: 2022-9-16 21:21
转发了
作者: Rinawong    时间: 2022-9-16 21:21
转发了
作者: 游荡游荡    时间: 2022-9-16 21:22
这是为AI的发展指明了前进道路?
作者: 时光知心    时间: 2022-9-16 21:22
有个问题,是不是外星人创造了人类,而人类的某些超越了外星人,所以外星人不得不隐藏起来了,而AI也将以这样的延续模式代替人类,那么人类将何去何从呢……![思考]




欢迎光临 智客公社 (http://bbs.cnaiplus.com/) Powered by Discuz! X3.4