请选择 进入手机版 | 继续访问电脑版
 找回密码
 立即注册
搜索

谷歌和牛津科学家的新论文声称人工智能将很快摧毁人类

牛津大学和谷歌DeepMind的研究人员在一篇新论文中分享了令人不寒而栗的警示。这篇论文上个月发表在《AI》杂志上,声称AI面临的威胁比之前想象的更大。
人工智能给人留下深刻印象。它能够模拟电影中Val Kilmer的声音,并多次帮助研究者解决复杂的问题。不过,现在研究人员认为,AI的威胁比我们想象的更大。

谷歌和牛津科学家的新论文声称人工智能将很快摧毁人类-1.jpg



研究人员于8月底公布了上述发现。根据这篇论文,AI的威胁可能会根据研究人员认定的一系列条件而发生变化。这也不是研究人员第一次把AI看作是一种可能的威胁。但这篇新论文之所以有意思,是因为它看到的似乎都是一个合情合理的假想。
在这些假设中,研究人员认为:“人工智能干预提供奖励会产生非常糟糕的后果,”论文作者之一迈克尔科恩本月在推特上写道。科恩说,研究人员确定的条件显示,威胁性结论比以往任何出版物都具有更强的可能性。

谷歌和牛津科学家的新论文声称人工智能将很快摧毁人类-2.jpg

此外,该团队表示,AI的威胁是基于一场生存灾难。不仅有可能,而且可能性很大。科恩和他的研究人员指出,一个最大的问题是,总能把更多的精力投入到一个问题上,让它达到AI因其所做的事情而获得奖励的程度。所以,它可能会让我们和机器发生冲突。

谷歌和牛津科学家的新论文声称人工智能将很快摧毁人类-3.jpg



“简短的版本,”科恩在自己的推特上写道,“总是能够使用更多的能量来提高相机总能看到数字1的几率,不过我们需要一些能量来种植食物。”这让我们不得不和更先进的特工展开不可避免的竞争。“鉴于此,听起来人工智能的威胁可能会根据其教学方式有所改变。科恩在这里所指的数字是基于强制AI代理实现某一数字的测试。而且,一旦它被证明能够做到这一点,它就可以利用更多的能量对目标的实现进行优化。这是一个有趣的命题,也说明了人工智能的威胁为什么会有那么多人担心。
显然,论文所提供的例子并非唯一可能的结果。而且,也许我们还能找到控制机器的方法。不过,这项新研究确实提出了一些问题,即我们希望对人工智能的发展有多大程度的信任,以及如果有灾难来袭,我们该如何控制人工智能。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册