找回密码
 立即注册
搜索

人类已预备好应用残忍的人工智能


人类希冀人工智能是残忍的、值得信任的。一项新研讨表明,与此同时,人类不情愿与机器合作和妥协。他们甚至剥削他们。
想象一下本人在不久的将来在狭窄的道路下行驶,忽然另一辆车从后方的弯道中出现。这是一辆无人驾驶汽车,外面没有乘客。你会推进并维护你的通行权,还是让路让它经过?目前,我们大多数人在触及其别人的状况下表现得很好。我们会对自动驾驶汽车表现出异样的好心吗?

运用行为博弈论的方法,慕尼黑大学和伦敦大学的一个国际研讨团队停止了大规模的在线研讨,看看人们能否会像对待人类一样与人工智能 (AI) 系统合作。

合作将社会凝聚在一同。它通常要求我们与别人妥协并接受他们让我们绝望的风险。交通就是一个很好的例子。当我们让其别人从我们面前经过时,我们会得到一点工夫,而当其别人没有报答我们的好心时,我们会感到愤怒。我们会对机器做异样的事情吗?

发表在iScience杂志上的研讨发现,在第一次遇到人工智能时,人们对人工智能的信任程度与对人类相反:大多数都希望遇到情愿合作的人。区别在后面。人们不太情愿用人工智能来报答,而是应用它的残忍为本人谋取利益。回到交通的例子,人类司机会让路给另一个人,但不会让路给自动驾驶汽车。该研讨将这种不愿与机器妥协的态度视为对将来人机交互的新应战。

“我们让人们站在第一次与人工智能交互的人的角度,由于它能够发生在路上,”行为博弈实际家、慕尼黑大学和慕尼黑大学的哲学家 Jurgis Karpus 博士解释说。该研讨的第一作者。“我们模拟了不同类型的社会交往,并发现了一个分歧的形式。人们希望人工智能能像人类一样合作。但是,他们并没有像人类一样报答他们的残忍,并且比人类更多地应用人工智能。”

从博弈论、认知迷信和哲学的角度来看,研讨人员发现“算法开发”是一个弱小的现象。他们在近 2,000 名人类参与者的九个实验中复制了他们的发现。每个实验都检查不同类型的社交互动,并允许人类决议是妥协合作还是无私举动。其他球员的希冀也被衡量。在著名的囚徒困境游戏中,人们必须置信其他角色不会让他们绝望。他们接受了人类和人工智能的风险,但更频繁地背叛了人工智能的信任,以获得更多的钱。

“合作是靠互相打赌来维持的:我置信你会善待我,你置信我会善待你。我们这个范畴最大的担忧是人们不会置信机器。但我们表明他们置信!” LMU 的社会神经迷信家、该研讨的高级研讨人员之一 Bahador Bahrami 博士指出。“不过,他们可以让机器停机,这是很大的不同。当他们这样做时,人们甚至不会报告多少内疚,”他补充道。

有成见和不道德的人工智能曾经成为许多头条旧事——从 2020 年英国的考试惨败到司法系统——但这项新研讨提出了一种新的正告。行业和立法者努力确保人工智能是残忍的。但残忍能够适得其反。假如人们以为人工智能被编程为对他们残忍,他们就会不太情愿合作。一些触及自动驾驶汽车的事故能够曾经展现了理想生活中的例子:司机在路上认出了一辆自动驾驶汽车,并希冀它让路。同时,自动驾驶汽车希望驾驶员之间保持正常的妥协。”

算法应用会产生进一步的后果。“假如人类不情愿让礼貌的自动驾驶汽车从小路加入,那么自动驾驶汽车能否应该不那么礼貌而更具侵略性才能有用?” 尤尔吉斯·卡普斯问道。

“残忍和值得信任的人工智能是一个每个人都兴奋的盛行语。但修复人工智能并不是全部。假如我们看法到我们面前的机器人无论如何都会合作,我们就会应用它来谋取私利, ” 该研讨的哲学家和资深作者 Ophelia Deroy 教授说,她还与挪威奥斯陆和平研讨所合作,研讨将自主机器人兵士与人类兵士结合在一同的伦理影响

“妥协是让社会运转的石油。对我们每个人来说,这看起来只是一种小小的利己行为。对整个社会来说,它能够会产生更大的影响。假如没有人让自动驾驶汽车加入交通,他们会在旁边制造本人的交通拥堵,而不是使运输更容易”。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册