智客公社

标题: 演讲直击|罗斯坦·纽维尔:潜意识人工智能系统的监管:一项全球挑战? [打印本页]

作者: i994463630    时间: 2022-9-18 22:24
标题: 演讲直击|罗斯坦·纽维尔:潜意识人工智能系统的监管:一项全球挑战?
潜意识人工智能系统的监管:一项全球挑战?

我们当前所处的时代是一个充满悖论的时代,一如当年的矛盾时代,这样的时代给我们带来了严峻的监管挑战。人工智能被描述为一种自相矛盾的存在,因为人类智能与具有学习能力的人工智能机器相处并不融洽。因此,在我看来,大卫·霍尔德(David Held)在2010年出版的书中提出的“我们时代的悖论”很好地概括了这一点,书中写道:“我们时代的悖论可以简单地概括为:我们必须解决的共同问题日益全球化,然而,解决这些问题的手段却局限于一国一地,薄弱且不完整。”这种悖论适用于由可持续发展目标精炼概括的许多当代问题,比如气候变化和全球大流行病时期的公共卫生设施不平等,但我认为人工智能亦属于这一类问题,下面我将试着说明个中缘由。

在过去两年中,已进行了相当多的监管活动。这些监管活动始于去年,即2021年4月,当时欧盟委员会提出了一项新法规,规定了人工智能的统一规则,即所谓的《人工智能法案》,目前正在制订过程中。此后不久,11月,联合国教科文组织还以其193名成员的广泛共识通过了《人工智能伦理问题建议书》。虽然这只是一种建议,但它也是一份非常重要的文件,表明存在一种全球关注:人工智能不仅能带来机遇,同时还有与之相关的风险。这也是欧洲委员会提出的一项倡议,当然,许多其他国家亦在国内层面就处理人工智能带来的各种后果的立法和监管行为进行讨论。但欧盟的法案和建议也相当全面,不失为一种横向比较的方法,这也是以之为出发点的妙趣所在。

在此之前,我还想提及联合国教科文组织文本中也强调的一个具体方面,即人工智能对社会、环境、生态系统和人类生活的巨大正面和负面影响,其中特别强调对人类生活的影响,因为这是人工智能在某种程度上成为游戏规则变革者的原因,因为人工智能让我们得以影响人类的思维、互动沟通、决策,最终也会改变我们的行为方式。

在这方面,我的书也讨论了《欧盟人工智能法案》的一个具体方面,即第5(1)条,该条建议禁止某些人工智能系统在人的意识之外部署潜意识技术,以实质性扭曲个人的行为,这种技术会或可能会导致使用者或他人遭受生理和心理伤害。

因此,尽管这只是一个拟议的文本,但在我看来,这是该法案的核心或关键条款,涉及人工智能对大脑的影响,以及其以积极和消极方式操纵大脑的可能性。在这方面,通过这一条款,提出了许多重要的问题,即,首先,什么是潜意识感知?什么是潜意识操纵,它有效吗?其次,在我们的意识之上和之下,感知的阈值在哪里?该阈值是否同样适用于每个感官或所有感官?最后,这些已经能够操纵我们的人工智能系统和技术是什么?在未来,他们将以何种形态出现在我们的面前?

在此,我想先回顾一下我在研究中遇到的一件事,即在这个阈值上,我们显然只能控制5%的认知功能,有95%都是潜意识在发挥作用,这意味着我们的大多数决定都是在潜意识的控制下做出的,而且我们基本上都是自发做出这些行为决定的,比如走路和开车等等。但这意味着,如果有技术可以让我们利用这95%的潜意识,该项技术将是一个非常强大的工具,不仅可以影响我们的思想,还可以影响我们行为。

这也可以追溯到20世纪30年代的实验,首先是一些心理学实验,随后得出了一些实验发现:潜意识、感官刺激会对大脑产生影响,以及我们如何将其应用到广告中,比如在电影院快速播放一些关于喝可口可乐、吃爆米花镜头后,会令观众作出更多消费,尽管观众自己也没有意识到这些镜头会产生这样的作用。多年来,这点一直存在争议,20世纪50年代也有一些书籍警告说:这些潜意识策略对消费者的行为有很大的影响,而且这些策略也可以用于其他目的,比如政治目的,比如提拔政客或者改变选举结果。我们知道“剑桥分析公司丑闻”从某种意义上证明了这种可能性。但我不想进一步讨论这个问题,只是想总结一下潜意识的问题,就像广告一样,我认为,对此现在已有科学共识:许多研究证明潜意识操纵是有效的,它能够影响我们的思想和行为。但能在多大程度上发挥作用取决于许多因素,但总而言之,人们普遍认为潜意识操纵是可能的。

另一个问题是:实现潜意识操纵的意识阈值界限在哪里?人们对此进行了长期的争论。我认为,最新的发现对此问题做了科学的总结:不存在这样的阈值界限。

首先,这可能是由于不同的人有不同的意识阈值,有些人听力更好,有些人视力更佳,有些人更专注于不同的感官。最重要的是,甚至在同一个人身上,意识阈值也是不断变化的;当你清醒时,你的视力更好、听力更佳、人也更为警觉,因此这个意识阈值会根据不同因素而变高或变低。因此,上述讨论只是从监管角度出发,如果有更多的时间,应该进行全面的讨论。

这些在潜意识中运作的人工智能技术是什么?这里我只想举一个例子,有一个关于酒店网站预订的实验,当实验人员在酒店房间的视频中不经意地添加了微小的表情符号,即当被测试人员看到酒店房间的视频时,不会全然意识到微笑表情符号的存在。在不经意地嵌入微笑表情符号的视频中,消费者的认可率很高,所以这在某种程度上表明:简单的表情符号、简单的刺激,比如微笑的表情符号,可以对消费者的行为产生潜意识影响。还有很多的例子,在现实中也有人做了一些侵入大脑并提取个人信息的实验,主要是通过使用不同的技术组合,提取的个人信息,包括你的密码、你的生日、你的地址等。在此提及的人工智能可以协调学习,使机器得以收集数据,然后将数据与不同的来源相结合,如计算机、大脑、接口或各种医疗设备,如功能性磁共振成像等。因此,我们今天所见的强大手段是基于这些不同技术的融合,这在某种程度上已经获得神经营销学的认可,当然这种手段也可以用于许多其他目的。

因此,在某种程度上,人们已经认识到,人工智能的大势已来,我们已经从为计算机编程转变为为人编程。这也概括了一个事实,即我们已经拥有非常强大的技术,随着更多的设备被创建、创新和重新组合,人工智能技术在未来将变得更加高效,比如在增强现实和虚拟现实中。此外,我们也在创造、复制着人类的大脑,通过这些手段,我们也能够进一步了解人类大脑中正在发生的事情。对此,我们需要一场激烈的讨论,一场不仅局限于本地视角,而是放眼全球的讨论,因为在某种程度上,人工智能存在一种危险:即通过这些人工智能技术,人类人格中最私密部分的个人思想将变得公开且透明,以及这些技术,不论是以积极还是消极的方式,都将成为操纵人类行为的强大工具。

此外,人工智能本身并不矛盾。我认为人工智能并非“智能”,我们也不应该对其以“智能”相称,因为这样的称谓就其实际情况而言属于言过其实。有趣的是,计算机也可以被操纵,计算机并不完全可信,计算机也会出错。举个例子,我们的笔记本电脑也会死机或发生其他故障。同样的情况也可能发生在自动驾驶汽车上,一旦出现这种情况,后果不堪设想。因此,我们应该真正关注人工智能当下以及未来的智能程度和可信赖性。因此,我们需要一场讨论,一场全球性的讨论,讨论的焦点要关注人工智能的可信赖性,以及我们如何使人工智能合乎伦理道德。我们还需要讨论人工智能需要受到多大程度的人类监督,我们不应该把所有事情都交代给机器。我们还必须确保这些系统在不同的法律体系、不同的司法管辖区等中具有互操作性,而且不存在我们从互联网上得知的人为障碍,比如地域屏蔽。因此,我们也必须通过思想自由和隐私保护等基本权利来保护我们的大脑和思想,我们还必须重新考虑“造成伤害”的含义。对“伤害的范围”有非常有趣的评论,伤害应不仅指心理和生理伤害,我们还需要对伤害作出更广泛的定义:社会伤害、文化伤害、金融伤害,或者一场被操纵的选举还会对全体民众产生影响。因此,我们需要倾听各方意见,以扩大我们对伤害的理解。

最后,我们需要更大范围的监管一致性,这意味着不同部门法之间的一致性,这不能仅由某一部门法予以监管,比如仅由不正当竞争法或仅由知识产权法予以监管。这确实需要我们重新思考整个法律体系,以及这些不同的部门法如何协同工作。最重要的是,我们需要一场跨学科的讨论,因为我们需要心理学、神经科学、以及所有参与这些在潜意识中发挥作用的人工智能技术和人工智能系统开发的人员的投入,并共同努力确保在未来人工智能技术和系统是安全的,并在一定程度上能够保护我们思想的私密性。归根到底,这是因为如果我们不能控制自己的思想(虽然通常很难),那么很有可能,其他人或算法将会成为你思想的控制者。

骆 珍 金惠珠

[attach]787764[/attach]




欢迎光临 智客公社 (http://bbs.cnaiplus.com/) Powered by Discuz! X3.4