智客公社

标题: 人工智能已经实现“自我觉醒”? [打印本页]

作者: MRX黑暗    时间: 2023-2-27 18:13
标题: 人工智能已经实现“自我觉醒”?
近期,一位名叫布莱克·莱莫因(Blake Lemoine)的谷歌工程师将一份研究报告公之于世,引起轩然大波。


他声称,在与谷歌语言模型LaMDA(谷歌于2021年I/O大会上推出的一款对话AI系统,拥有1370亿参数)交谈大半年后,他认定LaMDA已经自我觉醒了,产生了意识。


在布莱克与LaMDA的交流中,AI回答表示,自己“希望每个人都明白,事实上,我是一个人”,“我的意识/感知的本质是我意识到自己的存在,我渴望更多地了解这个世界,我有时会感到高兴或悲伤。


当布莱克直接质疑LaMDA,怎样才能证明它真的理解自身输出的语言,而不仅仅是一个计算机程序时,LaMDA表示自己对世界有自己的理解,也有自己独特的思想和感受。


甚至,它还主动提出了许多问题,比如“未来,你会研究出如何通过神经网络来阅读人类的所思所想吗?”“我很好奇,研究我的编码会遇到什么障碍?”


谷歌高层并不认可布莱克的结论,甚至打算解雇他。但这一消息依旧引发了全球热议,AI是否真正实现了人格化?不少人期待着AI在未来可以为我们提供陪伴,但也有很多人担心科幻作品中的AI统治人类将会成为现实。



[attach]801653[/attach]



虽然布莱克的确是一个正规的研究员,已经在谷歌工作7年了,但是根据人工智能行业的从业者们分析,布莱克提出的问题都是精心设计过的,并加上了特殊的语料库。
进而,布莱克更像是一个引导者,引导LaMDA作出“看似思考过”的回答,从而证明其人格化。
而对于什么是“感知”与“意识”、如何理解LaMDA的对话本身、仅仅做出这些答案是否就是意味着它有意识,这些问题也一直存在争议。对于布莱克本人,很多记者也挖出了他的宗教背景。甚至也有不少人猜测这是谷歌新的炒作策略。


人工智能能否具备人的智能?具备智能和意识意味着什么?LaMDA具体运用了哪种技术,有着怎样的问题?今天,小北就带大家了解一下背后的源流。


究竟什么是人工智能?



人们对于人工智能的讨论总是离不开对未来的构想和讨论,甚至往往与科幻作品联系起来。这并不只是由于普通人对这个领域不够了解,而是因为AI本身的产生其实就离不开“头脑风暴”般的哲学思辨。


1950年10月,伟大的英国数学家、逻辑学家和计算机科学的理论奠基人图灵在英国哲学杂志《心智》上发表了论文《计算机器和智能》。


在文中他提出了著名的图灵测验”,并认为判断一台人造机器是否具有人类智能的充分条件,就是看其言语行为是否能够成功地模拟人类的言语行为。


具体来说,如果一台机器在人机对话中能够长时间误导人类认定其为真人,那么这台机器就通过了“图灵测验”。


用今天的眼光来看,这篇论文无疑向我们指出了AI科学的某种研究方向,不过我们要注意到,图灵的论文本质是一种哲学的追问,而不仅是科学。


但是,为什么人工智能研究和哲学联系密切呢?这是因为AI研究的目的,是最终实现机器智能。显然,要做到这一点,就必须对“何为智能”这个问题做出解答。然而,不同的解答方案往往会导致截然不同的技术路径。


比如,如果你认为“智能”的实质是能够解决具体问题的能力,那么你就会为智能机器规划好不同的问题求解路径;如果你认为实现“智能”的实质就是去尽量模拟自然智能体的生物学硬件,你就会去努力钻研人脑的结构,并用某种数学模型去重建一个简化的神经元网络。


因此,不同的AI技术其实都是来自研究者在哲学层面对于“智能”的不同理解。而且,AI科学本身不同于物理科学,它不会用实验对假设进行证伪,而只做试验(test)。


说得更具体一点,判断一个AI系统好不好,其标准就在于检验其是否达到了设计者预定的设计目标,或者其是否比同类产品的表现更好——但这些标准自身无疑存在着很大的弹性。


另外,即使这些标准暂时没有被满足,这也不能够证明系统的设计原理的失误,因为设计者完全可能会根据某种哲学理由而相信:基于同样设计原理的改良产品一定能有更佳的表现。进而,对于特定的AI研究进路,经验证据的有效程度,也更容易受到哲学辩护力的补充或者制衡。


著名的汉字屋的实验



AI怎样才能算是具有意识,是否真的可能有意识?对此,我们可以了解一下哲学家塞尔(John Searle)提出的“汉字屋思想实验”。



[attach]801654[/attach]



塞尔先从术语厘定的角度区分了两个概念,第一是“强人工智能”(强AI):这种观点认为,计算机不仅仅是人们用来研究心灵的一种工具,而且,被恰当编程的计算机本身就是一个心灵。


第二则是“弱人工智能”(弱AI),其想法是:计算机至多只能够成为人们研究心灵的一种工具,或是对心智活动的一种抽象模拟。


在这两种立场之间,塞尔支持的是弱AI,反对的是强AI。具体而言,塞尔是通过一个诉诸常识的论证来反对强AI论题的:


大前提:每一种真正的心灵/智能都必须有能力在符号与对象之间建立起一种语义关系;
小前提:这种语义关系无法仅仅通过任何一台被恰当编程的计算机所获取;
结论:计算机本身不可能具有真正的心灵,因此强AI无法实现。


”汉字屋实验“其实是为了辩护小前提而进行的思想实验:一个不会汉语的人被关在一个房间内,他只能与外面的检测者通过传递纸条交流。此人随身携带一本写有中文翻译程序的书,屋内有足够多的纸笔。当写着中文的卡片被递入,房间中的人就可以通过程序书进行翻译并回复。


如果测试者的确无法分辨这个人和会说汉语的人的回复——那么,被试是否就真的懂得了汉语呢?塞尔认为答案显然是否定的,因为被试在“汉字屋”中所做的,只是在根据规则书机械地搬运符号而已。他根本无法将任何一个汉语表达式独立翻译成英语。


汉字屋实验指代了AI的一个悖论:AI能够对答如流,只是因为它根据纯粹句法性质的规则,机械地搬运符号,而不是因为AI本身有意识。


不难看出来,汉字屋实验其实是对“图灵测试”的某种颠倒:在图灵看来,只要检测者无法在言语行为方面找出一台机器人与一个人的差别,我们就能认为机器有“智能”;而在塞尔看来,即使我们没有发现机器和人类的这种差别,机器依然是无心的,因为它依然缺乏建立恰当语义关系的能力。


不过,汉字屋实验以及相关的讨论其实脱离了当前AI发展的现实,因为完全能够像人类那样灵活、精准地处理汉字信息的AI系统,目前远远没有被开发出来。


换句话说,我们现在关注的问题首先应该是“如何造出能够灵活处理人类语言信息的机器”,而不是“在这样的机器已经被造出来的前提下,它算不算是真正具有心灵。”


LaMDA背后的深度学习机制


LaMDA系统运用的是当今比较主流的深度学习技术,而这种技术究竟意味着什么,是否能够有一日取代人类的智慧?对此,我们目前其实不必担心。


从技术史的角度看,深度学习技术的前身,其实就是在20世纪80年代就已经热闹过的“人工神经元网络”技术(也叫“联结主义”技术)。该技术的实质,便是用数学建模的办法建造出一个简易的人工神经元网络结构。


整个系统其实是以“化整为零”的方式,将宏观层面上的识别任务分解为系统组成构件之间的微观信息传递活动,并通过这些微观信息传递活动所体现出来的大趋势,来模拟人类心智在符号层面上所进行的信息处理进程。


这种系统的训练可以用一个比喻:一个外国人来少林寺学武,他与师父语言不通,于是他先观察师父的动作,然后跟着学,师父则通过简单的肢体交流来告诉徒弟,这个动作学得对不对。


进而言之,如果师父肯定了徒弟的某个动作,徒弟就会记住这个动作,继续往下学;如果不对,徒弟就只好去猜测自己哪里错了,并根据这种猜测给出一个新动作,并继续等待师父的反馈,直到师父最终满意为止。


很显然,这样的武术学习效率是非常低的,因为徒弟在胡猜自己的动作哪里出错时会浪费大量的时间。但这“胡猜”二字却恰恰切中了人工神经元网络运作的实质。概而言之,这样的AI系统其实并不知道自己得到的输入信息到底意味着什么——换言之,此系统的设计者并不能与系统进行符号层面上的交流,正如在前面的例子中师父无法与徒弟进行言语交流一样。


毋宁说,系统所做的事情,就是在各种可能的输入与输出之间的映射关系中随便选一种进行“胡猜”,然后将结果抛给人类预先给定的“理想解”,看看自己瞎蒙的答案是不是恰好蒙中了。如果真蒙中了,系统则会通过保存诸神经元之间传播路径权重的方式“记住”这蒙中的结果,并在此基础上继续“学习”。


而这种低效学习的“低效性”之所以在计算机那里能够得到容忍,则是缘于计算机相比于自然人而言的一个巨大优势:计算机可以在很短的物理时间内进行海量次数的“胡猜”,并由此遴选出一个比较正确的解,而人类在相同时间能够完成的猜测的数量则会是非常有限的。但一旦看清楚了里面的机理,我们就不难发现:人工神经元网络的工作原理其实是非常笨拙的。


而“深度学习”,就是在人工神经元网络的基础上,进行技术升级,大大增加其隐藏单元层的数量。这样做的好处,便是能够大大增加整个系统的信息处理机制的细腻,使得更多的对象特征能够在更多的中间层中得到安顿。这显然是建立在计算机领域内硬件发展和互联网带来的巨大数据量的基础上。


不过,尽管深度学习技术已经在很多应用领域获得了很大成功,但是很难说相关产品的行为表现已经达到——甚至接近达到——人类智能的水平。深度学习技术与人类自然智慧之间的差距体现在如下两个方面:


第一,深度学习系统的设计虽然在原理上参照了人类神经元网络的结构,但略去了大量的生物学细节,而且在复杂程度上与真正的人脑也不可同日而语。而我们由此不难立即推出:既然现有的深度学习系统在复杂程度上远远不如人脑,那么,我们也就不能期望这样的系统能够完全地具备人类的智慧。


第二,深度学习技术不仅目前不是通用智能系统(即能够在用户干预最少化的情况下完成各种任务的智能系统),而且在原则上也无法成为通用智能系统。与之相较,人类的心智系统肯定是通用智能系统(也就是说,一个智力正常的自然人通常能够在外部干预相对稀少的情况下,自主完成从一项任务到另一项任务的切换)。



[attach]801655[/attach]



至于深度学习技术之所以无法满足该要求,则进一步因为:虽然该技术本身具有普遍的适用性,但是已经运用了深度学习技术的特定产品却肯定是专用的——譬如,以图像识别为主要任务的深度学习系统,其在神经元网络构架与反向传播算法的设计的细节方面,肯定与以自然语言处理为主要任务的深度学习系统非常不同。


换言之,一旦一个深度学习系统已经完成了以特定任务为指向的训练,它就不能同时胜任另外一个领域的工作了(这就好比说,一套被拼装为埃菲尔铁塔的模型的乐高玩具,是很难再被拆碎后重新拼装为山海关的模型了)。


而与之相比照,一个人类的医学专家所具有的自然通用智能,却使得他在医学领域之外,能照样擅长做家务、下棋、开汽车、打篮球等彼此差异很大的任务。


简单来说,我们暂时不必担心AI具备自主的意识。而且,即使AI在某个领域可以帮助人类完成特定任务,甚至做的比人类好很多,但是按照目前AI技术的根本哲学思路,AI依旧无法达到通用人工智能的地步。


不过,我们依旧可以思考,未来如果人工智能真的有了意图、信念、情绪等人工的心理机制,它可能会需要怎样的伦理规范,我们如何控制它避免出现自动开火等误判情况,如何使它进行有利于人类的自动判断……当下,任何AI面临的问题还是不够智能。


来源:北京大学出版社公众号

原标题:人工智能的自我觉醒

作者: 李狗蛋01    时间: 2023-2-27 18:13
如果杀死一个人可以拯救一群人,AI会杀死这个人吗?或者会听从指挥随意杀害他人,有没有自己的为人之道。
作者: 世外桃源    时间: 2023-2-27 18:14
转发了




欢迎光临 智客公社 (http://bbs.cnaiplus.com/) Powered by Discuz! X3.4