请选择 进入手机版 | 继续访问电脑版
 找回密码
 立即注册
搜索

关于人工智能,你不得不知道的十个真相 | 皇牌大放送





人工智能,被誉为是人类的未来。我们期待人工智能可以帮助医生、心理学家、警察和军人等工作,甚至取代驾驶员以及运动员。人工智能真的已经达到足够智能的程度了吗?人们真的可以相信人工智能的决定吗?在人工智能领域实践多年的程序员以及人工智能研究者,却向人们发出了警示。


非政府组织算法观察成员马蒂亚斯·斯皮尔坎普说:“数字技术的快速发展让我们以为,凭借数据和计算就能解决人类面临的一切问题。这只是一种错觉。”










真相一:获得问答冠军的人工智能,本质只是一个搜索引擎



2011年,IBM公司为了宣传自身技术,推出了《危险边缘》特别节目,让最优秀的人类冠军与其新开发的人工智能沃森直接对决。现场,人工智能沃森以最快速度流利应答,在节目中轻松取胜,节目结果让人们觉得,人工智能已然具备了理解人类语言的能力。







其实,人工智能沃森并不能真正与人类沟通,它本质上只是一个以网络百科全书作为数据库的搜索引擎


而在联合国一个宣传人类技术进步的活动中,也出现了人机对话的场景。







联合国参会人士“好的。我想再问你一个问题,世界上很多地方还没有网络,也没有电,联合国可以做什么来帮助他们呢?”


机器人:“好消息是人工智能和自动化可以用更少的资源获得更好的结果,所以,如果人工智能的智慧水平能够进一步提高并专注双赢的结果,人工智能则可以帮助人们充分分配世界上现有的资源,包括食物、能源等等。”


而其后有节目报道,这段机器人的回答,其实也是提前准备好的。










真相二:人工智能翻译器只能提供一般性答案



像谷歌翻译那些自动翻译工具,使用的资源是来自一些可免费访问的网站,例如一些政府部门、机构的官网或者网络百科,人们早已将很多文字译成了多种语言。人工智能翻译器往往会自动运用人类最常用的词组作为译文,并不会根据特定情况进行分析,所以很多翻译结果,也揭示了人们固有的刻板观念。


比如,在芬兰语中,代词男他和女她都是用“hän”表示,但机器在翻译修理汽车化油器的主语时,会自动翻译为男他,在翻译为婴儿换尿布的主语时,会自动翻译为女她。翻译器自动生成可能性最高的结果,并不会参考任何个人经历。







谷歌工程师弗朗索瓦•肖莱说:“例如欧洲议会语料库,这些文本并不能代表你我之间的那种交流。系统永远会向适中的情况靠拢,因为这是它们的运作方式。”










真相三:人工智能深度学习技术存在偏见和刻板印象



深度学习是指,机器通过人类输入的各种数据资料进行自我学习,以帮助人类解决特定的问题。比如机器通过学习万千张动物的图片,来识别不同的动物,除此之外,深度学习技术还有其他现实应用。在美国有十几个州,案件审讯时都会参考一款人工智能软件,它能帮助法官预测被告再次犯案的风险及可能性。这款人工智能软件的数据,来自于美国警方的罪犯数据库,系统采用一个秘密公式来分析罪犯的136项指标,最终,得出罪犯再次犯案可能性的总分,提交给法官。







一些严谨的记者将这款软件对7000个犯人的评分,与他们真实的行为做了一个对比,结果发现,对严重犯罪行为的预测正确率仅为20%。一些记者还表示,软件对黑人再次犯罪的预测结果,普遍比实际高,对白人再次犯罪的预测结果却比实际低。










谷歌前研究员梅雷迪斯·惠特克说:“很多国家或地区的刑事司法智能系统,极有可能像美国一样,带有种族主义色彩,所以需要在数据中建立应对黑人偏见的设置。”







谷歌工程师弗朗索瓦·肖莱又举了一个例子来讲述人工智能系统偏见的来源:“这种偏见源于训练期间所接收的数据,训练数据可能本身存在偏见。请大家设想有这样一个系统,它能够检查监控录像,来判断某个人是否可疑。要打造这种系统,首先需要标注员(真人),对监控录像画面进行标注,判定录像中的某个人是否可疑。毫无疑问,在这个步骤中,标注员是基于主观作出判断的,这种判断会存在潜在偏见。”





真相四:人工智能目前还不能帮助医生诊症



延续《危险边缘》节目中人工智能沃森的大热,IBM紧接着研发了人工智能医生。之后经过六年,又投入了100亿美元,研发了一款专门用于治疗癌症的沃森肿瘤解决方案。







这款软件却没有预想中先进,需要医生手动输入患者数据。不仅如此,沃森只能提供美国标准的治疗方案。根据医生反映,对于那些复杂的病例,沃森根本毫无帮助,并没有达到其宣称的能力。







谷歌工程师弗朗索瓦·肖莱说:“医学与现实世界息息相关,而现实世界是千姿万态的,你遇到的每一个病例,都与之前你遇到的病例间存在细微的差异。因此,你必须根据每一个新病例来调整以前使用的诊疗方针。如果你的诊疗方针一成不变,其执行程序也一成不变,那么它们就难以适用于新的病例。”


最后沃森肿瘤解决方案只被全球50家医院购买。2021年,IBM公司还遭受了猛烈的批评,沃森被迫全部下架。





真相五:人工智能并无感知能力,只有回答,没有表达



在人类的头脑中,意义是通过体验产生的:上下颌用力咬合、门牙穿透光滑的果皮、果汁渗出并顺着喉咙流下,种种体验定义了什么是苹果。然而,对于计算机系统而言,苹果只是一系列与文本数据相关联的像素。










谷歌工程师弗朗索瓦·肖莱说:“我们可能认为深度学习模型能够理解图像的内容。但实际上,深度学习模型只是将图像和文本联系起来的一种方式,与人类看见图片,并用语言描述其内容的方式是完全不同的。”


人工智能永远无法体会肾上腺素飙升或泪如泉涌的真正感觉,它不懂什么是害怕,不会起鸡皮疙瘩,对痛苦或快乐没有概念,无法欣赏抽象艺术,也没有曾被压抑的创伤。因此,人工智能也没有什么需要表达







人工智能模仿的,仅仅是人类思维的结果,而并非过程





真相六:人们有时无法了解人工智能得出结论的过程——不透明的黑匣子



深度学习源于控制论,控制论是计算器学家从神经科学中获得启发,而形成的研究领域。深度学习系统类似于一个巨大的相连的网络,借鉴了人类大脑中神经元的结构。在这个仿制的神经元网络中有很多设置,能够加强或衰减不同链路之间的信号,直到最终信号能够解答人类的问题。







机器学习系统有着数以亿计的不同设置,十分复杂,以至于连程序设计师自己也不知道,该用什么判断标准来检测系统。所以他们想出了一个词汇来描述这种复杂的设置:黑匣子。


美国杜克大学计算机科学研究员辛西娅·鲁丁说:“黑匣子机器学习模型,是一种预测模型。它要么复杂到人类无法理解,要么属于私有,也就是说,我们根本无法一窥其中的奥秘,也无法了解它们运算的方式。所以,我们不能用黑匣子模型来做出高风险决策。实际上,要做出更好的决策,我们的确需要了解这些预测模型的工作原理。”










真相七:“这是机器的决定”这种说法,有时是一些人逃避责任的方式



如今,一些人工智能交互界面在不断被推广,比如银行人工智能客服、电讯公司人工智能客服。在这些友好智能交互界面背后,是一些数据处理协议框架,当中,有一些并不透明的决策系统,其实正在日益被推广。







非政府组织算法观察成员马蒂亚斯·斯皮尔坎普说:“我们可以看到,一些公司乐于推卸责任,他们会说,‘我们用复杂的机器系统协助工作’、‘是算法出了错,与我们无关’。这种辩解或借口完全让人无法接受。”


谷歌前研究员梅雷迪斯·惠特克说:“如果你想逃避责任,并且希望做出困难决定后不会被追究责任,那么就推给机器,这是很多人的一个选择。”





真相八:全世界还没有一台完全自动化的无人驾驶汽车



作为人工智能的代表技术,无人驾驶汽车揭示了人们对全自动化服务的幻想。人们希望人工智能可以随时帮人们做出驾驶决策,既保证安全驾驶,又节省下人们的时间。










但这个已经投入了超过800亿美元的产业,到目前为止,还没有一台可以完全自动、无人驾驶的汽车,人类驾驶员需要随时候命、准备介入。







谷歌工程师弗朗索瓦·肖莱说:“人们轻易就使用深度学习系统,然后以某种非常困难的事情为蓝本,例如驾驶,打造出一个并不可靠的原型。但想要开发这种原型系统、使其足够可靠、并且在实际应用中足够高效,是相当困难的,能够上路都相当不容易。”





真相九:为人工智能系统纠正、补漏的工作,正成为一种全球新经济



过去十年里,像无人汽车幕后驾驶员这类,围绕人工智能进行的人为辅助工作,催生了一种全球新经济。现在,全世界有数十万工人,正负责为机器编制训练数据,并监督、纠正机器的反应,或者直接取代机器进行人为操作,而他们的收入并不高。







2005年,全球科技巨头亚马逊公司创始人杰夫·贝索斯宣布,推出亚马逊土耳其机器人,他当时坦率地承认,这是“人工的人工智能”,或可以称之为假人工智能。其背后需要人类付出劳动,手动控制,从而来实现算法运作。


亚马逊土耳其机器人是一个求职平台,采用了被广泛应用的自动化决策系统,但它却陷入了一个悖论,因为这套人工智能系统,根本做不到完全自主,需要人在幕后协同操作。土耳其机器人这个名称源于18世纪一台假的自动下棋机,机器的底座里,其实有一位人类棋手正藏在里面。







谷歌前研究员梅雷迪斯·惠特克说:“他们把行业里本该闭口不谈的事说了出来。”





真相十: 人工智能可能成为一群人控制另一群人的工具



一个截然不同的未来正在形成:现实情况是,并没有一台机器足够智能到可以取代人类,而人类却正在不断适应机器的某种标准化逻辑







在呼叫中心里,人类必须遵照机器的算法来进行对话。通话程序会识别人类对话中的关键词,并确保预订的方案得到执行,还会对员工及客户的表述进行情绪分析。如果情况偏离正轨,系统会提示客服“要表示感同身受”等建议。对话结束后,系统还会对员工进行打分,如果得分低于预期水平,员工将会被自动解雇。







《人工智能或世纪挑战》作者、哲学家埃里克·萨丁说:“这意味着一大批人需要被迫调整自己,来适应人机联合运作。而这些系统设计的初衷,不就是为了最大化人的生产率,尽可能优化人们的生产吗?为何如今人类却没了回转的余地。在我看来,自动化是我们设置的其中一种形式或者说是骗局,用来约束普罗大众。”


加拿大蒙特利尔大学计算机分析师、2018年图灵奖获得者约书亚·本吉奥说:“最令我感到担忧的,不是计算机出错,而是那些渴望权力,想要控制他人的人开始注意到这种强大的技术。”





编辑:黄博

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册