找回密码
 立即注册
搜索

为何机器人抢不走你的工作,至少如今还不行


玛德林(Madaline)是第一个。

早在1959年,她就仰仗超凡智慧处理了一个棘手难题:电话线路上的回声。当时,长途电话中每次通话声响都会有回响,形成通话者的很大困扰。

玛德林可以辨认输入与输入的的相反信号,然后用电子的方式删除回声,处理了这个成绩,这一简约的处理方案沿用至今。当然,玛德林不是人类,而是一个多元自顺应线性神经元(Multiple ADAptive LINear Elements)系统,简称“Madaline”。这是人工智能初次运用于工作范畴。

明天,人们普遍以为智能计算机会抢走我们的工作,在你早餐还没吃完以前,它就曾经完成了你一周的工作量,而且他们还不休息,不喝咖啡,也不要退休金,甚至不用睡觉。但理想上,虽然很多工作将来都会自动化,但至少短期内,这种新种类智能机器更有能够是与我们一同工作(而不是取代人类)。
    你的工作还有多久会被机器取代?永远不会落入机器人之手的工作机器人会抢走您的工作吗?
麦肯锡以为5%的工作可以完成完全自动化,60%的职业有大约三分之一的工作可由机器人完成(图片来源:Getty I



虽然人工智能机器在很多范畴建树非凡,譬如预防欺诈,甚至比医生还牢靠的癌症诊断。但现今最尖端的人工智能机器也跟普通人脑智力相差甚远。

麦肯锡2017年的一份报告以为,在现有科技下,只要5%的工作可以完全自动化,60%的职业中有大约三分之一的工作可由机器人完成。

千万别忘了,并非所无机器人都运用人工智能——有些用,很多不用。成绩是,妨碍智能机器人经过人工智能接管世界的缺点,也恰恰是它们与人类共事显得非常蹩脚的缘由。谷歌的相片辨认软件曾经将黑人的脸辨以为猩猩,人工智能机器也不能完全自定义目的,处理成绩,甚至是运用基本常识都有成绩,这些新一代机器工人所缺乏的这些技能,对于人类,即或是最愚钝者,也是易如反掌。
    人工智能受捉弄后也会犯"低级错误"人工智能的真正风险人工智能面临的最大应战不是技术?

因此,在心灰意冷之前,你需求了解几点与新的机器人同事一同工作的法则。

法则一:机器人不会像人类一样思索

大约与玛德林革新长途电话的同时,英籍匈牙利哲学家波兰尼(Michael Polanyi)在苦苦思索人类智力的成绩。波兰尼看法到,人类的有些技能,例如运用准确的语法,可以随便地归纳成规则并向别人解释,有些则不能。

人类能不自觉地运用所谓的隐功才能,用波兰尼的话来说是"人类所知多于所能表述"。这包括骑自行车和揉面,以及更高程度的实际才能。唉,假如我们不懂规则的话,就不能把规则教给一台计算机。这就是波兰尼悖论。

为了处理这个成绩,计算器迷信家没有试图逆向设计人类智力,而是给人工智能开发了全新的思索方式——用数据思索。

微软研讨院(Microsoft Research)高级研讨员卡鲁阿纳(Rich Caruana)说:"你能够以为人工智能的原理是我们先了解人类,然后以异样的方式构建人工智能,但理想并非如此。"他以飞机为例,我们早在详细了解鸟类飞行原理之前就造出了飞机,运用的空气动力学原理不一样,但明天我们的飞机比任何动物都飞得更高更快。

与玛德林一样,许多人工智能主体都是"神经网络",它们经过分析大量数据,构建数学模型来学习。例如Facebook用大约400万张照片来训练人脸辨认软件DeepFace。DeepFace在标注为同一个人的不同图像中寻觅形式样本,最终学会人脸婚配,成功率达97%。
世界顶尖围棋手,19岁的柯洁在DeepMind应战赛中对战人工智能软件AlphaGo(图片来源:Getty Images



相似DeepFace的人工智能机器是硅谷的明日之星,并且曾经在驾车、语音辨认、文字翻译、标注照片等方面超过了其开发者,估计将来还将进军包括医疗以及金融在内的众多其他范畴。
    人工智能公司为什么要不停的砸玻璃?人工智能时代下人类所剩的最后价值你所未知的人工智能运用范畴

法则二:机器人新冤家并非相对牢靠,它们也会犯错

但是这种依托数据的思想方法也能够会犯下大错,例如某人工神经网络曾经把3D打印的乌龟认成了步枪。由于这个程序无法停止概念推理 ,不会想到"这个东西有鳞和壳所以能够是只乌龟"。相反,它们是根据形式思索——这个例子中是以像素为单位的视觉形式。因此,改变图像中的某个像素,一个合理答案就能够演化成无稽之谈。

而且它们也不具有工作中必不可少的常识,不能把已有知识运用到新情境中。

DeepMind人工智能就是一个经典案例。2015年时DeepMind获令操作经典街机游戏《乓》(Pong)并要获得高分。如你所想,它几小时就击败了人类玩家,而且还开发了全新的获胜方式。但是让它再去玩相似的另一款游戏《打砖块》(Breakout),人工智能又得从零末尾学起。

开发人工智能的迁移学习才能曾经成为研讨的一大范畴,例如一个名为IMPALA的系统已能在30种情境下转换所学得的知识。
这身绿色龙装能让喂奶机器人看上去友善一些(图片来源:Getty Images)



法则三:机器人无法解释本人的决议

人工智能的第二个成绩是一个古代版波兰尼悖论。我们并不完全清楚人脑的学习机制,因此我们让人工智能用统计学家的方式来思索。讽刺的是,我们如今对人工智能如何思想也知之甚少,于是有了两套未知系统。

这通常被称为"黑匣子成绩"——你知道输入的数据,也知道得出的结果,但不知道眼前的盒子是怎样得出结论的。卡鲁阿纳说,"我们如今有两种不同的智能,但两种我们都无法完全了解。"

人工神经网络没有言语才能,所以无法阐明其所作所为及缘由,而且跟一切人工智能一样也没有常识。
一些人工智能机器人正在受训学着获取记忆,并对记忆赋予意义,从而可用于护理行业(图片来源:Getty Images



几十年前,卡鲁阿纳将医疗数据输入人工神经网络,包括症状及其后果,从而计算在任何一天患者的死亡风险有多大,让医生可以采取预防措施。效果似乎不错,直到有天早晨一位匹兹堡大学(University of Pittsburgh)的研讨生发现了成绩。他用一个更简便的算法处理同一组数据,逐条研讨神经网络做诊断的逻辑,其中一条诊断是"假如你患有肺炎,那么患哮喘对你是有好处的"。

卡鲁阿纳说,"我们去问医生,他们说'这太蹩脚了,你们需求修正'"。哮喘是引发肺炎的重要风险要素,由于二者都会影响肺部。人们永远也不知道这个智能机器如何得出了哮喘对肺炎有益的结论。有种解释是,有哮喘病史的患者一末尾患肺炎,就会尽快去看医生,这能够人为地提高了他们的存活率,因此人工智能就错误地以为有哮喘对肺炎是有协助的结论。

随着人工智能越来越广泛地用于公益事业,许多业内专家也越来越担心。往年,新的欧盟法规失效,授权个人可以解释人工智能决策背后的逻辑。与此同时,美国军方的研讨机构国防部高级研讨计划局(Defense Advanced Research Projects Agency, Darpa)投入七千万美金,以研讨可解释其行为的人工智能。

Darpa该项目担任人冈宁(David Gunning)说,"近来,系统的准确度有了质的提高,但成绩是这些系统太隐晦、太复杂,我们不知道它为什么引荐某个东西,或是在游戏里做某个动作。"

法则四:机器人能够有成见

人们越来越担心一些人工智能的运作能够会偶然藏无看法成见,譬如性别歧视或种族歧视。例如最近有一款软件用来评价犯人再次犯罪的能够性,它对黑人就双倍的严苛。

这完全取决于人工智能遭到怎样的训练,假如它们接收的数据无懈可击,那它们的决议就很能够正确,但多数时分人的成见曾经夹在其中。谷歌翻译里就有很分明的例子。一位研讨员在去年出版的《传媒》(Medium)杂志中指出,假如在谷歌翻译中把英文"他是位护士,她是位医生"翻译成匈牙利文再译回英文,翻译机给出的是相反的句子:"她是位护士,他是位医生"。

翻译机接受了一万亿网页内容的数据训练,但它只能以寻觅形式样本来运算,譬如它发现的医生以男性居多而护士以女性为主。

另一种能够出现成见的缘由是数学加权(数学计算中将参数比重加入计算称之为加权)导致的。跟人一样,人工智能也会对数据停止"加权"分析——看哪个参数更重要。某种算法能够以为邮政编号跟居民信誉评分是有关系的(美国已有这样的实例),这就会出现歧视多数族裔的计算结果,由于他们能够住在较贫穷的小区里。

不只仅是种族歧视和性别歧视的成绩,还会有我们从未想到过的歧视。诺贝尔奖得主经济学家卡内曼(Daniel Kahneman)穷其终身研讨人类思想中的非感性成见。他在2011年接受魔鬼经济学(Freakonomics)博客访问时,很好地解释了这个成绩。他说:"本质上无论是人还是人工智能,阅历法则都会形成成见,但人工智能的阅历法则未必与人的阅历一样。"

机器人的时代即将到来,并将永远改变将来的工作,但在它们变得更像人类之前,还需求我们守护在它们旁边。令人难以置信的是,硅谷的同事似乎在这方面做得非常之出色。

的同事似乎在这方面做得非常之出色。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复

使用道具 举报

大神点评3

redbomb597 2020-4-4 22:41:11 来自手机 显示全部楼层
我有个小建议,楼主把内容写详细点吧才会吸引更多读者呀。
回复

使用道具 举报

倾城小熊 2020-4-5 22:20:10 显示全部楼层
赞赞赞赞赞赞赞赞
回复

使用道具 举报

前排顶,很好!
回复

使用道具 举报

高级模式
B Color Image Link Quote Code Smilies