找回密码
 立即注册
搜索

AI Time 第二期:论道自动机器学习与可解释机器学习

在第一期「论道 AI 安全与伦理」圆满召开之后,在思想火花的碰撞与激荡下,AI Time 第二期如约而至。第二期以「论道自动机器学习和可解释机器学习」为主题,现场嘉宾针对多个成绩,如自动机器学习(AutoML)和可解释机器学习(Explainable ML)的区别、各自优劣、将来发展等展开精彩讨论。接上去,雷锋网 AI 科技回复将选取嘉宾的一孔之见,让大家在这场思辨会中对 autoML 和 Explainable ML 增添一份了解,对他们的差异有更深化的看法。


延续第一期的大咖阵容,这期的嘉宾也是或曾经功成名就的学者,或拿奖到手软的青年才俊,或业界的资深专家。他们分别为美国伊利诺伊大学芝加哥分校 (UIC) 特聘教授俞士纶、美国密歇根大学梅俏竹教授、北京大学的王立威教授、百度高级研讨员李兴修。以下便是此次研讨会的精彩内容。

王立威:对 AutoML 的简单引见

对于机器学习,大家能够有所了解,给你一些数据,然后得到一个辨认图像的分类器,或者言语翻译器。在机器学习过程中会运用到很多模型,触及到一些超参数。在过去,这些模型的设计和超参数的调理,全都是根据人的阅历积累,AutoML 的想法是把模型设计、超参数的调理全部变成一种自动的学习过程,而不借助人的阅历。

这里可以用数学公式来定义,简单来说,对于你给定的一个义务,希望机器可以自动学习模型的结构和设置,并能达到最优层级。举个例子,过去大家用得比较多的是 ResNet 或者 DesNet,这些网络结构都是经过阅历,人为设计出来的。如今谈到 AutoML,我们希望网络结构的设计变成一个优化成绩,由机器学习出来。


我的先生把深度学习的调参叫做炼丹,我置信真正做过这件事情的人都有同感。古代的术士去炼丹,火候要掌握到什么程度,需求多长工夫,这些都凭长期的阅历积累。当我们把这件事情变成机器自动的过程,本人去找到最优的超参数,而不是人在那儿炼丹,这应该是 AutoML 非常大的意义。

另外,传统的一些网络由人为设计,它们结构简单,具有对称性,看起来很规则。但是如今,完全可以用学习的方式,来学出网络的拓扑结构,学到的结构能够极其复杂,但从效果下去说,针对一些详细成绩,这个网络能够要比人为设计的网络效果分明要高。

梅俏竹:可解释机器学习与自动机器学习并不矛盾

自动机器学习与可解释机器学习并不矛盾。全自动的机器学习,可以具有可解释性,可解释机器学习也可以是自动的。

思索一个简单的成绩,在做诊断时,一个弱小的机器学习诊断系统可以读 X 光片,可以判别出患者能否患病。但是我们不只要做诊断,还要把诊断结果描画给患者听,最终让病患接受医生的建议。

在这个流程外面,假如用传统的机器学习方法,数据(即 X 光片)曾经给到,AutoML 可以自动学出该用什么样的网络以及超参数,然后做出决议。但这里存在一个成绩,医生能不能接受?假如医生都很难接受,那病人就更难接受了,由于我解释不清楚为什么诊断为这个病。

可解释机器学习就是想处理这个成绩,它会告诉我为什么出现这种诊断结果。他会站在医生和病人的角度,告诉他们本人希望了解的内容。这是可解释性机器学习的愿景,与自动机器学习并不矛盾,可解释性是建立信任人与 AI 的信任的必然途径。

百度高级研讨员李兴修:从产业界讲 AutoML

人脑的结构,其实阅历了上亿年的退化,优质的种类得到保留,劣质的种类逐渐被淘汰。研讨人员在神经网络设计方面也做了相似的实验,从一些结构简单、效果比较差的网络末尾,经过不断退化的方式,来观察神经网络形式的变化,最后经过大量的计算,演化出效果非常好的网络。这是比较早的关于神经网络结构的探求。如今比较主流的,像基于退化算法、强化学习或者可微结构的算法都是神经网络结构搜索的次要方法。

百度在生成对抗网络(GAN)的结构上也做了一些搜索,我们针对上采样停止了却构搜索,最后发现搜索出来的 GAN 比人设计的网络更波动,并且生成的效果更好。另一个实际是比较笼统的运用,我们对头像风格迁移的义务模型停止搜索,运用多个 auto encoder 停止叠加,最后发现这样的多尺度特征交融只需求非常少的操作和衔接,就可以达到异样甚至更好的效果。

这是企业做的一些基础性工作,另内在产品和服务里,也有一些运用,比如百度正在运用 AutoML,应用精度更高或速度更快的模型来为大家提供在线服务。除了算法方面的自动化,还有很多流程上的自动化,最终将产生一个从算法到流程全自动化的工具包。

王立威:在很多成绩里,可解释性是很片面的

我说说我的一个看法,这是从另外一个视角。大家可以看看下面这张 PPT,这是可解释机器学习的愿景。


这张图里,我们希望神经网络辨认出一只猫,对猫的判别是它有皮毛和爪子。再深化一点,请解释什么是皮毛和爪子,你马上就会发现神经网络不能解释。我的观点是,在很多成绩里,可解释性是很片面的,大部分成绩本质上不可解释。

在过去大概三四年里,我做了很多和医疗相关的机器学习成绩,刚才几位嘉宾和掌管人都谈到医疗里的可解释是一个很重要的诉求,但是在我过去三四年的阅历积累里,我发现只要在最末尾阶段,当医生还不完全信任人工智能系统的时分,可解释能够是有必要的,一旦医生信任了这一系统,系统功能达到甚至超过医生,可解释性就不再是一个很必要的成绩。

医疗里大量的成绩和猫的成绩一样,你去拍 X 光片,以为这个地方有能够是肺癌,给出的解释是看到这个地方有毛刺和空泛,但是请解释毛刺、空泛分别是什么定义。之所以明天的人工智能、机器学习会在一些功能上超越人类,正是由于在这些我们很难解释,甚至是不可解释的特征上,他们做的远远超过人类。

再说一说为什么刚才说的皮毛和爪子不可解释。将猫分解为皮毛和爪子来辨认,这是大大可以紧缩的模型。但本质上能够不存在一个能用简短言语描画的模型,来非常清楚地判别是不是皮毛,这时分就不可解释了,由于解释一定要能用简短的言语描画出来。假如我用一个包含一亿参数的模型表述出来的神经网络可以判别是不是皮毛,这也是一种解释,只是这种解释太复杂了,人没有办法了解。

以上便是我对可解释的一个看法,我们不一定非要追求可解释,需求看能不能解释。

对 AutoML 技术层面上的一些看法


俞士纶:AutoML 在一些比较容易的事情上还是比较牢靠的,比如当输入全是图片,但是真正触及到比较复杂的成绩就比较难了。比如做交通预测,从一个点到另外一个点需求花多少工夫,这里有历史数据,有实时数据,另外还触及到天气数据,还有一些源自社交网站的文本数据。最后需求看怎样把各种不同的数据交融在一同,触及到的东西太多,像这种复杂的成绩,还是不能够完全自动化。

王立威:ACL2019 有一篇很有名的 paper,计算了各种模型所产生的计算量和碳排放,这是从社会的角度来看这种技术。


对于一些企业来说,虽然不是很懂 AutoML 的原理,但是也会用这种自动的方式去搜索有助于业务的网络结构。最后可以看看云计算的花费,会有一家企业情愿花几十万甚至上百万美元去搜索一个很好的网络结构吗?这样付出的成本能够比最后挣的钱还多。

我支持 AutoML 这个大方向,在一些不需求用人力的地方,我们用机器,但是我们要限制自觉的搜索,以减少耗费,将人为设计和自动学习两者无机结合。

AutoML&Explainable ML 将来之路

王立威:稍微谈谈自动机器学习和可解释机器学习的将来之路,我觉得机器学习比较擅长的是底层信号(图像、语音或者文本数据)的分类与检测义务,在知识层面比较完善。假如在将来想让 AutoML 变得非常自动化,实践上需求对网络结构有更高层面的了解,异样,我们所谓的解释通常都是根据人的知识在做一些解释,我以为自动机器学习和可解释机器学习将来的发展与机器学习范畴的发展将会很分歧,向更高层的知识提高。

梅俏竹:我以为自动机器学习和可解释机器学习并不矛盾,这两者可以结合。假如为了全自动,把人类的阅历全部抛开,用极大量的资源去做,这一定是一种糜费,而且效果不好;另外,也不能说为了让神经网络可以让人了解,就非要在了解这个层面纠结,大家对了解的定义各不相反。

PS:小小地预告,AI Time 第三期将在一周之后继续展开,议题为《知识图谱》,欢迎大家报名参加,与嘉宾自在轻松地交流,讨论迷信的本质,激发出更多学术灵感。后续,雷锋网 AI 科技回复也将附上报名链接。

雷锋网

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复

使用道具 举报

大神点评3

管家公仔 2019-6-26 07:34:32 来自手机 显示全部楼层
赞赞赞赞赞赞赞赞
回复

使用道具 举报

a-ka 2019-6-27 07:47:25 显示全部楼层
鄙视楼下的顶帖没我快,哈哈
回复

使用道具 举报

zhl822 2019-6-28 07:10:05 显示全部楼层
不错不错,楼主快出来写点实战经验哇~
回复

使用道具 举报

高级模式
B Color Image Link Quote Code Smilies