找回密码
 立即注册
搜索

专访清华国强教授聂再清:算法最终一定是人的助手,而非敌人

7月9日,世界人工智能大会可信AI分论坛在上海举行,论坛主题为“AI向善,全球共治”。清华大学国强教授、智能产业研讨院首席研讨员聂再清在会上表示,可信AI就是有爱的AI。只要有爱,最终可以产生很大用户价值,向善技术才能真正走到千家万户,变成日常生活一部分。他强调:“我们必须只做可信AI。”

聂再清现任清华大学国强教授、智能产业研讨院首席研讨员。2004年,聂再清获得美国亚利桑那州立大学博士学位,师从美国人工智能学会前主席Subbarao Kambhampati教授,本科和硕士毕业于清华大学计算机迷信与技术系。2017年,他加入阿里巴巴,任阿里巴巴人工智能实验室北京担任人和阿里巴巴天猫精灵首席迷信家。此前,他曾就职于微软亚洲研讨院,任首席研讨员,是微软学术搜索和人立方的发起人和担任人,也是微软自然言语了解平台LUIS的技术担任人。

专访清华国强教授聂再清:算法最终一定是人的助手,而非敌人-1.jpg


清华大学国强教授、智能产业研讨院首席研讨员聂再清。图自论坛主办方

2020年,聂再清回到清华,加入清华智能产业研讨院。从业界到学界,他推进技术落地停顿,也不断关注着人工智能的管理成绩。带着可信AI的含义、完成途径、管理思绪等成绩,南都记者对聂再清教授停止了专访。在采访中,他频频爆出金句,“可信人工智能就是人工智能”“监管就像父母看着小孩子学走路”“大企业不一定是好企业”……

以下是南都与聂再清教授的对话。

1

可信人工智能用一个字总结就是“爱”

南都:明天我们论坛是可信AI论坛,如今有一些概念比如可信AI、担任任的AI、可持续的AI等等,您觉得这些概念是一样的吗?有什么区分?

聂再清:我个人感觉可持续、可信、担任任这几个概念是差不多的,由于假如不可信就不可持续,过一段工夫就会被“打死”了;不担任任也不可持续,也不可信。明天我们说AI,大家很喜欢把它用拼音翻译成爱,对人类有爱,大家对AI的期许就是向善,是一个大的主题。

南都:您觉得三个概念都可以用“爱”这个字概括。

聂再清:对,其实做任何一个技术,最终要走向千家万户,一定要产生正向价值、符合人类价值观的价值。有一些小公司为了出名可无能一点什么事,短期形成某个影响是有能够,但这个公司一定做不大。当然毁坏性也能够很大,我们要避免那样的公司或事情出现。

南都:在您看来,什么是可信人工智能?

聂再清:我有一个观点,对于广大崇尚科技向善的人工智能研发人员而言,可信人工智能就是人工智能,由于我们不能够做不可信人工智能。只要可信人工智能技术才有能够走向大规模日常运用,成为用户长期生活习气的一部分。我感觉只需产生价值的人工智能,同时能被一切用户接受和喜欢的,基本下去讲就是可信的。这里要强调的是可信人工智能是要经得起工夫考验的,也必须是与时俱进的。

2

“技术的成绩本质上是人的成绩”

南都:您在论坛中讲到自动驾驶,它可以经过车路协同技术提升安全性和可信度,您也提到,人的数据隐私可以经过一些联邦学习这些技术来得到保护。您觉得可信AI是可以经过技术提高达到的吗?

聂再清:这外面有一个广义可信AI和一个广义的,假如我们特指某一个详细的人指定的某个广义的“可信AI”概念,有能够不能完全达到。

南都:比如如今常讲的可解释性,公平性,安全性,这些成绩可以经过技术处理吗?

聂再清:就广义来讲我觉得可以处理,或者说越来越逼近这个。但是假如有一些详细的方面,比如可解释性,它可以对谁可解释,是不是一定对用户可解释?能够短期内有一些模型不能做到对用户可解释,但实践上用户也并不一定需求可解释,用户要的是安全可控和公平。

南都:公平是可以经过技术来达到的吗?

聂再清:公平一定是可以做得越来越好的。但你说这个东西是不是一定百分之百公平,能够并不是那么好界定。由于人能不能百分之百做到公平?人也不能每次都保证一切参与方都认可的相对公平。我们是朝公平这个方向发展,不断去提高。假如某一些训练数据不足,那么就对这一部分用户和场景添加样本。但最后,人工智能系统背后,在我看来很大一部分是人。人可以不断花很多力气从数据和技术等各个方面把它做得越来越公平。

南都:您的意思是,就算不用AI,用人做决策也不能做到完全公平。

聂再清:对,很难每次都保证一切参与方都认可的百分之百公平。人做决策时,有一些状况也能够不得不运用多数服从多数的准绳。

南都:所以不是人工智能的成绩。

聂再清:人工智能一定要像人那样有爱,协助大家。但其实有时分,详细某一个案例能够曾经做得特别公平,但还是能够会有人觉得不公平。归根到底我觉得技术背后是人在起决议作用。一个产品背后有很大部分是人的要素,包括产品运营,策略怎样写的,训练数据怎样设计的,整个在技术设计的时分,能够也有一些不同公平,但背后都有人的影子。

我以为机器算法最终一定是人的助手,不会成为人类的敌人。由于AI背后研发人员的主流价值观是向善的,我们的法律法规也会确保这一点。

南都:人工智能还有一个成绩是数据保护的成绩,您以为经过技术提高也可以处理吗?

聂再清:怎样可以更好保护数据,在技术上我们能够运用一些加密和隐私计算的方法,能帮一部分。但这个成绩关键得靠法律,最近有很多法律在公布,看上去感觉对数据这块监管愈加严厉,其实我个人觉得是特别好的事情,是对技术的保护,是一种有爱的保护。

假如我们不去保护这些数据,不去防备这些技术带来的安全隐患,有能够会让某一个技术,本来能够有很大的潜能,却由于某个偶然事情导致大众对它不接受或带来不好结果,反而让它发展变慢。因此提早对风险做更多的防备,达成共识,这个是很好的一件事情。

3

“监管就像父母看着小孩学走路”

南都:您说到法规监管,您以为这对技术发展是有好处的?

聂再清:是的。但是要纠正一下,不是一切的规范法规都能保护技术发展,好的法规和规范有保护作用,假如一些法规不是特别合理的话,有能够会起妨碍作用。

我觉得在新技术末尾或者创新阶段,我们应该以一种摸着石头过河的方式,但不是野蛮生长。比方说一个小孩,要让他学走路,完全让他一个人走父母能够不放心,会远远在后面跟着他走,他虽然感觉自在,但实践上父母都可以看到。

南都:如今大家会觉得技术发展太快,法规有点跟不上,您怎样看?

聂再清:假如某一个范畴特别多的创新正在发生,某些小方面的确会跟不上,但大的准绳还是要保证,不能出大错。就像大人对小孩,要保证准绳成绩不能出大错,小的试错成本可以接受的,大的框架限制住了,那么小孩走路摔一跤也没什么大成绩。我们要给一部分创新空间,假如技术发展刚末尾阶段一切能够性都堵死的话,那能够就不大利于发展。

南都:您是从企业界回到学界的,您觉得人工智能管理过程当中,企业能负起应有的责任吗?在推出产品时会看法到伦理的成绩吗?

聂再清:好的企业都会看法到,一个好的企业就是价值观很正的企业。

南都:您觉得如今企业都有这样的看法了?

聂再清:好的企业有这样的看法,要留意大企业不一定是好企业。好企业是可以走很远的,想要走得长远的企业一定都要做到有伦理看法,由于最终人们用你的产品是基于你对他产生什么样的价值。

不扫除有一些企业初始阶段为生活做一些不好的事情。为什么要监管?就是让好企业可以发展,坏企业渐渐被抓出来,改变它们,不要让它们产生不好的影响。

我们清华人工智能产业研讨员张亚勤院长提出的人工智能3R准绳:Responsive(积极呼应)、Resilient(顺应发展)、Responsible(坚守价值),也很好地总结了人工智能好企业的标准。所以我觉得只要把这些都做好的企业才可以真正走得长和走得远,真正为每个人都带来价值。

采写:南都见习记者李娅宁
回复

使用道具 举报

大神点评3

wyydeai 2021-7-11 17:12:08 来自手机 显示全部楼层
只看文字不过瘾啊~
回复

使用道具 举报

DT170 2021-7-12 17:13:10 显示全部楼层
顶起出售广告位
回复

使用道具 举报

非常好,顶一下
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册