找回密码
 立即注册
搜索

朱松纯:可解释性是人工智能获得人类信任的关键

6月6日,北京通用人工智能研讨院院长朱松纯教授受邀参加由中国人工智能学会主办的CICAI国际人工智能会议,并带来了《可解释性人工智能:如何让机器获得人类有根据的信任》的主题报告。
本次大会旨在搭建国际学术交流平台,为全球努力于人工智能技术研讨的学者提供跨学科、跨范畴、跨地区交流的机会,加强学术交流与产业交流的深度与广度,激发新思想、培育新力气。




朱教授出席CICAI2021 并做《可解释人工智能》专题报告

当后人工智能技术正在赋能各行各业,出如今了人们工作、生活的方方面面。但当人们与人工智能设备互动时,又会对人工智能时不时表现出的“智障”产生困惑,AI为什么总是答非所问?针对这些行业痛点,朱松纯教授在专题报告中讨论了当后人工智能前沿研讨的一个非常紧要的课题:智能体(AI agent, 这里泛指人工智能系统)如何有效地“解释”本人,获得人类用户的“信任”, 从而产生高效的人机协作,进而融入一个人机共生共存的社会。




朱教授做专题报告

朱教授指出,当前比较盛行的人工智能技术采用的是“大数据,小义务”范式,产业界更倾向于将人工智能技术等同于“大数据+深度学习+超大算力”。基于这一范式的人工智能技术间隔人们对AI的等待还有较大差距,例如,AI只能完成特定的、人类事前定义的义务而做不到通用;每项义务都需求大量标注的数据,没有数据就不知所措;模型不可解释与知识表达不能交流,无法与人做多回合交互等。“大数据+深度学习”范式是将训练数据输入到神经网络中,然后得到一个预测值,这个神经网络由数量庞大的神经元组成,其演算机制无法解释,形成人无法信任AI。
因此,我们将来要发展具有可解释性的人工智能,让人工智能技术跳出“黑箱”,成为可解释、可解读、可信任的人工智能。可解释的人工智能(Explainable AI)大致分为两个层次:1. 自省与可解读性,即机器与人类达成共同言语表达;2. 自辩的才能,即机器要向人类解释其计算的机理与过程。
当谈到如何建立信任时,朱教授说,AI假如要获得人的信任,要在两个层次上获得人的信任:1.才能的边界:AI要让人明晰地知道在什么条件下AI能做到什么样的功能,可以完成哪些义务;2.感情的纽带:AI要与人保持相近的价值观,把人类的价值放在重要地位,要让人知道AI和本人是命运共同体,时辰维护人的利益。经过人机之间的迭代、交流、协作增进互相了解,进而达成共识,产生“有根据的信任”(Justified Trust)。
为此,朱教授提出了人机之间建立有心智实际的可解释性框架 (Explanation withTheory-of-Mind, X-ToM)。人机之间需求对客观的物理世界产生相反的感知,经过交流看法到对方是如何对待同一个事物的从而构成“共识”,即你知道我是知道你知道的,X-ToM便是这种人机之间的交流模型。




朱教授经过气泡游戏解读X-ToM模型和与或图模型

AI经过人机交互的X-ToM框架,并采用可解释的“与或图模型”,完成模型的可解释、可追溯、可修正,让人工智能技术成为透明的、可控的、可信的技术。在实践运用中,人们知道AI给出答案的根据是什么,计算的过程是什么,进而完成人对人工智能有根据的信任。
将来,北京通用人工智能研讨院将深化探求视觉、言语与认知构成的学习闭环,进而完成人机之间拥有共识、构成共同的社会规范和行为价值,赋予人工智能以三观,让人工智能技术真正融入人类社会,创造通用智能体,提升全人类福祉的愿景。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册