最近,这批 OpenAI 前核心员工终于宣布了他们史无前例的伟大计划:处理长久以来神经网络的“黑盒子”成绩,为研讨者们开发可以解释 AI 真正工作原理的工具。
他们创办了一家新公司 Anthropic,努力于提高 AI 安全和可解释性。这些创始成员置信,“通用人工智能” (artificial general intelligence) 不久后即将到来,而 AI 安全将会成为日最重要的研讨方向。
这家新公司也被投资者赋予了极大的等待。据了解,其 A 轮融资曾经完成,规模高达1.24亿美元,投资人包括 Skype 创始人 杨·塔林(领投)、 埃里克·施密特、达斯汀·莫斯科维兹等。
Anthropic 到底是一家怎样的机构?它的创始成员都有谁?它在做的事情对于整个 AI 基础和运用范畴有何严重意义?让我们走近这家最近刚刚分开隐外形状的全新机构,一探它的真相。
让 AI 更安全、可解释
AI 不断是一个“黑盒子”。虽然人们描画神经网络是按照人脑神经工作原理设计的,它详细怎样工作,输入的数据是如何转化成输入的,详细的原理和各环的作用,不断很难被真正解释。
在一小部分研讨者看来,思索到 AI 正在被运用到越来越高风险的系统当中,比如自动驾驶、医疗诊断、药物发现,甚至军事当中……它的不可解释性将会阻挠技术的真正提高,并且假如被持续忽视的话,甚至能够会引发不可逆转的严重恶果。
不过,自从深度学习在十年前左右获得重要打破,这项技术曾经成为了 AI 技术提高的根基。越来越大的模型、更强的算力,让 AI 变得似乎“无所不能”,而不可解释性不断没有被公众看作是大成绩——这也是为什么虽然目前 AI 范畴内很多人,特别是那些从事运用范畴的,并没有关注 AI 的黑盒子成绩。
2015年底成立的 OpenAI,其使命是完成通用人工智能,打造一个可以像人的心智那样,具有学习和推理才能的机器系统。成立以来,OpenAI 不断从事 AI 基础研讨,次要以 GPT 言语生成模型(特别是 GPT-3)被人们所熟知。
但其实,加强 AI 的可解释性,让它可以愈加安全地运用,也是 OpenAI 的研讨方向之一。只不过,这部分工作在名望更大的 GPT-3 的面前,似乎显得没有那么重要。
而在去年年底离任的这一批员工,以为随着模型变大、算力变强,通用人工智能离我们越来越近,在可预见的将来就有能够完成——而在这样的前提下,AI 可解释性和安全性变得无比重要。这批员工,被以为是AI范畴的“有效利他主义者”。简单来说,他们不只以为应该投入重金停止 AI 基础研讨让世界变得更好,并且也要注重实践功效。
而深度学习范畴的现状是:我们正在疯狂地把这些“一知半解”的知识用于神经网络,并且把这样开发出来的 AI 系统用于越来越高风险的场景,却又缺乏对可解释性,对安全的思索。
比如,我们知道一个神经网络的参数量越大、泛用性似乎就越强,但无法解释某几个参数之间的关系到底是什么,停止怎样的调整会导致输入结果怎样变化;再比如,我们知道成见在社会中客观存在,也必然会投射到社会材料聚合而成的数据集当中,而为数据集是 AI 系统带有成见的重要缘由,但除了低效地改善数据集之外,我们对于消弭 AI 系统的成见暂时别无他法。