智客公社

标题: OpenAI核心人员集体离任创立新公司:人均大神,融资1亿多美金只为“初心” [打印本页]

作者: 大号po12328    时间: 2021-6-15 22:47
标题: OpenAI核心人员集体离任创立新公司:人均大神,融资1亿多美金只为“初心”
本文来自微信公众号“硅星人”(guixingren123),作者:光谱 杜晨

硅星人的读者应该都对 OpenAI 比较熟习了。这家总部位于旧金山的实验室,是 AI 基础科研范畴的全球指导者之一。它开发的 GPT 言语生成模型,一次又一次刷新人们对于深度学习才能的认知。OpenAI 原是非营利机构,但为了更好地完成产研结合,用期权留住员工,之前也成立了有限营利的公司。

不过在去年12月,OpenAI 一批早期/核心员工集体离任,在范畴内惹起了不小的惊动。这次“出 OpenAI 记”并非普通的跳槽,相关离任人员也保持了很长工夫的缄默,以致于圈内人士都不知道他们接上去有何打算。

最近,这批 OpenAI 前核心员工终于宣布了他们史无前例的伟大计划:处理长久以来神经网络的“黑盒子”成绩,为研讨者们开发可以解释 AI 真正工作原理的工具。

[attach]627645[/attach]


他们创办了一家新公司 Anthropic,努力于提高 AI 安全和可解释性。这些创始成员置信,“通用人工智能” (artificial general intelligence) 不久后即将到来,而 AI 安全将会成为日最重要的研讨方向。

这家新公司也被投资者赋予了极大的等待。据了解,其 A 轮融资曾经完成,规模高达1.24亿美元,投资人包括 Skype 创始人 杨·塔林(领投)、 埃里克·施密特、达斯汀·莫斯科维兹等。

Anthropic 到底是一家怎样的机构?它的创始成员都有谁?它在做的事情对于整个 AI 基础和运用范畴有何严重意义?让我们走近这家最近刚刚分开隐外形状的全新机构,一探它的真相。

让 AI 更安全、可解释


AI 不断是一个“黑盒子”。虽然人们描画神经网络是按照人脑神经工作原理设计的,它详细怎样工作,输入的数据是如何转化成输入的,详细的原理和各环的作用,不断很难被真正解释。

在一小部分研讨者看来,思索到 AI 正在被运用到越来越高风险的系统当中,比如自动驾驶、医疗诊断、药物发现,甚至军事当中……它的不可解释性将会阻挠技术的真正提高,并且假如被持续忽视的话,甚至能够会引发不可逆转的严重恶果。

不过,自从深度学习在十年前左右获得重要打破,这项技术曾经成为了 AI 技术提高的根基。越来越大的模型、更强的算力,让 AI 变得似乎“无所不能”,而不可解释性不断没有被公众看作是大成绩——这也是为什么虽然目前 AI 范畴内很多人,特别是那些从事运用范畴的,并没有关注 AI 的黑盒子成绩。

[attach]627646[/attach]


2015年底成立的 OpenAI,其使命是完成通用人工智能,打造一个可以像人的心智那样,具有学习和推理才能的机器系统。成立以来,OpenAI 不断从事 AI 基础研讨,次要以 GPT 言语生成模型(特别是 GPT-3)被人们所熟知。

但其实,加强 AI 的可解释性,让它可以愈加安全地运用,也是 OpenAI 的研讨方向之一。只不过,这部分工作在名望更大的 GPT-3 的面前,似乎显得没有那么重要。

而在去年年底离任的这一批员工,以为随着模型变大、算力变强,通用人工智能离我们越来越近,在可预见的将来就有能够完成——而在这样的前提下,AI 可解释性和安全性变得无比重要。这批员工,被以为是AI范畴的“有效利他主义者”。简单来说,他们不只以为应该投入重金停止 AI 基础研讨让世界变得更好,并且也要注重实践功效。

他们的理念和 OpenAI 并没有本质上的冲突,但是 OpenAI 变得越来越不透明,且逐渐功利化的趋向,令他们感到担忧。一个最直接的例子,就是 OpenAI 尚未处理成见和安全成绩,就把 GPT-3 开发成了商用化的 API,提供给行业里的大公司运用。

[attach]627647[/attach]


最终,这批核心员工在去年年底集体离任。其中不少人,都参与到了明天硅星人引见的这家 Anthropic 公司当中。

所以其实这样解释 Anthropic 可或许更准确一些:一家重拾 OpenAI 渐渐忘却的初心的“正统” AI 基础科研机构。

Anthropic 的官网这样引见本人:我们是一家AI 安全和研讨公司,努力于开发牢靠、可解释和可调整的 AI 系统。“明天的大规模的通用(AI)系统可以带来很高的收益,但他们同时却是不可预测、不牢靠,和不透明的。我们的使命是在这些成绩上做出提高。”

“Anthropic 的使命是从事基础科研,让我们可以打造才能更强、更通用、更牢靠的 AI 系统,并且运用这些系统从而让人类获益,”Anthropic 结合创始人兼 CEO Dario Amodei 表示。

[attach]627648[/attach]


对于“神经网络到底是什么”这类成绩,通常的白话答案是“一种模拟人脑神经工作方式的计算系统”。但是很多专业人士都不情愿提及的是:我们对人脑的工作原理至今并未完全了解。

而深度学习范畴的现状是:我们正在疯狂地把这些“一知半解”的知识用于神经网络,并且把这样开发出来的 AI 系统用于越来越高风险的场景,却又缺乏对可解释性,对安全的思索。

比如,我们知道一个神经网络的参数量越大、泛用性似乎就越强,但无法解释某几个参数之间的关系到底是什么,停止怎样的调整会导致输入结果怎样变化;再比如,我们知道成见在社会中客观存在,也必然会投射到社会材料聚合而成的数据集当中,而为数据集是 AI 系统带有成见的重要缘由,但除了低效地改善数据集之外,我们对于消弭 AI 系统的成见暂时别无他法。

Amodei 接受美国媒体 Vox 旗下 Future Perfect 采访时表示,AI 研讨人员应该添加对机器学习系统内在工作原理的了解,并且用这些知识来开发更安全的系统,而不是执迷于“放卫星”似的自觉开发越来越大的神经网络。

为什么呢?举个例子:深度学习有一个经典的激励“歪曲”现象,比如你想让机器 agent 走出迷宫,设计分数(豆子)激励它——结果它执迷于获得更高的分数,遍历了每一条错误的路,吃掉了一切的豆子,却从未将走出迷宫当作真正目的。

当神经网络变得更大、更强,假如中间出现了某种客观或客观导致的激励歪曲,它真正做的事情和它的设计初衷之间的差距只会越来越大,运用在理想场景中,有能够导致严重后果。

假如我们可以获得一种工具,可以更清楚直白地了解神经网络的工作原理,知道如何调整网络的哪个部分,可以避免此类状况,对于接上去的 AI 提高将有很大协助。一切研讨者都希望掌握这个工具,但成绩就在于,我们如今并没有这样的工具。

而 Anthropic 的义务就是开发出这样的工具,并把它送到更多 AI 研讨者的手上。

明星创始团队+投资人


去年年底从 OpenAI 离任的核心员工当中就包括 Dario Amodei 和他的同胞姐妹 Daniela。LinkedIn 材料显示,他们于往年2月创办了 Anthropic 公司,Dario 任 CEO,Daniela 任总裁。

Dario是 OpenAI 的早期员工之一,曾发表多篇 AI 可解释性、安全等方面的论文,离任前在 OpenAI 担任研讨 VP。在此之前,Dario 还曾在百度担任研讨员,在前首席迷信家吴恩达手下工作。他博士毕业于普林斯顿大学,后回到本科毕业的斯坦福大学担任博士后学者。他是 OpenAI 的前核心成员,也被以为是深度学习范畴最为前沿的研讨员之一。

[attach]627649[/attach]


Dario 的胞妹 Daniela Amodei 之前也在 OpenAI 从事和 Dario 相反方向的工作,曾担任安全和政策 VP。Daniela 过往的任职阅历包括 Stripe(其创始人是 OpenAI 投资人之一)、美国国会等。

[attach]627650[/attach]


Anthropic 的创始团队成员,大多为 OpenAI 的重要员工或关联成员,包括(排名不分先后)Jared Kaplan、Sam McCandlish、Tom Brown、Gabriel Goh、Kamal Ndousse、Jack Clark、Ben Mann、Chris Olah 等。

这些研讨员曾参与 OpenAI 其多项重要课题研讨,包括 GPT-3、“显微镜”神经元可视化工具、神经网络里的多模态神经元、AI 模型安全设计事故分析、引入人类偏好的强化学习等——得到这些关键人员,OpenAI 将来在相关课题上或将略显颓势。

举一个例子:Chris Olah 是 OpenAI 多模态神经元论文的作者之一。他是范畴里小有名望的“怪胎”,曾经回绝 Yoshua Bengio 的研讨生约请,而是去了 Google Brain 团队。他在谷歌带过博士生,论文的援用数量甚至超过拥有博士学位的研讨者,本人却连本科都没毕业……

[attach]627651[/attach]


简单引见一下 Olah 参与的 OpenAI 多模态神经元论文:多年以前有研讨者发现,大脑中的一些神经元可以对模态不同但概念相反的触发条件产生反应,比如当提到“哈莉·贝瑞”的名字、照片、简笔画像的时分,同一个神经元都可以产生反应。

OpenAI 的多模态神经元研讨,基于该机构往年发布的 CLIP 泛用性视觉系统。论文作者发如今 CLIP 的神经网络倒数第二层也存在这样的一颗“神经元” (Neuron 244)。这项研讨预示着,“笼统”这一自然视觉范畴的概念,很能够在计算机合成视觉范畴异样存在。

有着如此弱小团队,Anthropic 成为了投资者眼中的最新抢手标的。目前该公司曾经完成了规模高达1.24亿美元的 A 轮融资,并正式走出隐外形状。

A 轮的领投者是 Jaan Tallinn,原 Skype 的结合创始人。Tallinn 还是 DeepMind 的早期投资人。

(他能“击败”一众其它科技大佬/大牌投资人,拿到领投资历,一个重要缘由应该是他和 Anthropic 创始团队哲学理念分歧,是“有效利他主义”运动的次要资助者之一。)

[attach]627652[/attach]


Anthropic 的其它投资人还包括 Dustin Moskovitz(Asana CEO、Facebook 结合创始人)、埃里克·施密特(谷歌前董事长、CEO)、詹姆斯·麦克雷夫等,相对是相当豪华的投资人阵容了。

Anthropic 表示公司的钱次要花在计算密集型的基础科研上,虽然将来也有商业化的打算,短期内不会作为次要目的。但不管怎样,A 轮 1.24亿美元的融资规模,足以表明 Anthropic 的投资人预期它的估值完全有追逐 OpenAI 的希望。

在这个 AI 基础科研得到比以往更多关注的时代,Anthropic 无疑将成为 OpenAI、DeepMind 的有力“竞争者”,和一家值得继续亲密关注的研讨型公司。
作者: 梦恋米兰    时间: 2021-6-15 22:49
我想这个范畴很重要,我国也应紧跟上。
作者: 很堕落    时间: 2021-6-15 22:59
不会成功的 名字太难记了




欢迎光临 智客公社 (http://bbs.cnaiplus.com/) Powered by Discuz! X3.4