目前,人工智能技术已深化到各行各业的运用之中,加快推进传统产业数字化转型。7月8日,在以“智联世界·众智成城”为主题的2021世界人工智能大会上,南开大学原校长、中国新一代人工智能发展战略研讨院执行院长龚克分享了他关于人工智能发展的看法。
龚克表示,近年来,AI作为一个通用技术正越来越多得和实体经济相交融;与此同时,AI正成为迷信研讨的一个重要工具。“这些停顿的背后,是AI算法的提高,过去三年间,有关算法的研讨在持续发展,并且运用范畴越来越广泛。”他说道。
普通以为,人工智能发展面临着六大瓶颈,分别是数据瓶颈、泛化瓶颈、能耗瓶颈、预义鸿沟瓶颈、可解释性瓶颈和牢靠性瓶颈。目前,在龚克看来,AI算法在六大瓶颈上都已获得停顿,但尚待打破。
首先,在数据瓶颈方面,当代人工智能次要是由大数据驱动,因此数据可获得性、数据质量以及数据标注成本等是制约人工智能发展的一大要素。“但在过去一年内,它曾经获得了比较分明的停顿,比如,当前被大量运用的GPT-3的推出,使得数据范畴有了一个非常弱小的工具。”龚克说。
据引见,GPT-3是迄今为止全球规模最大的预训练言语模型,在许多自然言语处理数据集上均具有出色的功能,包括翻译、问答和文本填空义务,还包括一些需求即时推理或范畴顺应的义务等,已在很多实践义务上大幅接近人类程度。龚克称,将来在图像等其他方面,像GPT-3这种预训练模型的推出指日可待。
另外,深度残差收缩网络以及基于对比学习的自监督学习模型的推出也处理了数据质量和成本的成绩。详细而言,深度残差收缩网络经过留意力机制,可留意到重要的特征,再经过软阈值函数将不重要特征置为零,从而加强深度神经网络从含噪声信号中提取有用特征的才能;基于对比学习的自监督学习模型可运用大量无标签数据停止训练,处理了当前数据标注所需求的大量人力及成本成绩。
其次,能效瓶颈方面国内外已有不少值得关注的停顿。比如,不久前来自MIT、维也纳工业大学、奥地利科技学院的团队仅用19个类脑神经元就完成了控制自动驾驶汽车,而常规的深度神经网络则需求数百万神经元。
再如,去年清华大学计算机系张悠慧团队等提出了“类脑计算完备性”概念以及软硬件耦合的类脑计算系统层次结构,经过实际论证与原型实验证明该类系统的硬件完备性与编译可行性,扩展了类脑计算系统运用范围使之能支持通用计算。龚克称,这一“完备性”新概念的提出,推进了类脑计算,对类脑系统存在的软硬件紧耦合成绩而言是一个打破性方案,可使类脑方案运用到不同场景,这是非常重要的停顿。
再者,在可解释性瓶颈方面,龚克称,随着人工智能的疾速运用,人们对可信任的人工智能呼声越来越高,而要使人工智能功能可信任,首先就要让它做到可解释。
在过去一年,业内在可解释范畴已有停顿。比如,从几何角度来了解深度学习,提出生成对抗网络 (GANs)的最优传输(OT) 观点。“它经过几何的映射找到了生成对抗网络中的生成器和判决器之间的关系,进而找到了模型坍塌的缘由,并提出了一个改进模型,这不能说是在处理可解释瓶颈上获得了打破,但是是一个非常有意义的停顿。”龚克说道。
再如,2020年7月,柏林技术大学和康奈尔大学的研讨团队发表了公平无偏的排序学习模型FairCo,该研讨分析了当前排序模型普遍存在的地位偏向、排序公平性以及物品曝光的马太效应成绩等,基于反理想学习技术提出了具有公平性约束的相关度无偏估计方法,并完成了排序功能的提升,遭到了业界广泛关注。
但龚克强调,虽然已有上述成果,但是,无论是深度学习体系的创新,还是多种学习方式的交融创新,以及对已有算法停止解释的研讨停顿,具有了解才能的算法模型目前尚未显现。他称,“我们必须激烈呼吁,把可解释性作为下一段AI范畴基础研讨的主攻方向,争取在不久的将来可以为AI的进一步广泛运用提供坚实的基础。”
|