在由 DeepMind 主办的 Deep Learning Indaba 2018 深度学习峰会上,20 多名 NLP 范畴的研讨者接受采访,就 NLP 的研讨现状、当前困境和将来走向等成绩发表了本人的见解。很多研讨者指出:自然言语了解才是当前 NLP 发展的最大成绩。
我以为最大的开放性成绩是关于自然言语了解的。我们应该经过构建文本表征,开发出能像人类一样阅读和了解文本的系统。在那之前,我们一切的提高都只是在提升系统形式婚配的才能。——Kevin Gimpel在专家采访中,很多专家以为自然言语了解(NLU)成绩是最核心的,由于它是很多义务的先决条件(如自然言语生成)。他们以为目前的模型都还没有「真正」了解自然言语。
应对数据较少的场景(低资源言语、方言等)不是一个完全「空白」的成绩,由于该范畴曾经有了很多颇有前景的思绪,但我们还没找到一个处理这类成绩的普适方案。——Karen Livescu我们探求的第二个主题是在低资源场景下泛化至训练数据之外的范畴。在 Indaba 的场景下,一个自然的关注点就是低资源言语。第一个成绩聚焦于能否有必要为特定的言语开发专门的 NLP 工具,还是说停止通用 NLP 研讨曾经足够了。
高效表征大型文本。现有模型次要基于循环神经网络,该网络无法良好地表征较长的文本。受图启示的 RNN 工作流程具有发展潜力,由于它们比普通的 RNN 要愈加容易训练,虽然目前只看到了有限的改进,而且还没有被广泛采用。——Isabelle Augenstein对大型文本和多个文本停止推理也是一个较大的开放性成绩。最近的 NarrativeQA 数据集是符合这一背景的一个很好的基准示例。运用很大的语境停止推理与 NLU 严密相关,需求大幅度扩展现有系统,使其可以阅读整本书或整个电影剧本。这里有一个关键成绩:我们需求训练更好的模型还是仅仅在更多数据上训练?此处不展开讨论。
或许最大的成绩是如何定义成绩本身。正确定义成绩指的是构建数据集和评价步骤来恰当地衡量我们在详细目的上的停顿。假如能将一切成绩都简化为 Kaggle 风格的竞赛,事情就简单多了!——Mikel Artetxe本文没有空余篇幅讨论当前基准测试和评价设置的成绩,相关回答可以参考调查结果。最后一个成绩是,非洲社会最亟待处理的 NLP 成绩是什么。Jade 给出的答案是资源不足成绩。让人们借助翻译用本人的言语接触一切感兴味的教育资源是非常重要的一件事情。
欢迎光临 智客公社 (http://bbs.cnaiplus.com/) | Powered by Discuz! X3.4 |