自 ELMo、GPT、BERT 等一系列预训练语言表示模型(Pre-trained Language Representation Model)出现以来,预训练模型在绝大多数自然语言处理任务上都展现出了远远超过传统模型的效果,受到越来越多的关注,是 NLP 领域近年来 最大的突破之一,是自然语言处理领域的最重要进展。
BERT(Bidirectional Encoder Representation from Transformer)是 Google AI 于 NAACL2019 提出的一个预训练语言模型。BERT 的创新点是提出了有效的无 监督预训练任务,从而使得模型能够从无标注语料中获得通用的语言建模能力。 模型的部分细节在前文的论文解读中已经给出,不再赘述。