找回密码
 立即注册
搜索

用飞桨做自然言语处理:神经网络言语模型运用实例


允中 发自 凹非寺

量子位 报道 | 公众号 QbitAI

编者按:

言语模型的身影遍及在NLP研讨中的各个角落,想要了解NLP范畴,就不能不知道言语模型。

想要让模型能落地奔跑,就需借助深度学习框架之力,Tensorflow、PyTorch自然是主流,但在Dropout都成独家专利之后,不储备“B计划”,多少让人有些担惊受怕

这里有一份飞桨(PaddlePaddle)言语模型运用实例,从基础概念到代码完成,娓娓道来,逐一阐明。如今,量子位分享转载如下,宜学习,宜收藏。

刚入门深度学习与自然言语处理(NLP)时,在学习了 Goldberg 特别棒的入门书 NN4NLP,斯坦福 cs224n 等等后,也有限次起念头,写个系列吧,但都不了了之了。

近来,NLP 范畴由于超大预训练模型,很多研讨需求耗费大量计算资源(比如百度新发布持续学习语义了解框架 ERNIE 2.0,该模型在共计 16 个中英文义务上超越了 BERT 和 XLNet,获得了 SOTA 效果),这样的项目基本上就是在烧钱,小家大户玩不起,于是就傻傻地等着大佬们发出论文,放出代码,刷新榜单。不过这也意味着一个总结的好机会,加上额外的推进,便重新起了念头。

这个系列会引见我以为古代 NLP 最重要的几个主题,同时包括它们的完成与讲解。

这里会运用的百度的开源深度学习平台飞桨(PaddlePaddle),关于这点,有如下几个缘由。

首先,不久前和一个科技媒体冤家聊天,由于当时封锁华为事情的缘由,聊到了美国企业能否能够对我们封锁深度学习框架,比如说主流的 Tensorflow 和 Pytorch,我当时答是说不定能够呢,毕竟谷歌连 Dropout 都能去央求专利。只需之后改一下答应,不让运用这些框架的更新,估计我们也没办法,于是就想着可以了解一下国内百度的框架飞桨。

去飞桨的 PaddleNLP 看了一下,内容很丰富,感觉飞桨对 NLP 这块支持非常好,值得关注。

项目地址:

https://github.com/PaddlePaddle/models/tree/develop/PaddleNLP

言语模型

古代 NLP 范畴的一个核心便是言语模型 (Language Model),可以说它无处不在,一方面它给 NLP 发展带来宏大推进,是多个范畴的关键部分,但另一方面,成也萧何败也萧何,言语模型其实也限制了 NLP 发展,比如说在创新性生成式义务上,还有如何用言语模型获得双向信息。

那到底什么是言语模型?

什么是言语模型






就是言语的模型(仔细脸),开个玩笑,言语模型粗浅点讲其实就是判别一句话是不是人话,正式点讲就是计算一句话的概率,这个概率值表示这个本文有多大概率是一段正常的文本。

对于一句话,比如说用脸滚出来的一句话:“哦他发看和了犯点就看见发”,很分明就不像人话,所以言语模型判别它是人话的概率就小。而一句很常用的话:“好的,谢谢”,言语模型就会给它比较高的概率评分。

用数学的方式来表示,言语模型需求获得这样的概率:






其中 X 表示句子,x1,x2… 代表句子中的词。怎样计算这样一个概率呢,一个比较粗暴的方法就是有个非常非常大的语料库,外面有各种各样的句子,然后我们一个个数,来计算不同句子的概率,但稍微想想就知道这个方法不太能够,由于句子组合无量无尽。

为更好计算,应用条件概率公式和链式法则,按照从左到右的句序,可以将公式转换成:






题变成了如何求解:






怎样根据后面一切的词预测下一个词,当然这个成绩对于如今还有点复杂,之后可以用 RNN 模型来计算,但如今让我们先假设对于一个词离它近的词重要性更大,于是基于马尔可夫性假设,一个词只依赖它后面 n-1 个词,这种状况下的言语模型就被称为 N-gram 言语模型。

比如说基于后面2个词来预测下一个词就是 3-gram (tri-gram) 言语模型:






细心些的话,会发现,当 n-gram 中的 n 增大,就会越接近原始言语模型概率方程。

当然n并不是越大越好,由于一旦n过大,计算序列就会变长,在计算时 n-gram 时词表就会太大,也就会引发所谓的 The Curse of Dimension (维度灾难) 。因此普通大家都将n的大小取在3,4,5附近。

早期完成:数一数就知道了

最早了解相似言语模型计算概率,是在研讨生阶段当时号称全校最难的信息论课上,教师激烈安利香农的经典论文 A Mathematical Theory of Communication,论文中有一大节中,他就给应用相似计算上述言语模型概率的方法,生成了一些文本。






其中一个就是用 2-gram (bi-gram) 的频率表来生成的,这曾经相当于一个 bi-gram 言语模型了。






异样,要构建这样一个 n-gram 言语模型,最次要工作就是,基于大量文本来统计 n-gram 频率。

当时有个课程作业,就是先预备一些英文文本,然后一个一个数 n-gram,之后除以总数算出言语模型中需求的概率估计值,这种方法叫 Count-based Language Model。

传统 NLP 中搭建言语模型便是这样,当然还有更多技巧,比如平滑算法,详细可以参考 Jurafsky 教授的书和课。

但这种方法会有一个很大的成绩,那就是后面提到的维度灾难,而这里要完成的神经网络言语模型(Neural Network Language Model),便是用神经网络构建言语模型,经过学习分布式词表示(即词向量)的方式处理了这个成绩。

言语模型无能什么

不过在谈神经网络言语模型前,我们先来看看言语模型的用途。

那它有什么用呢,如之前提到,言语模型可以说是古代 NLP 核心之一,无处不在。比如说词向量,最早算是言语模型的副产品;同时经典的序列到序列(seq2seq) 模型,其中解码器还可以被称为,Conditional Language Model(条件言语模型);而如今大火的预训练模型,次要义务也都是言语模型。

在实践 NLP 运用中,我以为能总结成以下三条:

第一,给句子打分,排序。先在大量文本上训练,之后就能用获得的言语模型来评价某句话的好坏。这在对一些生成结果停止重排序时非常有用,能很大程度地提高目的,机器翻译中有一个技巧便是结合言语模型 Loss 来重排序生成的候选结果。

第二,用于文本生成。首先其训练方式是根据后面词,生成之后词。于是只需不断反复此过程(自回归)就能生长大文本了。比较有名的例子就包括最近的 GPT2,其标题就叫 “ Better Language Models and Their Implications.” 它生成的句子效果真的非常棒,可以本人体验一番 https://talktotransformer.com/.






第三,作为预训练模型的预训练义务。最近很火的预训练模型,几乎都和言语模型脱不开关系。

比如说 ELMo 就是先训练双向 LSTM 言语模型,之后双向不同层向量拼接获得最后的 ELMo词向量,还有 BERT 里最次要的方法就是 Masked Language Model (遮掩言语模型)。

而最近的 XLNet 中最次要训练义务也叫做 Permutation language Model (陈列言语模型),可见言语模型在其中的重要性重要性。

神经网络言语模型架构

接上去简单引见一下这里要完成的网络结构,自创自 Bengio 的经典论文 A Neural Probabilistic Language Model 中的模型。






这里我们训练 Tri-gram 言语模型,即用后面两个词预测当前词。

于是输入就是两个单词,然后查表取出对应词向量,之后将两个词向量拼接起来,过一个线性层,加入 tanh 激活函数,最后再过线性层输入分数,经过 softmax 将分数转换成对各个词预测的概率,普通取最大概率地位为预测词。

用公式表达整个过程就是:






整个结构非常简单,接上去就来看看如何用 飞桨来完成这个结构吧,同时引见以下 飞桨的基本思想,和普通训练流程。

项目地址:

https://github.com/PaddlePaddle/models/tree/develop/PaddleNLP/language_model

PaddlePaddle代码基本完成

这里拿一个小例子来讲解,假设我们在一个叫做 PaddlePaddle 的世界,这个世界的人们只会说三句话,每句话三个词,我们需求建立一个 Tri-gram 言语模型,来经过一句话前两个词预测下一个词。

关于整个流程,次要分成预备,数据预处理,模型构建,训练,保存,预测几个阶段,这也是普通一个 NLP 义务的基础流程。

预备

首先,先导入需求的库。
import numpy as np
import paddle
import paddle.fluid as fluid

之后预备训练数据与词表,统计一切不同词,建立词表,然后按照顺序建立一个单词到 id 的映射表和配套的 id 到单词映射表。由于模型无法直接读这些词,所以需求单词与 id 之间的转换。
# 假设在这个叫做Paddle的世界里,人们只会说这三句话
sentences = ["我 喜欢 Paddle", "Paddle 等于 飞桨", "我 会 Paddle"]
vocab = set(' '.join(sentences).split(' ')) # 统计词表
word2idx = {w: i for i, w in enumerate(word_list)} # 建立单词到id映射表
idx2word = word_list # id到单词的映射表
n_vocab = len(word2idx) # 词表大小

预备好数据后,设置模型参数和训练相关参数,由于义务很简单,所以参数都设很小。
# 参数设置
# 言语模型参数
n_step = 2 # 输入后面多少个词,tri-gram 所以取 3-1=2 个
n_hidden = 2 # 隐层的单元个数
# 训练参数
n_epochs = 5000 # 训练 epoch 数
word_dim = 2 # 词向量大小
lr = 0.001 # 学习率
use_cuda = False #用不用GPU

数据预处理

根据 PaddlePaddle 数据输入要求,需求预备数据读取器 (reader),之后经过它来读取数据,对输入数据停止一些前处理,最后作为 batch 输入。
def sent_reader():
def reader():
batch = []
for sent in sentences:
words = sent.split(' ')
input_ids = [word2idx[word] for word in words[:-1]] # 将输入转为id
target_id = word2idx[words[-1]] # 目的转为id
input = np.eye(n_vocab)[input_ids] # 将输入id转换成one_hot表示
target = np.array([target_id])
batch.append((input, target))
yield batch
return reader

构建模型

这里从飞桨中较底层 API 来停止构建,了解更透彻。先创建所需参数矩阵,之后按照后面的公式来一步步运算。
def nnlm(one_hots):
# 创建所需参数
# 词向量表
L = fluid.layers.create_parameter(shape=[n_vocab, word_dim], dtype='float32')
# 运算所需参数
W1 = fluid.layers.create_parameter(shape=[n_step*word_dim, n_hidden], dtype='float32')
b1 = fluid.layers.create_parameter(shape=[n_hidden], dtype='float32', is_bias=True)
W2 = fluid.layers.create_parameter(shape=[n_hidden, n_vocab], dtype='float32')
b2 = fluid.layers.create_parameter(shape=[n_vocab], dtype='float32', is_bias=True)
# 取出词向量
word_emb = fluid.layers.matmul(one_hots, L)
# 两个词向量拼接
input = fluid.layers.reshape(x=word_emb, shape=[-1, n_step*word_dim], inplace=True)
# 前向运算
input2hid = fluid.layers.tanh(fluid.layers.matmul(input, W1) + b1) # 输入到隐层
hid2out = fluid.layers.softmax(fluid.layers.matmul(input2hid, W2) + b2) # 隐层到输入
return hid2out

先根据输入的独热(one-hot)向量,取出对应的词向量,由于每个例子输入前两个词,因此每个例子可获得两个词向量,之后按照步骤,将它们拼接起来,然后与 W1 和 b1 停止运算,过 tanh 非线性,最后再拿结果与 W2 和 b2 停止运算,softmax 输入结果。

接上去构建损失函数,我们用常用的交叉熵(cross-entropy)损失函数,直接调 API。
def ce_loss(softmax, target):
cost = fluid.layers.cross_entropy(input=softmax, label=target) # 计算每个batch的损失
avg_cost = fluid.layers.mean(cost) # 平均
return avg_cost

末尾训练

终于进入了训练环节,不过为了更好了解,先稍稍引见一点 飞桨的设计思想。

飞桨同时为用户提供动态图和静态图两种计算图。动态图组网愈加灵敏、调试网络便捷,完成AI 想法更疾速;静态图部署方便、运转速度快,运用落地更高效。

假如想了解飞桨动态图更多内容,可以参考GitHub项目地址:https://github.com/PaddlePaddle/models/tree/v1.5.1/dygraph

实践运用中,静态图更为常见,下面我们以静态图为例引见一个残缺的完成:

首先,需求先定义 Program,整个 Program 中包括了各种网络定义,操作等等,定义完之后,再创建一个 Executor 来运转 Program,用过相似框架的同窗应该并不生疏。

因此先来看看这两行代码,fluid 中最重要的两个 Program,将它们取出来。
startup_program = fluid.default_startup_program() # 默许启动程序
main_program = fluid.default_main_program() # 默许主程序

default_startup_program 次要定义了输入输入,创建模型参数,还有可学习参数的初始化;而 default_main_program 则是定义了神经网络模型,前向反向,还有优化算法的更新。

之后将之前定义好的一些模块放入训练代码中。
train_reader = sent_reader() # 获取数据 reader
# 定义输入和目的数据
input = fluid.layers.data(name='input', shape=[-1, n_step, n_vocab], dtype='float32')
target = fluid.layers.data(name='target', shape=[-1, 1], dtype='int64')
# 输入到模型,获得 loss
softmax = nnlm(input)
loss = ce_loss(softmax, target)
之后还需求定义优化器(Optimizer),还有数据 Feeder 用于喂入数据。
# 配置优化器
optimizer = fluid.optimizer.Adam(learning_rate=0.001) # 万金油的 Adam
optimizer.minimize(loss)
# 用于之后预测
prediction = fluid.layers.argmax(softmax, axis=-1)
# 定义 Executor
place = fluid.CUDAPlace(0) if use_cuda else fluid.CPUPlace() # 指定运转地位
exe = fluid.Executor(place)
#定义数据 Feeder
feeder = fluid.DataFeeder(feed_list=[input, target], place=place) # 每次喂入input和target
至此就完成了第一步的定义环节,然后就可以用定义的 Executor 来执行程序了。
# 参数初始化
exe.run(startup_program)
# 训练
for epoch in range(n_epochs):
for data in train_reader():
metrics = exe.run(
main_program, # 主程序
feed=feeder.feed(data), # 数据喂入
fetch_list=[loss]) # 要取出的数据
if epoch % 500 == 0:
print("Epoch {}, Cost {:.5f}".format(epoch, step, float(metrics[0][0])))
简单解释一下代码,训练时需求exe.run来执行每一步的训练,对于run需求传入主程序,还有输入 Feeder,和需求拿出来(fetch)的输入。

之后运转就能看到训练 log 了。






能分明看到 loss 在不断下降,等训练完成,我们就获得一个训练好的模型。

保存模型

在预测前可以尝试先保存一个模型,可以便于之后运用,比如 load 出来做预测。
fluid.io.save_inference_model('./model', ['input'], [prediction], exe)

很简单,只需求传入保存的途径’./model’,预测需求 feed 的数据’input’,之后需求 fetch 出的预测结果 prediction,最后加上执行器 exe,就 OK 了。

非常快。

预测阶段

预测阶段其实和训练阶段相似,但由于主程序都保存上去了,所以只用先建立执行器 Executor,同时建立一个用于预测的作用域。
infer_exe = fluid.Executor(place) # 预测 Executor
inference_scope = fluid.core.Scope() # 预测作用域

然后在预测作用域中 load 出模型,停止预测运算,大部分操作都和训练很相似了。独一不同就是 load 模型这块,其实就是把之前保存上去的参数给 load 出来了,然后用于预测。
with fluid.scope_guard(inference_scope):
[inference_program, feed_target_names,
fetch_targets] = fluid.io.load_inference_model('./model', infer_exe) # 载入预训练模型
infer_reader = sent_reader() # 定义预测数据 reader
infer_data = next(infer_reader()) # 读出数据
infer_feat = np.array([data[0] for data in infer_data]).astype("float32")
assert feed_target_names[0] == 'input'
results = infer_exe.run(inference_program,
feed={feed_target_names[0]: infer_feat},
fetch_list=fetch_targets) # 停止预测

结果如何?
for sent, idx in zip(sentences, results[0]):
print("{} -> {}".format(' '.join(sent.split()[:2]), idx2word[idx]))
我 喜欢 -> Paddle
Paddle 等于 -> 飞桨
我 会 -> Paddle

模型完美地学习到了 PaddlePaddle 世界中仅有的几个 trigram 规则,当然由于该义务非常简单,所以模型一下就能学会。

更多尝试

在了解完以上这个小例子之后,就能在它基础上做很多修正了,感兴味的同窗不妨拿下面的几个思绪作为练习。

比如说用一个大数据集,加上更大模型,来停止训练,可以尝试复现 Bengio 论文中的模型规模,大致结构差不多,只是修正一下参数大小。

还比如说,在这里搭建网络结构时,用的是较底层API,直接创建矩阵权重,相乘相加,而 飞桨中有很多好用的API,能否调用这些API来重新构建这个模型呢,比如说词向量部分,可以用fluid.layers.embedding直接传入词 id 来完成,还有全衔接层,可以直接用 fluid.layers.fc 来完成,激活函数可以直接经过外面参数设置,非常方便。

其实还可以在这里尝试些小技巧,比如共享词向量表为 softmax 前全衔接层的权重 W2,以及加入 Bengio 论文中提到的相似残差衔接直接将 embedding 连到输入的部分。

这次在这里引见神经网络言语模型,并经过 飞桨来完成了一个简单的小例子,次要想做的是:

第一,言语模型义务在 NLP 范畴很重要,想首先引见一下;

第二,Bengio 这篇神经网络言语模型的论文非常经典,比如说提出了用神经网络完成言语模型,同时还最早提出词表示来处理“维数灾难”成绩,经过复现,也好引出之后词向量,还有seq2seq 等话题;

第三,经过用 飞桨来完成这样一个简单例子,可以抛开各种模型与数据复杂度,更直观了解一个飞桨程序是如何构建的,也为之后讲解飞桨更复杂程序打下基础。
想详细了解更多飞桨相关内容,请点击文末阅读原文或参阅以下链接:
https://github.com/PaddlePaddle/models/tree/develop/PaddleNLP
想与更多的深度学习开发者交流,请加入飞桨官方QQ群:432676488

— 完 —

诚挚招聘

量子位正在招募编辑/记者,工作地点在北京中关村。等待有才气、有热情的同窗加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复“招聘”两个字。

量子位 QbitAI · 头条号签约作者
վ'ᴗ' ի 追踪AI技术和产品新动态

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复

使用道具 举报

大神点评3

英桃莉 2019-8-10 18:17:06 来自手机 显示全部楼层
当我看到你的帖子时,我只有赞!狂赞!超赞!力赞!强赞!无敌赞!必须赞!史上最赞!赞了又赞!一赞到底了!
回复

使用道具 举报

思宁 2019-8-11 21:55:52 显示全部楼层
你用实力诠释了一句话,高手在民间
回复

使用道具 举报

这么强,支持楼主,佩服
回复

使用道具 举报

高级模式
B Color Image Link Quote Code Smilies