https://zhuanlan.zhihu.com/p/49271699
中文翻译版本https://zhuanlan.zhihu.com/p/54356280
Dissecting BERT Part 1: The Encoderhttps://medium.com/dissecting-bert/dissecting-bert-part-1-d3c3d495cdb3
http://nlp.seas.harvard.edu/2018/04/03/attention.html
论文笔记BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding(BERT模型理解)https://ai.yanxishe.com/page/blogDetail/9925
作者:张俊林老师,他是中国中文信息学会理事,中科院软件所博士,目前在新浪微博 AI Lab 担任资深算法专家。在此之前,张俊林老师曾在阿里巴巴任资深技术专家并负责新技术团队,也曾在百度和用友担任技术经理及技术总监等职务。同时他是技术书籍《这就是搜索引擎:核心技术详解》(该书荣获全国第十二届优秀图书奖)、《大数据日知录:架构与算法》的作者。本文首发于知乎:https://zhuanlan.zhihu.com/p/54743941
欢迎光临 智客公社 (http://bbs.cnaiplus.com/) | Powered by Discuz! X3.4 |