2018-12-15 论文笔记 BERT 详解 目前最强NLP模型,横扫NLP11项任务。利用Transformer去预训练双向语言模型和NSP任务,再finetune达到了各种任务的最优效果。 点击阅读全文
2018-12-13 论文笔记 OpenAI GPT:Improving Language Understanding by Generative Pre-Training 使用Transformer(Decoder)预训练单向语言模型,再进行有监督数据进行特定任务finetune 点击阅读全文
2018-12-11 论文笔记 ELMo:Deep Contextualized Word Representations ACL2018 Best Paper, 性价比很高的效果提升方法。ELMo: Deep contextualized word representations 点击阅读全文
2018-08-30 机器阅读理解 QANet 常年SQuAD榜单排名第一的模型。QANet: Combining Local Convolution with Global Self-Attention for Reading Comprehension 点击阅读全文
2018-05-02 自然语言处理 意图识别和槽填充 Attention-Based Recurrent Neural Network Models for Joint Intent Detection and Slot Filling 点击阅读全文