• 【翻译】图解BERT、ELMo等 | NLP迁移学习开端

    时间:2022-12-06 15:00:36

    看我看我这是我翻译这位大佬的第三篇文章了(Transformer、BERT、GPT-2)。作者博客:@Jay Alammar原文链接:The Illustrated BERT, ELMo, and co. (How NLP Cracked Transfer Learning)正文2018年是NLP模...

  • 词向量与ELMo模型 词向量漫谈

    时间:2022-05-09 20:27:09

    目录:基础部分回顾(词向量、语言模型)NLP的核心:学习不同语境下的语义表示基于LSTM的词向量学习深度学习中的层次表示以及DeepBI-LSTMELMo模型总结1.基础部分回顾(词向量、语言模型)1.1独热编码-词的表示  1.2词向量-词的表示我们为什么需要词向量?(One-hot向量的缺点?)...

  • 文本分类实战(九)—— ELMO 预训练模型

    时间:2021-08-29 19:39:18

    1大纲概述文本分类这个系列将会有十篇左右,包括基于word2vec预训练的文本分类,与及基于最新的预训练模型(ELMo,BERT等)的文本分类。总共有以下系列:word2vec预训练词向量textCNN模型charCNN模型Bi-LSTM模型Bi-LSTM+Attention模型RCNN模型Adve...