自然语言处理深度学习方向博文整理

时间:2022-06-07 01:31:44

《基于神经网络的词和文档语义向量表示方法研究》

来自 <http://licstar.net/archives/tag/%E8%AF%8D%E5%90%91%E9%87%8F>

 

机器学习相关数据集

https://en.wikipedia.org/wiki/List_of_datasets_for_machine_learning_research

 

Deep Learning in NLP(一)词向量和语言模型

来自 <http://licstar.net/archives/328>

 

 

理解 LSTM 网络

来自 <http://www.jianshu.com/p/9dc9f41f0b29/>

 

递归神经网络不可思议的有效性

来自 <http://www.csdn.net/article/2015-08-28/2825569>

 

 

递归神经网络(recursiveNN)结合自编码(Autoencode)实现句子建模

来自 <http://blog.csdn.net/qq_26609915/article/details/52119512>

 

 

最新自然语言处理(NLP)四步流程:Embed->Encode->Attend->Predict

来自 <http://geek.csdn.net/news/detail/116220>

 

注意力机制(Attention Mechanism)在自然语言处理中的应用

来自 <http://www.cnblogs.com/robert-dlut/p/5952032.html>

 

 

THUOCL:清华大学开放中文词库

来自 <https://mp.weixin.qq.com/s/VvS5zZiARjyxuAZsGIxN2Q>

 

 

用深度学习(CNN RNN Attention)解决大规模文本分类问题 - 综述和实践

 

来自 <https://zhuanlan.zhihu.com/p/25928551>

 

知乎“看山杯” 夺冠记

 

来自 <https://zhuanlan.zhihu.com/p/28923961>

 

理解Word2vecSkip-gram,CBOW

http://www.cnblogs.com/DjangoBlog/p/7903683.html

 

理解Fasttext

https://www.cnblogs.com/DjangoBlog/p/7903690.html

 

《How toGenerate a Good Word Embedding?》导读

http://licstar.net/archives/620

来自 <http://licstar.net/archives/category/%e8%87%aa%e7%84%b6%e8%af%ad%e8%a8%80%e5%a4%84%e7%90%86