• 【NLP】Python NLTK处理原始文本

    时间:2024-01-01 16:51:42

    Python NLTK 处理原始文本作者:白宁超2016年11月8日22:45:44摘要:NLTK是由宾夕法尼亚大学计算机和信息科学使用python语言实现的一种自然语言工具包,其收集的大量公开数据集、模型上提供了全面、易用的接口,涵盖了分词、词性标注(Part-Of-Speech tag, POS...

  • 基于OpenSeq2Seq的NLP与语音识别混合精度训练

    时间:2023-12-31 09:53:35

    基于OpenSeq2Seq的NLP与语音识别混合精度训练Mixed Precision Training for NLP and Speech Recognition with OpenSeq2Seq迄今为止,神经网络的成功建立在更大的数据集、更好的理论模型和缩短的训练时间上。特别是顺序模型,可以从...

  • 转载:深度学习在NLP中的应用

    时间:2023-12-21 11:33:46

    之前研究的CRF算法,在中文分词,词性标注,语义分析中应用非常广泛。但是分词技术只是NLP的一个基础部分,在人机对话,机器翻译中,深度学习将大显身手。这篇文章,将展示深度学习的强大之处,区别于之前用符号来表示语义,深度学习用向量表达语义。这篇文章的最大价值在于,为初学者指明了研究方向。下面为转载的原...

  • Coursera Deep Learning笔记 序列模型(二)NLP & Word Embeddings(自然语言处理与词嵌入)

    时间:2023-12-16 21:35:44

    参考1. Word Representation之前介绍用词汇表表示单词,使用one-hot 向量表示词,缺点:它使每个词孤立起来,使得算法对相关词的泛化能力不强。从上图可以看出相似的单词分布距离较近,从而也证明了Word Embeddings能有效表征单词的关键特征。2. 词嵌入(word emb...

  • NLP:单词嵌入Word Embeddings

    时间:2023-12-16 21:34:51

    深度学习、自然语言处理和表征方法原文链接:http://blog.jobbole.com/77709/一个感知器网络(perceptron network)。感知器 (perceptron)是非常简单的神经元,如果超过一个阈值它就会被启动,如果没超过改阈值它就没反应。感知器网络的输入和输出都是是二进...

  • DL4NLP——词表示模型(二)基于神经网络的模型:NPLM;word2vec(CBOW/Skip-gram)

    时间:2023-12-12 23:04:18

    本文简述了以下内容:神经概率语言模型NPLM,训练语言模型并同时得到词表示word2vec:CBOW / Skip-gram,直接以得到词表示为目标的模型(一)原始CBOW(Continuous Bag-of-Words)模型(二)原始Skip-gram模型(三)word analogy神经概率语言...

  • [NLP] 酒店名归类

    时间:2023-12-01 23:20:42

    目标:我们内部系统里记录的酒店名字是由很多人输入的,每个人输入的可能不完全一样,比如,‘成都凯宾斯基大酒店’, ‘凯宾斯基酒店’, ‘凯宾斯基’, 我们的初步想法是能不能把大量的记录归类,把很多相似的名字归成一类,然后自动给出一个建议的名字向量化和建模:大概的想法是,先找出一个相似性算法,然后在调用...

  • NLP1 —— Python自然语言处理环境搭建

    时间:2023-12-01 11:06:52

    最近开始研究自然语言处理了,所以准备好好学习一下,就跟着《Python自然语言处理》这本书,边学边整理吧安装Mac里面自带了python2.7,所以直接安装nltk就可以了。默认执行sudo pip install -U nltk会报错:Collecting nltk Downloading nl...

  • 史上最详尽的NLP预处理模型汇总

    时间:2023-12-01 11:03:19

    文章发布于公号【数智物语】 (ID:decision_engine),关注公号不错过每一篇干货。转自 | 磐创AI(公众号ID:xunixs)作者 | AI小昕编者按:近年来,自然语言处理(NLP)的应用程序已经无处不在。NLP使用率的快速增长主要归功于通过预训练模型实现的迁移学习概念,迁移学习本质...

  • 常见26种NLP任务的练手项目

    时间:2023-11-27 12:15:08

    经常有人问我:老大让我完成xxx,我不会,他也不会,但是很着急。这个任务怎么实现啊?这个任务需要什么技术啊?这种情况我遇到有100+次了,而且很多时候问得问题跟具体需要的技术简直是驴唇不对马嘴。所以今天整理了常见的30种NLP任务非常适合练手的Project,我觉得有俩作用:研究+练手,加深理解,做...

  • 【NLP_Stanford课堂】语言模型3

    时间:2023-11-22 20:23:06

    一、产生句子方法:Shannon Visualization Method过程:根据概率,每次随机选择一个bigram,从而来产生一个句子比如:从句子开始标志的bigram开始,我们先有一个(<s>, w),w是随机一个单词,比较有可能的是I这个单词,那么我们就有(<s>, ...

  • 【NLP】自然语言处理:词向量和语言模型

    时间:2023-11-18 10:09:35

    声明:这是转载自LICSTAR博士的牛文,原文载于此:http://licstar.net/archives/328这篇博客是我看了半年的论文后,自己对 Deep Learning 在 NLP 领域中应用的理解和总结,在此分享。其中必然有局限性,欢迎各种交流,随便拍。Deep Learning 算法...

  • NLP中word2vec的CBOW模型和Skip-Gram模型

    时间:2023-11-17 09:32:07

    参考:tensorflow_manual_cn.pdf     Page83例子(数据集):the quick brown fox jumped over the lazy dog.(1)CBOW模型:(2)Skip-Gram模型:...

  • 百度NLP一面

    时间:2023-11-11 14:03:50

    C++ :     1.拷贝构造函数和重载=符分别在什么情况下被调用,实现有什么区别2.虚函数的目的,虚函数和模板类的区别,如何找到虚函数常规算法: 1. 如何输出一个集合的所有真子集,递归和非递归的方法。智力题:    1. 有100W个集合,每个集合中的word是同义词,同义词具有传递性, 比如...

  • 理解NLP中的卷积神经网络(CNN)

    时间:2023-11-10 23:09:20

    此篇文章是Denny Britz关于CNN在NLP中应用的理解,他本人也曾在Google Brain项目中参与多项关于NLP的项目。 · 翻译不周到的地方请大家见谅。阅读完本文大概需要7分钟左右的时间,如果您有收获,请点赞关注 :)一、理解NLP中的卷积神经网络(CNN)现在当我们听到神经网络(CN...

  • [NLP/Attention]关于attention机制在nlp中的应用总结

    时间:2023-11-10 22:55:07

    原文链接: https://blog.csdn.net/qq_41058526/article/details/80578932attention 总结参考:注意力机制(Attention Mechanism)在自然语言处理中的应用 Attention函数的本质可以被描述为一个查询(query)到一...

  • 浅谈NLP 文本分类/情感分析 任务中的文本预处理工作

    时间:2023-11-10 22:50:21

    目录浅谈NLP 文本分类/情感分析 任务中的文本预处理工作前言NLP相关的文本预处理浅谈NLP 文本分类/情感分析 任务中的文本预处理工作前言之所以心血来潮想写这篇博客,是因为最近在关注NLP文本分类这类任务中的文本预处理工作,想总结一下自己的所学所想,老规矩,本博文记载仅供备忘与参考,不具备学术价...

  • [Algorithm & NLP] 文本深度表示模型——word2vec&doc2vec词向量模型

    时间:2023-11-10 22:14:27

    深度学习掀开了机器学习的新篇章,目前深度学习应用于图像和语音已经产生了突破性的研究进展。深度学习一直被人们推崇为一种类似于人脑结构的人工智能算法,那为什么深度学习在语义分析领域仍然没有实质性的进展呢?引用三年前一位网友的话来讲:“Steve Renals算了一下icassp录取文章题目中包含deep...

  • NLP学习(1)---Glove模型---词向量模型

    时间:2023-11-10 22:07:51

    一、简介:1、概念:glove是一种无监督的Word representation方法。Count-based模型,如GloVe,本质上是对共现矩阵进行降维。首先,构建一个词汇的共现矩阵,每一行是一个word,每一列是context。共现矩阵就是计算每个word在每个context出现的频率。由于c...

  • 【NLP】Conditional Language Modeling with Attention

    时间:2023-10-25 17:11:56

    Review: Conditional LMsNote that, in the Encoder part, we reverse the input to the ‘RNN’ and it performs well.And we use the Decoder network(also a RN...