attention代码

时间:2021-12-30 08:54:46
【文件属性】:
文件名称:attention代码
文件大小:9KB
文件格式:ZIP
更新时间:2021-12-30 08:54:46
nlp attention model,主要用在处理文本的seq2seq上,能够根据文中的每个词的重要性去生成权重。生成摘要,生成句子序列都需要
【文件预览】:
attention-nmt-master
----train.py(2KB)
----data_utils.py(10KB)
----test.py(3KB)
----seq2seq.py(13KB)
----README.md(104B)

网友评论