【文件属性】:
文件名称:keras-monotonic-attention:seq2seq在喀拉拉邦的注意
文件大小:21KB
文件格式:ZIP
更新时间:2021-04-25 02:00:11
Python
角膜单调注意
seq2seq在喀拉拉邦的注意
AttentionDecoder类是此处的一个修改版本
主要区别:
输出层的内部嵌入
隆式单调注意(可选)
注意权重正则化(可选)
老师强迫
修复小错误,例如
简单的例子
model = Sequential ()
model . add ( Embedding ( INPUT_VOCABE_SIZE , INPUT_EMBEDDING_DIM ))
model . add ( Bidirectional ( LSTM ( 150 , return_sequences = True )))
model . add ( AttentionDecoder ( 150 , OUTPUT_VOCABE_SIZE , embedding_dim = OUTPUT_EMBEDDING_DIM ))
model . compile ( loss =
【文件预览】:
keras-monotonic-attention-master
----LICENSE(34KB)
----attention_decoder.py(22KB)
----example.py(2KB)
----README.md(3KB)
----sequential_example.py(1KB)
----position_embedding.py(2KB)