Dureader-Bert:BERT Dureader多文档阅读理解排名第七

时间:2024-02-24 12:12:27
【文件属性】:
文件名称:Dureader-Bert:BERT Dureader多文档阅读理解排名第七
文件大小:86.97MB
文件格式:ZIP
更新时间:2024-02-24 12:12:27
nlp qa pytorch transfer-learning bert Dureader-Bert 2019 Dureader机器阅读理解单模型代码。 哈工大讯飞联合实验室发布的中文全词覆盖BERT 只需将要加载的预训练模型换为压缩包内的chinese_wwm_pytorch.bin,即从_pretrained函数中weights_path和config_file即可。 谷歌发布的中文伯特与哈工大发布的中文全词覆盖BERT在Dureader上的效果对比 模型 ROUGE-L BLEU-4 谷歌bert 49.3 50.2 哈工大伯特 50.32 51.4 由于官方没有指定测试集,实验数据是在验证集上跑出来的 许多人询问,说明一下: 1,数据处理是自己写
【文件预览】:
Dureader-Bert-master
----Dureader()
--------train.py(3KB)
--------predict()
--------optimizer.py(7KB)
--------.idea()
--------dataset()
--------handle_data()
--------metric()
--------model_dir()
--------__pycache__()
--------args.py(876B)
--------data()
--------evaluate.py(851B)
----1.png(50KB)
----2.png(105KB)
----README.md(3KB)

网友评论