【文件属性】:
文件名称:Dureader-Bert:BERT Dureader多文档阅读理解排名第七
文件大小:86.97MB
文件格式:ZIP
更新时间:2024-02-24 12:12:27
nlp qa pytorch transfer-learning bert
Dureader-Bert
2019 Dureader机器阅读理解单模型代码。
哈工大讯飞联合实验室发布的中文全词覆盖BERT
只需将要加载的预训练模型换为压缩包内的chinese_wwm_pytorch.bin,即从_pretrained函数中weights_path和config_file即可。
谷歌发布的中文伯特与哈工大发布的中文全词覆盖BERT在Dureader上的效果对比
模型
ROUGE-L
BLEU-4
谷歌bert
49.3
50.2
哈工大伯特
50.32
51.4
由于官方没有指定测试集,实验数据是在验证集上跑出来的
许多人询问,说明一下:
1,数据处理是自己写
【文件预览】:
Dureader-Bert-master
----Dureader()
--------train.py(3KB)
--------predict()
--------optimizer.py(7KB)
--------.idea()
--------dataset()
--------handle_data()
--------metric()
--------model_dir()
--------__pycache__()
--------args.py(876B)
--------data()
--------evaluate.py(851B)
----1.png(50KB)
----2.png(105KB)
----README.md(3KB)