Dureader-Bert
2019 Dureader机器阅读理解单模型代码。
哈工大讯飞联合实验室发布的中文全词覆盖BERT
只需将要加载的预训练模型换为压缩包内的chinese_wwm_pytorch.bin,即从_pretrained函数中weights_path和config_file即可。
谷歌发布的中文伯特与哈工大发布的中文全词覆盖BERT在Dureader上的效果对比
模型
ROUGE-L
BLEU-4
谷歌bert
49.3
50.2
哈工大伯特
50.32
51.4
由于官方没有指定测试集,实验数据是在验证集上跑出来的
许多人询问,说明一下:
1,数据处理是自己写
1