bert-stable-fine-tuning:关于微调BERT的稳定性

时间:2021-03-21 04:08:39
【文件属性】:
文件名称:bert-stable-fine-tuning:关于微调BERT的稳定性
文件大小:3.46MB
文件格式:ZIP
更新时间:2021-03-21 04:08:39
nlp bert fine-tuning Python 关于微调BERT的稳定性:误解,解释和强大的基准 Marius Mosbach,Maksym Andriushchenko,Dietrich Klakow 萨尔大学和EPFL 该存储库包含有关“。它是(v2.5.1)的分支。 抽象的 微调经过预训练的基于变压器的语言模型,例如BERT,已成为控制各种NLP基准排行榜的一种普遍做法。尽管微调模型具有强大的经验性能,微调还是一个不稳定的过程:使用多个随机种子训练同一模型可能会导致任务性能产生较大差异。先前的文献(Devlin等人,2019; Lee等人,2020; Dodge等人,2020)确定了观察到的不稳定的两个潜在原因:灾难性的遗忘和较小的微调数据集。在本文中,我们证明了这两种假设都无法解释微调的不稳定性。我们分析了GLUE基准测试的三个常用数据集上的BERT,RoBERTa和ALBERT,并表明观察到的不稳定性是由导致梯度消失的优化困

网友评论