【文件属性】:
文件名称:Dialog-KoELECTRA:基于ELECTRA模型的会话语言模型
文件大小:7KB
文件格式:ZIP
更新时间:2021-03-30 15:32:19
Dialog-KoELECTRA
介绍
Dialog-KoELECTRA是专门用于对话的语言模型。 它使用22GB口语和书面风格的韩文文本数据进行了培训。 Dialog-ELECTRA模型是基于模型建立的。 ELECTRA是一种用于自我监督的语言表示学习的方法。 它可以用于使用相对较少的计算来预训练变压器网络。 训练ELECTRA模型以区分由另一个神经网络生成的“真实”输入令牌与“伪”输入令牌,类似于的鉴别器。 即使在单个GPU上进行训练,ELECTRA仍可在小规模上获得出色的结果。
发行型号
我们最初发布的是小版本的预训练模型。 该模型接受了韩文文字训练。 我们希望将来发布其他模型,例如基本模型/大型模型。
模型
层数
隐藏尺寸
参量
最大限度塞克·伦
左心室
批量大小
训练步骤
Dialog-KoELECTRA-小
12
256
1400万
128
1e-4
512
700
【文件预览】:
Dialog-KoELECTRA-master
----LICENSE(11KB)
----README.md(5KB)
----.gitignore(182B)