5 lines
190 B
Markdown
5 lines
190 B
Markdown
|
# StructBERT-base_a13830445028077568762641
|
||
|
|
||
|
StructBERT的中文Large预训练模型是使用wikipedia数据和masked language model任务训练的中文自然语言理解预训练模型。
|
||
|
|