@ -0,0 +1,4 @@
# StructBERT-base_a13830445028077568762641
StructBERT的中文Large预训练模型是使用wikipedia数据和masked language model任务训练的中文自然语言理解预训练模型。