nlp_bart_text-error-correct.../README.md

5.1 KiB
Raw Blame History

tasks widgets model-type domain frameworks backbone containers metrics license language tags datasets
text-error-correction
task inputs examples inferencespec
text-error-correction
type name title validator
text
max_words
100
name title inputs
1 示例1
name data
这洋的话,下一年的福气来到自己身上。
name title inputs
2 示例2
name data
在拥挤时间,为了让人们尊守交通规律,派至少两个警察或者交通管理者。
name title inputs
3 示例3
name data
因为世界的多元化,不时会引起人们产生了兴趣。
cpu memory gpu gpu_memory
2 4000 1 16000
seq2seq(BART)
nlp
pytorch
transformer
M2Scorer P/R/F0.5
Apache License 2.0
ch
transformer
Alibaba
text-error-correction
train test
Lang8
HSK
NLPCC18 testset

中文文本纠错模型介绍

输入一句中文文本文本纠错技术对句子中存在拼写、语法、语义等错误进行自动纠正输出纠正后的文本。主流的方法为seq2seq和seq2edits常用的中文纠错数据集包括NLPCC18和CGED等我们最新的工作提供了高质量、多答案的测试集MuCGEC。

模型描述

如图所示我们采用基于transformer的seq2seq方法建模文本纠错任务。模型训练上我们使用中文BART作为预训练模型然后在Lang8和HSK训练数据上进行finetune。不引入额外资源的情况下本模型在NLPCC18测试集上达到了SOTA。

donuts

模型效果如下:
输入:这洋的话,下一年的福气来到自己身上。
输出:这的话,下一年的福气就会来到自己身上。

期望模型使用方式以及适用范围

本模型主要用于对中文文本进行错误诊断,输出符合拼写、语法要求的文本。该纠错模型是一个句子级别的模型,模型效果会受到文本长度、分句粒度的影响,建议是每次输入一句话。具体调用方式请参考代码示例。

如何使用

在安装完成ModelScope library之后即可使用text-error-correction的能力

代码范例

from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks

model_id = 'damo/nlp_bart_text-error-correction_chinese'
input = '这洋的话,下一年的福气来到自己身上。'
pipeline = pipeline(Tasks.text_error_correction, model=model_id)
result = pipeline(input)
print(result['output'])

模型局限性以及可能的偏差

模型在Lang8和HSK数据集上训练不同场景下有可能产生一些偏差请用户自行评测后决定如何使用。

训练数据介绍

本模型训练数据集是Lang8(1,092,285句)和HSK(95,320句)。 Lang8下载, HSK由于版权问题无法提供下载链接可自行获取。

模型训练流程

暂不支持在ModelScope内部进行训练

数据评估及结果

本模型在NLPCC18测试集上采用M2ScorerNLPCC18官方评测工具评估同等规模和训练数据的模型中取得了SOTA。

P R F0.5
Tang et al., 20211 47.41 23.72 39.51
Sun et al., 20212 45.33 27.61 40.17
Ours3 48.89 32.80 44.53

参考工作:

  1. 苏大Tang et al. Chinese grammatical error correction enhanced by data augmentation from word and character levels. 2021.
  2. 北大 & MSRA & CUHKSun et al. A Unified Strategy for Multilingual Grammatical Error Correction with Pre-trained Cross-Lingual Language Model. 2021.
  3. OursZhang et al. MuCGEC: a Multi-Reference Multi-Source Evaluation Dataset for Chinese Grammatical Error Correction. 2022.

相关论文以及引用信息

如果我们的模型对您有帮助,请您引用我们的文章:

@inproceedings{zhang-etal-2022-mucgec,
    title = "{M}u{CGEC}: a Multi-Reference Multi-Source Evaluation Dataset for {C}hinese Grammatical Error Correction",
    author = "Zhang, Yue  and
      Li, Zhenghua  and
      Bao, Zuyi  and
      Li, Jiacheng  and
      Zhang, Bo  and
      Li, Chen  and
      Huang, Fei  and
      Zhang, Min",
    booktitle = "Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies",
    month = jul,
    year = "2022",
    address = "Seattle, United States",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/2022.naacl-main.227",
    pages = "3118--3130"
    }