期刊文章详细信息
基于Transformer增强架构的中文语法纠错方法
Chinese Grammatical Error Correction Method Based on Transformer Enhanced Architecture
文献类型:期刊文章
WANG Chencheng;YANG Liner;WANG Yingying;DU Yongping;YANG Erhong(Faculty of Information Technology,Beijing University of Technology,Beijing 100124,China;Beijing Advanced Innovation Center for Language Resources,Beijing Language and Culture University,Beijing 100083,China;School of Information Science,Beijing Language and Culture University,Beijing 100083,China)
机构地区:[1]北京工业大学信息学部,北京100124 [2]北京语言大学语言资源高精尖创新中心,北京100083 [3]北京语言大学信息科学学院,北京100083
基 金:北京语言大学语言资源高精尖创新中心项目(TYZ19005);国家语委信息化项目(ZDI135-105,YB135-89)
年 份:2020
期 号:6
起止页码:106-114
语 种:中文
收录情况:BDHX、BDHX2017、CSCD、CSCD2019_2020、JST、RCCSE、ZGKJHX、核心刊
摘 要:语法纠错任务是自然语言处理领域的一项重要任务,近年来受到了学术界广泛关注。该任务旨在自动识别并纠正文本中所包含的语法、拼写以及语序错误等。该文将语法纠错任务看作是翻译任务,即将带有错误表达的文本翻译成正确的文本,采用基于多头注意力机制的Transformer模型作为纠错模型,并提出了一种动态残差结构,动态结合不同神经模块的输出来增强模型捕获语义信息的能力。受限于目前训练语料不足的情况,该文提出了一种数据增强方法,通过对单语语料的腐化从而生成更多的纠错数据,进一步提高模型的性能。实验结果表明,该文所提出的基于动态残差的模型增强以及腐化语料的数据增强方法对纠错性能有着较大的提升,在NLPCC 2018中文语法纠错共享评测数据上达到了最优性能。
关 键 词:语法纠错 多头注意力 动态残差结构 数据增强
分 类 号:TP391]
参考文献:
正在载入数据...
二级参考文献:
正在载入数据...
耦合文献:
正在载入数据...
引证文献:
正在载入数据...
二级引证文献:
正在载入数据...
同被引文献:
正在载入数据...