期刊文章详细信息
文献类型:期刊文章
LI Meng-jie;DONG Luan(School of Computer and Information Engineering,Xinjiang Agricultural University,Urumqi 830000,China)
机构地区:[1]新疆农业大学计算机与信息工程学院,新疆乌鲁木齐830000
基 金:国家自然科学基金(61563053)
年 份:2018
卷 号:28
期 号:10
起止页码:160-163
语 种:中文
收录情况:JST、RCCSE、ZGKJHX、普通刊
摘 要:当向机器翻译模型输入序列时,随着序列长度的不断增长,会出现长距离约束即输入输出序列的长度被限制在固定范围内的问题,因此所建模型的能力会受到约束。序列到序列模型(sequence to sequence model)可以解决长距离约束问题,但单纯的序列到序列模型无法对翻译中要参考词语前后或其他位置的内容来改善翻译质量的行为进行建模。为了弥补该缺陷,提出了注意力机制(attention mechanism)。针对以上问题,报告了机器翻译及部分模型的研究现状,简述了深度学习框架,分析了基于神经网络的机器翻译及注意力机制原理,并对使用PyTorch实现的序列到序列模型及注意力机制进行了研究,通过分析翻译的时间消耗和翻译后的词错率以及评价标准的值来评价模型。最终该模型在英法数据集上取得了一定的效果。
关 键 词:机器翻译 序列对序列 注意力机制 词错率 循环神经网络
分 类 号:TP301.6]
参考文献:
正在载入数据...
二级参考文献:
正在载入数据...
耦合文献:
正在载入数据...
引证文献:
正在载入数据...
二级引证文献:
正在载入数据...
同被引文献:
正在载入数据...