期刊文章详细信息
文献类型:期刊文章
HU Xiaohui;ZHU Zhixiang(Institute of IOT and IT-based Industrialization,Xi'an University of Post and Telecommunications,Xi'an 710061;Shaanxi Information Engineering Research Institute,Xi'an 710061)
机构地区:[1]西安邮电大学物联网与两化融合研究院,西安710061 [2]陕西省信息化工程研究院,西安710061
年 份:2020
卷 号:48
期 号:3
起止页码:627-632
语 种:中文
收录情况:ZGKJHX、普通刊
摘 要:作为中文自然语言处理中的基础任务中文分词,其分词的好坏直接影响之后的自然语言处理任务。当前中文分词大部分都是采用基于机器学习的方法,但是其需要人工构建大量特征。针对上述问题,论文提出一种基于深度学习的新分词模型,该模型基于BLSTM(双向长短期神经网络),CNN(卷积神经网络)和CRF(条件随机场),充分利用了BLSTM可以利用长距离信息和CNN提取局部信息的优点。并设计了实验,在三个数据集上验证论文提出的模型在中文分词上的正确性和优越性。
关 键 词:中文分词 自然语言处理 深度学习
分 类 号:TP391.1] TP181[计算机类]
参考文献:
正在载入数据...
二级参考文献:
正在载入数据...
耦合文献:
正在载入数据...
引证文献:
正在载入数据...
二级引证文献:
正在载入数据...
同被引文献:
正在载入数据...