登录    注册    忘记密码

期刊文章详细信息

基于注意力机制的LSTM的语义关系抽取    

Text semantic relation extraction of LSTM based on attention mechanism

  

文献类型:期刊文章

作  者:王红[1] 史金钏[1] 张志伟[1]

Wang Hong;Shi Jinchuan;Zhang Zhiwei(School of Computer Science&Technology,Civil Aviation University of China,Tianjin 300300,China)

机构地区:[1]中国民航大学计算机科学与技术学院,天津300300

出  处:《计算机应用研究》

基  金:国家自然科学基金资助项目(U1633110;U1533104;U1233113)

年  份:2018

卷  号:35

期  号:5

起止页码:1417-1420

语  种:中文

收录情况:AJ、BDHX、BDHX2017、CSA-PROQEUST、CSCD、CSCD_E2017_2018、IC、INSPEC、JST、RCCSE、UPD、ZGKJHX、ZMATH、核心刊

摘  要:目前关系抽取方法中,传统深度学习方法存在长距离依赖问题,并且未考虑模型输入与输出的相关性。针对以上问题,提出了一种将LSTM(long short-term memory)模型与注意力机制相结合的关系抽取方法。将文本信息向量化,提取文本局部特征,再将文本局部特征导入双向LSTM模型中,通过注意力机制对LSTM模型的输入与输出之间的相关性进行重要度计算,根据重要度获取文本整体特征;最后将局部特征和整体特征进行特征融合,通过分类器输出分类结果。在Sem Eval-2010 task 8语料库上的实验结果表明,该方法的准确率和稳定性较传统深度学习方法有进一步提高,为自动问答、信息检索以及本体学习等领域提供了方法支持。

关 键 词:文本信息 语义关系 关系抽取 LSTM  注意力机制  

分 类 号:TP391]

参考文献:

正在载入数据...

二级参考文献:

正在载入数据...

耦合文献:

正在载入数据...

引证文献:

正在载入数据...

二级引证文献:

正在载入数据...

同被引文献:

正在载入数据...

版权所有©重庆科技学院 重庆维普资讯有限公司 渝B2-20050021-7
 渝公网安备 50019002500408号 违法和不良信息举报中心