登录    注册    忘记密码

期刊文章详细信息

基于注意力机制的多通道CNN和BiGRU的文本情感倾向性分析  ( EI收录)  

Text Sentiment Orientation Analysis of Multi-Channels CNN and BiGRU Based on Attention Mechanism

  

文献类型:期刊文章

作  者:程艳[1] 尧磊波[1] 张光河[1] 唐天伟[2] 项国雄[3] 陈豪迈[4] 冯悦[1] 蔡壮[1]

Cheng Yan;Yao Leibo;Zhang Guanghe;Tang Tianwei;Xiang Guoxiong;Chen Haomai;Feng Yue;and Cai Zhuang(School of Computer Information Engineering,Jiangxi Normal University,Nanchang 330022;Center of Management Decision Evaluation Research,Jiangxi Normal University,Nanchang 330022;School of Journalism and Communication,Jiangxi Normal University,Nanchang 330022;School of Mathematics and Computer,Yuzhang Normal University,Nanchang 330022)

机构地区:[1]江西师范大学计算机信息工程学院,南昌330022 [2]江西师范大学管理决策评价研究中心,南昌330022 [3]江西师范大学新闻与传播学院,南昌330022 [4]豫章师范学院数学与计算机学院,南昌330022

出  处:《计算机研究与发展》

基  金:国家自然科学基金项目(61967011);江西省自然科学基金项目(20202BABL202033);江西省重点研发计划项目(20161BBE50086);江西省教育厅科技重点项目(GJJ150299);教育厅人文社科重点(重大)项目(JD19056)。

年  份:2020

卷  号:57

期  号:12

起止页码:2583-2595

语  种:中文

收录情况:AJ、BDHX、BDHX2017、CSCD、CSCD2019_2020、EI、IC、JST、RCCSE、SCOPUS、ZGKJHX、核心刊

摘  要:近年来,卷积神经网络(convolutional neural network,CNN)和循环神经网络(recurrent neural network,RNN)已在文本情感分析领域得到广泛应用,并取得了不错的效果.然而,文本之间存在上下文依赖问题,虽然CNN能提取到句子连续词间的局部信息,但是会忽略词语之间上下文语义信息;双向门控循环单元(bidirectional gated recurrent unit,BiGRU)网络不仅能够解决传统RNN模型存在的梯度消失或梯度爆炸问题,而且还能很好地弥补CNN不能有效提取长文本的上下文语义信息的缺陷,但却无法像CNN那样很好地提取句子局部特征.因此提出一种基于注意力机制的多通道CNN和双向门控循环单元(MC-AttCNN-AttBiGRU)的神经网络模型.该模型不仅能够通过注意力机制关注到句子中对情感极性分类重要的词语,而且结合了CNN提取文本局部特征和BiGRU网络提取长文本上下文语义信息的优势,提高了模型的文本特征提取能力.在谭松波酒店评论数据集和IMDB数据集上的实验结果表明:提出的模型相较于其他几种基线模型可以提取到更丰富的文本特征,可以取得比其他基线模型更好的分类效果.

关 键 词:卷积神经网络 文本情感倾向性分析  双向门控循环单元  注意力机制  多通道

分 类 号:TP391]

参考文献:

正在载入数据...

二级参考文献:

正在载入数据...

耦合文献:

正在载入数据...

引证文献:

正在载入数据...

二级引证文献:

正在载入数据...

同被引文献:

正在载入数据...

版权所有©重庆科技学院 重庆维普资讯有限公司 渝B2-20050021-7
 渝公网安备 50019002500408号 违法和不良信息举报中心