登录    注册    忘记密码

期刊文章详细信息

基于Lucene的中文分词方法设计与实现    

Design and implementation of Chinese words segementation based on Lucene

  

文献类型:期刊文章

作  者:李颖[1] 李志蜀[1] 邓欢[2]

机构地区:[1]四川大学计算机学院,成都610064 [2]泸州医学院生物工程系,泸州646000

出  处:《四川大学学报(自然科学版)》

基  金:四川省重点科技项目(05GG021-003-2)

年  份:2008

卷  号:45

期  号:5

起止页码:1095-1099

语  种:中文

收录情况:BDHX、BDHX2004、BIOSISPREVIEWS、CAS、CSCD、CSCD2011_2012、JST、MR、RCCSE、ZGKJHX、ZMATH、ZR、核心刊

摘  要:本文设计实现了一个中文分词模块,其主要研究目的在于寻找更为有效的中文词汇处理方法,提高全文检索系统的中文处理能力.整个模块基于当前最流行的搜索引擎架构Lucene,实现了带有歧义消除功能的正向最大匹配算法.在系统评测方面,比较了该方法与现有方法的区别,对于如何构建一个高效的中文检索系统,提出了一种实现.

关 键 词:中文分词 搜索引擎 LUCENE 正向最大匹配算法  

分 类 号:TP391.12]

参考文献:

正在载入数据...

二级参考文献:

正在载入数据...

耦合文献:

正在载入数据...

引证文献:

正在载入数据...

二级引证文献:

正在载入数据...

同被引文献:

正在载入数据...

版权所有©重庆科技学院 重庆维普资讯有限公司 渝B2-20050021-7
 渝公网安备 50019002500408号 违法和不良信息举报中心