刚完成的在Lucene.net中, 增加自己的中文分词Analyzer

时间:2022-09-07 03:13:58
http://blog.likeshow.net/article.asp?id=39    
分词组件用的SHOOTSEG  继承Lucene.Net.Analysis.Analyzer,Lucene.Net.Analysis.Tokenizer,Lucene.Net.Analysis.TokenFilter实现了三个新子类ChineseAnalyer,ChineseTokenizer,ChineseFilter  
 
使用只需要用ChineseAnalyer替换默认使用的StandardAnalyzer就OK了  
 
文章内有详细代码及说明,并有编译好的组件提供使用

11 个解决方案

#1


支持下

#2


我是直接用SHOOTSEG分词,用空格分格,用SimpleAnalyzer搞定

#3


似乎没有好的中文分词工具

#4


以后需再关注,现在先帮你顶一下

#5


垃圾, 用个开源的也跑来吹,不知廉耻

#6


我也想了解,谢谢LZ.

#7


to 5楼
开源的才方便大家一起学习嘛,如果学习交流都被称作'吹'的话,没人敢理你了

#8


跟你一起鄙视5楼
      
引用 7 楼 t123echo 的回复:
to 5楼 
开源的才方便大家一起学习嘛,如果学习交流都被称作'吹'的话,没人敢理你了

#9



IKAnalyzer.Net
  一个不错的开源分词程序,支持Lucene.Net。
推荐一下:
http://www.zgkw.cn/forums/blogs/dyx/archive/2008/02/18/59778.aspx

#10


学习,支持,mark。

#11


广州达梦网络科技有限公司是一家致力于为提供各行业垂直搜索和元搜索服务的专业化公司。公司坚持以服务客户为中心,以技术创新为手段,为客户提供各个行业、任意搜索源精确搜索的解决方案,以及中个小企业信息服务的解决方案!
主要的搜索引擎案例有:万帮生活搜索,114soso网,万帮知识经验搜索,佛教新闻、网页、图片、视频、经典、词典、mp3等搜索。
能为您快速定制各类搜索引擎,如果您各类搜索引擎需求,请联系我们:020-22174900,QQ:46244150。

#1


支持下

#2


我是直接用SHOOTSEG分词,用空格分格,用SimpleAnalyzer搞定

#3


似乎没有好的中文分词工具

#4


以后需再关注,现在先帮你顶一下

#5


垃圾, 用个开源的也跑来吹,不知廉耻

#6


我也想了解,谢谢LZ.

#7


to 5楼
开源的才方便大家一起学习嘛,如果学习交流都被称作'吹'的话,没人敢理你了

#8


跟你一起鄙视5楼
      
引用 7 楼 t123echo 的回复:
to 5楼 
开源的才方便大家一起学习嘛,如果学习交流都被称作'吹'的话,没人敢理你了

#9



IKAnalyzer.Net
  一个不错的开源分词程序,支持Lucene.Net。
推荐一下:
http://www.zgkw.cn/forums/blogs/dyx/archive/2008/02/18/59778.aspx

#10


学习,支持,mark。

#11


广州达梦网络科技有限公司是一家致力于为提供各行业垂直搜索和元搜索服务的专业化公司。公司坚持以服务客户为中心,以技术创新为手段,为客户提供各个行业、任意搜索源精确搜索的解决方案,以及中个小企业信息服务的解决方案!
主要的搜索引擎案例有:万帮生活搜索,114soso网,万帮知识经验搜索,佛教新闻、网页、图片、视频、经典、词典、mp3等搜索。
能为您快速定制各类搜索引擎,如果您各类搜索引擎需求,请联系我们:020-22174900,QQ:46244150。