搜索资源列表
搜索引擎分词支
- 搜索引擎分词支持Lucene.net.rar
Lucene.rar
- lucene建立索引,中文搜索,搜索内容先经过分词,然后搜索,lucene index, Chinese search, search through the contents of the first word, and then search
word-frequency
- java 编写的词频统计,包含极易分词软件的包,Lucene包,程序调试通过-java written word frequency, word that contains the software package easy points, Lucene package, program debugging by
Lucene
- 在网上找到的一本全面介绍lucene分词功能书。很不错!-a book named lucene in action
lucene
- 汉化CLucene今天,把CLucene的程序改了一下,可以支持汉字了·1·在vc6编译2·还不支持分词,但支持汉字,-汉化CLucene Today, the procedures put CLucene changed a bit, you can support the Chinese characters one at vc6 compiler 2 do not support sub-word, but will support the Chinese characters,
src
- 利用lucene编写的一个简单搜索引擎,能够中文分词。-a simple search engine built with lucene.
qygl
- lucene 中文分词公用组件,对搜索引擎开发中中文分词做了很好的封装。-Chinese word segmentation lucene common components, the development of the Chinese search engine has done a very good segmentation of the package.
imdict-chinese-analyzer
- imdict-chinese-analyzer 是 imdict智能词典 的智能中文分词模块,算法基于隐马尔科夫模型(Hidden Markov Model, HMM),是中国科学院计算技术研究所的ictclas中文分词程序的重新实现(基于Java),可以直接为lucene搜索引擎提供简体中文分词支持。-imdict-chinese-analyzer is a smart imdict Chinese Dictionary smart module segmentation algorithm
SearchEngine
- C#+Lucene.Net开发完成的一个自定义WEB搜索引擎,本项目实现了分词、模糊索引,加以Lucene.Net内部核心功能共同实现了搜索机制引擎-C#+ Lucene.Net developed a custom WEB search engine, the project achieved a sub-word, fuzzy indexing, Lucene.Net be the core function of the internal search mechanism to achie
Lucene
- Lucene的基于正向最大匹配分析器,用于中文分词,可将查准率提高-Lucene chinese analyzer based by FMM algorithm
lucene-2.9.0
- Lucene 2.9.0 类库 一种全文检索引擎 应该说是“可以配合字典分词,提取关键字”,而不是必须 配合字典的话会有较强的专业性和精度 -Lucene 2.9.0 Class Library
lucene-2.9.0-src
- lucene-2.9.0-src.zip搜索引擎源码。 一种全文检索引擎 应该说是“可以配合字典分词,提取关键字”,而不是必须 配合字典的话会有较强的专业性和精度 -lucene-2.9.0-src.zip search engine source code. Of a full-text search engine should say " can match a dictionary word, extract keywords," rather th
lucene-2.9.1
- Lucene 应该是最新版本的,主要是分词功能和检索功能特别强大,如果要达到中文分词的功能,需要Paoding与其结合才更好-Should be the latest version of Lucene, mainly sub-word features and retrieval is particularly strong, if you want to achieve the Chinese word segmentation functionality, combined with th
fenci
- 一个简单的基于词典分词的程序,lucene的分词程序不少,但有时候并不需要复杂的功能,只是需要简单的根据指定的词典分词。代码简单,可以作为学习参考-A simple dictionary-based word process, lucene procedures for sub-word a lot, but sometimes does not require complex functions, but only require a simple dictionary word accord
lucene-3.0.1-src
- Lucene算法最新源码包,提供给中文分词器开发者最好的工具!-Lucene algorithm is the latest source package available to the Chinese word device developers the best tools!
IKAnalyzer3.1.1StableAllInOne
- Lucene 中文分词,很好的 可以随便下压,加油-Lucene Java
lucene.net_search
- lucene.net 中文分词 分页高月显示
lucene-3.1.0-src.tar
- 一个哼强大的全文索引代码,支持自定义分词-Well powerful full-text index of a code, support for custom segmentation
apache-cxf-3.0.9
- 分词分析 软件复用是在软件开发中避免重复劳动的解决方案。Web服务实现了业务级别的软件复用,例如在B2B的集成中,各企业之间通过互相调用Web服务,实现了Web服务的共享,Web服务的使用企业不需要再重新开发其他企业中已经存在的服务。(Segmentation analysis)
完整的站内搜索引擎(Lucene.Net+盘古分词)
- 盘古分词法+全站搜索功能DEMO,仅供参考。(Pangu Word Segmentation + Full Station Search Function DEMO, for reference only)