CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 源码下载 搜索资源 - 分词器

搜索资源列表

  1. 分词器

    0下载:
  2. 迷你分词器,解压缩后,在java环境下运行使用。
  3. 所属分类:按钮控件

    • 发布日期:2008-10-13
    • 文件大小:2.09mb
    • 提供者:yang
  1. ChineseAnalyzer

    1下载:
  2. lucene.net 2.0的中文分词器,采用最大向前匹配算法,附上源代码和lucene.net.dll,希望这方面有兴趣的互相交流一下。
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:860.91kb
    • 提供者:杨秀云霁
  1. k50RVZDojs03

    0下载:
  2. 基于IKAnalyzer分词算法的准商业化Lucene中文分词器
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:771.15kb
    • 提供者:罗晓鸣
  1. 中文网页自动分类器

    1下载:
  2. 利用knn算法实现了一个中文网页自动分类器, 包括网页预处理,ictclas中文分词,基于tf-idf的文本特征表示,基于df的特征选取和基于knn的分类算法,最后通过struts2框架web发布
  3. 所属分类:源码下载

  1. MM汉语分词器

    0下载:
  2. 所属分类:源码下载

  1. CutWordApp

    0下载:
  2. csharp实现的分词器,完整可以运行!结合正向逆向匹配法,效率较高-csharp device to achieve the sub-word, complete run! Forward Reverse with matching, more efficient
  3. 所属分类:CSharp

    • 发布日期:2017-05-22
    • 文件大小:6.51mb
    • 提供者:肖强
  1. word-segment-tool-for-chinese

    0下载:
  2. 基于北大语料库的分词器,简单,有使用说明-a chinese word segment tool
  3. 所属分类:Linux-Unix program

    • 发布日期:2017-03-24
    • 文件大小:603.16kb
    • 提供者:witfox
  1. luceneCH2

    0下载:
  2. 亲自测试成功的《开发自己的搜索引擎》第二章,以及一个分词器的测试程序。-Personally successfully tested a " to develop its own search engine" second chapter, as well as a word breaker testing procedures.
  3. 所属分类:Search Engine

    • 发布日期:2017-04-09
    • 文件大小:1.22mb
    • 提供者:dea
  1. svmcls-(2)

    0下载:
  2. 李荣陆老师做的文本分类器,用中科院分词系统做的,分类方法用的是SVM和K-Rong Lu teachers do text classification, word segmentation system with the Chinese Academy of Sciences to do, classification using a SVM and KNN
  3. 所属分类:Other windows programs

    • 发布日期:2017-05-27
    • 文件大小:9.55mb
    • 提供者:wulili
  1. Chinese_wordspliter

    0下载:
  2. 使用正向最大匹配法的中文分词器 分别读入待分词文本文件及字典文件后,将经处理后的结果输出至另一文件予以保存。所用待分词文件样例约有字符184万个,处理时间在11s左右。程序使用C++语言编写。-Using the forward maximum matching device of Chinese words segmentation, respectively, to be read into the text file and dictionary file, the result will
  3. 所属分类:MultiLanguage

    • 发布日期:2017-03-30
    • 文件大小:161.91kb
    • 提供者:aptiva0985
  1. Bayes

    0下载:
  2. 这是一个利用C#编写的贝叶斯中文文本分类器,分词器使用了ICTCLAS分词器。-failed to translate
  3. 所属分类:CSharp

    • 发布日期:2017-05-31
    • 文件大小:12.26mb
    • 提供者:fegsd
  1. IKAnalyzer2012

    0下载:
  2. IKAnalyzer2012,一个以lucene为基础的非常好用的中文分词器,有两种分词模式,智能分词模式和最细粒度分词模式。-IKAnalyzer2012 very easy to use a lucene-based Chinese Word Breaker, there are two sub-word mode, intelligent word patterns and most fine-grained segmentation model.
  3. 所属分类:MultiLanguage

    • 发布日期:2017-04-09
    • 文件大小:1.99mb
    • 提供者:王刚
  1. je

    0下载:
  2. 极易分词器,在搜索引擎中至关重要,主要是针对中文。中文分词很难实现得非常完美,所以,可以从研究极易中得到相应的启发-Vulnerable to the word in the search engines is essential, mainly for the Chinese. Chinese word segmentation is difficult to achieve perfectly, so you can get the inspiration from the study ea
  3. 所属分类:WinSock-NDIS

    • 发布日期:2017-04-02
    • 文件大小:872.4kb
    • 提供者:依米
  1. TextCategorizer

    0下载:
  2. 自己实现的中文分词器、贝叶斯文本分类器 附分词词典、中文停用词表 用于数据挖掘学习、交流 Visual Studio 2010 开发-Realize his Chinese word segmentation, Bayesian text classifier the attached word dictionary, the Chinese stop word table is used for data mining learning, exchange of the Visua
  3. 所属分类:Mathimatics-Numerical algorithms

    • 发布日期:2017-11-16
    • 文件大小:9.7mb
    • 提供者:rock
  1. com

    0下载:
  2. 使用java语言开发的分词器源码,可结合luncene使用,效果很好-Word segmentation is developed using java language, can be used in conjunction with the luncene, the effect is very good
  3. 所属分类:MiddleWare

    • 发布日期:2017-11-16
    • 文件大小:1.56kb
    • 提供者:wang haiyang
  1. apache-cxf-3.0.9

    0下载:
  2. 分词分析 软件复用是在软件开发中避免重复劳动的解决方案。Web服务实现了业务级别的软件复用,例如在B2B的集成中,各企业之间通过互相调用Web服务,实现了Web服务的共享,Web服务的使用企业不需要再重新开发其他企业中已经存在的服务。(Segmentation analysis)
  3. 所属分类:其他

    • 发布日期:2017-12-27
    • 文件大小:40.95mb
    • 提供者:gnitelon
  1. IK Analyzer 2012FF_hf1

    0下载:
  2. ik分词器源码,非常的好用,能够智能分词,检索命中率比较高的。(ik analyse code,it is useful)
  3. 所属分类:其他

    • 发布日期:2018-04-19
    • 文件大小:2.06mb
    • 提供者:dasin
  1. 课程设计作业

    0下载:
  2. 用分词包进行分词,并通过分词统计每个词频出现次数(use to seperate an article, and use the dictionary to find the frequency of each word)
  3. 所属分类:其他

    • 发布日期:2018-04-21
    • 文件大小:3kb
    • 提供者:人生十年
  1. paoding-analysis-2.0.4-beta

    0下载:
  2. paoding-dic-home.properties是庖丁解牛中文分词的配置文件 庖丁解牛分词器是基于lucene的中文分词系统的软件。(Paoding-dic-home.properties is Chinese Paodingjieniu participle configuration file Is Chinese Paodingjieniu segmentation segmentation system based on the Lucene software.)
  3. 所属分类:网络编程

    • 发布日期:2018-04-21
    • 文件大小:5.83mb
    • 提供者:Alex灬XiaoD
  1. 基于mmseg算法的一个轻量级中文分词器

    0下载:
  2. 基于mmseg算法的一个轻量级开源中文分词器(A lightweight open source Chinese word segmentation based on the mmseg algorithm)
  3. 所属分类:中间件编程

    • 发布日期:2018-05-02
    • 文件大小:1.96mb
    • 提供者:孤独的老张
« 12 3 »
搜珍网 www.dssz.com