CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 源码下载 数值算法/人工智能 数据结构常用算法 搜索资源 - 中文分词

搜索资源列表

  1. myKbest_0513

    0下载:
  2. 中文分词, N-最短路径算法 ICTCLAS研究学习组 http://groups.google.com/group/ictclas?msg=subscribe-Chinese word segmentation, N-shortest path algorithm ICTCLAS Studies Group http : / / groups.google.com / group / sub ictclas msg = scribe
  3. 所属分类:数据结构常用算法

    • 发布日期:2008-10-13
    • 文件大小:71.79kb
    • 提供者:Jian Ye
  1. SentenceSplitter

    0下载:
  2. .NET写的中文分词组件, 适用于小型搜索引擎中文分词。
  3. 所属分类:数据结构常用算法

    • 发布日期:2008-10-13
    • 文件大小:17.27kb
    • 提供者:白水
  1. Cidianku2

    0下载:
  2. 词库,delphi,中文分词软件,还不是很完善,请高手加以改进.
  3. 所属分类:数据结构常用算法

    • 发布日期:2008-10-13
    • 文件大小:7.25mb
    • 提供者:瑞琪
  1. WebPages_InvertedFile

    0下载:
  2. 根据中文分词结果生成倒排文档,并将结果输出到文本文件中。-Generate the inverted file based on the result of word-splitting, and output to a text file.
  3. 所属分类:Data structs

    • 发布日期:2017-05-17
    • 文件大小:4.57mb
    • 提供者:王啊
  1. Yard0.2.0

    0下载:
  2. 一个非常好的中文分词,用的是搜狗的词库,非常适合中文方面的分词-A very good Chinese word, using a thesaurus search dogs, ideal for a word in Chinese
  3. 所属分类:Data structs

    • 发布日期:2017-05-06
    • 文件大小:1.26mb
    • 提供者:zhan
  1. zhongwenfenci

    0下载:
  2. 从后向前的分词程序,采用哈希查找的方式,实现中文分词程序-From back to front of the word program, using the hash to find a way to achieve the Chinese word program
  3. 所属分类:Data structs

    • 发布日期:2017-05-24
    • 文件大小:7.54mb
    • 提供者:jiacheng
  1. ICTCLAS50_Windows_32_C

    0下载:
  2. C++实现的中文分词算法,可以直接运行,也可以编译运行,还可以添加词典。-C++ of the realization of the Chinese word segmentation algorithm, it can run directly, also can compile operation, also can add dictionary.
  3. 所属分类:Data structs

    • 发布日期:2017-05-26
    • 文件大小:8.67mb
    • 提供者:Lee
  1. segment

    0下载:
  2. 利用双数组和字典实现了一个中文分词程序,优点是效率高,分词速度快,鲁棒性好。适合搜索引擎分词使用-Pairs of array and dictionary is a Chinese word segmentation procedure, the advantages of high efficiency, segmentation speed, robustness. Word for search engines
  3. 所属分类:Data structs

    • 发布日期:2017-05-04
    • 文件大小:1.03mb
    • 提供者:Alex
  1. Chinese-WordCut

    0下载:
  2. 这是一个中文分词程序,读入一个Txt文档,可以对里面的段落进行分词-This is a Chinese word segmentation program that reads a Txt document segmentation paragraphs inside
  3. 所属分类:Data structs

    • 发布日期:2017-12-02
    • 文件大小:2.32mb
    • 提供者:菡菡
  1. bhav-saar-master

    1下载:
  2. 一种自然语言处理的算法 用于情感分析 将一篇文章以关键字的角度来区别正面负面 已经添加了中文词典,可以对中文使用(请对语料先分词)-A natural language processing algorithm for sentiment analysis will be an article with keywords to distinguish between the positive and negative perspective has been added Chinese dict
  3. 所属分类:数据结构常用算法

    • 发布日期:2013-10-14
    • 文件大小:26.8mb
    • 提供者:jiang
  1. Program1

    0下载:
  2. 这是中文信息处理的分词算法实现,具有很高的正确率和使用价值!这是分词算法的核心内容!具有很高的参考价值。-The text clustering algorithm based on text similarity computing research and implementation, this is an important branch of Chinese information processing.
  3. 所属分类:Data structs

    • 发布日期:2017-05-20
    • 文件大小:5.42mb
    • 提供者:张明
  1. cppjieba-master

    0下载:
  2. 中文分词功能,采用统计学习算法来实现,准确率较高-Chinese word function, using statistical learning algorithms to achieve high accuracy
  3. 所属分类:Data structs

    • 发布日期:2017-05-25
    • 文件大小:7.97mb
    • 提供者:liweiqing
  1. divide

    2下载:
  2. 采用正向最大匹配算法实现中文分词,基于matlab2013编程-MATLAB code
  3. 所属分类:数据结构常用算法

    • 发布日期:2017-04-26
    • 文件大小:619byte
    • 提供者:sun
搜珍网 www.dssz.com