搜索资源列表
汉语分词
- 汉语分词系统,对中文语句进行识别,然后分词,是很好的自然语言理解的例子-Chinese word segmentation system, the Chinese phrase for identification, then Word, is a very good natural language understanding examples
Xerdoc XDMF
- 一个比较好用的中文分词模块,是车东等人开发的,比较有名,java语言实现-a better quality of the Chinese word module, East cars were developed, more famous, java language!
TextCategorization
- 基于朴素贝叶斯算法实现的中文文本分类程序。可以对中文文本进行分类识别,使用时先对分类器进行训练,然后进行识别。该Beta版本仅支持对3类文本进行分类,使用简单的中文分词方法,本程序尚不具备实用性,用于算法研究和改进。-based on Bayesian algorithms to achieve the Chinese text classification procedure. Can the Chinese text classification identification, the us
segmentor_Perl
- 中文分词算法。Perl语言编写。wordlist.txt为词库。-Chinese Segmentation. Perl language. Wordlist.txt for the thesaurus.
softwarecode
- 中文分词是中文信息处理中的重要环节,中文分词技术广泛应用于自动翻译、文本检索、语音识别、文本校对、人工智能以及搜索引擎技术等领域。中文分词算法的选择,中文词库的构建方式,词库中词条的完备性在很大程度上与中文分词系统性能紧密相关。-Chinese word segmentation in Chinese information processing is an important part of Chinese word segmentation technology is widely used
dict
- 已处理过的中文分词词典Chinese Word Segment Dictionary,you may need to use it in your CWS program-Chinese Word Segment Dictionary,you may need to use it in your CWS program
sample
- 中文分词,中文词法分析是中文信息处理的基础与关键-Chinese word
segChnWord
- 中文分词评测系统,用于评测中文分词的质量,给出准确率等-Chinese word segmentation evaluation system for evaluating the quality of Chinese word segmentation, given the accuracy of such
ICTCLAS50_Windows_32_JNI
- 中科院开发的中文分词算法,带词性标注等,经典的一个算法-Chinese Academy of Sciences of the Chinese word segmentation algorithm developed, with part of speech tagging, etc., a classic algorithm
Topic-oriented-meta-search-engine
- 关键词:面向主题 元搜索引擎 神经网络 相关性 中文分词 -Keywords: subject-oriented meta-search engines neural network relevance Chinese word
textcluster
- 实现中文分词并聚类输出,分词算法是自己写的以空格分词,如果有需要高级的分词算法可自己下载相关算法-Realization of the Chinese word segmentation and clustering output
chinese-analyzer
- 主要是对自然语言进行分析,支持中文分词。对中文进行识别-Natural language analysis, support for Chinese word segmentation. Identification of Chinese
CrfDeocder-windows-source
- 中文分词,利用条件随机场进行分词,里面有VC6写的和VC8写的两种。-Chinese word segmentation using conditional random field segmentation, which VC6 and VC8 write two.
ChineseSegment
- 一个完整的中文分词程序,有源码,词典,训练集。算法简洁高效,准确率高。包含了一种将标注语料和词典融合的新型分词方法。将语料分割为2:1为训练集和测试集,加上一个外部词典,准确率可以达到95 。适合入门者学习。也适合需要一个简单分词工具的应用。-A Chinese word segmentation procedures, source, dictionary, the training set. The algorithm is simple and efficient, high accura
Text-Classification_libSVM
- 用seg进行分词 输入参数一:输入文本语料所在的文件夹路径。 如 文本文件语料都放在 train//text 文件夹下,则参数为:train//text//* 。 注意:必须每篇文章在一个txt文本中。 输入参数二:输入存储分词后的结果文件所在的文件夹路径:如:result//text。注意:不需要加* 本工具采用了中科院的中文分词工具,ICTCLAS,请自行到ICTCLAS官网下载该工具。并把Data文件夹,Configure.xml,ICTCLAS30.h,ICTCLAS3
IK-Analyzer-2012_u6_source
- IK Analyzer 2012 中文分词系统源码-source code of IK Analyzer 2012 chinese segmentation
CWSS17.1.1.4
- 基于隐马尔科夫模型的中文分词系统,上交ieee专业大一作业,界面一般,主要用于学习,在此分享,注:开发环境python3.5(Based on Hidden Markov model of Chinese word segmentation system, on the IEEE professional freshman job, interface is common, mainly used for learning, in this share, note: development en
24.HMM
- 通过hmm实现中文分词,并且能自动发现新词的功能(The Chinese word segmentation is realized by HMM, and the function of new words can be automatically found)
ansj_seg-master
- 一个很好的中文分词工具,其中使用了CRF做词性标注以及新词发现(A good Chinese word segmentation tool, in which CRF is used for part of speech tagging and new word discovery.)
jieba-jieba3k
- MATLAB 结巴分词的工具包,用于很多中文分词的模式识别代码程序,利用已有函数工具包提高工作效率,内有安装说明(MATLAB jieba toolkit, used for many Chinese word segmentation pattern recognition code programs, using existing function toolkits to improve work efficiency, with installation instructions)