搜索资源列表
mmseg-v0.1
- 基于词典和最大匹配算法的的中文分词组件,达到很好的分词准确率-Dictionary and the largest based on the matching algorithm of the Chinese word segmentation components, to achieve good word accuracy rate
ChineseAnalyzer
- lucene.net 2.0的中文分词器,采用最大向前匹配算法,附上源代码和lucene.net.dll,希望这方面有兴趣的互相交流一下。
lunce-IKAnalyzer
- 中文分词工具,利用lucence的接口写的,进行最长匹配,正向和反向匹配后根据词数选择。别人写的,我用了,觉得不错,简单,上手快
cidian
- 基于最大匹配算法的的中文分词组件,达到很好的分词准确率
最大匹配算法
- 中文分词正反向最大匹配算法
worddiv
- 中文分词算法,用正向最大匹配算法实现的中文分词,包裹dao操作数据库。
Chinese-Word-Segment-And-POS-Tagger
- 实现了中文分词和词性标注程序。分词方法采用“三词正向最长匹配”。词性标注使用HMM方法,用Viterbi算法实现。“三词正向最长匹配”保持了“正向最长匹配算法”快速的特点,同时提高了分词的准确性。-Chinese word segmentation and implemented procedures for POS tagging. Segmentation Methods, " the longest three-match positive words." POS tag
ChineseSplit
- 一个基于VB.NET开发的中文分词及关键词提取系统,采用双向最大匹配、词频统计、快速排序等算法实现。-VB.NET developed based on Chinese word segmentation and Key Extraction System, the largest two-way matching, word frequency statistics, such as quick sort algorithm.
proWordSegment
- 正向最大匹配中文分词c++源程序,在visual studio 2008中调试通过。-Chinese are the largest sub-word match c++ source code, visual studio 2008 in debug through.
RMM
- 基于rmm算法(逆向最大匹配)实现的中文分词系统,具体内容是一个mfc工程文件。-Rmm-based algorithm (reverse maximum matching) to achieve the Chinese word segmentation system, specific content is a mfc project file.
fenci
- PHP 织梦逆向最大匹配算法 中文分词 分词算法-PHP DedeCms reverse maximum matching algorithm for Chinese word segmentation algorithm
WordSegment
- 基于字符串匹配的中文分词程序,C++版。 结果以文件显示。-String matching based on the Chinese word segmentation procedures, C++ version. To document the results.
zdfc
- 对中文语句进行分词的一个源码,利用正向匹配算法进行处理-Statements for the Chinese word for a source
Dictory
- 用B-树作为查找存储结构,对中文单词进行哈希,用最长逆向匹配算法进行中文句段分词,实现中文词典以及分词。中文词典规模为十万八千多词汇。分词的正确率在90 以上。-Use the B-tree as storage structure , and hash the Chinese word while storing or searching. Use the longest reverse matching algorithm to split Chinese sentence to word
WordPartation2
- 中文分词程序 利用最大匹配算法 支持GB2312编码格式的文件-Chinese word segmentation procedure using the maximum matching algorithm to support GB2312 encoding format of the file
prop
- 根据概率匹配原则得出句子结构树,很好用的一个演示软件,需要搭配中文分词法进行使用-Come under the principle of probability matching sentence structure tree, with a very good presentation software, need to be used with Chinese sub-lexical
1
- 中文分词在中文信息处理中是最最基础的,无论机器翻译亦或信息检索还是其他相关应用,如果涉及中文,都离不开中文分词,因此中文分词具有极高的地位。中文分词入门最简单应该是最大匹配法了-Chinese word segmentation in Chinese information processing is the most basic, whether in machine translation Yihuo information retrieval, or other related appli
Desktop
- 可以实现matlab中文分词采用反向最大匹配法可以准确实现分词(Matlab Chinese word segmentation can be achieved, using the reverse maximum matching method, you can accurately achieve word segmentation)
chinese_seg_update
- 中文分词,采用逆向最大匹配方法实现,利用字典作为索引(The Chinese word segmentation is realized by the reverse maximum matching method, and the dictionary is used as the index.)
Python逆向最大匹配实现-代码-文档-截图等
- 对于文本进行自然语言处理,中文分词。北邮计算机院NLP课的作业。(This is a homework for BUPT student, implementing the word segment of natural language processing.)