搜索资源列表
FreeICTCLAS
- 对中文进行分词,c++实现多中文文本的分词算法-Using java prepared tf* idf results
pythonsample
- 自然语言处理的例子,可以实现分词和新词发现,中文预处理也支持。用python写的-Examples of natural language processing can be achieved segmentation and new words found Chinese pretreatment also supported. Written with python
Chinese-Word-Segmentation
- 很好的中文分词算法,详细介绍请解压后看注释。字典文件也要放在目录下。-Good Chinese word segmentation algorithm, detailed look after unzip comment. But also on the dictionary file directory.
HanLP-1.2.7
- HanLP是一个致力于向生产环境普及NLP技术的开源Java工具包,支持中文分词(N-最短路分词、CRF分词、索引分词、用户自定义词典、词性标注),命名实体识别(中国人名、音译人名、日本人名、地名、实体机构名识别),关键词提取,自动摘要,短语提取,拼音转换,简繁转换,文本推荐,依存句法分析(MaxEnt依存句法分析、神经网络依存句法分析)。-HanLP is a dedicated to popularize NLP technology to production environment of