搜索资源列表
zhongwenfenci
- 讲述面向信息检索的中文分词程序的PDF文档,
zhongwenzidongfenciyanjiu
- 关于中文分词算法基本研究的介绍,综合的介绍了中文自动分词的原理及一般算法。
WeDataMine
- Web挖掘技术在搜索引擎中的应用与实现 介绍了PageRange , 结构挖掘器 , 页面分析器,中文分词等技术
中文分词技术及最新发展
- 搜索引擎通常由信息收集和信息检索两部分组成。对于英文,由于英文中词 与词之间是用空格隔开,检索起来很方便,故计算机采用了词处理的方式,大大 减轻了用户与计算机的工作量:相对来讲,中文的情形就复杂得多。中文的词与 词之间是没有分隔符的,因此若想建立基于词的索引,就需要专门的技术,这种 技术被称之为“汉语词语切分技术”。根据是否采用词语切分技术,中文搜索引 擎又可分为基于字的搜索引擎和基于词的搜索引擎。由于中文信息处理的特殊 性,开发中文搜索引擎决不像西文软件的汉化那样简单。在实
中文分词技术文档
- 中文分词技术的相关文档
中文分词
- 搜索引擎中文分词
ICTCLAS2009.对中文进行分词并对其词性标注
- 对中文进行分词并对其词性标注;命名实体识别;新词识别;同时支持用户词典,To be conducted in Chinese word segmentation and POS tagging Named Entity Recognition new word identification simultaneously support the user dictionary
汉语自动分词与词性标注软件中文分词系统
- 学习汉语自动分词与词性标注软件的组件化有助于更好的理解中文分词系统,PoS tagging HMM
File22
- 基于关键词的Web文档自动分类算法研究,文档关键词,语义相似度,聚类算法,知网,拓扑网络图,中文分词-Keyword-based Web Document Classification Algorithm, document keywords, semantic similarity, clustering algorithm, HowNet, topological network diagrams, Chinese word segmentation
gugeheibanbaoshuxuezhimei
- 分多个系列详细介绍了数学的应用,如统计语言模型,中文分词,隐含马尔科夫模型在语言处理中的应用等等非常经典的例子,让我们更深入学习了解数学的光芒所在-Described in detail in several series of mathematical applications, such as statistical language model, Chinese word segmentation, hidden Markov model of language processing an
dat
- 中文分词查找关键词结果,抽取新词的结果,如果效果好的话我就上传源码让大家使用-result of extract new word
HMM
- HMM的初步学习资料。HMM对于自然语言的研究尤其是中文分词有非常重要的意义。-HMM preliminary learning materials. HMM is the Chinese word for the study of natural language has a very important significance.
design-documents
- 网页信息采集子系统: 网页采集:动态查找及实时分析新增网页,读取网页回帖信息。 网页过滤:,对获取的网页,通过网页清洗模块清除网页中的广告、导航信息、 图片、版权说明等噪声数据,萃取出相关网页的标题、正文、链接地址、采集时 间、回帖、发帖人数等数据。 网页信息预处理子系统: 网页审查脏字:主要功能包括中文分词、词性标注、命名实体识别、新词识别, 建立数据库说明每类词库,建立敏感词词库。 网页舆情监测:监测是否出现了一定影响的*,即回帖的回帖或支持、顶等 达到
35Improv-word-segment-
- 一种改进的中文分词歧义消除算法研究 做中文分词统计语言模型的参考资料-An improved Chinese word segmentation ambiguity elimination algorithm research Do the Chinese word segmentation statistical language model reference material
666A-joint-decoding-segment
- 一种基于字词联合解码的中文分词方法 值得研究的学术论文-Papers segmentation method based on the joint decoding the words Chinese research
fencizf
- 基于java编程,采用最大匹配算法实现简单的中文分词,并过滤停用词-The maximum matching algorithm based on java programming, simple Chinese word segmentation and filtering stop words
java
- 用java实现的前向最大中文分词算法代码-Using java to achieve before the largest Chinese word segmentation algorithm code
IKAnalyze_Guide
- IK Analyzer 中文分词器的介绍文档-IK Analyzer Chinese word introductory document
ICTCLAS 中科院分词工具
- ICTCLAS是中科院的中文分词工具,是目前国内最好的中文分词工具。进行文本分析的必备工具
icwb2-data
- 中文分词数据,含有as、 cityu、msr、pku数据,包括测试集、训练集(Chinese word segmentation data)