Python分词系统jieba代码(有注释,无报错)!!!!!!!!!!!!!!!!!!!
2019-12-21 21:02:20 2KB jieba phthon 分词系统 分词
1
Jieba是一个中文分词组件,可用于中文句子/词性分割、词性标注、未登录词识别,支持用户词典等功能。该组件的分词精度达到了97%以上。
2019-12-21 21:02:09 7.08MB Jieba 分词
1
jieba分词器所用的字典,包含词频以及词性,可自行调整频次等属性。(仅做学习交流用,禁止商用)
2019-12-21 21:00:04 4.84MB NLP 自然语言处理 人工智能 词性字典
1
jieba分词,连接数据库,分析数据库中的文本,并提取时间、地点、目标,整个完整流程/
1
进行中文文本分词时,使用的是jieba分词工具。文档中演示了结巴分词器的.Net版本在VS2013中的使用流程。新人上货,请指正!
2019-12-21 20:49:25 320KB C# 中文分词 Jieba分词
1
利用jieba分词进行文本的处理这里面是jieba分词所需要的词典和停用词
2019-12-21 20:42:12 2.9MB jieba
1
结巴分词,jieba分词,统计分词出现的频率,按频率统计分词出现的频率。分词器功能,建议参考 elasticsearch的分词器,此分词器为入门级的分词拆分和分词频率统计
2019-12-21 20:36:08 6.44MB jieba分词 java 分词统计 结巴
1
自己搜集来的词典,有重复的一些,自己甄别,里面包了清华大学词典,台湾大学词典,知网词典等,褒义词,贬义词,情感词一类的,反正挺多的
1
使用R语言中的jiebaR包,对中文文本进行分词,求词频,做词云图并进行LDA主题建模
2019-12-21 20:30:20 4KB LDA jieba
1
为了项目,自建的词库,包括心理学,物理学,生物学等。
2019-12-21 20:21:05 2.2MB 深度学习
1