本程序是北京师范大学学生根据一个中文字库对所给的文章进行分词。有详细说明文档和exe文件,采用C语言编写,具体在文档中完全说明。采用的算法是正向最大匹配算法和反向最大匹配算法。主要实现屏幕分词和文件分词两项功能。因为对毕业设计有所帮助,所以我要分高一点哈~勿怪偶~
2019-12-21 20:17:39 481KB 中文分词 C语言 逆向 匹配
1
1、lucene-core-3.6.0.jar 2、IKAnalyzer2012.jar(主jar包) 3、IKAnalyzer.cfg.xml(分词器扩展配置文件) 4、stopword.dic(停止词典) 5、IkSegmentation.java(样例类)
2019-12-21 20:14:24 3.22MB 中文分词 IK Analyzer
1
30万 中文分词词库,42537条伪原创词库,dict.txt,fingerDic.txt,httpcws_dict.txt,out.txt,百度分词词库.txt,词库地址.txt,词库下载地址.txt,四十万汉语大词库.txt,四十万可用搜狗txt词库.txt,搜狗词库方法.txt,五笔词库.TXT 解压密码为:www.5eyi.com 想省资源分可以到http://www.5eyi.com/download-sphinx-chinese-word-lexicon-collected/下载
1
中文词典 NLP ,收录45159条中文词语,每行一个用 /n 隔开,方便拆分使用 哀怜 哀鸣 哀戚 ... 曝光 曝光表 曝露
2019-12-21 20:06:39 295KB 中文词典 中文分词
1
达观数据NLP特刊:从原理到实践,包含基于深度学习的中文分词,个性化推荐,搜索引擎排序,推荐系统冷启动问题解决方案
1
IKAnalyzer2012_u6中文分词器jar包 IKAnalyzer2012_u6中文分词器jar包 IKAnalyzer2012_u6中文分词器jar包 IKAnalyzer2012_u6中文分词器jar包 IKAnalyzer2012_u6中文分词器jar包
2019-12-21 20:00:14 1.11MB IKAnalyzer
1
中文分词词库,格式如下: 00000001 李 168 n 00000002 李浩 133 nr2 00000003 互联网式 121 b ...
2019-12-21 19:57:36 7.18MB 中文分词字典 词性
1
花了几天从各大名牌分词软件中提出的中文词组,已经对词组进行了整理和排序,保存成了三个txt文件,精简:74248个词组、常用:118021个词组、全部:222685个词组、常用标点符号文件共四个文件。
2019-12-21 19:56:20 1.24MB 中文分词
1
最新中文分词词库整理,中文分词,词库,四十万可用搜狗txt词库,30万 中文分词词库,百度分词词库,四十万汉语大词库
2019-12-21 19:55:04 6.36MB 中文分词 词库
1
基于双向LSTM/keras/tensorflow的中文分词,语料为人民日报,分词准确率高达97%
2019-12-21 19:49:33 11.63MB 中文分词
1