本软件可以手动加入单词,把单词文件,发音,放到相应的文件夹里,软件就可以自动录入。最新版包括单元练习、综合测试、指法训练!测试完软件自动批改,有得分可以订正!帮助同学们在家里记忆单词,纠正发音,练习键盘指法!无须安装解压后直接运行!软件里已附带人教版八上全部单词和一单元标准wav发音音频,其他单元发音正在整理中,后续上传!!!
anaGo anaGo是一个在Keras中实现的用于序列标记(NER,PoS标记等)的Python库。 anaGo可以解决序列标记的任务,例如命名实体识别(NER),词性标记(POS标记),语义anaGo anaGo是用于序列标记(NER,PoS标记等)的Python库,在Keras中实现。 anaGo可以解决序列标记任务,例如命名实体识别(NER),词性标记(POS标记),语义角色标记(SRL)等。 与传统的序列标签求解器不同,anaGo不需要定义任何语言相关的功能。 因此,我们可以轻松地将anaGo用于任何语言。 作为anaGo的示例,下图显示了英语的命名实体识别:
2022-05-19 16:40:14 5.91MB Python Deep Learning
1
文件说明: raw_data.txt //原始数据集(语料库) handle.py //因为原始数据集很大,可以通过handle.py对去全量数据集进行处理,得到小的数据集 hmm1.py //隐马模型的实现代码
1
wiki.model wiki.model.trainables.syn1neg.npy wiki.model.wv.vecto 训练好的模型,需要自行下载 热评词,词性标注
2022-04-30 22:23:09 523.62MB python wiki 自然语言处理 词性标注
1
提出了一种基于层叠隐马模型的汉语词法分析方法,旨在将汉语分词、词性标注、切分排歧和未登录词识别集 成到一个完整的理论框架中1在分词方面,采取的是基于类的隐马模型,在这层隐马模型中,未登录词和词典中收录的普 通词一样处理1未登录词识别引入了角色HMM:Viterbi算法标注出全局最优的角色序列,然后在角色序列的基础上,识 别出未登录词,并计算出真实的可信度1在切分排歧方面,提出了一种基于N2最短路径的策略,即:在早期阶段召回N 个最佳结果作为候选集,目的是覆盖尽可能多的歧义字段,最终的结果会在未登录词识别和词性标注之后,从N个最有 潜力的候选结果中选优得到1不同层面的实验表明,层叠隐马模型的各个层面对汉语词法分析都发挥了积极的作用1实 现了基于层叠隐马模型的汉语词法分析系统ICTCLAS, 该系统在2002年的“九七三”专家组评测中获得第1名,在2003 年汉语特别兴趣研究组(ACLSpecialInterestGrou ponChineseLan guageProcessing,SIGHAN )组织的第1届国际汉语分 词大赛中综合得分获得两项第1名、一项第2名1这表明:ICTCLAS 是目前最好的汉语词法分析系统之一,层叠隐马模 型能够解决好汉语词法问题.
1
hmm实现词性标注
2022-04-23 20:17:05 2.5MB hmm 隐马尔可夫模型 机器学习 viterbi
1
本章为该课程的其中一个章节 【全部课程列表】 01-C#基础(共40页) 02-搜索引擎基础(共15页) 03-网络爬虫(共27页) 04-正则表达式(共13页) 05-HtmlAgilityPack(共17页) 06-正文提取(共12页) 07-提取文件(共14页) 08-文本排重(共28页) 09-提取关键词(共16页) 10-拼写检查(共41页) 11-文本摘要(共15页) 12-文本分类(共12页) 13-文本聚类(共21页) 14-信息提取(共14页) 15-中文分词(共10页) 16-查词典(共37页) 17-逆向分词(共13页) 18-有限状态机(共31页) 19-切分词图(共16页) 20-概率分词(共26页) 21-n元分词(共38页) 22-词性标注(共34页) 23-Lucene简介(共23页) 24-索引原理(共22页) 25-查询原理(共13页) 26-分析器(共15页) 27-概念搜索(共13页) 28-相关度打分(共12页) 29-搜索界面(共12页) 30-AJAX搜索界面(共25页) 31-Solr(共29页) 32-SolrNet(共10页) 插图
2022-04-12 09:08:00 2.23MB c# 搜索引擎 中文分词 词性标注
nlp_windows_exe_ui 介绍 python3.6-制作一个包含NLP基本功能系统(Windows exe)自然语言处理系统。系统功能:分词,词性标注,关键字提取,文本分类;由于要打包成exe的关系,我将原本的项目的多一个文件的集成到一个python文件(合并文件)里,只保留了使用该系统所需要的函数,方便打包,通俗地讲就是,生成生成词向量过程,装袋过程,模型训练过程的,以及一些中间步骤的程序代码,这些有些涉及很多库的,这些打包进去。但是整个项目里的东西是完整的(包括数据) 运行这个系统需要数据支持,所以请合并像我这样将所要使用的数据跟exe放在同一个文件夹下,否则运行不了。 软件架构 系统实现: 分词:使用jieba中文分词(去中断词,精确模式); 词性标注:使用jieba库里的posseg包进行词性标注; 关键词:基于lda模型结合tfidf的最合适的前六个词; 文本分类:给
2022-04-01 15:10:34 20.28MB nlp Python
1
语义理解/口语理解,项目包含有词法分析:中文分词、词性标注、命名实体识别;口语理解:领域分类、槽填充、意图识别。
2022-03-22 16:05:31 3KB Python开发-自然语言处理
1
为提高专利文本自动分类的效率和准确度,提出一种基于双通道特征融合的WPOS-GRU(word2vec and part of speech gated recurrent unit)专利文本自动分类方法。首先获取专利摘要文本,并进行清洗和预处理;然后对专利文本进行词向量表示和词性标注,并将专利文本分别映射为word2vec词向量序列和POS词性序列;最后使用两种特征通道训练WPOS-GRU模型,并对模型效果进行实验分析。通过对比传统专利分类方法和单通道专利分类方法,双通道特征融合的WPOS-GRU专利分类方法提高了分类效果。提出的方法节省了大量的人力成本,提高了专利文本分类的准确度,更能满足大量专利文本分类任务自动化高效率的需要。
2022-03-08 10:02:14 1.34MB 专利分类 词性标注 特征融合
1