手写数字分类 一种对手写数字进行分类并与传统方法进行比较的新方法。 手写数字的 MNIST 数据集使用多层感知器神经网络、朴素贝叶斯分类器和一种新颖的混合模型 - 贝叶斯神经网络分类器进行分类。 ###介绍 MNIST 手写数字数据集的分类器:实现、分析和比较了多层感知器神经网络、朴素贝叶斯分类器和朴素贝叶斯和 mlp-nn 的混合模型:“贝叶斯神经网络”。 模型 参数 准确性 多层感知器神经网络 1个隐藏层 96.45% 朴素贝叶斯分类器 伯努利房车特点 83.98% 混合贝叶斯神经网络 在隐藏层,Multinoulli RV 特征 89.02% 混合贝叶斯神经网络 在输出层; Multinoulli RV 特点 90.66% 混合贝叶斯神经网络 在隐藏层; 高斯房车特点 91.63% 混合贝叶斯神经网络 在输出层,Guassian RV 特征 93.27% ###多层感
2021-12-09 11:25:52 13.1MB Python
1
Machine_Learning-Housing_grade_prediction_using_python 机器学习被广泛用于建立数据分析的预测模型。 数据集包含一个训练文件,我们使用该训练文件来训练算法以对测试文件进行预测。 该文件包含大约2500多个缺失值。 我们使用KNN插补来自动填充缺失的位置,以进行更好的预测。 用于对训练和测试数据集进行预测的模型是SVM。 使用线性核获得的模型的准确性约为88.6%,比rbf的准确性高23%。
2021-12-08 21:20:32 251KB Python
1
XDA Keycap 3D模型 这些是XDA配置文件键帽的3d模型。 我从头开始制作它们,以用于键帽集的渲染。 根据MIT许可证,您可以将它们用于任何所需的对象。 它们不适用于3D打印,我无法验证它们是否可以正常工作。 测量是根据我的XDA Canvas键帽进行的。 它们是UV贴图的,因此您可以在顶部使用一些噪声以获得逼真的PBT颗粒效果。 如何将图例添加到键帽 首先是,我使用3DS Max 2017,所以,在您的软件上可能有所不同。 通常,大多数3D建模程序的过程应相同。 从我们空白的键帽开始。 我们添加所需的文本,调整大小,缩放比例并将其放置在键帽上。 在3DS中,将max文本作为样条线添加,因此我们需要将其转换为多边形并拉伸形状。 在Max中执行此操作的一种简单方法是使用对称修改器。 然后,我们需要确保3D形状与键帽顶部相交。 复制最上面的部分(这使一切变得容易得多
2021-12-08 19:48:13 2.66MB
1
潜在客户贝叶斯 贝叶斯的PROSPECT叶片光学特性模型反演。
2021-12-08 17:34:24 141.98MB Shell
1
假新闻检测 参考相关作品,并根据越南文文章建立基于LSTM和CNN的虚假新闻检测模型。
2021-12-08 17:16:32 164KB JupyterNotebook
1
PSPnet:Pyramid Scene Parsing Network语义分割模型在Pytorch当中的实现 目录 性能情况 训练数据集 权值文件名称 测试数据集 输入图片大小 mIOU VOC12+SBD VOC-Val12 473x473 68.59 VOC12+SBD VOC-Val12 473x473 81.44 所需环境 torch==1.2.0 注意事项 代码中的pspnet_mobilenetv2.pth和pspnet_resnet50.pth是基于VOC拓展数据集训练的。训练和预测时注意修改backbone。 文件下载 训练所需的pspnet_mobilenetv2.pth和pspnet_resnet50.pth可在百度网盘中下载。 链接: https://pan.baidu.com/s/1JX0BoAroPChBQrXYnybqzg 提取码: papc VOC拓展数据集
2021-12-08 16:21:46 9.17MB Python
1
假新闻检测系统 提议的系统分为多个阶段,以根据数据挖掘操​​作领域(例如数据收集,数据预处理,特征提取,特征选择和机器学习模型的实现)完全隔离工作,以进行将新闻分类为是非的预测并预测新闻属于预测标签的概率。 实施了许多机器学习模型,并根据准确性,f1得分,准确性和召回率等指标对机器学习模型的性能进行了比较。 评估模型性能的主要决定指标被选为f1得分,其中考虑了精度和召回率之间的折衷。 在对以下机器学习模型(SVM,逻辑回归,朴素贝叶斯和随机森林)进行了训练和调整之后,实施了投票分类器,将上述所有模型组合在一起,形成了一个集成分类器,该分类器使用所有这些分类器来预测标签和分类概率并使用软投票方法做出最终预测。 建议的系统步骤: 数据收集:为了实施和测试所建议的系统,使用了William Yang Wang []的“说谎者,说谎者裤子着火:用于虚假新闻检测的新基准数据集”。 该存储库中
2021-12-08 15:47:24 31.54MB 系统开源
1
一个用于在单个流程中解析和执行BPMN模型的python模块 到目前为止支持的元素: 开始/结束事件 任务(手动,用户,服务)-暂时执行虚拟 网关(专有,并行) 有条件的顺序流 BPMN模型示例: 用法示例: import asyncio from bpmn_model import BpmnModel m = BpmnModel ( "models/model_01.bpmn" ) p1 = m . run ( "1" , { "a" : 1 }) p2 = m . run ( "2" , { "a" : 2 }) run = [ p1 , p2 ] def run_serial (): for i , p in enumerate ( run ): print ( f"Running process { i + 1 } \n -------------
2021-12-07 15:42:13 6KB python workflow workflow-engine bpmn
1
使用BERT构建和训练最先进的自然语言处理模型 关于这本书 BERT(来自变压器的双向编码器表示)以令人鼓舞的结果彻底改变了自然语言处理(NLP)的世界。 本书是入门指南,可帮助您掌握Google的BERT架构。 通过对变压器架构的详细说明,这本书将帮助您了解变压器的编码器和解码器如何工作。 通过学习如何对BERT模型进行预训练以及如何对下游任务使用经过预训练的BERT,以及通过使用Hugging Face转换器库对NLP任务(例如,情感分析和文本摘要)进行微调,您将探索BERT架构。 随着您的前进,您将了解BERT的不同变体,例如ALBERT,RoBERTa和ELECTRA,并查看SpanBERT,它用于NLP任务(如问题解答)。 您还将介绍基于知识提炼的更简单,更快的BERT变体,例如DistilBERT和TinyBERT。 本书详细介绍了MBERT,XLM和XLM-R,然后向您
2021-12-05 20:45:52 17.8MB nlp pytorch transformer bart
1
需求预测 用于预测需求的线性回归模型,使用python编写的笔记本运行线性回归以预测需求负荷。 数据恰好来自2013年至2015年间阿根廷Corrientes省的 。单击 查看笔记本。
2021-12-05 18:50:37 726KB JupyterNotebook
1