AdaboostOnMNIST 这是使用两个不同的弱学习者从头开始实现Adaboost算法的方法:决策树分类器和梯度提升分类器。 Adaboost在MNIST上运行以告知奇数和偶数。 经过scikit Learn模型的adaboost测试,并获得了更高的分数。 最小的训练误差为%1.8,在7次迭代中进行了梯度增强。 函数调用为adaboost(X_train,Y_train,inversions_t,Classifier_type),有两种类型的分类器,“ Gradient_Boost”和“ Decision_tree”可以放入第4个输入中。 adaboost返回一个4元组(stump,stump_weights,errors,D_weights) 您可以使用predict(stumps,stump_weights,X_test)对训练集进行预测。 这将返回该X_test的标签数组
2022-06-09 17:13:26 2KB Python
1
违章处理残炮追查报告(事件经过、原因分析、事件责任划分及处理决定、防范措施).docx
2022-06-07 13:06:03 16KB 文档资料
CSS3鼠标经过图片旋转放大特效代码是一款采用CSS3结合图片实现的鼠标悬停到图标上面旋转放大展示效果。
2022-05-22 14:04:16 351KB 图片特效
1
双连杆机械手的标准问题是在运动学和动态学上开发的。 然后控制它跟踪旋转的椭圆。 非线性项(如重力/惯性等)在不同程度上被完全抵消,并研究了性能。 该文件是在纽约州立大学布法罗分校的 Venkat Krovi 博士的监督下作为 MAE513(机器人机动性和操纵)的家庭作业创建的。
2022-05-17 14:20:37 7.71MB matlab
1
CSS3鼠标经过图片旋转放大特效是一款采用CSS3结合图片实现的鼠标悬停到图标上面旋转放大展示效果。
2022-05-16 15:35:05 351KB CSS3 鼠标经过 图片旋转 图片放大
1
主要介绍了js实现鼠标经过时图片滚动停止的方法,可实现js滚动特效中的鼠标悬停停止图片滚动的功能,非常具有实用价值,需要的朋友可以参考下
2022-05-14 15:53:39 29KB js 鼠标 经过 图片
1
构建经过高斯信号进行幅度调制的线性调频信号x(N),采用函数 tfrstft对其进行时频分析,并通过“ tfrgview menu”设置时频分布的不同显示方式。 运行程序后,首先显示信号的时域波形图,进行短时 Fourier变换后,由于没有输出参数,系统会直接给出时频分布图,为了能同时看到时域信号、时频分布及频域信号分布特点,通过选择“ TFRQVIEW”菜单中的“ change the display layout”→“ display signal”“ signal only”,再选择“ changethe display layout”→“ display spectrum”→“ linear scale”,
2022-05-10 18:08:26 241B matlab TFRQVIEW 短时傅里叶变换
cadrl_ros(使用Deep RL避免冲突) 用Deep RL训练的动态避障算法的ROS实现 纸: M.Everett,Y.Chen和JP How,《具有深度强化学习的动态决策代理之间的运动计划》,IEEE / RSJ国际智能机器人和系统会议(IROS),2018年 论文: : 视频: : Bibtex: @inproceedings{Everett18_IROS, address = {Madrid, Spain}, author = {Everett, Michael and Chen, Yu Fan and How, Jonathan P.}, bookti
1
内含两个软件,均经过实际运行验证,可破解FP0,FP1,FP2等松下PLC,FP2-C1与FP2-C2均做过论证。
2022-05-02 14:31:38 404KB 松下PLC 密码破解
1
阿达·本 与论文工作相关的代码: “ AdaBnn:经过自适应结构学习训练的二值化神经网络” 该存储库当前包含两个协作笔记本: 带有实验性质的基于Keras实施AdaNet算法提出的由该文件实验“ ”在,对于学习神经网络结构为子网的集合。 此外,AdaBnn表示为对AdaNet的修改,它对运行时间施加了二进制约束,以尝试在时间方面提高性能,并且是一种基于“的正则化方式”。 “。 另外,包含的单独代码包含Adanet和AdaBnn实现及其文档。 一些发现 根据笔记本中提供的实验: 在自适应结构学习的情况下,对网络权重进行二值化具有类似的效果,即遗传算法中的突变率很高,在迭代之间很难遵循学习模式,在T迭代中不保持增量性能。 Adam优化在大多数情况下更适合于此类AdaBnn结构,并且迭代次数更少(本文中的T参数)。 目前,对AdaNet进行二值化处理并没有太大的改进,但它可能是为权重/激活添加约束作为自适应结构学习的正则化方法的起点。 进一步的工作 进一步的工作可能包括将二值化过程作为卷积子网的一部分,这是(M Courbariaux,2016)的最初建议。 例 导入依赖关
2022-04-29 11:23:47 4.24MB deep-learning tensorflow scikit-learn keras
1