在 github 上看到的一个非常好的 autoencoder 讲解
2022-04-18 12:05:47 1.78MB github
1
这是实现UFLDL第二单元“矢量化编程”中用MNIST数据集训练稀疏自编码器主程序,调用了上传的其它几个函数。我的机器上运行10000个样本集的训练大约需要45分钟
2022-03-24 09:57:56 1KB UFLDL 稀疏自编码器 训练
1
针对目前操作工人与工业机器人之间的交互还是采用比较机械化的交互方式,设计使用 Kinect 传感器作为手势采集设备,并使用人的手势来对工业机器人进行控制的方法. 首先,使用深度阈值法与手部骨骼点相结合的方法,从 Kinect 传感器获取的数据中准确地提取出手部图像. 在提取过程中,操作员无需佩戴任何设备,对操作员所站位置没有要求,对背景环境也没要求. 然后,用稀疏自编码网络与 Softmax 分类器结合的方法对手势图像进行识别,手势识别过程包含预训练和微调,预训练是用逐层贪婪训练法依次训练网络的每一层,微调是将整个神经网络看成一个整体微调整个网络的参数,手势识别的准确率达到 99.846%. 最后,在自主研发的工业机器人仿真平台上进行实验,在单手和双手手势下都取得了不错的效果,实验结果验证了手势控制工业机器人的可行性和可用性.
1
一篇关于卷积自编码的论文,写的非常好,此处上传仅仅是为了通过我博客想下载的朋友。
2022-02-24 22:07:59 759KB Convolution autoencoder cae 卷积自编码
1
基于自编码网络的入侵检测算法,钟诗航,辛阳,由于入侵检测的特殊性,传统的机器学习算法无法获得良好的泛化性能,而复杂的深度学习算法由于数据集的限制,容易出现过拟合现象
2022-02-22 21:48:33 990KB 首发论文
1
堆叠去噪自编码器matlab代码微型计算机 (线性)边际化堆叠降噪自动编码器(mSDA)以及密集词组(dCoT)的Python实现,这是基于mSDA的降维算法。 基于Minmin Chen的Matlab代码。 有关原始论文和代码,请参见。 该代码尚未经过广泛的测试,因此实际上请不要依靠它来产生正确的表示形式。 继续关注此存储库以保持最新。 减少文字尺寸的用法示例: from linear_msda import mSDA # load your corpus, should be bag of words format (as in e.g. gensim) preprocessed_bow_documents = MmCorpus ( "test_corpus.mm" ) # load your dictionary id2word = Dictionary ( "..." ) dimensions = 1000 # select prototype word IDs, e.g. by finding the most frequent terms prototype_ids = [
2022-01-29 10:47:11 16KB 系统开源
1
从单文档中生成简短精炼的摘要文本可有效缓解信息爆炸给人们带来的阅读压力。近年来,序列到序列(sequence-to-sequence,Seq2Seq)模型在各文本生成任务中广泛应用,其中结合注意力机制的Seq2Seq模型已成为生成式文本摘要的基本框架。为生成能体现摘要的特定写作风格特征的摘要,在基于注意力和覆盖率机制的Seq2Seq模型基础上,在解码阶段利用变分自编码器(variational auto-encoder,VAE)刻画摘要风格特征并用于指导摘要文本生成;最后,利用指针生成网络来缓解模型中可能出现的未登录词问题。基于新浪微博LCSTS数据集的实验结果表明,该方法能有效刻画摘要风格特征、缓解未登录词及重复生成问题,使得生成的摘要准确性高于基准模型。
2021-12-12 10:35:17 1.16MB 文本摘要 变分自编码器 Seq2Seq模型
1
(PyTorch)自编码变分推断主题模型
2021-11-26 11:18:36 2.9MB Python开发-机器学习
1
吴恩达的神经网络,自编码课件。全英文,供15页,降了神经网络,反向传播算法、自编码之间的关系,很好读懂。
2021-11-22 14:26:12 438KB 自编码
1