从TensorFlow复现代码理解胶囊网络(Dynamic Routing Between Capsules) 论文链接:https://arxiv.org/abs/1710.09829 Tensorflow代码复现链接:https://github.com/naturomics/CapsNet-Tensorflow
2021-03-10 15:12:08 1.33MB Capsule 神经网络 TensorFlow 胶囊网络
1
论文讲解:https://blog.csdn.net/qq_33302004/article/details/114441024
2021-03-06 16:09:03 2.13MB 注意力机制 LSTM 船舶航迹预测
1
在胶囊网络上使用迁移学习完成方面级情感分类,用文档级的知识迁移到方面级上,资源提供论文翻译。原文可自己下载
2020-12-29 20:34:08 540KB 自然语言处理 胶囊网络 翻译
1
Attention Mechanism注意力机制介绍,文本识别、语音识别、机器翻译
2020-02-10 03:07:05 1.91MB Slide
1
Attention.zip文件中总结了几种关于注意力机制的代码,有keras和tensorflow,还有PyTorch框架的
2019-12-21 22:17:10 5KB Attention 注意力机制 代码 keras
1
注意力机制是一种信息获取的通用机制,应用于从大量源数据中获取特定关键信息而避免对所有数据进行处理的场景。 注意力模型最近几年在深度学习各个领域被广泛使用,无论是图像处理、语音识别还是自然语言处理的各种不同类型的任务中,都很容易遇到注意力模型的身影。所以,了解注意力机制的工作原理对于关注深度学习技术发展的技术人员来说有很大的必要。
2019-12-21 21:58:18 2.87MB attention 注意力机制
1
Attention-CNN 注意力机制细腻度图片分类。 ResNet改造
2019-12-21 20:47:23 20KB CNN ResNet 注意力机制
1
双向LSTM+CRF中文命名实体识别工具,可以使用自己的语料进行训练,欢迎大家交流学习。训练数据需要自己进行获取
2019-12-21 20:35:50 40.13MB 自然语言处理 命名实体识别
1
Attention Model在Image Caption、Machine Translation、Speech Recognition等领域上有着不错的结果。那么什么是Attention Model呢?举个例子,给下面这张图片加字幕(Image Caption):一只黄色的小猫带着一个鹿角帽子趴在沙发上。可以发现在翻译的过程中我们的注意力由小猫到鹿角帽子再到沙发(小猫→鹿角帽子→沙发)。其实在很多和时序有关的事情上,人类的注意力都不是一成不变的,随着事情(时间)发展,我们的注意力不断改变。
2019-12-21 20:31:39 2.77MB attention 深度学习
1
基于双向LSTM/keras/tensorflow的中文分词,语料为人民日报,分词准确率高达97%
2019-12-21 19:49:33 11.63MB 中文分词
1