Transformer-Tensorflow2 用于分类的Transformer架构 要求:Tensorflow 2.0
2021-03-30 14:34:29 3KB Python
1
Transformer的一个TensorFlow实现
2021-03-30 14:17:16 803KB Python开发-机器学习
1
网口数据手册
2021-03-24 17:21:32 2.15MB 网络接口
1
Transformer-XL论文
2021-03-18 09:04:19 4.36MB 论文
1
Vanilla Transformer的论文
2021-03-18 09:04:18 709KB 论文
1
tensorflow2.0版本 Transformer模型 中英翻译
2021-03-16 17:18:17 199.27MB tensorflow2.0 Transorformer
1
在Android上的Deit变压器。 分类实例 跑 为Android准备模型 将模型放入资产文件夹 生成并运行应用 参考 DEIT变形金刚回购 Pytorch移动示例 教程火车mnist vit变压器 VIT变压器仓库
2021-03-13 17:10:20 6KB JupyterNotebook
1
vision in transformer论文源码
2021-03-13 09:05:43 5.16MB vit transformer
1
用于人脸识别的T2T-ViT网络。可参考博客:https://blog.csdn.net/Bixiwen_liu/article/details/114894804?spm=1001.2014.3001.5501
2021-02-23 20:02:44 6KB 人脸识别 TransFormer T2T-ViT
BERT在Azure机器学习服务上 此回购包含终端到终端的食谱和的 (双向编码器交涉来自变形金刚)用语言表达模型。 伯特 BERT是一种语言表示模型,其特征在于可以有效捕获语料库中深层和微妙的文本关系。 在原始论文中,作者证明了BERT模型可以很容易地改编以构建用于许多NLP任务的最新模型,包括文本分类,命名实体识别和问题解答。 在此仓库中,我们提供了笔记本,使开发人员可以从语料库中重新训练BERT模型,并微调现有的BERT模型以解决专门的任务。 此回购中提供了的简要可快速开始使用BERT。 预训练 BERT预训练中的挑战 将BERT语言表示模型预训练到所需的准确性水平是非常具有挑战性的。 结果,大多数开发人员从在标准语料库(例如Wikipedia)上经过预训练的BERT模型开始,而不是从头开始训练它。 如果在与训练前步骤中使用的语料库相似的语料库上训练最终模型,则此策略效果很好。 但是,
2021-02-20 20:08:56 232KB Python
1