快速变形金刚 变压器是非常成功的模型,可以在许多自然语言任务中达到最先进的性能。但是,由于自我注意的二次缩放,很难将它们缩放为长序列。 该库是为我们对变压器快速关注的研究而开发的。您可以找到我们的论文清单,以及相关的论文和已实施的论文。 快速开始 以下代码构建了一个具有softmax注意和一个线性注意的变压器,并比较了每个变压器编码1000个元素所需的时间。 import torch from fast_transformers . builders import TransformerEncoderBuilder # Create the builder for our transformers builder = TransformerEncoderBuilder . from_kwargs ( n_layers = 8 , n_heads = 8 , que
2022-02-07 10:18:28 212KB Python
1
俄罗斯新闻集群标题选择的变形金刚_Transformers for Headline Selection for Russian News Clusters.pdf
2022-01-22 09:02:13 91KB cs
欢迎来到EEG深度学习图书馆 EEG-DL是为EEG任务(信号)分类编写的深度学习(DL)库。 它提供了最新的DL算法并不断更新。 目录 贡献 组织机构 文献资料 支持的型号包括 不。 模型 代号 1个 深度神经网络 DNN 2个 卷积神经网络[论文] [教程] 有线电视新闻网 3 深度残差卷积神经网络[论文] ResNet 4 薄残差卷积神经网络[论文] 稀薄的ResNet 5 密集连接的卷积神经网络[论文] 密集网 6 全卷积神经网络[论文] FCN 7 暹罗网络(CNN骨干网)的一键式学习[论文] [教程] 连体网络 8 图卷积神经网络[论文] [演示文稿] [教程] [针对中国读者的GCN / GNN摘要] [针对中国读者的GNN相关算法综述] [图的深度学习文学] GCN /图表CNN 9 图卷积神经网络(来自Reza Amini的纯Py
2022-01-01 22:00:19 379KB deep-learning tensorflow transformers cnn
1
用于高分辨率图像合成的驯服变压器 *,*,*平等贡献 tl; dr通过引入卷积VQGAN,我们将卷积方法的效率与转换器的表达能力相结合,该算法学习了上下文相关的视觉部分的密码本,其组成是使用自回归转换器建模的。 | | 消息 我们添加了一个,用于比较两个VQGAN和OpenAI的 。 另请参阅。 我们现在包括预训练模式的概况 。 我们添加了和模型。 流式演示现在支持图像完成。 现在,我们包括D-RIN数据集中的几个示例,因此您可以运行而无需先准备数据集。 现在,您可以使用我们的采样。 要求 可以使用以下方法创建并激活一个名为taming合适的环境: conda env create -f environment.yaml conda activate taming 预训练模型概述 下表概述了当前可用的所有型号。 FID分数是使用进行评估的,而没有拒绝抽样。 作为参考,我们
2021-12-27 14:48:53 41.21MB JupyterNotebook
1
伯特比 BERTopic是一种利用主题建模技术 :hugging_face: 转换程序和c-TF-IDF创建密集的群集,使主题易于理解,同时在主题描述中保留重要字词。 它甚至支持类似于LDAvis的可视化! 相应的媒体帖子可以在找到。 安装 可以使用完成安装: pip install bertopic 要使用可视化选项,请按照以下步骤安装BERTopic: pip install bertopic[visualization] 安装错误推荐使用PyTorch 1.4.0或更高版本。 如果安装出现错误,请首先安装pytorch。 入门 要详细了解BERTopic的功能,您可以在查看完整的文档也可以Google Colab笔记本。 快速开始 我们首先从著名的20个新闻组数据集中提取主题,该数据组由英文文档组成: from bertopic import BERTopic from sklearn . datasets import fetch_20newsgroups docs = fetch_20newsgroups ( subset = 'all' , remove
2021-12-14 20:36:41 2.73MB nlp machine-learning topic transformers
1
A Survey of Visual Transformers 2021.pdf
2021-11-30 09:10:59 4.59MB Transformer综述 论文
1
ALBERT-蒙古语 这个 repo 提供了在蒙古语文本语料库上训练的预训练 ALBERT 模型(BERT 的“A Lite”版本)和 SentencePiece 模型(无监督文本分词器和去分词器)。 内容: 用法 您可以使用库在 PyTorch 和 TensorFlow2.0 中使用 。 import torch from transformers import AlbertTokenizer , AlbertForMaskedLM tokenizer = AlbertTokenizer . from_pretrained ( 'bayartsogt/albert-mongolian' ) model = AlbertForMaskedLM . from_pretrained ( 'bayartsogt/albert-mongolian' ) 教程 [Colab]在 Colab
2021-11-29 20:39:04 186KB transformers language-model albert mongolian
1
他们将 GAN 和卷积方法的效率与转换器的表达能力相结合,为语义引导的高质量图像合成提供了一种强大且省时的方法。
2021-11-25 18:06:41 111.56MB ai 源码 复现 论文
视觉识别的瓶颈变压器 实验 模型 参数(M) 累积(%) ResNet50基线() 23.5百万 93.62 BoTNet-50 1880万 95.11% BoTNet-S1-50 1880万 95.67% 僵尸网络-S1-59 2750万 95.98% BoTNet-S1-77 4490万 ip 概括 用法(示例) 模型 from model import Model model = ResNet50 ( num_classes = 1000 , resolution = ( 224 , 224 )) x = torch . randn ([ 2 , 3 , 224 , 224 ]) print ( model ( x ). size ()) 模块 from model import MHSA resolution = 14 mhsa = MHSA ( plan
1
变形金刚 对VQA任务进行下行趋势化的预训练V + L模型的实现。 现在支持:Linux和上的VisualBERT,LXMERT和 。 笔记: 这只是一个测试版,如果遇到任何错误,请随时提出问题。 我们的实现基于的大型。 如果您采用V + L模型的预训练权重,请考虑引用其原始工作。 如果您发现我们的实施有帮助,请考虑引用以下内容:) @inproceedings{li2020comparison, title={A comparison of pre-trained vision-and-language models for multimodal representation learning across medical images and reports}, author={Li, Yikuan and Wang, Hanyin and Luo, Yuan},
2021-10-27 20:02:52 1.91MB Python
1