文字图像匹配度检测软件(基于CLIP、Transformers等实现) 使用CLIP(对比图文预训练方法)提供的图文匹配度检测接口,使用huggingface基于Transformers的机器模型实现离线翻译,因此输入中英文均可检测。前端图形化界面使用PYQT开发,并使用了qdarkstyle进行优化 左边一栏是候选文字语句,右边一栏是对应每条文字语句的匹配度 支持中英文
2023-01-03 11:26:19 317.82MB python 深度学习 qt pyqt5
1
End-to-End Object Detection with Transformers论文阅读笔记
2023-01-02 20:27:38 9.33MB 深度学习 论文阅读
1
COCO LM预训练(WIP) 在Pytorch中实现 ,纠正和对比文本序列以进行语言模型预训练。 他们能够以自我监督的方式进行对比学习,以进行语言模型预训练。 似乎是Electra的坚实后继者。 安装 $ pip install coco-lm-pytorch 用法 使用x-transformers库的示例 $ pip install x-transformers 然后 import torch from torch import nn from x_transformers import TransformerWrapper , Encoder from coco_lm_pytorch import COCO # (1) instantiate the generator and discriminator, making sure that the generator is ro
1
基于Transformers的时间序列平稳性分析(Python完整源码和数据) 基于Transformers的时间序列平稳性分析(Python完整源码和数据) 基于Transformers的时间序列平稳性分析(Python完整源码和数据) Transformers 时间序列 数据分析
2022-11-25 12:26:58 2.01MB Transformers 时间序列 数据分析
基于PSCAD软件,对变压器的物理模型进行建模,供大家学习
1
解决问题: TypeError: TextEncodeInput must be Union[TextInputSequence,Tupele[InputSequence, InputSequence]] 使用方法: pip install transformers_old_tokenizer-3.1.0-py3-none-any.whl from transformers_old_tokenizer import AutoTokenizer
2022-09-05 17:05:49 209KB transformers
1
可用于语义聚合任务中的文本编码器,它将句子和段落映射到 768 维密集向量空间,是 sentence_transformers 库的模型之一,官网下载速度缓慢,容易被墙,下载解压后,可以参考此文章进行模型本地加载 https://blog.csdn.net/weixin_43721000/article/details/125507996
1
这是一个句子转换器模型,它将句子和段落映射到 384 维密集向量空间,可用于聚类或语义搜索等任务,是 sentence_transformers 库的模型之一,官网下载速度缓慢,容易被墙,下载解压后,可以参考此文章进行模型本地加载 https://blog.csdn.net/weixin_43721000/article/details/125507996
1
基于transformers+bert预训练模型在语义相似度任务上的finetune
2022-06-21 01:23:44 429.65MB bert 语义相似度 transformers
1
NLP领域取得最重大突破!谷歌AI团队新发布的BERT模型,在机器阅读理解顶级水平测试SQuAD1.1中表现出惊人的成绩:全部两个衡量指标上全面超越人类,并且还在11种不同NLP测试中创出最佳成绩。毋庸置疑,BERT模型开启了NLP的新时代!
2022-05-26 23:37:46 717KB BERT
1