VoVNet骨干网的pytorch实现 这是VoVNet骨干网络的pytorch实现,如论文。 这是通过样式实现的。 此回购协议提供什么? 此仓库提供了在ImageNet分类数据集中训练的VoVNet-39 / 57模型,其训练协议与(例如128个批处理大小,90个时代,数据扩充,lr_policy等),并与ResNet和DenseNet进行了比较。 ImageNet结果 笔记: 为了公平起见,将相同的培训协议用作 90纪 分步学习进度表(学习率每30个周期下降一次) 256批次大小 默认增强(例如,裁剪,翻转,相同的均值/标准差归一化) @ 224x224训练/验证 推断时间是在TITAN X PASCAL GPU上测量的CUDA v9.2,cuDNN v7.3,pytorch 1.0 模型 前1名 前5 推断时间 ResNet-50 23.85% 7.13% 12毫
2022-03-03 20:09:01 8KB imagenet classification-model vovnet Python
1
ImageNet数据集类别与编号查询表,方便快速查询需要的图片压缩包编号
2022-02-13 20:05:52 46KB ImageNet 类别
1
Dorefa网 的pytorch实施 .The代码的灵感来自和 。 要求 python> 3.5 火炬> = 1.1.0 火炬视觉> = 0.4.0 每晚,未来(用于张量板) nvidia-dali> = 0.12(更快的 ) Cifar-10精度 从头开始训练量化模型 模型 W_位 一点点 加速器 网路18 32 32 94.71% 网路18 4 4 94.36% 网路18 1个 4 93.87% ImageNet精度 从头开始训练量化模型 模型 W_位 一点点 前1名 前5 网路18 32 32 69.80% 89.32% 网路18 4 4 66.60% 87.15% 用法 下载ImageNet数据集并将验证图像移动到带标签的子文件夹中。为此,您可以使用以下 训练模型 python3 cifar_train_eval.py pyt
2022-01-17 17:17:57 847KB imagenet resnet quantization nvidia-dali
1
imagenet-caffe-alex.mat 用于matlab中CNN+SVM使用
2022-01-13 15:20:11 216.88MB imagenet-caffe matlab cnn svm
1
AdderNet:我们真的需要深度学习中的乘法吗? 该代码是CVPR 2020论文的演示 我们提出加法器网络(AdderNets)来交换深度神经网络(尤其是卷积神经网络(CNN))中的大规模乘法运算,以更便宜的加法运算来减少计算成本。在AdderNets中,我们将滤波器和输入要素之间的L1范数距离作为输出响应。结果,在ImageNet数据集上使用ResNet-50,建议的AdderNets可以达到74.9%的Top-1精度91.7%的Top-5精度,而无需在卷积层上进行任何乘法。 更新:培训代码在6/28中发布。 运行python main.py以在CIFAR-10上进行训练。 更新:11月27日发布了有关AdderNet的Model Zoo。 CIFAR-10和CIFAR-100数据集的分类结果。 模型 方法 CIFAR-10 CIFAR-100 VGG-小 有线电视新闻网 94.
1
ImageNet上预先训练的Keras分类模型
2021-12-29 03:31:23 39KB Python开发-机器学习
1
GhostNet的PyTorch实施 如GhostNet中所述重现GhostNet架构的由Kai Han,Yunhe Wang,祁天,郭建元,徐纯景,关于框架的ILSVRC2012基准。 预训练模型 建筑学 # 参数 MFLOPs 前1名/前5名准确性(%) 5.181百万 140.77 73.636 / 91.228 from ghostnet import ghostnet net = ghostnet () net . load_state_dict ( torch . load ( 'pretrained/ghostnet_1x-9c40f966.pth' )) 培训策略 8个GPU上的批处理大小为1024 初学率0.4 重量衰减0.00004 辍学率0.2 BN重量无衰减 我们将上述设置保持不变,并使用以下不同的训练技术进行实验,以进行消融和繁殖。 在预热阶段,学
2021-12-24 09:17:57 18.68MB pytorch imagenet pretrained-models reproduction
1
lambda.pytorch [NEW!]看看我们的最新作品在CVPR'21该桥梁卷积和自我关注运营商。 LambdaNetworks的PyTorch实现。 Lambda网络应用矩阵乘法的关联定律来逆转自我注意力的计算顺序,从而实现了有关内容交互的线性计算复杂性。 以前在和使用了类似的技术。 在另一个存储库签出一系列自我注意模块。 训练配置 ✓SGD优化器,初始学习率0.1,动量0.9,重量衰减0.0001 ✓时代130,批量大小256,8个Tesla V100 GPU,LR衰减策略余弦 ✓标签平滑0.1 训练有素的检查站 建筑学 参数 襟翼 前1名/前5名(%) 下载 Lambda-ResNet-50 14.995万 6.576克 78.208 / 93.820 | 引文 如果您发现此存储库对您的研究有用,请引用 @InProceedings { Li_2021_CVPR
2021-12-21 09:57:57 5KB pytorch imagenet attention pre-trained-model
1
ResNet-101在ImageNet数据集上的caffe预训练模型,可以用于分类和目标检测网络。
2021-12-09 16:51:52 170.4MB ResNet101 预训练模型 ImageNet 分类
1