cifar10读取
2021-10-30 17:57:40 3KB cifar10-100 读取方法 python
1
Densenet-Tensorflow 的Tensorflow实施使用Cifar10,MNIST 实现本文的代码是Densenet.py 略有不同,我使用了AdamOptimizer 如果您想查看原始作者的代码或其他实现,请参考此 要求 Tensorflow 1.x Python 3.x tflearn(如果您易于使用全局平均池,则应安装tflearn However, I implemented it using tf.layers, so don ' t worry 问题 我用了tf.contrib.layers.batch_norm def Batch_Normali
1
cigar的源码。
2021-10-22 09:43:51 23KB 深度学习
1
使用 ResNet 对 Cifar10 进行学习训练,整个过程,包括数据集的处理,loss 计算,以及准确度计算,数据保存
2021-10-16 15:09:37 12KB ReNet cifar 深度学校 神经网路
1
用PyTorch训练CIFAR10 我摆弄在CIFAR10数据集。 先决条件 Python 3.6+ PyTorch 1.0+ 训练 # Start training with: python main.py # You can manually resume the training with: python main.py --resume --lr=0.01 准确性 模型 累积 92.64% 93.02% 93.62% 93.75% 94.24% 94.29% 94.43% 94.73% 94.82% 94.89% 95.04% 95.11% 95.16% 95.47%
2021-10-15 22:59:18 25KB pytorch Python
1
LNL增强 带有噪声标签的学习的增强策略代码(CVPR 2021)。 : *, *, , [ * :] 抽象的不完美的标签在现实世界的数据集中无处不在。 训练对标签噪声具有鲁棒性的训练深度神经网络(DNN)的几种最新成功方法已经使用了两种主要技术:基于在预热阶段的损失来过滤样本以整理一组干净标签的样本,以及使用网络的输出作为后续损失计算的伪标签。 在本文中,我们评估了用于解决“带有噪声标签的学习”问题的算法的不同扩充策略。 我们提出并研究了多种扩充策略,并使用基于CIFAR-10和CIFAR-100的合成数据集以及真实数据集Clothing1M对其进行了评估。 由于这些算法的几种共通性,我们发现使用一组扩充进行损失建模任务而使用另一组扩充进行学习是最有效的,可以改进最新技术和其他先前方法的结果。 此外,我们发现在预热期间应用扩增可能会对正确标记和错误标记的样本的损失收敛行为产
1
PyTorch实施抠图 用法 $ python main.py --block_type basic --depth 110 --use_cutout --cutout_size 16 --cutout_prob 1 --outdir results CIFAR-10的结果 模型 测试错误(5次运行的中位数) 训练时间 ResNet-preact-56,不带切口 5.85 98分钟 带切口的ResNet-preact-56 4.96 98分钟 没有抠图 $ python -u main.py --depth 56 --block_type basic --base_lr 0.2 --seed 7 --outdir results/wo_cutout/00 w /镂空 $ python -u main.py --depth 56 --block_type basic --bas
2021-10-04 16:17:58 488KB computer-vision pytorch cifar10 Python
1
lmdb格式的cifar10数据集,注意:此数据集不是原始格式,是已经转化为lmdb格式的数据集,主要用来进行caffe网络的训练。
2021-09-25 14:19:19 164.16MB lmdb cifar10
1
Keras实战CIFAR10.pdf
2021-09-21 11:01:43 255KB 互联网
小型深度学习网络,用于Cifar10的图像分类
2021-09-19 10:49:37 7KB Tensorflow CNN Cifar-10
1