An Overview of Distance Metric Learning (by Liu Yang),特别经典的度量学习综述论文,英文文档。
2023-06-18 22:17:04 43KB Metric Learn 度量学习 overview
1
派尔蒙 PyLMNN是用于在纯python中进行度量学习的算法的实现。 此实现紧密遵循在找到的Kilian Weinberger的原始MATLAB代码。 此版本解决了无限制的优化问题,并使用L-BFGS作为后端优化器找到了线性变换。 该软件包还可以使用出色的软件包通过贝叶斯优化找到LMNN的最佳超参数。 安装 该代码是在Ubuntu 16.04下的python 3.5中开发的,并且也在Ubuntu 18.04和python 3.6下进行了测试。 您可以使用以下命令克隆存储库: git clone https://github.com/johny-c/pylmnn.git 或通过pip安装它: pip3 install pylmnn 依存关系 numpy的> = 1.11.2 scipy> = 0.18.1 scikit_learn> = 0.18.1 可选依赖项 如果要使用超参
1
Deep adversarial metric learning for cross-modal retrieval
2023-03-01 16:18:18 1.29MB 研究论文
1
无监督距离度量学习工具包:Matlab中无监督距离度量学习工具包
2023-02-25 22:11:09 3.56MB matlab toolkits metric-learning MATLABMATLAB
1
目前,机器学习中的K近邻(KNN)分类算法和支持向量机(SVM)算法被认为是处理文本分类的最好方法。但KNN分类算法有以下的缺陷: KNN是基于近邻度量的一种模式分类算法,它高度依赖于数据间的相似度度量,简单的欧式距离在实际应用时,由于不考虑不同维度之间对分类的影响以及输入数据数据维数高的问题,往往不能取得良好的分类效果。 KNN 分类算法虽然可以一定情况下克服数据偏斜带来的分类误差,但是这也是造成它对样本密度分布敏感的主要原因,当类间密度高度分布不均时,分类效果会有较大的影响。
2022-11-16 09:20:26 2.09MB metric
1
VoxCeleb教练 该存储库包含用于培训演讲者识别模型的框架,该文章在“捍卫说话者识别的度量学习”一文中进行了描述。 依存关系 pip install -r requirements.txt 资料准备 以下脚本可用于下载和准备VoxCeleb数据集以进行培训。 python ./dataprep.py --save_path data --download --user USERNAME --password PASSWORD python ./dataprep.py --save_path data --extract python ./dataprep.py --save_path data --convert 为了使用数据扩充,还运行: python ./dataprep.py --save_path data --augment 除Python依赖项外,必须在系统上安装wg
1
Large Margin Multi-Task Metric Learning LMNN(Distance Metric Learning for Large Margin Nearest Neighbor Classification)的代码
2022-01-12 16:09:08 3.31MB matlab
1
三重态SemiHardLoss PyTorch半硬。基于可在找到的tensorflow插件版本。无需使用此实现来创建暹罗体系结构,就像创建main_train_triplet.py cnn创建过程一样简单! 对于具有N_CLASSES >> N_SAMPLES_PER_CLASS的分类问题,三元组损失是一个不错的选择。例如,人脸识别问题。 在分类层之前,我们需要切断具有三重态损失的CNN架构。另外,必须添加L2归一化层。 MNIST上的结果 我在MNIST数据集上测试了三重态损失。我们无法直接与TF插件进行比较,因为我没有进行实验,但是从性能的角度来看这可能很有趣。如果您想比较结果,这是训练日志。准确性无关紧要,因为我们不训练分类模型,所以准确性不应该存在。 阶段1 首先,我们训练最后一层和批次归一化层,使验证损失接近0.079。 阶段2 最后,解冻所有层,经过足够的训练和超参数调整
1
matlab的egde源代码FastAP:深度度量学习排名 该存储库包含以下论文的实现: *,* 、、和(*均等贡献) IEEE计算机视觉与模式识别会议(CVPR),2019年 用法 Matlab :请参阅matlab/README.md PyTorch :请参阅pytorch/README.md 数据集 斯坦福在线产品可以下载 店内衣服检索可以下载 北大车辆识别码请向作者索取数据集 重现性 我们为论文中的结果提供训练有素的模型和实验记录。 这些模型用于获得表中的结果。 日志还包括参数设置,如果需要的话,可以使他们重新训练模型。 它还包括在某些时期的带有模型检查点的评估结果。 表1:斯坦福在线产品 FastAP,ResNet-18,M = 256,Dim = 512:[,] FastAP,ResNet-50,M = 96,Dim = 128:[,] FastAP,ResNet-50,M = 96,Dim = 512:[,] FastAP,ResNet-50,M = 256,Dim = 512:[,] 表2:店内衣服 FastAP,ResNet-18,M = 256,Dim = 512:
2021-12-28 09:43:57 99KB 系统开源
1
新闻 1月12日:v0.9.96大大提高了和的灵活性。 查看 12月10日:v0.9.95包括一个新的元组采矿器 。 查看 11月6日:v0.9.94中有一些小错误修复和改进。 文献资料 Google Colab示例 请参阅 以获取可以在Google Colab上下载或运行的笔记本的 。 PyTorch公制学习概述 该库包含9个模块,每个模块都可以在您现有的代码库中独立使用,或组合在一起以形成完整的培训/测试工作流程。 损失函数如何工作 在训练循环中使用损失和矿工 让我们初始化一个简单的 : from pytorch_metric_learning import losses loss_func = losses . TripletMarginLoss () 要在训练循环中计算损失,请传递模型计算的嵌入以及相应的标签。 嵌入的大小应为(N,embedding_size),标签的大小应为(N),其中N为批处理大小。 # your training loop for i , ( data , labels ) in enumerate ( dataloader ): optimiz
1