Human-in-the-Loop Machine Learning lays out methods for humans and machines to work together effectively. Summary Most machine learning systems that are deployed in the world today learn from human feedback. However, most machine learning courses focus almost exclusively on the algorithms, not the human-computer interaction part of the systems. This can leave a big knowledge gap for data scientists working in real-world machine learning, where data scientists spend more time on data management than on building algorithms. Human-in-the-Loop Machine Learning is a practical guide to optimizing the entire machine learning process, including techniques for annotation, active learning, transfer learning, and using machine learning to optimize every step of the process. Purchase of the print book includes a free eBook in PDF, Kindle, and ePub formats from Manning Publications. About the technology Machine learning applications perform better with human feedback. Keeping the right people in the loop improves the accuracy of models, reduces errors in data, lowers costs, and helps you ship models faster. About the book Human-in-the-Loop Machine Learning lays out methods for humans and machines to work together effectively. You'll find best practices on selecting sample data for human feedback, quality control for human annotations, and designing annotation interfaces. You'll learn to create training data for labeling, object detection, and semantic segmentation, sequence labeling, and more. The book starts with the basics and progresses to advanced techniques like transfer learning and self-supervision within annotation workflows. What's inside Identifying the right training and evaluation data Finding and managing people to annotate data Selecting annotation quality control strategies Designing interfaces to improve accuracy and efficiency About the author Robert (Munro) Monarch is a data scientist and engineer who has built machine learning data for companies such as
2021-09-23 18:06:11 21.96MB 主动学习 人在回路
1
学习机器人阻抗控制的一本不错的书籍,里面详细介绍了阻抗控制的概念以及具体的例子
2021-09-18 15:56:29 6.56MB Impedance robot Impedance Co
1
该脚本将 UCI(加州大学欧文分校)使用智能手机数据集的人类活动识别作为输入。 这是一组对 30 名受试者进行的一组实验,他们在佩戴智能手机的情况下进行六项活动(步行、爬星、步行、坐下和站立)。 实验测量(总共 561 个)涉及从手机记录的加速度计和陀螺仪数据。 该脚本输出一个文本表,总结每个主题和每个活动的这些测量值。 使用了两个原始数据集: 惯性数据集,包括三轴加速度和角速度时间序列,以 50 Hz 的速率采样。 这些是在每次活动期间为每个受试者获得的。 它们被用来生产以下产品: 一个包含 561 个元素的运动“特征”向量,即在时域和频域的间隙数据集上计算的变量。 数据集分为“训练”和“测试”集。 下载并解压缩数据集后(脚本运行必不可少),可以在以下目录中找到这些原始数据集: intertial datasets: test/Inertial Signals, train/In
2021-09-17 16:46:49 4KB R
1
人体跌倒检测与追踪 使用Tiny-YOLO oneclass检测帧中的每个人,并使用获取骨骼姿势,然后使用模型从每个人跟踪的每30帧中预测动作。 现在支持7种动作:站立,行走,坐着,躺下,站起来,坐下,跌倒。 先决条件 Python> 3.6 火炬> 1.3.1 原始测试运行在:i7-8750H CPU @ 2.20GHz x12,GeForce RTX 2070 8GB,CUDA 10.2 数据 该项目已经训练了一个新的Tiny-YOLO oneclass模型,以仅检测人的物体并减小模型的大小。 使用旋转增强的人员关键点数据集进行训练,以在各种角度姿势中更可靠地检测人员。 对于动作识别,使用来自跌倒检测数据集(,家庭)的数据,通过AlphaPose提取骨骼姿势,并手动标记每个动作帧,以训练ST-GCN模型。 预训练模型 Tiny-YOLO oneclass- , SPPE
2021-09-10 13:12:59 27.72MB pytorch sort pose-estimation st-gcn
1
手肘法matlab源码快速人体姿势估计CVPR2019 介绍 这是的官方pytorch实现。 在这项工作中,我们专注于两个问题 如何使用与模型无关的方法来减小模型大小和计算。 如何提高简化模型的性能。 在我们的论文中 我们通过减少网络的宽度和深度来减少模型的大小和计算量。 提出快速姿势精馏( FPD )以改善简化模型的性能。 MPII数据集上的结果证明了我们方法的有效性。 我们使用HRNet代码库重新实现了FPD,并在COCO数据集上提供了额外的评估。 我们的方法(FPD)可以在没有地面标签的情况下工作,并且可以利用未标记的图像。 对于MPII数据集 我们首先训练了一个教师模型(沙漏模型,堆栈= 8,num_features = 256,90.520 @ MPII PCKh@0.5)和一个学生模型(沙漏模型,堆栈= 4,num_features = 128,89.040 @ MPII PCKh@0.5)。 然后,我们使用教师模型的预测和真实标签来共同监督学生模型(沙漏模型,堆栈= 4,num_features = 128,87.934 @ MPII PCKh@0.5)。 我们的实验显示
2021-09-10 09:29:16 378KB 系统开源
1
在PyTorch中使用HigherHRNet进行多人人体姿势估计 这是《 》论文的非官方实现。 该代码是的简化版本,同时考虑了易用性。 该代码与完全兼容。 它同时支持Windows和Linux。 该存储库当前提供: 在PyTorch(> = 1.0)中稍高一点的HigherHRNet实现-与官方权重( pose_higher_hrnet_* )兼容。 一个简单的类( SimpleHigherHRNet )加载HigherHRNet网络以进行自下而上的人体姿势估计,加载预先训练的权重,并对单个图像或一批图像进行人工预测。 支持多GPU推理。 通过设计实现多人支持(HigherHRNet是一种自下而上的方法)。 运行实时演示程序的参考代码,该演示程序从网络摄像头或视频文件中读取帧。 该存储库是根据存储库。 不幸的是,与HRNet相比,HigherHRNet的结果和性能有些令人失
1
delmia simulation 详细过程 详细仿真过程,有实例
2021-09-02 12:53:37 3.25MB delmia simulation 详细过程
1
真棒人类活动识别 1.数据集 机会[ ] PAMAP2 [ ] 2.带代码的文件 2020年 潜在的独立激励,用于基于传感器的通用跨人活动识别[论文] []( AAAI 2021 ) 通过自适应时空转移学习进行跨数据集活动识别[] [代码]( IMWUT / ubicomp ) MARS:具有多域深度学习模型的用于人类活动识别的虚拟和真实可穿戴混合传感器[] [code]( arXiv ) 从可穿戴设备向人类活动的深度聚集[] [代码]( ISWC / ubicomp ) [UDA4HAR]进行无监督的领域自适应以进行鲁棒的人类活动识别的系统研究[] [代码]( IMWUT / ubicomp ) 用于活动识别的对抗性多视图网络[] [代码]( IMWUT / ubicomp ) 使用可穿戴设备进行人类活动分析的弱监督多任务表示学习[] [代码]( IMWUT / ubico
2021-08-27 16:47:34 5KB
1