Rex:一个开源的四足机器人 该项目的目标是训练一个开源3D打印四足机器人,探索Reinforcement Learning和OpenAI Gym 。 目的是让机器人学习模拟中的家务和一般任务,然后在不进行任何其他手动调整的情况下,在真实机器人上成功地传递知识( Control Policies )。 该项目的主要灵感来自波士顿动力公司所做的令人难以置信的工作。 相关资料库 一个CLI应用程序,用于引导和控制Rex运行经过训练的Control Policies 。 cloud-用于在云上训练Rex的CLI应用程序。 Rex-Gym:OpenAI Gym环境和工具 该存储库包含用于训练Rex的OpenAI Gym Environments集合,Rex URDF模型,学习代理实现(PPO)和一些脚本,以开始训练课程并可视化学习到的Control Polices 。 此CLI应用程序允许批量培训,策略重现和单个培训呈现的会话。 安装 创建一个Python 3.7虚拟环境,例如使用Anaconda conda create -n rex python=3.7 anaconda cond
2023-01-14 16:48:56 117.44MB machine-learning reinforcement-learning robot robotics
1
个基于OpenAi ChatGPT + WeChaty 实现的微信机器人.zip
2022-12-14 19:18:52 55KB WeChaty
健身房 训练USV导航的环境。 安装 cd gym-usv pip install -e . 关于:A. Gonzalez-Garcia和H.Castañeda,“无人水面车辆的建模,识别和控制”,AUVSI XPONENTIAL 2019:万物无人,2019。 上的路径跟踪控制:A.冈萨雷斯-加西亚,H卡斯塔涅达和L.加里多,“USV路径跟踪基于控制的深强化学习和自适应控制,”全球海洋2020,2020。
2022-12-07 19:02:41 39KB Python
1
复制 该存储库用于共享预训练的模型并从给定的文本生成图像。 所有模型均由 + 进行训练,并具有不同的训练代码和BPE模型。 如果您想训练DALLE,请转到并支持他们重现更好的DALLE模型 :airplane: 笔记本包括 文字到图像的生成 预先训练的CLIP重新排名 根据给定的裁剪图像生成其余图像 用法 安装要求 $ pip install -r requirements 安装DeepSpeed 请按照的说明安装DeepSpeed 楷模 在下面下载模型并将其保存在预先训练的文件夹中 查看型号细节 数据集 下载 密码 细节 古巴200 v9ge 古巴200 47w1
2022-12-07 01:55:55 14.25MB JupyterNotebook
1
Stable Baselines官方文档中文版 起这个名字有点膨胀了。 网上没找到关于Stable Baselines使用方法的中文介绍,故翻译部分。非专业出身,如有错误,请指正。 官方文档中文版汇总: 注释 @@@后的内容是自己加的注释 --------------------------------------------------------以下为翻译正文------------------------------------------------------------ 是一组基于OpenAI 的改进版强化学习(RL: Reinforcement Learning)实现。 Github网址: RL Baselines Zoo(预训练agents集合): RL Baselines zoo也提供一个简单界面,用于训练、评估agents以及超参数微调。 你可以在Medium上查
2022-11-15 15:55:44 5.04MB chinese zh openai-baselines stable-baselines
1
健身搏击 使用OpenAI环境工具包的战舰环境。 基本 制作并初始化环境: import gym import gym_battleship env = gym.make('battleship-v0') env.reset() 获取动作空间和观察空间: ACTION_SPACE = env.action_space.n OBSERVATION_SPACE = env.observation_space.shape[0] 运行一个随机代理: for i in range(10): env.step(env.action_space.sample()) 观察隐藏的游戏状态: print(env.board_generated) 有效动作 有两种输入动作的方法。 第一种方法是按原样输入元组: env = gym.make('battleship-v0') env.reset(
1
2048健身房 该存储库是一个有关使用DQN(Q-Learning)玩2048游戏并使用加速和加速环境的。使用的算法来自“ ,环境是自定义的 env。该环境包含两种类型的电路板表示形式:二进制和无二进制。第一个使用幂二矩阵来表示电路板的每个图块。相反,没有二进制文件使用原始矩阵板。 该模型使用两种不同类型的神经网络:CNN(卷积神经网络),MLP(多层感知器)。使用CNN作为特征提取器比使用MLP更好。可能是因为CNN可以提取空间特征。结果,代理在1000个已玩游戏的10%中获得2048个图块。 奥图纳 Optuna是一个自动超参数优化软件框架,专门为机器学习而设计。它具有命令式,按运行定义样式的用户API。多亏了我们的运行定义API,用Optuna编写的代码具有高度的模块化,并且Optuna的用户可以动态构造超参数的搜索空间。 还有就是如何使用这个库指南。 Numba 是一种开源JI
1
CA周记 - 带你进⼊ OpenAI 的世界.doc
2022-07-10 14:06:17 1.54MB 技术资料
人工智能工具包 OpenAI.7z
2022-07-06 15:04:24 913KB 人工智能
ddpg-aigym 深度确定性策略梯度 Tensorflow中深度确定性策略梯度算法的实现(Lillicrap等人 。) 如何使用 git clone https://github.com/stevenpjg/ddpg-aigym.git cd ddpg-aigym python main.py 培训期间 一旦训练 学习曲线 InvertedPendulum-v1环境的学习曲线。 依存关系 Tensorflow(在tensorflow版本0.11.0rc0 ) OpenAi体育馆 Mujoco 产品特点 批量归一化(提高学习速度) 梯度转换器(在arXiv中提供: ) 注意 使用不同
1