相扑 SUMO-RL通过用于交通信号控制的提供了一个简单的界面来实例化强化学习环境。 主类继承了的 。 如果使用参数'single-agent = True'实例化,则其行为类似于来自的常规 。 负责使用 API检索信息并在交通信号灯上。 该存储库的目标: 提供一个简单的界面,以与使用SUMO的交通信号控制强化学习一起使用 支持Multiagent RL 与gym.Env和流行的RL库(例如和 易于定制:状态和奖励定义易于修改 安装 安装最新版本的SUMO: sudo add-apt-repository ppa:sumo/stable sudo apt-get update sudo apt-get install sumo sumo-tools sumo-doc 不要忘记设置SUMO_HOME变量(默认的sumo安装路径为/ usr / share / sumo) ec
2021-08-26 13:54:45 583KB reinforcement-learning gym sumo rl-algorithms
1
静脉-健身房 Veins-Gym将Veins模拟导出为Open AI Gyms。 这使得强化学习算法的应用能够解决VANET域中的问题,特别是诸如Tensorflow或PyTorch之类的流行框架。 执照 该项目根据GNU通用公共许可证2.0的条款获得许可。
2021-08-18 12:29:36 16KB simulator reinforcement-learning openai-gym sumo
1
torcs简单示例代码
2021-08-17 18:12:05 156.34MB 机器学习 TORCS
1
自动股票交易的深度强化学习:整体策略 该存储库提供了代码 的Jupiter Notebook重新实现了这种整体策略。 抽象的 股票交易策略在投资中起着至关重要的作用。 但是,在复杂而动态的股票市场中设计一种有利可图的战略是具有挑战性的。 在本文中,我们提出了一种深度集成强化学习方案,该方案可以通过最大化投资回报来自动学习股票交易策略。 我们训练一种深度强化学习代理,并使用三种基于行为者批评的算法来获得整体交易策略:近距离策略优化(PPO),优势参与者批评者(A2C)和深度确定性策略梯度(DDPG)。 集成策略继承并集成了三种算法的最佳功能,从而可以稳健地适应不同的市场条件。 为了避免在具有连续动作空间的训练网络中消耗大量内存,我们采用按需加载方法来处理非常大的数据。 我们在30支具有足够流动性的道琼斯股票上测试了我们的算法。 评估了具有不同强化学习算法的交易代理商的表现,并与道琼斯工业平均
1
司机批评家 OpenAI Gym的CarRacing-v0环境解决方案。它使用DDPG算法(深度确定性策略梯度)。 快速开始 依存关系: 健身房0.18.0 Tensorflow 2.4.0 Matplotlib 3.3.4 当前版本的CarRacing-v0存在内存错误。为了解决这个问题,我们需要从Gym GitHub手动下载最新的“ car_racing.py”脚本。 正在运行的应用程序: 执行“ main_loop.py”以训练新模型。按空格键观看进度 可以通过运行“ evaluate_loop.py”来检查最佳解决方案。 解决方案 DDPG由4个网络组成: 演员-玩游戏 评论家-评估演员 目标演员和目标评论家-产生学习目标值 参考: : 它旨在创建一个基类,它将成为每个连续动作任务的基础。通过继承基类,可以轻松实现更复杂的解决方案。 CarRacing-v0是一种计算机视
2021-06-07 16:17:47 377KB Python
1
健身房管理系统在Django中 步骤1:虚拟环境->创建并激活虚拟环境。 ->命令:pipenv shell 第2步:安装依赖项->在虚拟环境中安装所有依赖项。 ->命令:pipenv install -r requirements.txt 步骤3:数据库迁移->通过迁移将模型转换为数据库。 -> Command1:python manage.py makemigrations-> Command2:python manage.py migration 步骤4:ADMIN CREDENTIALS->创建一个管理员来管理您的管理面板。 ->命令:python manage.py createsuperuser->输入用户名和密码以创建管理员。 步骤5:服务器->在本地运行服务器以开发或查看实际的项目。 ->命令:python manage.py runserver
2021-05-14 19:03:35 2.38MB HTML
1
体育馆网站 使用HTML和CSS的简单网站模板 访问站点: :
2021-05-14 19:03:10 13.39MB html5 css3 HTML
1
OpenAIGym练习可以提高我的RL技能。 这是我与TAMU CESG一起进行的本科研究工作的一部分。 除了解决诸如CartPole和Breakout之类的具体练习之外,我还将实施Deep Q Networks,以更好地了解它们的工作方式。
2021-04-25 16:37:55 8KB Python
1
gym动态障碍码源
2021-04-21 18:02:29 41KB gym 强化学习
1
gym 6*6环境下动态避障寻宝
2021-04-21 18:02:20 15KB gym 强化学习
1