只为小站
首页
域名查询
文件下载
登录
DeepRL_PyTorch:用于研究的深度强化学习代码。 当前,仅存在算法代码:
DQN
,C51,QR-
DQN
,IQN和QUOTA-源码
深度强化学习代码 当前,这里只有用于分布增强学习的代码。 C51,QR-
DQN
和IQN的代码与略有。 QUOTA是基于算法作者同的工作而实现的。 我最近注意到,我的
DQN
代码可能无法获得理想的性能,而其他代码却运行良好。 如果有人可以指出我的代码中的错误,我将不胜感激。 随时进行聊天-如果您想讨论任何事情,请给我发送电子邮件。 依赖关系: pytorch(> = 1.0.0) 体育馆(= 0.10.9) 麻木 matplotlib 用法: 为了运行我的代码,您需要在主目录下创建两个子目录:./data/model/&./data/plots/。 这两个目录用于存储数据。 当计算机的python环境满足上述依赖性时,您可以运行代码。 例如,输入: python 3_ iqn . py Breakout 在命令行上运行以在Atari环境中运行算法。 您可以为代码内的算法更改一些特定参数。 训练后,您可以通过使用适当的参数运行result_show.py来绘制结果。 参考文献: 通过深度强化学习(
DQN
)进行人为控制[] [] 强化学习的分布式视角(C51)[] []
2021-10-24 22:54:36
33KB
algorithm
reinforcement-learning
algorithms
pytorch
1
强化学习入门经典论文(
DQN
相关).rar
强化学习必读论文
2021-10-23 22:42:26
13.6MB
DQN
1
强化学习源码(DP, MC, TD,
DQN
, PG, AC, A3C, DDPG).zip
包括DP, MC, TD, TD-lambda,
DQN
, PG, AC, A3C, DDPG, Dyna_Q, Bandit, AlphaGoBangZero以及部分仿真游戏源码
2021-10-14 16:17:05
32.58MB
强化学习
1
DQN
_by_keras-master.rar
用keras搭建
DQN
网络,实现走迷宫
2021-10-13 18:04:09
13KB
强化学习
迷宫
DQN
1
2018-surf-
dqn
-forex:XJTLU SURF项目-源码
金融投资组合选择和自动交易中的Q学习 Policy Gradient和Q-Learning是强化学习(机器学习的一个分支)中的技术,而后者由于在视频游戏和与人类专家进行的Game of Go比赛中的胜利而具有较高的知名度。 但是,由于问题学习中连续的行动空间,强化学习在金融投资组合管理问题上的成功应用以前大多限于“策略梯度”变体。 在这个项目中,我们将采用一种简单的离散化方案,以使问题适合于不连续的Q学习技术。 然后,将通过其在其他更成熟的方法上的性能来检验这种方法的有效性。 可能的方法 使用 使用 使用 从零开始的代码 ...
2021-10-11 17:03:40
2.08MB
Python
1
keras搭建
DQN
训练Flappybird模型.zip
keras搭建
DQN
,构建FlappyBird智能体的模型,分别训练200轮以及github上下载的292轮模型
2021-09-30 17:05:25
21.23MB
keras
1
强化学习
DQN
这本书详细介绍了强化学习的常用算法以及算法原理,从蒙特卡罗方法到Q_learning最终到
DQN
2021-09-28 19:29:44
1.51MB
强化学习
深度学习
1
machin:专为PyTorch设计的强化学习库(框架),实现了
DQN
,DDPG,A2C,PPO,SAC,MADDPG,A3C,APEX,IMPALA ..-源码
可读,可重用,可扩展 Machin是为pytorch设计的增强库。 支持的型号 任何事物,包括循环网络。 支持的算法 当前,Machin已实现以下算法,该列表仍在增长: 单代理算法: 多主体算法: 大规模并行算法: 增强功能: 支持的算法: 进化策略 基于模型的方法 特征 1.可读 与其他强化学习库(例如著名的 , 和。 Machin尝试仅提供RL算法的简单明了的实现。 Machin中的所有算法均以最小的抽象设计,并具有非常详细的文档以及各种有用的教程。 2.可重复使用 Machin采用与pytorch类似的方法,将算法和数据结构封装在自己的类中。 用户无需设置一系列data collectors , trainers , runners , samplers ...即可使用它们,只需导入即可。 模型上的唯一限制是它们的输入/输出格式,但是,这些限制很小,可以轻松地使算法适
2021-09-17 19:09:16
1.54MB
python
reinforcement-learning
deep-learning
gae
1
Reinforcement-Learning:使用Q学习,
DQN
和D
DQN
进行强化学习-源码
强化学习 深度学习:优化 创建人:Vithurshan Vijayachandran和Hisho Rajanathan RLearning_NOTEBOOK.ipynb-适用于基本(Q学习)和高级任务(
DQN
和D
DQN
)的Jupyter笔记本。 RL_Rport.pdf:报告所有研究结果和评估。 使用以下预训练模型来测试网络,因为重新训练非常耗时。
DQN
TrainingModel.h5-测试
DQN
网络所需的文件 D
DQN
TrainingModel.h5-测试D
DQN
网络所需的文件 D
DQN
PERTrainingModel.h5 =使用PER网络测试D
DQN
所需的文件
2021-09-14 10:57:27
2.5MB
JupyterNotebook
1
DQN
机器学习
通过
DQN
的模型,实现机器学习,并且进行统计。练手的DEMO。
2021-09-07 21:57:12
4KB
python
机器学习
1
个人信息
点我去登录
购买积分
下载历史
恢复订单
热门下载
人体姿态检测
基于蒙特卡洛生成电动汽车充电负荷曲线程序
校园网规划与设计(报告和pkt文件)
大唐杯资料+题库(移动通信)
得到品控手册7.0.pdf
知网情感词典(HOWNET)
基于Servlet+jsp+mysql开发javaWeb学生成绩管理系统
校园网规划与设计和pkt文件
Autojs 例子 源码 1600多个教程源码
先进PID控制Matlab仿真第4版-PDF+代码.zip
多目标优化算法(四)NSGA3的代码(python3.6)
采用K-means聚类,实现多维矩阵的聚类,并进行可视化展示(matlab)
中小型企业网络建设.pkt
Spring相关的外文文献和翻译(毕设论文必备)
stm32f103+OLED12864+FFT音乐频谱(多种显示效果 提供原理图)
最新下载
EhLib 7.0.133 Full Source for D7-XE7〖含源码和DEMO〗
考虑扁地球的覆盖区域确定:这些代码计算卫星覆盖区域的边界,假定圆锥视场和扁椭球旋转。-matlab开发
SciTE 汉化包
windows程序设计第五版-清晰版
dmx512解码程序(详细版)
某酒店供配电低压、高压、系统平面图设计
晶晨线刷固件解包打包v4.0-超级小牛哥工具
USB3.0 spec完整中文翻译版加注释
CST仿真设计理论与实践-彩pdf完整电子版+案例详解+工程应用张晓主编
S9300系列 交换机 V200R011C10SPC600 VRP软件包
其他资源
verilog编写的31条指令单周期cpu
Lego Ultrasonic.ev3b.zip
用于三维重建方面的三维点云文件 ply格式 包含多个模型
基于stm32的几种频率计的实现方法
黑马程序员 2016年 C基础讲义
某超市管理系统流程图和数据字典
mysql多维数据仓库指南+书中代码
ns-3 lte模块详细介绍文档
libsigar-amd64-linux.so和libsigar-x86-linux.so
无线传感器网络无需测距定位算法matlab源代码。包括apit,dv-hop,amorphous在内的共7个range-free算法
X-HDL 4.2.1
这样提案,设计比较容易落地
北京理工大学《物理化学》考试试卷(含答案).pdf
2016美赛特等奖论文.zip
NOIP2010提高组初赛试题答案C++.doc
比较MQ产品之RabbitMQ与Kafka.zip
cfree5.0(内含注册码,绝非破解)
通信原理课程设计任务
VB 编写 地图的运用
一个指纹识别系统的完整工程代码
Html5仿微信打飞机游戏
Ultra Edit 10
基于winform仿QQ软件
2017-2018计算机图形学A卷附(答案)
sublime 插件包 channel_v3.json