介绍了动态规划(DP), 强化学习(RL) 和 自适应动态规划(ADP).
1
强化学习对抗攻击和防御 DQN政策 战略定时攻击 统一攻击 对抗训练 该存储库为深度强化学习代理实现了一些经典的对抗攻击方法,包括( drl_attacks/ ): 统一攻击[]。 战略定时攻击[]。 临界点攻击[]。 关键策略攻击。 对抗性政策攻击[]。 也可以使用以下RL防御方法( drl_defenses/ ): 对抗训练[]。 还提供了一些图像防御方法( img_defenses/ ): JPEG转换[]。 位压缩[ ]。 图像平滑[]。 该项目大部分基于基于的RL框架守。 图片敌对攻击和防御都与实施 ,也是基于Pytorch。 相反,A2C和PPO策略基于pytorch-a2c-ppo-acktr-gail ,DQN使用了天守实现。 任何图像对抗攻击都与此项目兼容。 可用型号 它还可以在文件夹log找到适用于不同任务的训练有素的模型。 下表报告了三种
1
自我监督预测的好奇心驱动探索 在ICML 2017中 , , ,加州大学伯克利分校 这是我们基于ICLS 基于张量流的实现,该。 当来自环境的外部奖励稀疏时,想法是用内在的基于好奇心的动机(ICM)来培训代理商。 令人惊讶的是,即使环境中没有可用的奖励,您也可以使用ICM,在这种情况下,代理仅出于好奇而学会探索:“没有奖励的RL”。 如果您发现这项工作对您的研究有用,请引用: @inproceedings{pathakICMl17curiosity, Author = {Pathak, Deepak and Agrawal, Pulkit and Ef
2022-05-30 14:48:41 2.04MB mario deep-neural-networks deep-learning tensorflow
1
安装 首先在requirements.txt安装需求,然后运行pip install -e .
2022-05-20 11:20:21 932KB JupyterNotebook
1
此函数生成分数阶的根轨迹 (RL) 图传递函数(对于 LTI 系统)。 第一个图是 RL 上的s 平面,第二个图是 s 平面第 1 个黎曼表上的 RL 输入是分子和分母多项式系数, 和基本阶 lambda(即的最小公分母) 分子和分母的所有分数阶数)。 输出返回图形包。 例如对于下面的传递函数: 1.2s^{1.3}+1 1.2s^{13/10}+1 G(s)= ----------------------------- = --------------- ------------------- 0.8s^{2.6}+s^{1.3}+1 0.8s^{26/10}+s^{13/10}+1 拉姆达 = 10; num = [1.2 零 (1,12) 1]; den = [0.8, zeros(1,12), 0.6, zeros(1, 12), 1]; 调用函数的语法是:[fh1, fh2] =
2022-05-10 19:04:28 3KB matlab
1
基于李宏毅课程总结
2022-05-06 10:35:16 599KB PPO RL 强化学习
1
基于李宏毅的课程
2022-05-06 10:33:19 1.05MB PPO RL
1
cadrl_ros(使用Deep RL避免冲突) 用Deep RL训练的动态避障算法的ROS实现 纸: M.Everett,Y.Chen和JP How,《具有深度强化学习的动态决策代理之间的运动计划》,IEEE / RSJ国际智能机器人和系统会议(IROS),2018年 论文: : 视频: : Bibtex: @inproceedings{Everett18_IROS, address = {Madrid, Spain}, author = {Everett, Michael and Chen, Yu Fan and How, Jonathan P.}, bookti
1
RL-ARM是Keil MDK自带的Real-Time Library,其中包括RTX 内核(Real-Time eXecutive,实时操作系统)、RL-FlashFS(文件系统)、RL-TCPnet(TCP/IP协议栈)、RL-CAN(CAN总线函数库)和RL-USB(USB总线函数库)。还有一个中文的说明文档。
2022-05-04 10:44:00 11.57MB stm32 RL_ARM
1
基于多智能体的深度强化学习RL的优化OBSS干扰的matlab仿真,matlab2021a测试,深度强化学习训练过程仿真较长。