Python UserAgent解析库——user_agents,判断如手机等访问设备 https://xercis.blog.csdn.net/article/details/108620963
2021-09-09 08:52:41 2KB Python ua user-agent useragent
1
zabbix-agent 客户端安装包
2021-08-06 15:03:38 955KB zabbix
1
This monograph introduces recent developments in formation control of distributed-agent systems. Eschewing the traditional concern with the dynamic characteristics of individual agents, the book proposes a treatment that studies the formation control problem in terms of interactions among agents including factors such as sensing topology, communication and actuation topologies, and computations.
2021-07-28 09:48:49 11.62MB Formation Contro Agents 编队飞行
1
TF-Agents:一个可靠,可扩展且易于使用的TensorFlow库,用于上下文强盗和强化学习。 使实施,部署和测试新的Bandits和RL算法更加容易。 它提供了经过测试的模块化组件,可以对其进行修改和扩展。 它具有良好的测试集成和基准测试,可实现快速代码迭代。 首先,我们建议您查阅我们的Colab教程之一。 如果您需要RL简介(或快速回顾),请。 否则,请查看我们的以使代理在Cartpole环境中启动并运行。 当前稳定版本的API文档位于。 TF-Agents正在积极开发中,接口可能随时更改。 欢迎提供反馈和意见。 目录 代理商 在TF-Agent中,RL算法的核心元素被实现为Ag
1
4000多个User-Agent,适用于Python爬虫创建浏览器代理池
2021-06-15 15:04:06 394KB python
1
项目3:合作与竞争 介绍 在这种环境下,两名特工控制球拍在球网上弹跳球。 如果探员将球击中网,则得到+0.1的奖励。 如果探员让一个球击中地面或越界将球击中,则其收益为-0.01。 因此,每个特工的目标是保持比赛中的球权。 观察空间由8个变量组成,分别对应于球和球拍的位置和速度。 每个代理都会收到自己的本地观察结果。 有两个连续的动作可用,分别对应于朝向(或远离)网络的运动和跳跃。 下图显示了最终的奖励进度。 环境在1820集中得到解决 算法: 为了解决此环境,我实现了Multi-DDPG算法。 实现的功能如下: 每个特工都有独立的演员和评论家 集中培训:每个代理的批评者不仅将自己的演员的行为和状态作为输入,而且还将所有其他代理的状态和行为作为输入。 由于在测试过程中仅使用参与者,并且参与者仅取决于相应参与者的状态,因此代理可以自由地学习自己的奖励结构。 下图[来源: :
2021-06-09 20:21:22 45.93MB reinforcement-learning robotics tennis agents
1
Unity ML-Agents工具包 ()() Unity Machine Learning Agents工具包(ML-Agents)是一个开放源代码项目,使游戏和模拟能够用作训练智能代理的环境。 我们提供最新算法的实现(基于PyTorch),使游戏开发人员和业余爱好者可以轻松地训练2D,3D和VR / AR游戏的智能代理。 研究人员还可以使用提供的易于使用的Python API通过强化学习,模仿学习,神经进化或任何其他方法来训练Agent。 这些训练有素的代理可以用于多种目的,包括控制NPC行为(在多种设置下,例如多代理和对抗),自动测试游戏版本以及评估预发布的不同游戏设计决策。 ML-Agents工具包对游戏开发人员和AI研究人员都是互惠互利的,因为它提供了一个中央平台,可以在Unity丰富的环境中评估AI的进步,然后使更广泛的研究和游戏开发者社区都可以使用。 特征 18个以上 支
2021-06-01 15:17:37 107.98MB reinforcement-learning deep-learning unity unity3d
1
为了解决车辆转向过程中防抱死制动稳定性问题,提出multi-agents协同控制方法。首先利用黑板规则,根据转向系统和各个车轮agent状态以及整车状态进行任务协同,得到使汽车转向制动稳定的期望参考值。这些值可以自适应调节。其次在车辆伺服系统中采用改进自抗扰控制方法设计汽车纵向控制器和转向控制器,使伺服控制系统有更好的鲁棒性能进行精确跟踪期望输入命令。最后用仿真结果验证所设计的鲁棒自适应控制算法的稳定性和有效性。
1
OpenCV for Secret Agents (opencv项目开发实战),用于opencv进阶的工具书。Use OpenCV in six secret projects to augment your home, car, phone, eyesight, and any photo or drawing
2021-04-30 10:27:13 17.81MB opencv 图像处理 项目开发
1
DIET Agents是Java中的轻量级,可伸缩且健壮的多代理程序平台。 它特别适合于快速开发的P2P原型应用程序和/或使用自底向上的自然启发技术的自适应分布式应用程序。
2021-04-27 13:08:20 1.04MB 开源软件
1