快捷方式

HardUpdate

torchrl.objectives.HardUpdate(loss_module: Union['DQNLoss', 'DDPGLoss', 'SACLoss', 'TD3Loss'], *, value_network_update_interval: float = 1000)[源码]

一个硬更新类,用于 Double DQN/DDPG 中的目标网络更新(与软更新相对)。

这在原始的 Double DQN 论文中提出:“Deep Reinforcement Learning with Double Q-learning”,https://arxiv.org/abs/1509.06461。

参数:

loss_module (DQNLossDDPGLoss) – 需要更新目标网络的损失模块。

关键字参数:

value_network_update_interval (标量) – 目标网络应多久更新一次。默认值: 1000


© 版权所有 2022, Meta。

使用 Sphinx 构建,主题由 Read the Docs 提供。

文档

获取 PyTorch 的全面开发者文档

查看文档

教程

获取针对初学者和高级开发者的深度教程

查看教程

资源

查找开发资源并获得问题解答

查看资源