注意
跳转至结尾 下载完整的示例代码。
使用 TorchRL 的强化学习 (PPO) 教程¶
作者: Vincent Moens
本教程演示了如何使用 PyTorch 和 torchrl
训练参数化策略网络,以解决来自 OpenAI-Gym/Farama-Gymnasium 控制库 的倒立摆任务。

倒立摆¶
主要学习内容
如何在 TorchRL 中创建环境,转换其输出,并从此环境中收集数据;
如何使用
TensorDict
使您的类相互通信;使用 TorchRL 构建训练循环的基础知识
如何计算策略梯度方法的优势信号;
如何使用概率神经网络创建随机策略;
如何创建动态回放缓冲区并从中进行无重复采样。
我们将介绍 TorchRL 的六个关键组件
如果您在 Google Colab 中运行此教程,请确保安装以下依赖项
!pip3 install torchrl
!pip3 install gym[mujoco]
!pip3 install tqdm
近端策略优化 (PPO) 是一种策略梯度算法,其中收集一批数据并直接使用以训练策略,从而最大化给定某些邻近约束的预期回报。您可以将其视为 REINFORCE 的复杂版本,REINFORCE 是基础的策略优化算法。有关更多信息,请参阅 近端策略优化算法 论文。
PPO 通常被认为是用于在线、在策略强化算法的快速有效方法。TorchRL 提供了一个损失模块,它可以为您完成所有工作,因此您可以依赖此实现,专注于解决您的问题,而不是每次想要训练策略时都重新发明轮子。
为了完整性,这里简要概述一下损失函数的计算方式,即使这由我们的 ClipPPOLoss
模块处理——该算法的工作原理如下:1. 我们将通过在环境中运行策略给定步数来采样一批数据。2. 然后,我们将使用 REINFORCE 损失的裁剪版本对该批次的随机子样本执行给定数量的优化步骤。3. 裁剪将对我们的损失设置悲观的界限:较低的回报估计将比更高的回报估计更受青睐。损失的精确公式是
该损失函数中有两个组成部分:在最小运算符的第一部分中,我们仅计算 REINFORCE 损失的重要性加权版本(例如,我们已纠正的 REINFORCE 损失,以考虑到当前策略配置落后于用于数据收集的策略配置)。最小运算符的第二部分是类似的损失函数,其中我们裁剪了比率,使其不超过或低于给定的一对阈值。
此损失函数确保无论优势是正还是负,都会阻止产生与先前配置显着偏差的策略更新。
本教程的结构如下
首先,我们将定义一组将在训练中使用的超参数。
接下来,我们将重点介绍如何使用 TorchRL 的包装器和变换创建我们的环境或模拟器。
接下来,我们将设计策略网络和价值模型,这对于损失函数是必不可少的。这些模块将用于配置我们的损失模块。
接下来,我们将创建回放缓冲区和数据加载器。
最后,我们将运行我们的训练循环并分析结果。
在本教程中,我们将一直使用 tensordict
库。TensorDict
是 TorchRL 的通用语言:它帮助我们抽象模块的读取和写入内容,并减少对特定数据描述的关注,而更多地关注算法本身。
from collections import defaultdict
import matplotlib.pyplot as plt
import torch
from tensordict.nn import TensorDictModule
from tensordict.nn.distributions import NormalParamExtractor
from torch import nn
from torchrl.collectors import SyncDataCollector
from torchrl.data.replay_buffers import ReplayBuffer
from torchrl.data.replay_buffers.samplers import SamplerWithoutReplacement
from torchrl.data.replay_buffers.storages import LazyTensorStorage
from torchrl.envs import (
Compose,
DoubleToFloat,
ObservationNorm,
StepCounter,
TransformedEnv,
)
from torchrl.envs.libs.gym import GymEnv
from torchrl.envs.utils import check_env_specs, ExplorationType, set_exploration_type
from torchrl.modules import ProbabilisticActor, TanhNormal, ValueOperator
from torchrl.objectives import ClipPPOLoss
from torchrl.objectives.value import GAE
from tqdm import tqdm
定义超参数¶
我们为我们的算法设置超参数。根据可用资源,可以选择在 GPU 或另一设备上执行策略。frame_skip
将控制单个动作被执行的帧数。其余计算帧数的参数必须为此值进行校正(因为一个环境步骤实际上将返回 frame_skip
帧)。
is_fork = multiprocessing.get_start_method() == "fork"
device = (
torch.device(0)
if torch.cuda.is_available() and not is_fork
else torch.device("cpu")
)
num_cells = 256 # number of cells in each layer i.e. output dim.
lr = 3e-4
max_grad_norm = 1.0
数据收集参数¶
在收集数据时,我们将能够通过定义 frames_per_batch
参数来选择每个批次的大小。我们还将定义我们将允许自己使用的帧数(例如与模拟器的交互次数)。一般来说,RL 算法的目标是在环境交互方面尽快学会解决任务:total_frames
越低越好。
frames_per_batch = 1000
# For a complete training, bring the number of frames up to 1M
total_frames = 10_000
PPO 参数¶
在每次数据收集(或批次收集)时,我们将在一个训练循环中对一定数量的epochs运行优化,每次消耗我们刚刚获得的全部数据。在这里,sub_batch_size
与上面的 frames_per_batch
不同:回想一下,我们正在处理来自我们的收集器的“数据批次”,其大小由 frames_per_batch
定义,并且我们将在内部训练循环中进一步拆分为更小的子批次。这些子批次的大小由 sub_batch_size
控制。
sub_batch_size = 64 # cardinality of the sub-samples gathered from the current data in the inner loop
num_epochs = 10 # optimization steps per batch of data collected
clip_epsilon = (
0.2 # clip value for PPO loss: see the equation in the intro for more context.
)
gamma = 0.99
lmbda = 0.95
entropy_eps = 1e-4
定义环境¶
在 RL 中,环境通常是我们指代模拟器或控制系统的方式。各种库为强化学习提供模拟环境,包括 Gymnasium(以前的 OpenAI Gym)、DeepMind 控制套件和许多其他库。作为一个通用库,TorchRL 的目标是为大量的 RL 模拟器提供可互换的接口,使您可以轻松地将一个环境与另一个环境交换。例如,使用几个字符即可创建包装的 gym 环境
在此代码中,有几件事需要注意:首先,我们通过调用 GymEnv
包装器创建了环境。如果传递了额外的关键字参数,它们将被传输到 gym.make
方法,因此涵盖了最常见的环境构造命令。或者,也可以直接使用 gym.make(env_name, **kwargs)
创建 gym 环境,并将其包装在 GymWrapper 类中。
还有 device
参数:对于 gym,这仅控制输入动作和观察到的状态将存储在哪个设备上,但执行将始终在 CPU 上完成。其原因很简单,除非另有说明,否则 gym 不支持设备上执行。对于其他库,我们可以控制执行设备,并且在力所能及的范围内,我们尝试在存储和执行后端方面保持一致。
变换¶
我们将向我们的环境附加一些变换,以准备策略的数据。在 Gym 中,这通常通过包装器实现。TorchRL 采用了一种不同的方法,更类似于其他 pytorch 领域库,即使用变换。要向环境添加变换,只需将其包装在 TransformedEnv
实例中,并将变换序列附加到其中。变换后的环境将继承包装环境的设备和元数据,并根据其包含的变换序列来变换这些数据。
归一化¶
要编码的第一个是归一化变换。根据经验,最好让数据大致匹配单位高斯分布:为了获得这一点,我们将在环境中运行一定数量的随机步骤,并计算这些观察结果的汇总统计信息。
我们将附加另外两个变换:DoubleToFloat
变换将双精度条目转换为单精度数字,以便策略读取。StepCounter
变换将用于计算环境终止之前的步骤数。我们将使用此度量作为性能的补充度量。
正如我们稍后将看到的,TorchRL 的许多类都依赖于 TensorDict
进行通信。您可以将其视为具有一些额外张量功能的 python 字典。在实践中,这意味着我们将要使用的许多模块都需要被告知在它们将接收到的 tensordict
中读取哪个键 (in_keys
) 和写入哪个键 (out_keys
)。通常,如果省略 out_keys
,则假定 in_keys
条目将就地更新。对于我们的变换,我们唯一感兴趣的条目被称为 "observation"
,并且我们的变换层将被告知仅修改此条目
env = TransformedEnv(
base_env,
Compose(
# normalize observations
ObservationNorm(in_keys=["observation"]),
DoubleToFloat(),
StepCounter(),
),
)
您可能已经注意到,我们创建了一个归一化层,但我们没有设置其归一化参数。为此,ObservationNorm
可以自动收集我们环境的汇总统计信息
env.transform[0].init_stats(num_iter=1000, reduce_dim=0, cat_dim=0)
ObservationNorm
变换现在已填充了将用于归一化数据的位置和比例。
让我们对汇总统计信息的形状进行一些健全性检查
print("normalization constant shape:", env.transform[0].loc.shape)
normalization constant shape: torch.Size([11])
环境不仅由其模拟器和变换定义,还由一系列元数据定义,这些元数据描述了在执行过程中可以预期的内容。出于效率目的,TorchRL 在环境规范方面非常严格,但您可以轻松检查您的环境规范是否足够。在我们的示例中,继承自它的 GymWrapper
和 GymEnv
已经负责为您设置适当的环境规范,因此您不必担心这一点。
然而,让我们通过查看其规范来查看使用我们变换后的环境的具体示例。有三个规范需要查看:observation_spec
,它定义了在环境中执行动作时可以预期的内容,reward_spec
,它指示奖励域,最后是 input_spec
(其中包含 action_spec
),它表示环境执行单个步骤所需的一切。
print("observation_spec:", env.observation_spec)
print("reward_spec:", env.reward_spec)
print("input_spec:", env.input_spec)
print("action_spec (as defined by input_spec):", env.action_spec)
observation_spec: Composite(
observation: UnboundedContinuous(
shape=torch.Size([11]),
space=ContinuousBox(
low=Tensor(shape=torch.Size([11]), device=cpu, dtype=torch.float32, contiguous=True),
high=Tensor(shape=torch.Size([11]), device=cpu, dtype=torch.float32, contiguous=True)),
device=cpu,
dtype=torch.float32,
domain=continuous),
step_count: BoundedDiscrete(
shape=torch.Size([1]),
space=ContinuousBox(
low=Tensor(shape=torch.Size([1]), device=cpu, dtype=torch.int64, contiguous=True),
high=Tensor(shape=torch.Size([1]), device=cpu, dtype=torch.int64, contiguous=True)),
device=cpu,
dtype=torch.int64,
domain=discrete),
device=cpu,
shape=torch.Size([]))
reward_spec: UnboundedContinuous(
shape=torch.Size([1]),
space=ContinuousBox(
low=Tensor(shape=torch.Size([1]), device=cpu, dtype=torch.float32, contiguous=True),
high=Tensor(shape=torch.Size([1]), device=cpu, dtype=torch.float32, contiguous=True)),
device=cpu,
dtype=torch.float32,
domain=continuous)
input_spec: Composite(
full_state_spec: Composite(
step_count: BoundedDiscrete(
shape=torch.Size([1]),
space=ContinuousBox(
low=Tensor(shape=torch.Size([1]), device=cpu, dtype=torch.int64, contiguous=True),
high=Tensor(shape=torch.Size([1]), device=cpu, dtype=torch.int64, contiguous=True)),
device=cpu,
dtype=torch.int64,
domain=discrete),
device=cpu,
shape=torch.Size([])),
full_action_spec: Composite(
action: BoundedContinuous(
shape=torch.Size([1]),
space=ContinuousBox(
low=Tensor(shape=torch.Size([1]), device=cpu, dtype=torch.float32, contiguous=True),
high=Tensor(shape=torch.Size([1]), device=cpu, dtype=torch.float32, contiguous=True)),
device=cpu,
dtype=torch.float32,
domain=continuous),
device=cpu,
shape=torch.Size([])),
device=cpu,
shape=torch.Size([]))
action_spec (as defined by input_spec): BoundedContinuous(
shape=torch.Size([1]),
space=ContinuousBox(
low=Tensor(shape=torch.Size([1]), device=cpu, dtype=torch.float32, contiguous=True),
high=Tensor(shape=torch.Size([1]), device=cpu, dtype=torch.float32, contiguous=True)),
device=cpu,
dtype=torch.float32,
domain=continuous)
check_env_specs()
函数运行一个小的 rollout,并将其输出与环境规范进行比较。如果未引发错误,我们可以确信规范已正确定义
check_env_specs(env)
为了好玩,让我们看看一个简单的随机 rollout 是什么样子的。您可以调用 env.rollout(n_steps) 并了解环境输入和输出的样子。动作将自动从动作规范域中绘制,因此您无需担心设计随机采样器。
通常,在每个步骤中,RL 环境接收一个动作作为输入,并输出一个观察结果、一个奖励和一个完成状态。观察结果可能是复合的,这意味着它可能由多个张量组成。对于 TorchRL 来说,这不是问题,因为整个观察结果集都会自动打包在输出 TensorDict
中。在给定步数上执行 rollout(例如,一系列环境步骤和随机动作生成)后,我们将检索一个 TensorDict
实例,其形状与此轨迹长度匹配
rollout = env.rollout(3)
print("rollout of three steps:", rollout)
print("Shape of the rollout TensorDict:", rollout.batch_size)
rollout of three steps: TensorDict(
fields={
action: Tensor(shape=torch.Size([3, 1]), device=cpu, dtype=torch.float32, is_shared=False),
done: Tensor(shape=torch.Size([3, 1]), device=cpu, dtype=torch.bool, is_shared=False),
next: TensorDict(
fields={
done: Tensor(shape=torch.Size([3, 1]), device=cpu, dtype=torch.bool, is_shared=False),
observation: Tensor(shape=torch.Size([3, 11]), device=cpu, dtype=torch.float32, is_shared=False),
reward: Tensor(shape=torch.Size([3, 1]), device=cpu, dtype=torch.float32, is_shared=False),
step_count: Tensor(shape=torch.Size([3, 1]), device=cpu, dtype=torch.int64, is_shared=False),
terminated: Tensor(shape=torch.Size([3, 1]), device=cpu, dtype=torch.bool, is_shared=False),
truncated: Tensor(shape=torch.Size([3, 1]), device=cpu, dtype=torch.bool, is_shared=False)},
batch_size=torch.Size([3]),
device=cpu,
is_shared=False),
observation: Tensor(shape=torch.Size([3, 11]), device=cpu, dtype=torch.float32, is_shared=False),
step_count: Tensor(shape=torch.Size([3, 1]), device=cpu, dtype=torch.int64, is_shared=False),
terminated: Tensor(shape=torch.Size([3, 1]), device=cpu, dtype=torch.bool, is_shared=False),
truncated: Tensor(shape=torch.Size([3, 1]), device=cpu, dtype=torch.bool, is_shared=False)},
batch_size=torch.Size([3]),
device=cpu,
is_shared=False)
Shape of the rollout TensorDict: torch.Size([3])
我们的 rollout 数据的形状为 torch.Size([3])
,这与我们运行它的步数相匹配。"next"
条目指向当前步骤之后的数据。在大多数情况下,时间 t 的 "next"
数据与时间 t+1
的数据匹配,但如果我们使用某些特定的变换(例如,多步),则可能并非如此。
策略¶
PPO 利用随机策略来处理探索。这意味着我们的神经网络将必须输出分布的参数,而不是对应于所采取动作的单个值。
由于数据是连续的,我们使用 Tanh-Normal 分布来尊重动作空间边界。TorchRL 提供了这样的分布,我们唯一需要关心的是构建一个神经网络,该网络输出策略工作所需的正确参数数量(位置或均值和比例)
这里带来的唯一额外困难是将我们的输出分成两个相等的部分,并将第二个部分映射到严格为正的空间。
我们分三个步骤设计策略
定义一个神经网络
D_obs
->2 * D_action
。实际上,我们的loc
(mu) 和scale
(sigma) 都具有维度D_action
。附加一个
NormalParamExtractor
以提取位置和比例(例如,将输入分成两个相等的部分,并将正变换应用于比例参数)。创建一个概率
TensorDictModule
,它可以生成此分布并从中采样。
actor_net = nn.Sequential(
nn.LazyLinear(num_cells, device=device),
nn.Tanh(),
nn.LazyLinear(num_cells, device=device),
nn.Tanh(),
nn.LazyLinear(num_cells, device=device),
nn.Tanh(),
nn.LazyLinear(2 * env.action_spec.shape[-1], device=device),
NormalParamExtractor(),
)
为了使策略能够通过 tensordict
数据载体与环境“对话”,我们将 nn.Module
包装在 TensorDictModule
中。此类将简单地读取它提供的 in_keys
,并将输出就地写入注册的 out_keys
。
policy_module = TensorDictModule(
actor_net, in_keys=["observation"], out_keys=["loc", "scale"]
)
我们现在需要根据正态分布的位置和比例构建分布。为此,我们指示 ProbabilisticActor
类根据位置和比例参数构建 TanhNormal
。我们还提供了此分布的最小值和最大值,我们从环境规范中收集这些值。
in_keys
的名称(以及因此上面 TensorDictModule
的 out_keys
的名称)不能设置为任何人可能喜欢的值,因为 TanhNormal
分布构造函数将期望 loc
和 scale
关键字参数。话虽如此,ProbabilisticActor
也接受 Dict[str, str]
类型的 in_keys
,其中键值对指示每个要使用的关键字参数应使用哪个 in_key
字符串。
policy_module = ProbabilisticActor(
module=policy_module,
spec=env.action_spec,
in_keys=["loc", "scale"],
distribution_class=TanhNormal,
distribution_kwargs={
"low": env.action_spec.space.low,
"high": env.action_spec.space.high,
},
return_log_prob=True,
# we'll need the log-prob for the numerator of the importance weights
)
价值网络¶
价值网络是 PPO 算法的关键组成部分,即使它在推理时不会使用。此模块将读取观察结果并返回对以下轨迹的贴现回报的估计。这使我们能够通过依赖于在训练期间动态学习的一些效用估计来分摊学习成本。我们的价值网络与策略共享相同的结构,但为简单起见,我们为其分配了自己的参数集。
value_net = nn.Sequential(
nn.LazyLinear(num_cells, device=device),
nn.Tanh(),
nn.LazyLinear(num_cells, device=device),
nn.Tanh(),
nn.LazyLinear(num_cells, device=device),
nn.Tanh(),
nn.LazyLinear(1, device=device),
)
value_module = ValueOperator(
module=value_net,
in_keys=["observation"],
)
让我们尝试我们的策略和价值模块。正如我们之前所说,TensorDictModule
的使用使得可以直接读取环境的输出以运行这些模块,因为它们知道要读取哪些信息以及在哪里写入信息
print("Running policy:", policy_module(env.reset()))
print("Running value:", value_module(env.reset()))
Running policy: TensorDict(
fields={
action: Tensor(shape=torch.Size([1]), device=cpu, dtype=torch.float32, is_shared=False),
done: Tensor(shape=torch.Size([1]), device=cpu, dtype=torch.bool, is_shared=False),
loc: Tensor(shape=torch.Size([1]), device=cpu, dtype=torch.float32, is_shared=False),
observation: Tensor(shape=torch.Size([11]), device=cpu, dtype=torch.float32, is_shared=False),
sample_log_prob: Tensor(shape=torch.Size([]), device=cpu, dtype=torch.float32, is_shared=False),
scale: Tensor(shape=torch.Size([1]), device=cpu, dtype=torch.float32, is_shared=False),
step_count: Tensor(shape=torch.Size([1]), device=cpu, dtype=torch.int64, is_shared=False),
terminated: Tensor(shape=torch.Size([1]), device=cpu, dtype=torch.bool, is_shared=False),
truncated: Tensor(shape=torch.Size([1]), device=cpu, dtype=torch.bool, is_shared=False)},
batch_size=torch.Size([]),
device=cpu,
is_shared=False)
Running value: TensorDict(
fields={
done: Tensor(shape=torch.Size([1]), device=cpu, dtype=torch.bool, is_shared=False),
observation: Tensor(shape=torch.Size([11]), device=cpu, dtype=torch.float32, is_shared=False),
state_value: Tensor(shape=torch.Size([1]), device=cpu, dtype=torch.float32, is_shared=False),
step_count: Tensor(shape=torch.Size([1]), device=cpu, dtype=torch.int64, is_shared=False),
terminated: Tensor(shape=torch.Size([1]), device=cpu, dtype=torch.bool, is_shared=False),
truncated: Tensor(shape=torch.Size([1]), device=cpu, dtype=torch.bool, is_shared=False)},
batch_size=torch.Size([]),
device=cpu,
is_shared=False)
数据收集器¶
TorchRL 提供了一组 DataCollector 类。简而言之,这些类执行三个操作:重置环境,根据最新的观察结果计算动作,执行环境中的步骤,并重复最后两个步骤,直到环境发出停止信号(或达到完成状态)。
它们允许您控制每次迭代要收集的帧数(通过 frames_per_batch
参数)、何时重置环境(通过 max_frames_per_traj
参数)、应在哪个 device
上执行策略等等。它们还旨在与批量和多进程环境高效协作。
最简单的数据收集器是 SyncDataCollector
:它是一个迭代器,您可以使用它来获取给定长度的数据批次,并且一旦收集到总帧数 (total_frames
),它将停止。其他数据收集器(MultiSyncDataCollector
和 MultiaSyncDataCollector
)将在同步和异步方式下在一组多进程工作程序上执行相同的操作。
与之前的策略和环境一样,数据收集器将返回 TensorDict
实例,其元素总数将与 frames_per_batch
匹配。使用 TensorDict
将数据传递到训练循环使您可以编写 100% 无需考虑 rollout 内容实际细节的数据加载管道。
collector = SyncDataCollector(
env,
policy_module,
frames_per_batch=frames_per_batch,
total_frames=total_frames,
split_trajs=False,
device=device,
)
回放缓冲区¶
回放缓冲区是离策略 RL 算法的常见构建块。在在策略上下文中,每次收集一批数据时都会重新填充回放缓冲区,并且其数据会在一定数量的 epochs 中重复使用。
TorchRL 的回放缓冲区是使用通用容器 ReplayBuffer
构建的,该容器将缓冲区的组件作为参数:存储器、写入器、采样器以及可能的一些变换。只有存储器(指示回放缓冲区容量)是强制性的。我们还指定了一个无重复采样器,以避免在一个 epoch 中多次采样同一项目。对于 PPO 来说,使用回放缓冲区不是强制性的,我们可以简单地从收集的批次中采样子批次,但使用这些类使我们能够以可重现的方式构建内部训练循环。
replay_buffer = ReplayBuffer(
storage=LazyTensorStorage(max_size=frames_per_batch),
sampler=SamplerWithoutReplacement(),
)
损失函数¶
为了方便起见,可以使用 ClipPPOLoss
类直接从 TorchRL 导入 PPO 损失。这是利用 PPO 的最简单方法:它隐藏了 PPO 的数学运算和随之而来的控制流。
PPO 需要计算一些“优势估计”。简而言之,优势是一个值,它反映了在处理偏差/方差权衡时对回报值的期望。要计算优势,只需 (1) 构建优势模块,该模块利用我们的价值运算符,以及 (2) 在每个 epoch 之前通过它传递每批数据。GAE 模块将使用新的 "advantage"
和 "value_target"
条目更新输入 tensordict
。"value_target"
是一个无梯度张量,表示价值网络应使用输入观察结果表示的经验值。这些都将由 ClipPPOLoss
使用,以返回策略和价值损失。
advantage_module = GAE(
gamma=gamma, lmbda=lmbda, value_network=value_module, average_gae=True
)
loss_module = ClipPPOLoss(
actor_network=policy_module,
critic_network=value_module,
clip_epsilon=clip_epsilon,
entropy_bonus=bool(entropy_eps),
entropy_coef=entropy_eps,
# these keys match by default but we set this for completeness
critic_coef=1.0,
loss_critic_type="smooth_l1",
)
optim = torch.optim.Adam(loss_module.parameters(), lr)
scheduler = torch.optim.lr_scheduler.CosineAnnealingLR(
optim, total_frames // frames_per_batch, 0.0
)
训练循环¶
我们现在拥有编码训练循环所需的所有部分。步骤包括
收集数据
计算优势
循环遍历收集的数据以计算损失值
反向传播
优化
重复
重复
重复
logs = defaultdict(list)
pbar = tqdm(total=total_frames)
eval_str = ""
# We iterate over the collector until it reaches the total number of frames it was
# designed to collect:
for i, tensordict_data in enumerate(collector):
# we now have a batch of data to work with. Let's learn something from it.
for _ in range(num_epochs):
# We'll need an "advantage" signal to make PPO work.
# We re-compute it at each epoch as its value depends on the value
# network which is updated in the inner loop.
advantage_module(tensordict_data)
data_view = tensordict_data.reshape(-1)
replay_buffer.extend(data_view.cpu())
for _ in range(frames_per_batch // sub_batch_size):
subdata = replay_buffer.sample(sub_batch_size)
loss_vals = loss_module(subdata.to(device))
loss_value = (
loss_vals["loss_objective"]
+ loss_vals["loss_critic"]
+ loss_vals["loss_entropy"]
)
# Optimization: backward, grad clipping and optimization step
loss_value.backward()
# this is not strictly mandatory but it's good practice to keep
# your gradient norm bounded
torch.nn.utils.clip_grad_norm_(loss_module.parameters(), max_grad_norm)
optim.step()
optim.zero_grad()
logs["reward"].append(tensordict_data["next", "reward"].mean().item())
pbar.update(tensordict_data.numel())
cum_reward_str = (
f"average reward={logs['reward'][-1]: 4.4f} (init={logs['reward'][0]: 4.4f})"
)
logs["step_count"].append(tensordict_data["step_count"].max().item())
stepcount_str = f"step count (max): {logs['step_count'][-1]}"
logs["lr"].append(optim.param_groups[0]["lr"])
lr_str = f"lr policy: {logs['lr'][-1]: 4.4f}"
if i % 10 == 0:
# We evaluate the policy once every 10 batches of data.
# Evaluation is rather simple: execute the policy without exploration
# (take the expected value of the action distribution) for a given
# number of steps (1000, which is our ``env`` horizon).
# The ``rollout`` method of the ``env`` can take a policy as argument:
# it will then execute this policy at each step.
with set_exploration_type(ExplorationType.DETERMINISTIC), torch.no_grad():
# execute a rollout with the trained policy
eval_rollout = env.rollout(1000, policy_module)
logs["eval reward"].append(eval_rollout["next", "reward"].mean().item())
logs["eval reward (sum)"].append(
eval_rollout["next", "reward"].sum().item()
)
logs["eval step_count"].append(eval_rollout["step_count"].max().item())
eval_str = (
f"eval cumulative reward: {logs['eval reward (sum)'][-1]: 4.4f} "
f"(init: {logs['eval reward (sum)'][0]: 4.4f}), "
f"eval step-count: {logs['eval step_count'][-1]}"
)
del eval_rollout
pbar.set_description(", ".join([eval_str, cum_reward_str, stepcount_str, lr_str]))
# We're also using a learning rate scheduler. Like the gradient clipping,
# this is a nice-to-have but nothing necessary for PPO to work.
scheduler.step()
0%| | 0/10000 [00:00<?, ?it/s]
10%|█ | 1000/10000 [00:02<00:19, 460.72it/s]
eval cumulative reward: 91.8959 (init: 91.8959), eval step-count: 9, average reward= 9.0871 (init= 9.0871), step count (max): 12, lr policy: 0.0003: 10%|█ | 1000/10000 [00:02<00:19, 460.72it/s]
eval cumulative reward: 91.8959 (init: 91.8959), eval step-count: 9, average reward= 9.0871 (init= 9.0871), step count (max): 12, lr policy: 0.0003: 20%|██ | 2000/10000 [00:04<00:17, 458.95it/s]
eval cumulative reward: 91.8959 (init: 91.8959), eval step-count: 9, average reward= 9.1306 (init= 9.0871), step count (max): 15, lr policy: 0.0003: 20%|██ | 2000/10000 [00:04<00:17, 458.95it/s]
eval cumulative reward: 91.8959 (init: 91.8959), eval step-count: 9, average reward= 9.1306 (init= 9.0871), step count (max): 15, lr policy: 0.0003: 30%|███ | 3000/10000 [00:06<00:15, 463.69it/s]
eval cumulative reward: 91.8959 (init: 91.8959), eval step-count: 9, average reward= 9.1613 (init= 9.0871), step count (max): 18, lr policy: 0.0003: 30%|███ | 3000/10000 [00:06<00:15, 463.69it/s]
eval cumulative reward: 91.8959 (init: 91.8959), eval step-count: 9, average reward= 9.1613 (init= 9.0871), step count (max): 18, lr policy: 0.0003: 40%|████ | 4000/10000 [00:08<00:12, 465.62it/s]
eval cumulative reward: 91.8959 (init: 91.8959), eval step-count: 9, average reward= 9.1849 (init= 9.0871), step count (max): 20, lr policy: 0.0002: 40%|████ | 4000/10000 [00:08<00:12, 465.62it/s]
eval cumulative reward: 91.8959 (init: 91.8959), eval step-count: 9, average reward= 9.1849 (init= 9.0871), step count (max): 20, lr policy: 0.0002: 50%|█████ | 5000/10000 [00:10<00:10, 467.03it/s]
eval cumulative reward: 91.8959 (init: 91.8959), eval step-count: 9, average reward= 9.2013 (init= 9.0871), step count (max): 25, lr policy: 0.0002: 50%|█████ | 5000/10000 [00:10<00:10, 467.03it/s]
eval cumulative reward: 91.8959 (init: 91.8959), eval step-count: 9, average reward= 9.2013 (init= 9.0871), step count (max): 25, lr policy: 0.0002: 60%|██████ | 6000/10000 [00:12<00:08, 467.79it/s]
eval cumulative reward: 91.8959 (init: 91.8959), eval step-count: 9, average reward= 9.2178 (init= 9.0871), step count (max): 27, lr policy: 0.0001: 60%|██████ | 6000/10000 [00:12<00:08, 467.79it/s]
eval cumulative reward: 91.8959 (init: 91.8959), eval step-count: 9, average reward= 9.2178 (init= 9.0871), step count (max): 27, lr policy: 0.0001: 70%|███████ | 7000/10000 [00:14<00:06, 470.65it/s]
eval cumulative reward: 91.8959 (init: 91.8959), eval step-count: 9, average reward= 9.2329 (init= 9.0871), step count (max): 32, lr policy: 0.0001: 70%|███████ | 7000/10000 [00:14<00:06, 470.65it/s]
eval cumulative reward: 91.8959 (init: 91.8959), eval step-count: 9, average reward= 9.2329 (init= 9.0871), step count (max): 32, lr policy: 0.0001: 80%|████████ | 8000/10000 [00:17<00:04, 458.50it/s]
eval cumulative reward: 91.8959 (init: 91.8959), eval step-count: 9, average reward= 9.2473 (init= 9.0871), step count (max): 40, lr policy: 0.0001: 80%|████████ | 8000/10000 [00:17<00:04, 458.50it/s]
eval cumulative reward: 91.8959 (init: 91.8959), eval step-count: 9, average reward= 9.2473 (init= 9.0871), step count (max): 40, lr policy: 0.0001: 90%|█████████ | 9000/10000 [00:19<00:02, 463.76it/s]
eval cumulative reward: 91.8959 (init: 91.8959), eval step-count: 9, average reward= 9.2477 (init= 9.0871), step count (max): 52, lr policy: 0.0000: 90%|█████████ | 9000/10000 [00:19<00:02, 463.76it/s]
eval cumulative reward: 91.8959 (init: 91.8959), eval step-count: 9, average reward= 9.2477 (init= 9.0871), step count (max): 52, lr policy: 0.0000: 100%|██████████| 10000/10000 [00:21<00:00, 467.36it/s]
eval cumulative reward: 91.8959 (init: 91.8959), eval step-count: 9, average reward= 9.2501 (init= 9.0871), step count (max): 38, lr policy: 0.0000: 100%|██████████| 10000/10000 [00:21<00:00, 467.36it/s]
结果¶
在达到 1M 步上限之前,该算法应已达到最大步数计数 1000 步,这是轨迹被截断之前的最大步数。
plt.figure(figsize=(10, 10))
plt.subplot(2, 2, 1)
plt.plot(logs["reward"])
plt.title("training rewards (average)")
plt.subplot(2, 2, 2)
plt.plot(logs["step_count"])
plt.title("Max step count (training)")
plt.subplot(2, 2, 3)
plt.plot(logs["eval reward (sum)"])
plt.title("Return (test)")
plt.subplot(2, 2, 4)
plt.plot(logs["eval step_count"])
plt.title("Max step count (test)")
plt.show()

结论与下一步¶
在本教程中,我们学习了
如何使用
torchrl
创建和自定义环境;如何编写模型和损失函数;
如何设置典型的训练循环。
如果您想进一步尝试本教程,可以应用以下修改
从效率的角度来看,我们可以并行运行多个模拟以加快数据收集速度。有关更多信息,请查看
ParallelEnv
。从日志记录的角度来看,可以在请求渲染后向环境添加
torchrl.record.VideoRecorder
变换,以获得倒立摆动作的可视化渲染。查看torchrl.record
以了解更多信息。
脚本总运行时间: (1 分钟 26.279 秒)
预计内存使用量: 320 MB