OrnsteinUhlenbeckProcessModule¶
- class torchrl.modules.OrnsteinUhlenbeckProcessModule(*args, **kwargs)[源代码]¶
Ornstein-Uhlenbeck 探索策略模块。
在 “使用深度强化学习进行连续控制” 中提出,https://arxiv.org/pdf/1509.02971.pdf。
OU 探索用于连续控制策略,并引入自相关的探索噪声。这实现了一种“结构化”探索。
噪声方程
\[noise_t = noise_{t-1} + \theta * (mu - noise_{t-1}) * dt + \sigma_t * \sqrt{dt} * W\]Sigma 方程
\[\sigma_t = max(\sigma^{min, (-(\sigma_{t-1} - \sigma^{min}) / (n^{\text{steps annealing}}) * n^{\text{steps}} + \sigma))\]为了跟踪从样本到样本的步骤和噪声,将在输入/输出 tensordict 中写入
"ou_prev_noise{id}"
和"ou_steps{id}"
键。预计 tensordict 将在重置时归零,表明正在收集新的轨迹。如果不是,并且相同的 tensordict 用于连续轨迹,则步数将在整个 rollout 过程中持续增加。请注意,收集器类负责在重置时将 tensordict 归零。注意
至关重要的是在训练循环中包含对
step()
的调用,以更新探索因子。由于不容易捕捉到此遗漏,因此如果省略了此步骤,将不会引发警告或异常!- 参数:
spec (TensorSpec) – 用于采样动作的 spec。采样的动作将在探索后投影到有效的动作空间上。
eps_init (标量) – 初始 epsilon 值,确定要添加的噪声量。默认值:1.0
eps_end (标量) – 最终 epsilon 值,确定要添加的噪声量。默认值:0.1
annealing_num_steps (int) – epsilon 达到 eps_end 值所需的步数。默认值:1000
theta (标量) – 噪声方程中的 theta 因子。默认值:0.15
mu (标量) – OU 平均值(噪声方程中的 mu)。默认值:0.0
sigma (标量) – sigma 方程中的 sigma 值。默认值:0.2
dt (标量) – 噪声方程中的 dt。默认值:0.01
x0 (Tensor, ndarray, optional) – 过程的初始值。默认值:0.0
sigma_min (number, optional) – sigma 方程中的 sigma_min。默认值:None
n_steps_annealing (int) – sigma 退火的步数。默认值:1000
- 关键字参数:
action_key (NestedKey, optional) – 要修改的动作的键。默认值:“action”
is_init_key (NestedKey, optional) – 用于重置噪声步数的 is_init 标志所在的键。默认值:“is_init”
示例
>>> import torch >>> from tensordict import TensorDict >>> from tensordict.nn import TensorDictSequential >>> from torchrl.data import Bounded >>> from torchrl.modules import OrnsteinUhlenbeckProcessModule, Actor >>> torch.manual_seed(0) >>> spec = Bounded(-1, 1, torch.Size([4])) >>> module = torch.nn.Linear(4, 4, bias=False) >>> policy = Actor(module=module, spec=spec) >>> ou = OrnsteinUhlenbeckProcessModule(spec=spec) >>> explorative_policy = TensorDictSequential(policy, ou) >>> td = TensorDict({"observation": torch.zeros(10, 4)}, batch_size=[10]) >>> print(explorative_policy(td)) TensorDict( fields={ _ou_prev_noise: Tensor(shape=torch.Size([10, 4]), device=cpu, dtype=torch.float32, is_shared=False), _ou_steps: Tensor(shape=torch.Size([10]), device=cpu, dtype=torch.int64, is_shared=False), action: Tensor(shape=torch.Size([10, 4]), device=cpu, dtype=torch.float32, is_shared=False), observation: Tensor(shape=torch.Size([10, 4]), device=cpu, dtype=torch.float32, is_shared=False)}, batch_size=torch.Size([10]), device=None, is_shared=False)