BatchSubSampler¶
- class torchrl.trainers.BatchSubSampler(batch_size: int, sub_traj_len: int = 0, min_sub_traj_len: int = 0)[source]¶
用于在线 RL SOTA 实现的数据子采样器。
此类从环境中刚刚收集的整批数据中抽取一部分进行子采样。
- 参数:
batch_size (int) – 要收集的子批次大小。提供的批次大小必须等于输出 tensordict 中的项目总数,其大小将为 [batch_size // sub_traj_len, sub_traj_len]。
sub_traj_len (int, 可选) – 在线设置中,子样本必须具有的轨迹长度。默认为 -1(即取轨迹的完整长度)
min_sub_traj_len (int, 可选) –
sub_traj_len
的最小值,以防批次中的某些元素包含较少的步骤。默认为 -1(即无最小值)
示例
>>> td = TensorDict( ... { ... key1: torch.stack([torch.arange(0, 10), torch.arange(10, 20)], 0), ... key2: torch.stack([torch.arange(0, 10), torch.arange(10, 20)], 0), ... }, ... [2, 10], ... ) >>> trainer.register_op( ... "process_optim_batch", ... BatchSubSampler(batch_size=batch_size, sub_traj_len=sub_traj_len), ... ) >>> td_out = trainer._process_optim_batch_hook(td) >>> assert td_out.shape == torch.Size([batch_size // sub_traj_len, sub_traj_len])