快捷方式

get_full_finetune_fsdp_wrap_policy

torchtune.training.get_full_finetune_fsdp_wrap_policy(memory_efficient_fsdp_wrap: bool, modules_to_wrap: Set[Type]) Callable[[Module, bool, int], bool][源代码]

根据指定的标志 memory_efficient_fsdp_wrapmodules_to_wrap 检索 FSDP 包装策略。具体来说,如果 memory_efficient_fsdp_wrap 设置为 True,则返回的策略将包装模型的词嵌入和输出投影,以及指定的模块,以最大限度地节省内存。

参数:
  • memory_efficient_fsdp_wrap (bool) – 如果 True,也将使用 FSDP 包装嵌入和输出投影层。

  • modules_to_wrap (Set[Type]) – 要包装的模块类型集。

注意

memory_efficient_fsdp_wrap 内存改进目前仅在 llama3 工作负载中得到验证,它们提供了大约 15% 的内存改进(当与 AC 内存高效包装一起使用时)。其他工作负载尚未验证,可能不会看到相同的改进。

返回值:

可以传递给 FullyShardedDataParallel 作为 auto_wrap_policy 参数的包装策略。有关更多详细信息,请参阅 FSDPPolicyType 的文档。

返回值类型:

FSDPPolicyType

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取适合初学者和高级开发人员的深入教程

查看教程

资源

查找开发资源并获得问题的解答

查看资源