• 文档 >
  • LoRA 单设备微调
快捷方式

LoRA 单设备微调

本示例集支持使用参数高效微调技术 (PEFT) 对下一词元预测任务进行微调,例如 低秩适应 (LoRA)量化低秩适应 (QLoRA)。这些技术在训练期间显著降低了内存消耗,同时仍保持了有竞争力的性能。

我们提供了可以快速启动和运行的配置。这里是 Llama 3.1 8B 的一个示例

注意

你可能需要获得对你感兴趣的 Llama 模型的使用权限。有关访问受限仓库的详细信息,请参阅此处

# download the model
tune download meta-llama/Meta-Llama-3.1-8B-Instruct \
--output-dir /tmp/Meta-Llama-3.1-8B-Instruct \
--ignore-patterns "original/consolidated.00.pth"

# run the recipe
tune run lora_finetune_single_device \
--config llama3_1/8B_lora_single_device

你可以通过 torchtune CLI 自定义此示例集。例如,使用 LoRA 进行微调时,可以调整应用 LoRA 的层。

tune run lora_finetune_single_device \
--config llama3_1/8B_lora_single_device \
model.lora_attn_modules=[q_proj,k_proj,v_proj] \
model.apply_lora_to_mlp=True \
model.lora_rank=64 \
model.lora_alpha=128

要深入了解使用此示例集时可以调整的不同方面,请参阅我们支持的不同 PEFT 训练范式的文档

我们的许多其他内存优化功能也可以在此示例集中使用。你可以在我们的内存优化概述中了解所有内存优化功能。

有兴趣了解此示例集的实际应用吗?请查看我们的一些教程,了解如何使用它

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取面向初学者和高级开发者的深入教程

查看教程

资源

查找开发资源并获得问题解答

查看资源