LoRA 单设备微调¶
此配方支持使用参数高效微调技术 (PEFT)(例如 低秩自适应 (LoRA) 和 量化低秩自适应 (QLoRA))在下一个令牌预测任务上进行微调。这些技术显著降低了训练期间的内存消耗,同时仍保持了具有竞争力的性能。
我们提供了配置,您可以快速启动并运行。这是一个使用 Llama 3.1 8B 的示例
注意
您可能需要获得访问您感兴趣的 Llama 模型的权限。有关访问门控存储库的详细信息,请参阅此处。
# download the model
tune download meta-llama/Meta-Llama-3.1-8B-Instruct \
--output-dir /tmp/Meta-Llama-3.1-8B-Instruct \
--ignore-patterns "original/consolidated.00.pth"
# run the recipe
tune run lora_finetune_single_device \
--config llama3_1/8B_lora_single_device
您可以通过 torchtune CLI 自定义此配方。例如,当使用 LoRA 进行微调时,您可以调整应用 LoRA 的层
tune run lora_finetune_single_device \
--config llama3_1/8B_lora_single_device \
model.lora_attn_modules=“[q_proj,k_proj,v_proj]” \
model.apply_lora_to_mlp=True \
model.lora_rank=64 \
model.lora_alpha=128
要更深入地了解使用此配方时可以利用的不同杠杆,请参阅我们关于我们支持的不同 PEFT 训练范式的文档
我们的许多其他内存优化功能可以在此配方中使用。您可以在我们的内存优化概述中了解更多关于我们所有内存优化功能的信息。
有兴趣了解此配方的实际应用吗?查看我们的一些教程,了解如何使用它