FullModelMetaCheckpointer¶
- class torchtune.training.FullModelMetaCheckpointer(checkpoint_dir: str, checkpoint_files: List[str], model_type: ModelType, output_dir: str, adapter_checkpoint: Optional[str] = None, recipe_checkpoint: Optional[str] = None, resume_from_checkpoint: bool = False)[source]¶
检查点器,它以 Meta 格式读取和写入检查点。示例包括来自 meta-llama 存储库 (https://hugging-face.cn/meta-llama/Llama-2-7b) 的 Llama-2-7b 模型。
目前,我们只支持从单个检查点文件读取。从分片检查点读取的支持正在开发中。
- 参数::
checkpoint_dir (str) – 包含检查点文件的目录
checkpoint_files (List[str]) – 要加载的检查点文件列表。目前,此检查点器只支持加载单个检查点文件。
model_type (ModelType) – 加载检查点器的模型的模型类型
output_dir (str) – 保存检查点文件的目录
adapter_checkpoint (Optional[str]) – 适配器权重的路径。默认值为 None
recipe_checkpoint (Optional[str]) – 食谱状态检查点文件的路径。默认值为 None
resume_from_checkpoint (bool) – 如果为 True,检查点器将加载其他检查点文件以从之前的运行恢复训练。默认值为 False
- 引发::
ValueError – 如果
checkpoint_files
不是长度为 1 的列表ValueError – 如果
resume_from_checkpoint
为 True 但recipe_checkpoint
为 None
- save_checkpoint(state_dict: Dict[str, Any], epoch: int, intermediate_checkpoint: bool = False, adapter_only: bool = False) None [source]¶
将元检查点保存到文件。如果
intermediate_checkpoint
为 True,则会在_output_dir
中创建一个额外的检查点文件recipe_state.pt
,其中包含配方状态。- 参数::
- 引发::
ValueError – 如果
adapter_only
为 True 且在 state_dict 中找不到适配器检查点。