llama3_2_vision_transform¶
- torchtune.models.llama3_2_vision.llama3_2_vision_transform(path: str, max_seq_len: int = 8192, image_size: int = 560, special_tokens_path: Optional[str] = None, prompt_template: Optional[Union[str, Dict[Literal['system', 'user', 'assistant', 'ipython'], Tuple[str, str]]] = None) Llama3VisionTransform [源代码]¶
Llama3 Vision 的数据转换(包括分词器)。
- 参数:
path (str) – 分词器的路径
max_seq_len (int) – 对单个消息列表进行分词时的最大序列长度,超过此长度后,输入将被截断。
image_size (int) – 图像将被平铺和调整为的基本图像大小。对于 Instruct 权重,默认为 560,对于预训练模型,使用 448。
special_tokens_path (Optional[str]) – Hugging Face 模型文件中包含所有已注册特殊标记的
tokenizer.json
的路径,或结构类似的本地 json 文件。默认为 None,使用规范的 Llama3 特殊标记。prompt_template (Optional[_TemplateType]) – 可选指定的提示模板。如果为字符串,则假定为
PromptTemplateInterface
类的点路径。如果为字典,则假定为自定义提示模板,将角色映射到前缀/后缀标签。
- 返回值:
Llama 3.2 视觉转换的实例化
- 返回类型: