llama3_2_vision_transform
- torchtune.models.llama3_2_vision.llama3_2_vision_transform(path: str, max_seq_len: int = 8192, image_size: int = 560, special_tokens_path: Optional[str] = None, prompt_template: Optional[Union[str, Dict[Literal['system', 'user', 'assistant', 'ipython'], Tuple[str, str]]] = None) Llama3VisionTransform [source]
Llama3 Vision 的数据转换(包括分词器)。
- 参数:
path (str) – 分词器的路径
max_seq_len (int) – 标记化单个消息列表的最大序列长度,超过此长度输入将被截断。
image_size (int) – 图像将被平铺和调整大小的基础图像尺寸。Instruct 权重的默认值为 560,预训练权重使用 448。
special_tokens_path (Optional[str]) – 指向 Hugging Face 模型文件中的
tokenizer.json
的路径,其中包含所有已注册的特殊标记,或结构类似的本地 json 文件。默认值为 None,以使用规范的 Llama3 特殊标记。prompt_template (Optional[_TemplateType]) – 可选指定的提示模板。如果是一个字符串,则假定为
PromptTemplateInterface
类的点路径。如果是一个字典,则假定为将角色映射到 prepend/append 标签的自定义提示模板。
- 返回:
Llama 3.2 vision 转换的实例化
- 返回类型: