快捷方式

llama3_tokenizer

torchtune.models.llama3.llama3_tokenizer(path: str, special_tokens_path: Optional[str] = None, max_seq_len: Optional[int] = None, prompt_template: Optional[Union[str, Dict[Literal['system', 'user', 'assistant', 'ipython'], Tuple[str, str]]]] = None) Llama3Tokenizer[source]

Llama3 的分词器。

参数:
  • path (str) – 分词器的路径

  • special_tokens_path (Optional[str]) – 从 Hugging Face 模型文件到 tokenizer.json 的路径,其中包含所有已注册的特殊 token,或者一个结构类似的本地 json 文件。默认为 None,以使用规范的 Llama3 特殊 token。

  • max_seq_len (Optional[int]) – 用于 token 化单个消息列表的最大序列长度,超过此长度输入将被截断。默认为 None。

  • prompt_template (Optional[_TemplateType]) – 可选的指定提示模板。如果是一个字符串,则假定为 PromptTemplateInterface 类的点路径。如果是一个字典,则假定为一个自定义提示模板,将角色映射到前置/后置标签。

返回:

Llama3 分词器的实例化

返回类型:

Llama3Tokenizer

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取面向初学者和高级开发者的深度教程

查看教程

资源

查找开发资源并获得问题解答

查看资源