快捷方式

phi3_mini_tokenizer

torchtune.models.phi3.phi3_mini_tokenizer(path: str, special_tokens_path: Optional[str] = None, max_seq_len: Optional[int] = None, prompt_template: Optional[Union[str, Dict[Literal['system', 'user', 'assistant', 'ipython'], Tuple[str, str]]]] = None) Phi3MiniTokenizer[source]

Phi-3 Mini 分词器。参考:https://hugging-face.cn/microsoft/Phi-3-mini-4k-instruct/blob/main/tokenizer_config.json

参数:
  • path (str) – SPM 分词器模型的路径。

  • special_tokens_path (Optional[str]) – 指向 Hugging Face 模型文件中包含所有已注册特殊 token 的 tokenizer.json 的路径,或结构类似的本地 json 文件。默认为 None,使用规范的 Phi3 特殊 token。

  • max_seq_len (Optional[int]) – 对单个消息列表进行分词后的最大序列长度,超出该长度的输入将被截断。默认为 None。

  • prompt_template (Optional[_TemplateType]) – 可选的指定 Prompt 模板。如果是字符串,则假定它是 PromptTemplateInterface 类的 dotpath。如果是字典,则假定它是将角色映射到前缀/后缀标记的自定义 Prompt 模板。

注意

此分词器包含典型的 LM EOS 和 BOS token,例如 <s>、</s> 和 <unk>。然而,为了支持聊天补全,它还增强了特殊 token,例如 <endoftext> 和 <assistant>。

返回值:

SPM 分词器的实例化对象。

返回类型:

Phi3MiniSentencePieceBaseTokenizer

文档

查阅 PyTorch 全面的开发者文档

查看文档

教程

获取面向初学者和高级开发者的深入教程

查看教程

资源

查找开发资源并获得问题解答

查看资源