快捷方式

qwen2_tokenizer

torchtune.models.qwen2.qwen2_tokenizer(path: str, merges_file: str = None, special_tokens_path: Optional[str] = None, max_seq_len: Optional[int] = None, prompt_template: Optional[Union[str, Dict[Literal['system', 'user', 'assistant', 'ipython'], Tuple[str, str]]] = 'torchtune.data.ChatMLTemplate', **kwargs) Qwen2Tokenizer[source]

Qwen2 的分词器。

参数:
  • path (str) – 指向 vocab.json 文件的路径。

  • merges_file (str) – 指向 merges.txt 文件的路径。

  • special_tokens_path (Optional[str]) – 指向 Hugging Face 模型文件中包含所有已注册特殊标记的 tokenizer.json 的路径,或指向结构类似的本地 json 文件的路径。默认值为 None,使用规范的 Qwen2 特殊标记。

  • max_seq_len (Optional[int]) – 用于截断标记的最大序列长度。默认值:None

  • prompt_template (Optional[_TemplateType]) – 可选的指定提示模板。如果为字符串,则假定为 PromptTemplateInterface 类的点路径。如果为字典,则假定为自定义提示模板,将角色映射到前缀/后缀标记。默认值为 Llama2ChatTemplate.

返回值:

Qwen2 分词器的实例

返回类型:

Qwen2Tokenizer

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取针对初学者和高级开发者的深入教程

查看教程

资源

查找开发资源并获得问题的解答

查看资源