qwen2_tokenizer¶
- torchtune.models.qwen2.qwen2_tokenizer(path: str, merges_file: str = None, special_tokens_path: Optional[str] = None, max_seq_len: Optional[int] = None, prompt_template: Optional[Union[str, Dict[Literal['system', 'user','assistant', 'ipython'], Tuple[str, str]]]] = None, **kwargs) Qwen2Tokenizer [源码]¶
Qwen2 的分词器。
- 参数:
path (str) –
vocab.json
文件的路径。merges_file (str) –
merges.txt
文件的路径。special_tokens_path (Optional[str]) – Hugging Face 模型文件中包含所有已注册特殊词元的
tokenizer.json
文件的路径,或结构类似的本地 json 文件。默认为 None,以使用规范的 Qwen2 特殊词元。max_seq_len (Optional[int]) – 截断词元的最大序列长度。默认值: None
prompt_template (Optional[_TemplateType]) – 可选指定的提示模板。如果为字符串,则假定它是
PromptTemplateInterface
类的点路径。如果为字典,则假定它是将角色映射到前置/后置标签的自定义提示模板。默认值: None。
- 返回:
Qwen2 分词器的实例
- 返回类型:
Qwen2Tokenizer