mistral_tokenizer¶
- torchtune.models.mistral.mistral_tokenizer(path: str, max_seq_len: Optional[int] = None, prompt_template: Optional[Union[str, Dict[Literal['system', 'user', 'assistant', 'ipython'], Tuple[str, str]]] = 'torchtune.models.mistral.MistralChatTemplate') MistralTokenizer [源代码]¶
Mistral 模型的分词器。
- 参数:
path (str) – 分词器的路径
max_seq_len (Optional[int]) – 对单个消息列表进行分词时的最大序列长度,超过此长度后,输入将被截断。默认为 None。
prompt_template (Optional[_TemplateType]) – 可选指定的提示模板。如果为字符串,则假定为
PromptTemplateInterface
类的点路径。如果为字典,则假定为自定义提示模板,将角色映射到前缀/后缀标签。默认为MistralChatTemplate
。
- 返回值:
Mistral 分词器的实例化
- 返回类型:
MistralTokenizer