快捷方式

TextCompletionDataset

class torchtune.datasets.TextCompletionDataset(tokenizer: ModelTokenizer, source: str, column: str = 'text', add_eos: bool = True, filter_fn: Optional[Callable] = None, **load_dataset_kwargs: Dict[str, Any])[source]

用于任何非结构化文本语料库的自由形式数据集。从 Hugging Face 或本地磁盘快速加载任何数据集,并为其模型进行分词。

参数:
  • tokenizer (ModelTokenizer) – 模型使用的分词器,该模型实现了 tokenize_messages 方法。

  • source (str) – Hugging Face 上数据集仓库的路径。对于本地数据集,将 source 定义为数据文件类型(例如“json”、“csv”、“text”),并在 data_files 中传入文件路径。有关更多详细信息,请参阅 Hugging Face 的 load_dataset (https://hugging-face.cn/docs/datasets/en/package_reference/loading_methods#datasets.load_dataset.path)。

  • column (str) – 样本中包含文本数据的列的名称。这通常是 Hugging Face 数据集或表格数据所必需的。对于具有单列的本地数据集(例如,非结构化 txt 文件),请使用默认的“text”,Hugging Face 数据集加载到内存时会使用该默认值。默认为“text”。

  • add_eos (bool) – 是否在序列末尾添加 EOS 标记。默认为 True。

  • filter_fn (Optional[Callable]) – 用于在任何预处理之前过滤数据集的可调用对象。有关更多详细信息,请参阅 Hugging Face 文档

  • **load_dataset_kwargs (Dict[str, Any]) – 传递给 load_dataset 的其他关键字参数。有关更多详细信息,请参阅 Hugging Face 的 API 参考

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取面向初学者和高级开发者的深度教程

查看教程

资源

查找开发资源并获得问题解答

查看资源