快捷方式

samsum_dataset

torchtune.datasets.samsum_dataset(tokenizer: ModelTokenizer, *, source: str = 'Samsung/samsum', column_map: Optional[Dict[str, str]] = None, train_on_input: bool = False, new_system_prompt: Optional[str] = None, packed: bool = False, filter_fn: Optional[Callable] = None, split: str = 'train', **load_dataset_kwargs: Dict[str, Any]) Union[SFTDataset, PackedDataset][source]

支持来自 Hugging Face Datasets 的摘要数据集及其变体。一个例子是 SAMsum 数据集。

建议结合此数据集使用 SummarizeTemplate 配置分词器。

训练期间对提示进行掩码的控制由 train_on_input 标志控制,该标志默认为 False。 - 如果 train_on_input 为 True,则提示在训练期间被使用并有助于损失计算。 - 如果 train_on_input 为 False,则提示被掩码(代币被替换为 -100)。

参数:
  • tokenizer (ModelTokenizer) – 模型使用的分词器,实现了 tokenize_messages 方法。

  • source (str) – Hugging Face 上数据集仓库的路径。对于本地数据集,将 source 定义为数据文件类型(例如“json”、“csv”、“text”),在 data_files 中传入文件路径,并设置 split="train"相应的文档。有关更多详细信息,请参阅 Hugging Face 的 load_dataset 文档。默认为 Samsung/samsum

  • column_map (Optional[Dict[str, str]]) – 从消息转换 InputOutputToMessages 中预期列名到数据集中新列名的映射。键应为“input”和“output”,值应为实际列名。如果为 None,则使用 Samsung/samsum 中的默认列名 {"input": "dialogue", "output": "summary"}

  • train_on_input (bool) – 模型是否在提示上进行训练。默认为 False。

  • new_system_prompt (Optional[str]) – 如果指定,则在每个样本前添加一个系统消息。这可以用作指导模型响应的指令。设置此项将覆盖数据集中已有的任何系统消息。默认为 None。

  • packed (bool) – 在训练前是否将数据集打包到分词器的 max_seq_len。默认为 False。

  • filter_fn (Optional[Callable]) – 在任何预处理之前用于过滤数据集的可调用对象。有关更多详细信息,请参阅 Hugging Face 文档

  • split (str) – datasets.load_datasetsplit 参数。您可以使用此参数加载给定拆分的一个子集,例如 split="train[:10%]"。默认为“train”。

  • **load_dataset_kwargs (Dict[str, Any]) – 传递给 load_dataset 的额外关键字参数。

返回值:

使用源数据和模板配置的数据集

返回类型:

Union[SFTDataset, PackedDataset]

抛出:

ValueError – 如果 packed=Truetokenizer.max_seq_len 未设置。

示例

>>> samsum_ds = samsum_dataset(model_transform=tokenizer)
>>> for batch in Dataloader(samsum_ds, batch_size=8):
>>>     print(f"Batch size: {len(batch)}")
>>> Batch size: 8

© 版权所有 2023-至今, torchtune 贡献者。

使用 Sphinx 并通过 Read the Docs 提供的主题构建。

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取面向初学者和高级开发者的深入教程

查看教程

资源

查找开发资源并获得问题解答

查看资源