UCF101¶
- class torchvision.datasets.UCF101(root: Union[str, Path], annotation_path: str, frames_per_clip: int, step_between_clips: int = 1, frame_rate: Optional[int] = None, fold: int = 1, train: bool = True, transform: Optional[Callable] = None, _precomputed_metadata: Optional[Dict[str, Any]] = None, num_workers: int = 1, _video_width: int = 0, _video_height: int = 0, _video_min_dimension: int = 0, _audio_samples: int = 0, output_format: str = 'THWC')[source]¶
UCF101 数据集。
UCF101 是一个动作识别视频数据集。该数据集将每个视频视为固定大小视频片段的集合,大小由
frames_per_clip
指定,每个片段之间的帧步长由step_between_clips
给出。数据集本身可以从数据集网站下载;annotation_path
应该指向的标注文件可以从此处下载。举例来说,对于分别有 10 帧和 15 帧的两个视频,如果
frames_per_clip=5
且step_between_clips=5
,数据集大小将是 (2 + 3) = 5,其中前两个元素来自视频 1,后三个元素来自视频 2。请注意,我们丢弃了帧数不恰好等于frames_per_clip
的片段,因此视频中的所有帧可能不会都出现。在内部,它使用一个 VideoClips 对象来处理片段创建。
- 参数:
root (str 或
pathlib.Path
) – UCF101 数据集的根目录。annotation_path (str) – 包含分割文件的文件夹路径;有关这些文件的下载说明,请参阅上面的 docstring
frames_per_clip (int) – 一个片段中的帧数。
step_between_clips (int, 可选) – 每个片段之间的帧步长。
fold (int, 可选) – 使用哪个折叠(fold)。应在 1 到 3 之间。
train (bool, 可选) – 如果为
True
,则从训练集创建数据集,否则从测试集(test
split)创建。transform (callable, 可选) – 一个函数/转换,接受 TxHxWxC 格式的视频并返回转换后的版本。
output_format (str, 可选) – 输出视频张量(转换前)的格式。可以是 “THWC”(默认)或 “TCHW”。
- 返回值:
一个包含以下条目的三元组
video (Tensor[T, H, W, C] 或 Tensor[T, C, H, W]): T 个视频帧
audio(Tensor[K, L]): 音频帧,其中 K 是通道数,L 是点数
label (int): 视频片段的类别
- 返回类型:
- 特殊成员: