快捷方式

UCF101

class torchvision.datasets.UCF101(root: Union[str, Path], annotation_path: str, frames_per_clip: int, step_between_clips: int = 1, frame_rate: Optional[int] = None, fold: int = 1, train: bool = True, transform: Optional[Callable] = None, _precomputed_metadata: Optional[dict[str, Any]] = None, num_workers: int = 1, _video_width: int = 0, _video_height: int = 0, _video_min_dimension: int = 0, _audio_samples: int = 0, output_format: str = 'THWC')[源代码]

UCF101 数据集。

UCF101 是一个动作识别视频数据集。该数据集将每个视频视为一组固定大小的视频片段,由 frames_per_clip 指定,其中每个片段之间的帧步长由 step_between_clips 提供。数据集本身可以从数据集网站下载;annotation_path 应指向的注解可以从 这里 下载。

举个例子,对于 10 帧和 15 帧的 2 个视频,如果 frames_per_clip=5step_between_clips=5,则数据集大小将是 (2 + 3) = 5,其中前两个元素来自视频 1,后三个元素来自视频 2。请注意,我们会丢弃不包含正好 frames_per_clip 个元素的片段,因此视频中的所有帧可能都不会存在。

内部使用 VideoClips 对象来处理片段创建。

参数:
  • root (str 或 pathlib.Path) – UCF101 数据集的根目录。

  • annotation_path (str) – 指向包含拆分文件的文件夹的路径;有关这些文件的下载说明,请参阅上面的文档字符串。

  • frames_per_clip (int) – 片段中的帧数。

  • step_between_clips (int, 可选) – 每个片段之间的帧数。

  • fold (int, 可选) – 要使用的折叠。应介于 1 和 3 之间。

  • train (bool, 可选) – 如果为 True,则从训练集创建数据集,否则从 测试 集创建。

  • transform (callable, 可选) – 一个函数/转换,它接收 TxHxWxC 视频并返回转换后的版本。

  • output_format (str, 可选) – 输出视频张量(转换前)的格式。可以是“THWC”(默认)或“TCHW”。

返回:

一个 3 元组,包含以下条目:

  • video (Tensor[T, H, W, C] 或 Tensor[T, C, H, W]): T 个视频帧

  • audio(Tensor[K, L]): 音频帧,其中 K 是通道数,L 是点数

  • label (int): 视频剪辑的类别

返回类型:

元组

特殊成员:

__getitem__(idx: int) tuple[torch.Tensor, torch.Tensor, int][源代码]
参数:

index (int) – 索引

返回:

样本和元数据,可通过相应的变换进行可选变换。

返回类型:

(任意)

文档

访问全面的 PyTorch 开发者文档

查看文档

教程

为初学者和高级开发者提供深入的教程

查看教程

资源

查找开发资源并让您的问题得到解答

查看资源