快捷方式

IEMOCAP

class torchaudio.datasets.IEMOCAP(root: Union[str, Path], sessions: Tuple[str] = (1, 2, 3, 4, 5), utterance_type: Optional[str] = None)[源代码]

IEMOCAP [Busso et al., 2008] 数据集。

参数
  • root (strPath) – 数据集顶级目录所在的根目录

  • sessions (Tuple[int]) – 要使用的会话元组 (1-5)。 (默认: (1, 2, 3, 4, 5))

  • utterance_type (strNone, 可选) – 要包含在数据集中的话语类型。选项:“scripted”(剧本式)、“improvised”(即兴式)、None。如果为 None,则同时使用剧本式和即兴式数据。

__getitem__

IEMOCAP.__getitem__(n: int) Tuple[Tensor, int, str, str, str][源代码]

加载数据集中的第 n 个样本。

参数

n (int) – 要加载的样本的索引

返回

元组包含以下项:

张量

波形

int

采样率

str

文件名

str

标签(“neu”、“hap”、“ang”、“sad”、“exc”、“fru”之一)

str

说话人

get_metadata

IEMOCAP.get_metadata(n: int) Tuple[str, int, str, str, str][源代码]

从数据集中获取第 n 个样本的元数据。返回文件路径而不是波形,但其他方面与 __getitem__() 返回的字段相同。

参数

n (int) – 要加载的样本的索引

返回

元组包含以下项:

str

音频文件路径

int

采样率

str

文件名

str

标签(“neu”、“hap”、“ang”、“sad”、“exc”、“fru”之一)

str

说话人

文档

访问全面的 PyTorch 开发者文档

查看文档

教程

为初学者和高级开发者提供深入的教程

查看教程

资源

查找开发资源并让您的问题得到解答

查看资源