快捷方式

WaveRNN

class torchaudio.models.WaveRNN(upsample_scales: List[int], n_classes: int, hop_length: int, n_res_block: int = 10, n_rnn: int = 512, n_fc: int = 512, kernel_size: int = 5, n_freq: int = 128, n_hidden: int = 128, n_output: int = 128)[源代码]

WaveRNN 模型,源自Efficient Neural Audio Synthesis [Kalchbrenner et al., 2018],基于 fatchord/WaveRNN 的实现。

原始实现由Efficient Neural Audio Synthesis [Kalchbrenner et al., 2018] 提出。波形和频谱的输入通道必须为 1。 upsample_scales 的乘积必须等于 hop_length

另请参阅

参数
  • upsample_scales – 上采样比例列表。

  • n_classes – 输出类别数。

  • hop_length – 相邻帧开始之间的采样数。

  • n_res_block – 堆栈中 ResBlock 的数量。(默认:10

  • n_rnn – RNN 层的维度。(默认:512

  • n_fc – 全连接层的维度。(默认:512

  • kernel_size – 第一个 Conv1d 层的核大小。(默认:5

  • n_freq – 频谱图中的频段数。(默认:128

  • n_hidden – resblock 的隐藏维度。(默认:128

  • n_output – melresnet 的输出维度。(默认:128

示例
>>> wavernn = WaveRNN(upsample_scales=[5,5,8], n_classes=512, hop_length=200)
>>> waveform, sample_rate = torchaudio.load(file)
>>> # waveform shape: (n_batch, n_channel, (n_time - kernel_size + 1) * hop_length)
>>> specgram = MelSpectrogram(sample_rate)(waveform)  # shape: (n_batch, n_channel, n_freq, n_time)
>>> output = wavernn(waveform, specgram)
>>> # output shape: (n_batch, n_channel, (n_time - kernel_size + 1) * hop_length, n_classes)
使用 WaveRNN 的教程
Text-to-Speech with Tacotron2

使用 Tacotron2 进行文本到语音转换

使用 Tacotron2 进行文本到语音转换

方法

forward

WaveRNN.forward(waveform: Tensor, specgram: Tensor) Tensor[源代码]

将输入通过 WaveRNN 模型。

参数
  • waveform – WaveRNN 层的输入波形 (n_batch, 1, (n_time - kernel_size + 1) * hop_length)

  • specgram – WaveRNN 层的输入频谱图 (n_batch, 1, n_freq, n_time)

返回

形状为 (n_batch, 1, (n_time - kernel_size + 1) * hop_length, n_classes)

返回类型

张量

infer

WaveRNN.infer(specgram: Tensor, lengths: Optional[Tensor] = None) Tuple[Tensor, Optional[Tensor]][源代码]

WaveRNN 的推理方法。

此函数当前仅支持多项式采样,这假设网络是使用交叉熵损失训练的。

参数
  • specgram (Tensor) – 频谱图批次。形状:(n_batch, n_freq, n_time)

  • lengths (TensorNone, 可选) – 指示批次中每个音频的有效长度。形状:(batch, )。当 specgram 包含不同持续时间的频谱图时,通过提供 lengths 参数,模型将计算相应的有效输出长度。如果为 None,则假定 waveforms 中的所有音频都具有有效长度。默认值:None

返回

张量

大小为 (n_batch, 1, n_time) 的推理波形。1 表示单通道。

Tensor 或 None

如果提供了 lengths 参数,则返回形状为 (batch, ) 的 Tensor。它指示输出 Tensor 在时间轴上的有效长度。

返回类型

(Tensor, Optional[Tensor])

文档

访问全面的 PyTorch 开发者文档

查看文档

教程

为初学者和高级开发者提供深入的教程

查看教程

资源

查找开发资源并让您的问题得到解答

查看资源