torch.fft.rfftn#
- torch.fft.rfftn(input, s=None, dim=None, norm=None, *, out=None) Tensor #
计算实数
input
的 N 维离散傅里叶变换。实数信号的傅里叶变换是厄米对称的,
X[i_1, ..., i_n] = conj(X[-i_1, ..., -i_n])
,因此fftn()
的完整输出包含冗余信息。rfftn()
则省略了最后一个维度中的负频率。注意
支持CUDA上的torch.half(GPU架构SM53或更高)。但是它只支持每个转换维度中2的幂次信号长度。
- 参数
input (Tensor) – 输入张量
s (Tuple[int], optional) – 变换维度的信号大小。如果给定,则
dim[i]
维将被零填充或裁剪到长度s[i]
,然后再计算实傅里叶变换。如果指定长度为-1
,则该维度不进行填充。默认值:s = [input.size(d) for d in dim]
dim (Tuple[int], optional) – 要变换的维度。默认值:所有维度,或者如果给出了
s
,则为最后len(s)
个维度。norm (str, optional) –
归一化模式。对于正向变换(
rfftn()
),这些对应于"forward"
- 归一化因子为1/n
"backward"
- 无归一化"ortho"
- 归一化因子为1/sqrt(n)
(使实傅里叶变换为正交变换)
其中
n = prod(s)
是逻辑 FFT 大小。使用相同的归一化模式调用反向变换(irfftn()
)将在两次变换之间应用一个整体归一化1/n
。这对于使irfftn()
成为精确的逆变换是必需的。默认值为
"backward"
(无归一化)。
- 关键字参数
out (Tensor, optional) – 输出张量。
示例
>>> t = torch.rand(10, 10) >>> rfftn = torch.fft.rfftn(t) >>> rfftn.size() torch.Size([10, 6])
与
fftn()
的完整输出相比,我们包含了所有直到奈奎斯特频率的元素。>>> fftn = torch.fft.fftn(t) >>> torch.testing.assert_close(fftn[..., :6], rfftn, check_stride=False)
离散傅里叶变换是可分离的,因此这里的
rfftn()
等同于fft()
和rfft()
的组合。>>> two_ffts = torch.fft.fft(torch.fft.rfft(t, dim=1), dim=0) >>> torch.testing.assert_close(rfftn, two_ffts, check_stride=False)