torch.fft.rfftn¶
- torch.fft.rfftn(input, s=None, dim=None, norm=None, *, out=None) Tensor ¶
计算实数输入的 N 维离散傅里叶变换。
实数信号的 FFT 是 Hermitian 对称的,
X[i_1, ..., i_n] = conj(X[-i_1, ..., -i_n])
,因此完整的fftn()
输出包含冗余信息。rfftn()
则省略了最后一个维度中的负频率。注意
在 CUDA 上支持 torch.half,GPU 架构需为 SM53 或更高版本。但是,它仅支持每个变换维度中信号长度为 2 的幂次方。
- 参数
input (Tensor) – 输入张量
s (Tuple[int], optional) – 变换维度中的信号大小。如果给出,则在计算实数 FFT 之前,每个维度
dim[i]
将被零填充或裁剪到长度s[i]
。如果指定长度-1
,则在该维度中不进行填充。默认值:s = [input.size(d) for d in dim]
dim (Tuple[int], optional) – 要变换的维度。默认值:所有维度,或者如果给出
s
,则为最后len(s)
个维度。norm (str, optional) –
归一化模式。对于正向变换 (
rfftn()
),这些对应于"forward"
- 按1/n
归一化"backward"
- 无归一化"ortho"
- 按1/sqrt(n)
归一化(使实数 FFT 正交归一化)
其中
n = prod(s)
是逻辑 FFT 大小。使用相同的归一化模式调用反向变换 (irfftn()
) 将在两个变换之间应用 1/n 的整体归一化。这是使irfftn()
成为精确逆变换所必需的。默认值为
"backward"
(无归一化)。
- 关键字参数
out (Tensor, optional) – 输出张量。
示例
>>> t = torch.rand(10, 10) >>> rfftn = torch.fft.rfftn(t) >>> rfftn.size() torch.Size([10, 6])
与
fftn()
的完整输出相比,我们拥有直至奈奎斯特频率的所有元素。>>> fftn = torch.fft.fftn(t) >>> torch.testing.assert_close(fftn[..., :6], rfftn, check_stride=False)
离散傅里叶变换是可分离的,因此这里的
rfftn()
等效于fft()
和rfft()
的组合>>> two_ffts = torch.fft.fft(torch.fft.rfft(t, dim=1), dim=0) >>> torch.testing.assert_close(rfftn, two_ffts, check_stride=False)