torch.fft.rfftn¶
- torch.fft.rfftn(input, s=None, dim=None, norm=None, *, out=None) Tensor ¶
计算实数
input
的 N 维离散傅里叶变换。实数信号的 FFT 是厄米特对称的,
X[i_1, ..., i_n] = conj(X[-i_1, ..., -i_n])
所以完整的fftn()
输出包含冗余信息。相反,rfftn()
在最后一个维度中省略负频率。注意
在 CUDA 上支持 torch.half,GPU 架构为 SM53 或更高。但是,它仅支持每个变换维度的 2 的幂信号长度。
- 参数
input (Tensor) – 输入张量
s (Tuple[int], optional) – 变换维度的信号大小。如果给出,每个维度
dim[i]
将在计算实数 FFT 之前被零填充或修剪到长度s[i]
。如果指定长度-1
,则该维度不会进行任何填充。默认值:s = [input.size(d) for d in dim]
dim (Tuple[int], optional) – 要变换的维度。默认值:所有维度,或者如果给出
s
,则为最后len(s)
个维度。norm (str, optional) –
规范化模式。对于正向变换 (
rfftn()
),这些对应于"forward"
- 按1/n
规范化"backward"
- 不规范化"ortho"
- 按1/sqrt(n)
规范化(使实数 FFT 正交)
其中
n = prod(s)
是逻辑 FFT 大小。使用相同的规范化模式调用反向变换 (irfftn()
) 将在两个变换之间应用1/n
的总体规范化。这需要使irfftn()
成为完全逆变换。默认值为
"backward"
(不规范化)。
- 关键字参数
out (Tensor, optional) – 输出张量。
示例
>>> t = torch.rand(10, 10) >>> rfftn = torch.fft.rfftn(t) >>> rfftn.size() torch.Size([10, 6])
与
fftn()
的完整输出相比,我们拥有所有元素,直到奈奎斯特频率。>>> fftn = torch.fft.fftn(t) >>> torch.testing.assert_close(fftn[..., :6], rfftn, check_stride=False)
离散傅里叶变换是可分离的,因此这里
rfftn()
等同于fft()
和rfft()
的组合>>> two_ffts = torch.fft.fft(torch.fft.rfft(t, dim=1), dim=0) >>> torch.testing.assert_close(rfftn, two_ffts, check_stride=False)