快捷方式

InverseSpectrogram

class torchaudio.transforms.InverseSpectrogram(n_fft: int = 400, win_length: ~typing.Optional[int] = None, hop_length: ~typing.Optional[int] = None, pad: int = 0, window_fn: ~typing.Callable[[...], ~torch.Tensor] = <built-in method hann_window of type object>, normalized: ~typing.Union[bool, str] = False, wkwargs: ~typing.Optional[dict] = None, center: bool = True, pad_mode: str = 'reflect', onesided: bool = True)[source]

创建逆频谱图以从频谱图中恢复音频信号。

This feature supports the following devices: CPU, CUDA This API supports the following properties: Autograd, TorchScript
参数:
  • n_fft (int, optional) – FFT 大小,创建 n_fft // 2 + 1 个 bin。(默认值:400

  • win_length (intNone可选) – 窗口大小。(默认值:n_fft

  • hop_length (intNone可选) – STFT 窗口之间的跳跃长度。(默认值:win_length // 2

  • pad (int, optional) – 信号的双边填充。(默认值:0

  • window_fn (Callable[..., Tensor], optional) – 用于创建窗口张量的函数,该张量应用于/乘以每个帧/窗口。(默认值:torch.hann_window

  • normalized (boolstr, optional) – stft 输出是否按幅度归一化。如果输入为 str,则选项为 "window""frame_length",取决于归一化模式。True 映射到 "window"。(默认值:False

  • wkwargs (dictNoneoptional) – 窗口函数的参数。(默认值:None

  • center (bool, optional) – 频谱图中的信号是否在两侧填充,以便第 \(t\) 帧以时间 \(t \times \text{hop\_length}\) 为中心。(默认值:True

  • pad_mode (string, optional) – 控制当 centerTrue 时使用的填充方法。(默认值:"reflect"

  • onesided (bool, optional) – 控制频谱图是否用于返回一半结果以避免冗余(默认值:True

示例
>>> batch, freq, time = 2, 257, 100
>>> length = 25344
>>> spectrogram = torch.randn(batch, freq, time, dtype=torch.cdouble)
>>> transform = transforms.InverseSpectrogram(n_fft=512)
>>> waveform = transform(spectrogram, length)
使用 InverseSpectrogram 的教程
Audio Feature Augmentation

音频特征增强

音频特征增强
Speech Enhancement with MVDR Beamforming

使用 MVDR 波束成形进行语音增强

使用 MVDR 波束成形进行语音增强
forward(spectrogram: Tensor, length: Optional[int] = None) Tensor[source]
参数:
  • spectrogram (Tensor) – 音频的复数张量,维度为 (…, freq, time)。

  • length (intNone可选) – 波形的输出长度。

返回值:

维度 (…, time),原始信号的最小二乘估计。

返回类型:

Tensor

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取面向初学者和高级开发者的深入教程

查看教程

资源

查找开发资源并获得解答

查看资源