• 文档 >
  • torchaudio.transforms >
  • 旧版本 (稳定)
快捷方式

torchaudio.transforms

torchaudio.transforms 模块包含常见的音频处理和特征提取。以下图表显示了部分可用转换之间的关系。

https://download.pytorch.org/torchaudio/tutorial-assets/torchaudio_feature_extractions.png

转换使用 torch.nn.Module 实现。构建处理管道的常见方法是定义自定义模块类或使用 torch.nn.Sequential 将模块链接在一起,然后将其移动到目标设备和数据类型。

# Define custom feature extraction pipeline.
#
# 1. Resample audio
# 2. Convert to power spectrogram
# 3. Apply augmentations
# 4. Convert to mel-scale
#
class MyPipeline(torch.nn.Module):
    def __init__(
        self,
        input_freq=16000,
        resample_freq=8000,
        n_fft=1024,
        n_mel=256,
        stretch_factor=0.8,
    ):
        super().__init__()
        self.resample = Resample(orig_freq=input_freq, new_freq=resample_freq)

        self.spec = Spectrogram(n_fft=n_fft, power=2)

        self.spec_aug = torch.nn.Sequential(
            TimeStretch(stretch_factor, fixed_rate=True),
            FrequencyMasking(freq_mask_param=80),
            TimeMasking(time_mask_param=80),
        )

        self.mel_scale = MelScale(
            n_mels=n_mel, sample_rate=resample_freq, n_stft=n_fft // 2 + 1)

    def forward(self, waveform: torch.Tensor) -> torch.Tensor:
        # Resample the input
        resampled = self.resample(waveform)

        # Convert to power spectrogram
        spec = self.spec(resampled)

        # Apply SpecAugment
        spec = self.spec_aug(spec)

        # Convert to mel-scale
        mel = self.mel_scale(spec)

        return mel
# Instantiate a pipeline
pipeline = MyPipeline()

# Move the computation graph to CUDA
pipeline.to(device=torch.device("cuda"), dtype=torch.float32)

# Perform the transform
features = pipeline(waveform)

请查看涵盖转换深入用法的教程。

Audio Feature Extractions

音频特征提取

音频特征提取

实用程序

AmplitudeToDB

将张量从功率/幅度尺度转换为分贝尺度。

MuLawEncoding

基于 μ 法压缩编码信号。

MuLawDecoding

解码 μ 法压缩编码信号。

Resample

将信号从一个频率重采样到另一个频率。

Fade

在波形中添加淡入和/或淡出。

Vol

调整波形的音量。

Loudness

根据 ITU-R BS.1770-4 建议测量音频响度。

AddNoise

根据信噪比缩放并添加噪声到波形。

Convolve

使用直接方法沿着输入的最后一个维度进行卷积。

FFTConvolve

使用 FFT 沿着输入的最后一个维度进行卷积。

Speed

调整波形速度。

SpeedPerturbation

应用在语音识别音频增强 [Ko et al., 2015] 中介绍的速度扰动增强。

Deemphasis

沿着波形的最后一个维度进行去加重。

Preemphasis

沿着波形的最后一个维度进行预加重。

特征提取

Spectrogram

从音频信号创建频谱图。

InverseSpectrogram

创建逆频谱图以从频谱图中恢复音频信号。

MelScale

将普通的 STFT 转换为使用三角滤波器组的梅尔频率 STFT。

InverseMelScale

从梅尔频率域估计普通频率域的 STFT。

MelSpectrogram

为原始音频信号创建梅尔频谱图。

GriffinLim

使用格里芬-林变换从线性尺度幅度频谱图计算波形。

MFCC

从音频信号创建梅尔频率倒谱系数。

LFCC

从音频信号创建线性频率倒谱系数。

ComputeDeltas

计算张量的 delta 系数,通常是频谱图。

PitchShift

将波形的音调移位 n_steps 步。

SlidingWindowCmn

对每个话语应用滑动窗口倒谱均值(以及可选的方差)归一化。

SpectralCentroid

计算每个通道沿时间轴的频谱质心。

Vad

语音活动检测器。

增强

以下转换实现流行的增强技术,称为SpecAugment [Park et al., 2019]

FrequencyMasking

在频率域中对频谱图应用掩码。

TimeMasking

在时间域中对频谱图应用掩码。

TimeStretch

在时间上拉伸 stft,而不修改给定速率的音调。

损失

RNNTLoss

计算来自使用循环神经网络进行序列转导 [Graves, 2012] 的 RNN 转导损失。

多通道

PSD

计算跨通道功率谱密度 (PSD) 矩阵。

MVDR

最小方差无失真响应 (MVDR) 模块,使用时频掩码执行 MVDR 波束形成。

RTFMVDR

基于噪声的相对传递函数 (RTF) 和功率谱密度 (PSD) 矩阵的最小方差无失真响应 (MVDR [Capon, 1969]) 模块。

SoudenMVDR

基于Souden 等人 [Souden et al., 2009] 提出的方法的最小方差无失真响应 (MVDR [Capon, 1969]) 模块。

文档

访问 PyTorch 的全面的开发者文档

查看文档

教程

获得面向初学者和高级开发人员的深入教程

查看教程

资源

查找开发资源并获得问题的解答

查看资源