快捷方式

Vad

class torchaudio.transforms.Vad(sample_rate: int, trigger_level: float = 7.0, trigger_time: float = 0.25, search_time: float = 1.0, allowed_gap: float = 0.25, pre_trigger_time: float = 0.0, boot_time: float = 0.35, noise_up_time: float = 0.1, noise_down_time: float = 0.01, noise_reduction_amount: float = 1.35, measure_freq: float = 20.0, measure_duration: Optional[float] = None, measure_smooth_time: float = 0.4, hp_filter_freq: float = 50.0, lp_filter_freq: float = 6000.0, hp_lifter_freq: float = 150.0, lp_lifter_freq: float = 2000.0)[source]

语音活动检测器。类似于 SoX 的实现。

This feature supports the following devices: CPU, CUDA This API supports the following properties: TorchScript

尝试从语音录音的末端修剪静音和安静的背景声音。该算法目前使用简单的倒谱功率测量来检测语音,因此可能会被其他事物欺骗,尤其是音乐。

该效果只能从音频的前面进行修剪,因此为了从后面进行修剪,还必须使用反向效果。

参数:
  • sample_rate (int) – 音频信号的采样率。

  • trigger_level (float, 可选) – 用于触发活动检测的测量级别。这可能需要根据噪声水平、信号水平以及输入音频的其他特性进行更改。(默认值:7.0)

  • trigger_time (float可选) – 用于帮助忽略短暂声音突发的时常(以秒为单位)。(默认值:0.25)

  • search_time (float可选) – 用于搜索在检测到的触发点之前包含更安静/更短的音频突发的音频量(以秒为单位)。(默认值:1.0)

  • allowed_gap (float可选) – 在检测到的触发点之前包含更安静/更短的音频突发之间允许的间隔(以秒为单位)。(默认值:0.25)

  • pre_trigger_time (float可选) – 在触发点和任何找到的更安静/更短的突发之前保留的音频量(以秒为单位)。(默认值:0.0)

  • boot_time (float可选) 算法 (python:内部) – 估计/减少以检测所需音频的开始。此选项设置初始噪声估计的时间。(默认值:0.35)

  • noise_up_time (float可选) – 当噪声水平升高时。(默认值:0.1)

  • noise_down_time (float可选) – 当噪声水平降低时。(默认值:0.01)

  • noise_reduction_amount (float可选) – 检测算法(例如,0、0.5 等)。(默认值:1.35)

  • measure_freq (float可选) – 处理/测量。(默认值:20.0)

  • measure_duration – (float 或 None,可选) 测量持续时间。(默认值:测量周期的两倍;即重叠。)

  • measure_smooth_time (float可选) – 谱测量。(默认值:0.4)

  • hp_filter_freq (float可选) – 在检测器算法的输入处。(默认值:50.0)

  • lp_filter_freq (float可选) – 在检测器算法的输入处。(默认值:6000.0)

  • hp_lifter_freq (float可选) – 在检测器算法中。(默认值:150.0)

  • lp_lifter_freq (float可选) – 在检测器算法中。(默认值:2000.0)

示例
>>> waveform, sample_rate = torchaudio.load("test.wav", normalize=True)
>>> waveform_reversed, sample_rate = apply_effects_tensor(waveform, sample_rate, [["reverse"]])
>>> transform = transforms.Vad(sample_rate=sample_rate, trigger_level=7.5)
>>> waveform_reversed_front_trim = transform(waveform_reversed)
>>> waveform_end_trim, sample_rate = apply_effects_tensor(
>>>     waveform_reversed_front_trim, sample_rate, [["reverse"]]
>>> )
参考
forward(waveform: Tensor) Tensor[source]
参数:

waveform (Tensor) – 音频张量,维度为 (channels, time)(time) 形状为 (channels, time) 的张量被视为同一事件的多通道录音,并且生成的输出将被裁剪到任何通道中最早的语音活动。

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取针对初学者和高级开发人员的深入教程

查看教程

资源

查找开发资源并获得问题的解答

查看资源