WAVLM_LARGE¶
- torchaudio.pipelines.WAVLM_LARGE¶
WavLM 大型模型(“大型”架构),在 60,000 小时的 Libri-Light 数据集 [Kahn 等人,2020]、10,000 小时的 GigaSpeech [Chen 等人,2021] 和 24,000 小时的 *VoxPopuli* [Wang 等人,2021] 上进行预训练,未进行微调。
最初由 *WavLM* [Chen 等人,2022] 的作者在 MIT 许可证下发布,并以相同的许可证重新发布。[许可证,来源]
请参考
torchaudio.pipelines.Wav2Vec2Bundle
以了解用法。