WAVLM_LARGE¶
- torchaudio.pipelines.WAVLM_LARGE¶
WavLM 大型模型(“large” 架构),在 60,000 小时的 Libri-Light 数据集上预训练 [Kahn et al., 2020],10,000 小时的 GigaSpeech [Chen et al., 2021],以及 24,000 小时的 VoxPopuli [Wang et al., 2021],未进行微调。
最初由 WavLM 的作者发布 [Chen et al., 2022],根据 MIT 许可证发布,并以相同许可证重新分发。[许可证, 来源]
请参考
torchaudio.pipelines.Wav2Vec2Bundle
以了解用法。