WAV2VEC2_ASR_LARGE_10M¶
- torchaudio.pipelines.WAV2VEC2_ASR_LARGE_10M¶
Wav2vec 2.0 模型(“大型”架构,带有一个额外的线性模块),在 960 小时的无标签音频上进行预训练,这些音频来自 LibriSpeech 数据集 [Panayotov 等人,2015](“train-clean-100”、“train-clean-360”和“train-other-500”的组合),并针对 ASR 在 10 分钟的转录音频上进行微调,这些音频来自 Libri-Light 数据集 [Kahn 等人,2020](“train-10min” 子集)。
最初由 wav2vec 2.0 [Baevski 等人,2020] 的作者在 MIT 许可证下发布,并以相同的许可证重新发布。[许可证,来源]
请参考
torchaudio.pipelines.Wav2Vec2ASRBundle
以了解用法。