WAV2VEC2_ASR_LARGE_10M¶
- torchaudio.pipelines.WAV2VEC2_ASR_LARGE_10M¶
Wav2vec 2.0 模型(“large” 架构,带有一个额外的线性模块),在来自 LibriSpeech 数据集的 960 小时未标记音频上预训练 [Panayotov et al., 2015] (“train-clean-100”、“train-clean-360” 和 “train-other-500” 的组合),并在来自 Libri-Light 数据集的 10 分钟转录音频上针对 ASR 进行微调 [Kahn et al., 2020] (“train-10min” 子集)。
最初由 wav2vec 2.0 的作者发布 [Baevski et al., 2020],根据 MIT 许可证发布并以相同许可证重新分发。[许可证, 来源]
请参阅
torchaudio.pipelines.Wav2Vec2ASRBundle
以了解用法。