WAV2VEC2_ASR_LARGE_10M¶
- torchaudio.pipelines.WAV2VEC2_ASR_LARGE_10M¶
Wav2vec 2.0 模型(“大型”架构,带有一个额外的线性模块),在来自 LibriSpeech 数据集[Panayotov 等, 2015](“train-clean-100”、“train-clean-360”和“train-other-500”的组合)的 960 小时未标注音频上进行预训练,并在来自 Libri-Light 数据集[Kahn 等, 2020](“train-10min”子集)的 10 分钟标注音频上针对 ASR 进行微调。
由 *wav2vec 2.0* 的作者最初根据 MIT 许可证发布[Baevski 等, 2020],并以相同许可证重新分发。 [许可证, 源文件]
请参考
torchaudio.pipelines.Wav2Vec2ASRBundle
了解用法。