WAV2VEC2_ASR_LARGE_960H¶
- torchaudio.pipelines.WAV2VEC2_ASR_LARGE_960H¶
Wav2vec 2.0 模型(带有额外线性模块的“大型”架构),在来自 LibriSpeech 数据集 [Panayotov 等人,2015](“train-clean-100”、“train-clean-360”和“train-other-500”的组合)的 960 小时未标记音频上进行预训练,并针对 ASR 在同一音频上进行了微调,并使用相应的转录文本。
最初由 wav2vec 2.0 的作者发布 [Baevski 等人,2020],采用 MIT 许可证,并以相同的许可证重新发布。[许可证,源代码]
请参考
torchaudio.pipelines.Wav2Vec2ASRBundle
以了解其用法。