WAV2VEC2_ASR_LARGE_100H¶
- torchaudio.pipelines.WAV2VEC2_ASR_LARGE_100H¶
Wav2vec 2.0 模型(“大型”架构,带有一个额外的线性模块),在来自 LibriSpeech 数据集 [Panayotov 等人,2015] 的 960 小时未标记音频上进行预训练(“train-clean-100”、“train-clean-360” 和 “train-other-500” 的组合),并在同一数据集的 100 小时转录音频上针对 ASR 进行微调(“train-clean-100” 子集)。
最初由 wav2vec 2.0 的作者 [Baevski 等人,2020] 在 MIT 许可证下发布,并以相同的许可证重新分发。[许可证,源代码]
请参阅
torchaudio.pipelines.Wav2Vec2ASRBundle
以了解用法。