快捷方式

WAV2VEC2_ASR_LARGE_10M

torchaudio.pipelines.WAV2VEC2_ASR_LARGE_10M

Wav2vec 2.0 模型(“大型”架构,带有一个额外的线性模块),在 960 小时的无标签音频上进行预训练,这些音频来自 LibriSpeech 数据集 [Panayotov 等人,2015](“train-clean-100”、“train-clean-360”和“train-other-500”的组合),并针对 ASR 在 10 分钟的转录音频上进行微调,这些音频来自 Libri-Light 数据集 [Kahn 等人,2020](“train-10min” 子集)。

最初由 wav2vec 2.0 [Baevski 等人,2020] 的作者在 MIT 许可证下发布,并以相同的许可证重新发布。[许可证来源]

请参考 torchaudio.pipelines.Wav2Vec2ASRBundle 以了解用法。

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取针对初学者和高级开发者的深入教程

查看教程

资源

查找开发资源并获得问题的解答

查看资源