WAV2VEC2_ASR_LARGE_10M¶
- torchaudio.pipelines.WAV2VEC2_ASR_LARGE_10M¶
Wav2vec 2.0 模型(“large”架构,带有额外的线性模块),在 LibriSpeech 数据集上 960 小时的无标签音频上进行了预训练[Panayotov et al., 2015](“train-clean-100”、“train-clean-360”和“train-other-500”的组合),并在 Libri-Light 数据集上 10 分钟的转录音频上进行了 ASR 微调[Kahn et al., 2020](“train-10min”子集)。
最初由 *wav2vec 2.0* 的作者[Baevski et al., 2020] 在 MIT 许可证下发布,并以相同的许可证重新分发。[许可证, 来源]
请参阅
torchaudio.pipelines.Wav2Vec2ASRBundle
进行使用。