WAV2VEC2_ASR_LARGE_10M¶
- torchaudio.pipelines.WAV2VEC2_ASR_LARGE_10M¶
Wav2vec 2.0 模型(“large”架构,带有一个额外的线性模块),在 *LibriSpeech* 数据集 [Panayotov et al., 2015](“train-clean-100”、“train-clean-360”和“train-other-500”的组合)上的 960 小时无标签音频进行了预训练,并在 *Libri-Light* 数据集 [Kahn et al., 2020](“train-10min”子集)上的 10 分钟转录音频进行了 ASR 微调。
最初由 wav2vec 2.0 的作者以 MIT 许可证发布 [Baevski et al., 2020],并以相同的许可证重新分发。[许可证, 来源]
请参考
torchaudio.pipelines.Wav2Vec2ASRBundle
进行使用。