WAV2VEC2_ASR_LARGE_100H¶
- torchaudio.pipelines.WAV2VEC2_ASR_LARGE_100H¶
Wav2vec 2.0 模型(“large”架构,带有一个额外的线性模块),在 *LibriSpeech* 数据集 [Panayotov et al., 2015] 的 960 小时无标签音频上预训练(“train-clean-100”、“train-clean-360”和“train-other-500”的组合),并在同一数据集的 100 小时转录音频(“train-clean-100”子集)上进行 ASR 微调。
最初由 *wav2vec 2.0* 的作者 [Baevski et al., 2020] 根据 MIT 许可证发布,并以相同许可证重新分发。[许可证, 来源]
请参考
torchaudio.pipelines.Wav2Vec2ASRBundle
进行使用。