WAV2VEC2_ASR_LARGE_100H¶
- torchaudio.pipelines.WAV2VEC2_ASR_LARGE_100H¶
Wav2vec 2.0 模型(“large”架构,带有一个额外的线性层),在 _LibriSpeech_ 数据集的 960 小时无标签音频上进行了预训练 [Panayotov et al., 2015](“train-clean-100”、“train-clean-360”和“train-other-500”的组合),并在同一数据集的 100 小时转录音频(“train-clean-100”子集)上进行了 ASR 微调。
最初由 _wav2vec 2.0_ 的作者 [Baevski et al., 2020] 在 MIT 许可下发布,并以相同的许可重新分发。[许可, 来源]