WAV2VEC2_ASR_BASE_100H¶
- torchaudio.pipelines.WAV2VEC2_ASR_BASE_100H¶
Wav2vec 2.0 模型(“base”架构,带有一个额外的线性模块),在 LibriSpeech 数据集 [Panayotov et al., 2015](“train-clean-100”、“train-clean-360”和“train-other-500”的组合)上进行了 960 小时的无标签音频预训练,并在“train-clean-100”子集的 100 小时转录音频上进行了 ASR 微调。
最初由 wav2vec 2.0 [Baevski et al., 2020] 的作者在 MIT 许可下发布,并以相同的许可重新分发。[许可, 来源]
有关用法,请参阅
torchaudio.pipelines.Wav2Vec2ASRBundle
。