WAV2VEC2_LARGE¶
- torchaudio.pipelines.WAV2VEC2_LARGE¶
Wav2vec 2.0 模型 (“large” 架构),在 LibriSpeech 数据集上使用 960 小时的无标签音频进行预训练 [Panayotov et al., 2015] (结合了“train-clean-100”、“train-clean-360”和“train-other-500”),未进行微调。
最初由 wav2vec 2.0 的作者发布 [Baevski et al., 2020],采用 MIT 许可证,并以相同许可证重新分发。[许可证, 来源]
有关用法,请参阅
torchaudio.pipelines.Wav2Vec2Bundle
。