WAVLM_LARGE¶
- torchaudio.pipelines.WAVLM_LARGE¶
WavLM Large 模型(“large”架构),在 60,000 小时的 Libri-Light 数据集 [Kahn et al., 2020]、10,000 小时的 GigaSpeech [Chen et al., 2021] 和 24,000 小时的VoxPopuli [Wang et al., 2021] 上预训练,但未进行微调。
最初由WavLM的作者 [Chen et al., 2022] 根据 MIT 许可发布,并以相同的许可重新分发。[许可, 源码]
请参考
torchaudio.pipelines.Wav2Vec2Bundle
进行使用。