快捷方式

torchaudio.models.wavlm_model

torchaudio.models.wavlm_model(extractor_mode: str, extractor_conv_layer_config: Optional[List[Tuple[int, int, int]]], extractor_conv_bias: bool, encoder_embed_dim: int, encoder_projection_dropout: float, encoder_pos_conv_kernel: int, encoder_pos_conv_groups: int, encoder_num_layers: int, encoder_num_heads: int, encoder_num_buckets: int, encoder_max_distance: int, encoder_attention_dropout: float, encoder_ff_interm_features: int, encoder_ff_interm_dropout: float, encoder_dropout: float, encoder_layer_norm_first: bool, encoder_layer_drop: float, aux_num_out: Optional[int]) Wav2Vec2Model[source]

构建自定义 WaveLM 模型 [Chen et al., 2022]。该架构与 Wav2Vec2 模型 [Baevski et al., 2020] 兼容,因此输出对象是 Wav2Vec2Model。大多数参数的含义与 wav2vec2_model() 中的含义相同,因此请参阅那里的文档。

参数:
返回:

生成的模型。

返回类型:

Wav2Vec2Model

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取面向初学者和高级开发者的深入教程

查看教程

资源

查找开发资源并获得您的问题解答

查看资源