MLP¶
- class torchvision.ops.MLP(in_channels: int, hidden_channels: ~typing.List[int], norm_layer: ~typing.Optional[~typing.Callable[[...], ~torch.nn.modules.module.Module]] = None, activation_layer: ~typing.Optional[~typing.Callable[[...], ~torch.nn.modules.module.Module]] = <class 'torch.nn.modules.activation.ReLU'>, inplace: ~typing.Optional[bool] = None, bias: bool = True, dropout: float = 0.0)[源代码]¶
此块实现多层感知器 (MLP) 模块。
- 参数:
in_channels (int) – 输入的通道数
hidden_channels (List[int]) – 隐藏通道维度的列表
norm_layer (Callable[..., torch.nn.Module], optional) – 将堆叠在线性层顶部的规范化层。如果为
None
,则不会使用此层。默认:None
activation_layer (Callable[..., torch.nn.Module], optional) – 激活函数,它将堆叠在规范化层(如果存在)的顶部,否则堆叠在线性层的顶部。如果为
None
,则不会使用此层。默认:torch.nn.ReLU
inplace (bool, optional) – 激活层的参数,它可以可选地在原地执行操作。默认值为
None
,它使用activation_layer
和 Dropout 层的相应默认值。bias (bool) – 线性层中是否使用偏差。默认值
True
dropout (float) – Dropout 层的概率。默认:0.0