快捷方式

Conv2dNormActivation

class torchvision.ops.Conv2dNormActivation(in_channels: int, out_channels: int, kernel_size: ~typing.Union[int, ~typing.Tuple[int, int]] = 3, stride: ~typing.Union[int, ~typing.Tuple[int, int]] = 1, padding: ~typing.Optional[~typing.Union[int, ~typing.Tuple[int, int], str]] = None, groups: int = 1, norm_layer: ~typing.Optional[~typing.Callable[[...], ~torch.nn.modules.module.Module]] = <class 'torch.nn.modules.batchnorm.BatchNorm2d'>, activation_layer: ~typing.Optional[~typing.Callable[[...], ~torch.nn.modules.module.Module]] = <class 'torch.nn.modules.activation.ReLU'>, dilation: ~typing.Union[int, ~typing.Tuple[int, int]] = 1, inplace: ~typing.Optional[bool] = True, bias: ~typing.Optional[bool] = None)[source]

用于 Convolution2d-Normalization-Activation 块的可配置块。

参数:
  • in_channels (int) – 输入图像中的通道数

  • out_channels (int) – Convolution-Normalization-Activation 块产生的通道数

  • kernel_size – (int, 可选): 卷积核的大小。默认值: 3

  • stride (int, 可选) – 卷积的步长。默认值: 1

  • padding (int, tuplestr, 可选) – 输入四边添加的填充。默认值: None,此时将计算为 padding = (kernel_size - 1) // 2 * dilation

  • groups (int, 可选) – 从输入通道到输出通道的组连接数。默认值: 1

  • norm_layer (Callable[..., torch.nn.Module], 可选) – 将堆叠在卷积层之上的归一化层。如果为 None,则不使用此层。默认值: torch.nn.BatchNorm2d

  • activation_layer (Callable[..., torch.nn.Module], 可选) – 将堆叠在归一化层(如果非 None)之上,否则堆叠在卷积层之上的激活函数。如果为 None,则不使用此层。默认值: torch.nn.ReLU

  • dilation (int) – 内核元素之间的间距。默认值: 1

  • inplace (bool) – 激活层的参数,可以选择原地执行操作。默认值: True

  • bias (bool, 可选) – 是否在卷积层中使用偏置。默认情况下,如果 norm_layer is None,则包含偏置。

文档

查阅 PyTorch 的全面开发者文档

查看文档

教程

获取面向初学者和高级开发者的深度教程

查看教程

资源

查找开发资源并获得问题解答

查看资源