快捷方式

torch.nn.functional.conv1d

torch.nn.functional.conv1d(input, weight, bias=None, stride=1, padding=0, dilation=1, groups=1) Tensor

在一系列输入平面组成的输入信号上应用一维卷积。

该算子支持 TensorFloat32

有关详细信息和输出形状,请参见 Conv1d

注意

在某些情况下,当给定 CUDA 设备上的张量并使用 CuDNN 时,该算子可能会选择非确定性算法以提高性能。如果不需要此行为,您可以通过设置 torch.backends.cudnn.deterministic = True 来尝试使操作具有确定性(可能牺牲一些性能)。有关更多信息,请参见 可复现性

注意

该算子支持复杂数据类型,即 complex32, complex64, complex128

参数
  • input – 输入张量,形状为 (minibatch,in_channels,iW)(\text{minibatch} , \text{in\_channels} , iW)

  • weight – 滤波器张量,形状为 (out_channels,in_channelsgroups,kW)(\text{out\_channels} , \frac{\text{in\_channels}}{\text{groups}} , kW)

  • bias – 可选的偏置张量,形状为 (out_channels)(\text{out\_channels})。默认值: None

  • stride – 卷积核的步幅。可以是单个数字或一元素元组 (sW,)。默认值: 1

  • padding

    输入两侧的隐式填充。可以是字符串 {'valid', 'same'}、单个数字或一元素元组 (padW,)。默认值: 0。padding='valid' 与无填充相同。padding='same' 会对输入进行填充,使输出与输入具有相同的形状。但是,此模式不支持除 1 以外的任何步幅值。

    警告

    对于 padding='same',如果在任何维度上 weight 是偶数长度且 dilation 是奇数,则内部可能需要完整的 pad() 操作。这会降低性能。

  • dilation – 内核元素之间的间距。可以是单个数字或一元素元组 (dW,)。默认值: 1

  • groups – 将输入分成组,in_channels\text{in\_channels} 应能被组数整除。默认值: 1

示例

>>> inputs = torch.randn(33, 16, 30)
>>> filters = torch.randn(20, 16, 5)
>>> F.conv1d(inputs, filters)

文档

访问全面的 PyTorch 开发者文档

查看文档

教程

获取面向初学者和高级开发者的深度教程

查看教程

资源

查找开发资源并获得问题解答

查看资源