快捷方式

torch.Tensor.scatter_add_

Tensor.scatter_add_(dim, index, src) Tensor

在 `index` 张量指定的索引处,将来自张量 src 的所有值加到 self 中,方式类似于 scatter_()。对于 src 中的每个值,它被添加到 self 中由其在 srcdimension != dim 的索引以及在 indexdimension = dim 的对应值指定的索引位置。

对于一个 3-D 张量,self 的更新方式为

self[index[i][j][k]][j][k] += src[i][j][k]  # if dim == 0
self[i][index[i][j][k]][k] += src[i][j][k]  # if dim == 1
self[i][j][index[i][j][k]] += src[i][j][k]  # if dim == 2

selfindexsrc 应具有相同的维度数。此外,要求对于所有维度 dindex.size(d) <= src.size(d);对于所有 d != dim 的维度 d,要求 index.size(d) <= self.size(d)。请注意,indexsrc 不进行广播。

注意

当在 CUDA 设备上给定张量时,此操作可能表现出不确定性。有关更多信息,请参阅可复现性

注意

反向传播仅在 src.shape == index.shape 时实现。

参数
  • dim (int) – 要沿其进行索引的轴

  • index (LongTensor) – 要分散并相加的元素的索引,可以是空张量或与 src 具有相同维度的张量。当为空时,此操作返回未更改的 self

  • src (Tensor) – 要分散并相加的源元素

示例

>>> src = torch.ones((2, 5))
>>> index = torch.tensor([[0, 1, 2, 0, 0]])
>>> torch.zeros(3, 5, dtype=src.dtype).scatter_add_(0, index, src)
tensor([[1., 0., 0., 1., 1.],
        [0., 1., 0., 0., 0.],
        [0., 0., 1., 0., 0.]])
>>> index = torch.tensor([[0, 1, 2, 0, 0], [0, 1, 2, 2, 2]])
>>> torch.zeros(3, 5, dtype=src.dtype).scatter_add_(0, index, src)
tensor([[2., 0., 0., 1., 1.],
        [0., 2., 0., 0., 0.],
        [0., 0., 2., 1., 1.]])

文档

查阅全面的 PyTorch 开发者文档

查看文档

教程

获取针对初学者和高级开发者的深入教程

查看教程

资源

查找开发资源并获得问题解答

查看资源