torch.Tensor.scatter_reduce_¶
- Tensor.scatter_reduce_(dim, index, src, reduce, *, include_self=True) Tensor ¶
使用通过
reduce
参数定义的归约操作("sum"
、"prod"
、"mean"
、"amax"
、"amin"
),将所有值从src
张量归约到index
张量中指定的self
张量索引处。对于src
中的每个值,它被归约到self
中的一个索引处,该索引由其在src
中对于dimension != dim
的索引指定,以及由index
中对于dimension = dim
的对应值指定。如果include_self="True"
,则self
张量中的值也包含在归约中。self
、index
和src
都应该具有相同的维度数。此外,要求对于所有维度d
,index.size(d) <= src.size(d)
;对于所有维度d != dim
,要求index.size(d) <= self.size(d)
。注意index
和src
不支持广播。对于一个 3-D 张量,当
reduce="sum"
且include_self=True
时,输出如下所示:self[index[i][j][k]][j][k] += src[i][j][k] # if dim == 0 self[i][index[i][j][k]][k] += src[i][j][k] # if dim == 1 self[i][j][index[i][j][k]] += src[i][j][k] # if dim == 2
注意
在 CUDA 设备上使用张量时,此操作的行为可能不确定。有关详细信息,请参阅 可复现性。
注意
反向传播仅在
src.shape == index.shape
时实现。警告
此函数目前处于 Beta 阶段,在不久的将来可能会有所更改。
- 参数
示例
>>> src = torch.tensor([1., 2., 3., 4., 5., 6.]) >>> index = torch.tensor([0, 1, 0, 1, 2, 1]) >>> input = torch.tensor([1., 2., 3., 4.]) >>> input.scatter_reduce(0, index, src, reduce="sum") tensor([5., 14., 8., 4.]) >>> input.scatter_reduce(0, index, src, reduce="sum", include_self=False) tensor([4., 12., 5., 4.]) >>> input2 = torch.tensor([5., 4., 3., 2.]) >>> input2.scatter_reduce(0, index, src, reduce="amax") tensor([5., 6., 5., 2.]) >>> input2.scatter_reduce(0, index, src, reduce="amax", include_self=False) tensor([3., 6., 5., 2.])