评价此页

torch.Tensor.scatter_reduce_#

Tensor.scatter_reduce_(dim, index, src, reduce, *, include_self=True) Tensor#

src 张量中的所有值,通过 reduce 参数定义的规约操作("sum", "prod", "mean", "amax", "amin"),规约到 self 张量中由 index 张量指定的索引位置。对于 src 中的每个值,它将被规约到 self 中的一个索引,该索引由其在 src 中的索引(对于 dimension != dim)和 index 中的对应值(对于 dimension = dim)指定。如果 include_self="True",则 self 张量中的值也将被包含在规约中。

selfindexsrc 都应具有相同的维度数。此外,对于所有维度 d,需要满足 index.size(d) <= src.size(d),并且对于所有维度 d != dim,需要满足 index.size(d) <= self.size(d)。请注意,indexsrc 不支持广播。

对于一个 3D 张量,当 reduce="sum"include_self=True 时,输出如下所示:

self[index[i][j][k]][j][k] += src[i][j][k]  # if dim == 0
self[i][index[i][j][k]][k] += src[i][j][k]  # if dim == 1
self[i][j][index[i][j][k]] += src[i][j][k]  # if dim == 2

注意

当在 CUDA 设备上使用张量时,此操作可能行为不确定。有关更多信息,请参阅 随机性

注意

反向传播仅对 src.shape == index.shape 进行了实现。

警告

此函数处于 beta 阶段,未来可能会发生更改。

参数
  • dim (int) – 索引的轴

  • index (LongTensor) – 要散布和规约的元素的索引。

  • src (Tensor) – 要散布和规约的源元素

  • reduce (str) – 应用于非唯一索引的规约操作("sum", "prod", "mean", "amax", "amin"

  • include_self (bool) – self 张量中的元素是否包含在规约中

示例

>>> src = torch.tensor([1., 2., 3., 4., 5., 6.])
>>> index = torch.tensor([0, 1, 0, 1, 2, 1])
>>> input = torch.tensor([1., 2., 3., 4.])
>>> input.scatter_reduce(0, index, src, reduce="sum")
tensor([5., 14., 8., 4.])
>>> input.scatter_reduce(0, index, src, reduce="sum", include_self=False)
tensor([4., 12., 5., 4.])
>>> input2 = torch.tensor([5., 4., 3., 2.])
>>> input2.scatter_reduce(0, index, src, reduce="amax")
tensor([5., 6., 5., 2.])
>>> input2.scatter_reduce(0, index, src, reduce="amax", include_self=False)
tensor([3., 6., 5., 2.])