评价此页

torch.Tensor.scatter_add_#

Tensor.scatter_add_(dim, index, src) Tensor#

src 张量中的所有值,以类似于 scatter_() 的方式,添加到 index 张量指定的 self 的索引处。对于 src 中的每个值,它被加到 self 中的一个索引,该索引由其在 src 中的索引(当 dimension != dim 时)以及 index 中对应于 dimension = dim 的值指定。

对于三维张量,self 更新如下:

self[index[i][j][k]][j][k] += src[i][j][k]  # if dim == 0
self[i][index[i][j][k]][k] += src[i][j][k]  # if dim == 1
self[i][j][index[i][j][k]] += src[i][j][k]  # if dim == 2

selfindexsrc 应该具有相同的维度数。同时要求 index.size(d) <= src.size(d) 对于所有维度 d,以及 index.size(d) <= self.size(d) 对于所有维度 d != dim。请注意,indexsrc 不会进行广播。

注意

当在 CUDA 设备上使用张量时,此操作可能行为不确定。有关更多信息,请参阅 随机性

注意

反向传播仅对 src.shape == index.shape 进行了实现。

参数
  • dim (int) – 要索引的轴

  • index (LongTensor) – 要散布和相加的元素的索引,可以是空的,也可以与 src 具有相同的维度。当为空时,操作将 self 保持不变。

  • src (Tensor) – 要散布和相加的源元素

示例

>>> src = torch.ones((2, 5))
>>> index = torch.tensor([[0, 1, 2, 0, 0]])
>>> torch.zeros(3, 5, dtype=src.dtype).scatter_add_(0, index, src)
tensor([[1., 0., 0., 1., 1.],
        [0., 1., 0., 0., 0.],
        [0., 0., 1., 0., 0.]])
>>> index = torch.tensor([[0, 1, 2, 0, 0], [0, 1, 2, 2, 2]])
>>> torch.zeros(3, 5, dtype=src.dtype).scatter_add_(0, index, src)
tensor([[2., 0., 0., 1., 1.],
        [0., 2., 0., 0., 0.],
        [0., 0., 2., 1., 1.]])