torch.sparse_compressed_tensor#
- torch.sparse_compressed_tensor(compressed_indices, plain_indices, values, size=None, *, dtype=None, layout=None, device=None, pin_memory=False, requires_grad=False, check_invariants=None) Tensor #
构造一个具有指定值的、在给定
compressed_indices
和plain_indices
的压缩稀疏格式(CSR、CSC、BSR 或 BSC)的稀疏张量。压缩稀疏格式的稀疏矩阵乘法操作通常比 COO 格式的稀疏张量更快。请务必查看关于索引数据类型的说明。注意
如果未指定
device
参数,则给定的values
和索引张量必须在同一设备上。但如果指定了该参数,输入张量将被转换为指定设备,进而确定构造的稀疏张量的设备。- 参数
compressed_indices (array_like) – (B+1) 维数组,大小为
(*batchsize, compressed_dim_size + 1)
。每个批次的最后一个元素是非零元素或块的数量。此张量根据给定压缩维度(行或列)的起始位置,编码values
和plain_indices
中的索引。张量中的每个连续数字减去其前面的数字,表示给定压缩维度中元素或块的数量。plain_indices (array_like) – values 中每个元素或块的普通维度(列或行)坐标。(B+1) 维张量,长度与 values 相同。
values (array_list) – 张量的初始值。可以是列表、元组、NumPy
ndarray
、标量以及表示 (1+K) 维(对于 CSR 和 CSC 布局)或 (1+2+K) 维(对于 BSR 和 BSC 布局)张量的其他类型,其中K
是密集维度的数量。size (list, tuple,
torch.Size
, optional) – 稀疏张量的大小:(*batchsize, nrows * blocksize[0], ncols * blocksize[1], *densesize)
,其中对于 CSR 和 CSC 格式blocksize[0] == blocksize[1] == 1
。如果未提供,则推断大小为足够容纳所有非零元素或块的最小尺寸。
- 关键字参数
dtype (
torch.dtype
, 可选) – 返回张量的期望数据类型。默认值:如果为 None,则从values
推断数据类型。layout (
torch.layout
, 必需) – 返回张量的期望布局:torch.sparse_csr
,torch.sparse_csc
,torch.sparse_bsr
, 或torch.sparse_bsc
。device (
torch.device
, 可选) – 返回张量的期望设备。默认值:如果为 None,则使用默认张量类型的当前设备(参见torch.set_default_device()
)。对于 CPU 张量类型,device
将是 CPU;对于 CUDA 张量类型,将是当前 CUDA 设备。pin_memory (bool, 可选) – 如果设置,返回的张量将在固定内存中分配。仅适用于 CPU 张量。默认值:
False
。requires_grad (bool, 可选) – 是否应记录返回张量上的自动微分操作。默认值:
False
。check_invariants (bool, 可选) – 是否检查稀疏张量不变量。默认值:由
torch.sparse.check_sparse_tensor_invariants.is_enabled()
返回的值,初始为 False。
示例
>>> compressed_indices = [0, 2, 4] >>> plain_indices = [0, 1, 0, 1] >>> values = [1, 2, 3, 4] >>> torch.sparse_compressed_tensor(torch.tensor(compressed_indices, dtype=torch.int64), ... torch.tensor(plain_indices, dtype=torch.int64), ... torch.tensor(values), dtype=torch.double, layout=torch.sparse_csr) tensor(crow_indices=tensor([0, 2, 4]), col_indices=tensor([0, 1, 0, 1]), values=tensor([1., 2., 3., 4.]), size=(2, 2), nnz=4, dtype=torch.float64, layout=torch.sparse_csr)