torch.sparse_compressed_tensor¶
- torch.sparse_compressed_tensor(compressed_indices, plain_indices, values, size=None, *, dtype=None, layout=None, device=None, pin_memory=False, requires_grad=False, check_invariants=None) Tensor¶
使用给定的
compressed_indices和plain_indices,构造一个在压缩稀疏格式(CSR、CSC、BSR 或 BSC)下的 稀疏张量,并在指定位置设置值。压缩稀疏格式下的稀疏矩阵乘法运算通常比 COO 格式下的稀疏张量更快。请查看 关于索引数据类型的说明。注意
如果未指定
device参数,则给定values和索引张量(s)的设备必须匹配。但是,如果指定了该参数,则输入张量将转换为给定的设备,并依次确定构造的稀疏张量的设备。- 参数
compressed_indices (类数组) – 尺寸为
(*batchsize, compressed_dim_size + 1)的 (B+1) 维数组。每个批次的最后一个元素是非零元素或块的数量。此张量根据给定压缩维度(行或列)的起始位置,对values和plain_indices中的索引进行编码。张量中每个连续的数字减去其前面的数字表示给定压缩维度中元素或块的数量。plain_indices (类数组) –
values中每个元素或块的普通维度(列或行)坐标。(B+1) 维张量,与values长度相同。values (类数组) – 张量的初始值。可以是列表、元组、NumPy
ndarray、标量和其他类型。表示 (1+K) 维(对于 CSR 和 CSC 布局)或 (1+2+K) 维张量(对于 BSR 和 BSC 布局),其中K是密集维度的数量。size (列表、元组、
torch.Size,可选) – 稀疏张量的尺寸:(*batchsize, nrows * blocksize[0], ncols * blocksize[1], *densesize),其中对于 CSR 和 CSC 格式,blocksize[0] == blocksize[1] == 1。如果未提供,则尺寸将被推断为容纳所有非零元素或块的最小尺寸。
- 关键字参数
dtype (
torch.dtype,可选) – 返回张量的所需数据类型。默认值:如果为 None,则从values推断数据类型。layout (
torch.layout,必需) – 返回张量的所需布局:torch.sparse_csr、torch.sparse_csc、torch.sparse_bsr或torch.sparse_bsc。device (
torch.device,可选) – 返回张量的目标设备。默认:如果为 None,则使用默认张量类型的当前设备(参见torch.set_default_device())。对于 CPU 张量类型,device将为 CPU;对于 CUDA 张量类型,device将为当前 CUDA 设备。pin_memory (bool, 可选) – 如果设置,则返回的张量将在固定内存中分配。仅适用于 CPU 张量。默认:
False。requires_grad (bool, 可选) – 是否应记录返回张量的自动梯度操作。默认:
False。check_invariants (bool, 可选) – 是否检查稀疏张量的不变性。默认:由
torch.sparse.check_sparse_tensor_invariants.is_enabled()返回,最初为 False。
- 示例:
>>> compressed_indices = [0, 2, 4] >>> plain_indices = [0, 1, 0, 1] >>> values = [1, 2, 3, 4] >>> torch.sparse_compressed_tensor(torch.tensor(compressed_indices, dtype=torch.int64), ... torch.tensor(plain_indices, dtype=torch.int64), ... torch.tensor(values), dtype=torch.double, layout=torch.sparse_csr) tensor(crow_indices=tensor([0, 2, 4]), col_indices=tensor([0, 1, 0, 1]), values=tensor([1., 2., 3., 4.]), size=(2, 2), nnz=4, dtype=torch.float64, layout=torch.sparse_csr)