快捷方式

torch.linalg.lu

torch.linalg.lu(A, *, pivot=True, out=None)

计算矩阵的 LU 分解(带部分主元)。

K\mathbb{K}R\mathbb{R}C\mathbb{C},矩阵 AKm×nA \in \mathbb{K}^{m \times n} 的 **LU 分解(带部分主元)** 定义为

A=PLUPKm×m,LKm×k,UKk×nA = PLU\mathrlap{\qquad P \in \mathbb{K}^{m \times m}, L \in \mathbb{K}^{m \times k}, U \in \mathbb{K}^{k \times n}}

其中 k = min(m,n)PP 是一个 置换矩阵LL 是一个下三角矩阵,对角线上的值为 1,UU 是一个上三角矩阵。

如果 pivot= FalseA 在 GPU 上,则计算**无枢轴的 LU 分解**

A=LULKm×k,UKk×nA = LU\mathrlap{\qquad L \in \mathbb{K}^{m \times k}, U \in \mathbb{K}^{k \times n}}

pivot= False 时,返回的矩阵 P 将为空。如果 A 的任何主子式是奇异的,则无枢轴的 LU 分解可能不存在。在这种情况下,输出矩阵可能包含 infNaN

支持输入 float、double、cfloat 和 cdouble 数据类型。还支持矩阵批处理,如果 A 是矩阵的批处理,则输出具有相同的批处理维度。

另请参阅

torch.linalg.solve() 使用部分枢轴的 LU 分解求解线性方程组。

警告

LU 分解几乎从不唯一,因为通常有不同的置换矩阵可以产生不同的 LU 分解。因此,不同的平台,例如 SciPy,或不同设备上的输入,可能会产生不同的有效分解。

警告

仅当输入矩阵为满秩时才支持梯度计算。如果未满足此条件,则不会抛出错误,但梯度可能不是有限的。这是因为带枢轴的 LU 分解在这些点不可微。

参数
  • A (Tensor) – 形状为 (*, m, n) 的张量,其中 * 是零个或多个批处理维度。

  • pivot (bool, optional) – 控制是否计算带部分枢轴的 LU 分解或无枢轴的 LU 分解。默认值:True

关键字参数

out (tuple, optional) – 三个张量的输出元组。如果为 None 则忽略。默认值:None

返回值

一个名为元组 (P, L, U)

示例

>>> A = torch.randn(3, 2)
>>> P, L, U = torch.linalg.lu(A)
>>> P
tensor([[0., 1., 0.],
        [0., 0., 1.],
        [1., 0., 0.]])
>>> L
tensor([[1.0000, 0.0000],
        [0.5007, 1.0000],
        [0.0633, 0.9755]])
>>> U
tensor([[0.3771, 0.0489],
        [0.0000, 0.9644]])
>>> torch.dist(A, P @ L @ U)
tensor(5.9605e-08)

>>> A = torch.randn(2, 5, 7, device="cuda")
>>> P, L, U = torch.linalg.lu(A, pivot=False)
>>> P
tensor([], device='cuda:0')
>>> torch.dist(A, L @ U)
tensor(1.0376e-06, device='cuda:0')

文档

访问 PyTorch 的全面开发人员文档

查看文档

教程

获取适合初学者和高级开发人员的深入教程

查看教程

资源

查找开发资源并获得问题的解答

查看资源