快捷方式

torch.linalg.eigh

torch.linalg.eigh(A, UPLO='L', *, out=None)

计算复厄米特或实对称矩阵的特征值分解。

K\mathbb{K}R\mathbb{R}C\mathbb{C},复埃尔米特矩阵或实对称矩阵 AKn×nA \in \mathbb{K}^{n \times n} 的**特征值分解**定义如下:

A=Qdiag(Λ)QHQKn×n,ΛRnA = Q \operatorname{diag}(\Lambda) Q^{\text{H}}\mathrlap{\qquad Q \in \mathbb{K}^{n \times n}, \Lambda \in \mathbb{R}^n}

其中,当 QQ 为复数时,QHQ^{\text{H}} 是共轭转置;当 QQ 为实数时,QHQ^{\text{H}} 是转置。在实数情况下,QQ 是正交矩阵;在复数情况下,QQ 是酉矩阵。

支持 float、double、cfloat 和 cdouble 数据类型作为输入。也支持矩阵批处理,如果 A 是一个矩阵批处理,则输出具有相同的批处理维度。

A 假设为埃尔米特矩阵(或对称矩阵),但内部不进行检查。

  • 如果 UPLO= ‘L’(默认),则仅使用矩阵的下三角部分进行计算。

  • 如果 UPLO= ‘U’,则仅使用矩阵的上三角部分进行计算。

特征值按升序返回。

注意

当输入在 CUDA 设备上时,此函数会将该设备与 CPU 同步。

注意

实对称矩阵或复埃尔米特矩阵的特征值始终为实数。

警告

对称矩阵的特征向量不唯一,也不关于 A 连续。由于这种不唯一性,不同的硬件和软件可能会计算出不同的特征向量。

这种非唯一性是由以下事实引起的:在实数情况下,将特征向量乘以-1,或者在复数情况下乘以eiϕ,ϕRe^{i \phi}, \phi \in \mathbb{R},都会产生另一组矩阵的有效特征向量。因此,损失函数不应该依赖于特征向量的相位,因为这个量没有明确定义。在计算此函数的梯度时,会针对复数输入进行检查。因此,当输入为复数且位于 CUDA 设备上时,此函数的梯度计算会将该设备与 CPU 同步。

警告

A具有不同的特征值时,使用eigenvectors张量计算的梯度才是有限的。此外,如果任意两个特征值之间的距离接近于零,则梯度在数值上是不稳定的,因为它依赖于特征值λi\lambda_i,通过计算1minijλiλj\frac{1}{\min_{i \neq j} \lambda_i - \lambda_j}.

警告

如果在 CUDA 版本低于 12.1 更新 1 的 CUDA 设备上对输入为大型病态矩阵的eigh进行运行,用户可能会看到 PyTorch 崩溃。有关更多详细信息,请参阅线性代数数值稳定性。如果出现这种情况,用户可以 (1) 调整其矩阵输入使其病态程度降低,或者 (2) 使用torch.backends.cuda.preferred_linalg_library()尝试其他受支持的后端。

另请参阅

torch.linalg.eigvalsh()仅计算埃尔米特矩阵的特征值。与torch.linalg.eigh()不同,eigvalsh()的梯度在数值上始终是稳定的。

torch.linalg.cholesky()用于埃尔米特矩阵的不同分解。Cholesky 分解提供了关于矩阵较少的信息,但计算速度比特征值分解快得多。

torch.linalg.eig()用于计算不一定为埃尔米特矩阵的方阵的特征值分解的(较慢)函数。

torch.linalg.svd()用于计算任意形状的矩阵的更一般的 SVD 分解的(较慢)函数。

torch.linalg.qr()用于另一种(快得多)适用于一般矩阵的分解。

参数
  • A (张量) – 形状为(*, n, n)的张量,其中*为零个或多个批处理维度,包含对称或埃尔米特矩阵。

  • UPLO ('L', 'U', 可选) – 控制在计算中是否使用A的上三角部分或下三角部分。默认值:‘L’

关键字参数

out (元组, 可选) – 输出两个张量的元组。如果为None则忽略。默认值:None

返回值

一个名为元组(eigenvalues, eigenvectors),对应于上文中的Λ\LambdaQQ

eigenvalues 将始终为实数值,即使A 为复数。它也将按升序排列。

eigenvectors 将与A 的数据类型相同,并将包含特征向量作为其列。

示例:
>>> A = torch.randn(2, 2, dtype=torch.complex128)
>>> A = A + A.T.conj()  # creates a Hermitian matrix
>>> A
tensor([[2.9228+0.0000j, 0.2029-0.0862j],
        [0.2029+0.0862j, 0.3464+0.0000j]], dtype=torch.complex128)
>>> L, Q = torch.linalg.eigh(A)
>>> L
tensor([0.3277, 2.9415], dtype=torch.float64)
>>> Q
tensor([[-0.0846+-0.0000j, -0.9964+0.0000j],
        [ 0.9170+0.3898j, -0.0779-0.0331j]], dtype=torch.complex128)
>>> torch.dist(Q @ torch.diag(L.cdouble()) @ Q.T.conj(), A)
tensor(6.1062e-16, dtype=torch.float64)
>>> A = torch.randn(3, 2, 2, dtype=torch.float64)
>>> A = A + A.mT  # creates a batch of symmetric matrices
>>> L, Q = torch.linalg.eigh(A)
>>> torch.dist(Q @ torch.diag_embed(L) @ Q.mH, A)
tensor(1.5423e-15, dtype=torch.float64)

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取适合初学者和高级开发者的深入教程

查看教程

资源

查找开发资源并获得问题的解答

查看资源