torch.linalg.eigh¶
- torch.linalg.eigh(A, UPLO='L', *, out=None)¶
计算复数 Hermitian 矩阵或实数对称矩阵的特征值分解。
设 为 或 ,复数 Hermitian 矩阵或实数对称矩阵 的**特征值分解**定义为
其中当 是复数时 是共轭转置,当 是实数时是转置。在实数情况下 是正交的,在复数情况下是酉矩阵。
支持 float、double、cfloat 和 cdouble 数据类型的输入。也支持批量矩阵输入,如果
A
是一批矩阵,则输出具有相同的批量维度。假设
A
是 Hermitian (或对称) 矩阵,但这在内部不进行检查,而是如果
UPLO
= ‘L’ (默认值),计算中仅使用矩阵的下三角部分。如果
UPLO
= ‘U’,仅使用矩阵的上三角部分。
特征值以升序返回。
注意
当输入在 CUDA 设备上时,此函数会将该设备与 CPU 同步。
注意
实对称矩阵或复数 Hermitian 矩阵的特征值始终是实数。
警告
对称矩阵的特征向量不是唯一的,并且相对于
A
也不是连续的。由于缺乏唯一性,不同的硬件和软件可能会计算出不同的特征向量。这种非唯一性是因为在实数情况下将特征向量乘以 -1,或在复数情况下乘以 ,都会产生另一组有效的矩阵特征向量。因此,损失函数不应依赖于特征向量的相位,因为这个量没有明确定义。计算此函数梯度时会检查复数输入。因此,当输入是复数且在 CUDA 设备上时,计算此函数梯度会将该设备与 CPU 同步。
警告
使用 eigenvectors 张量计算的梯度仅在
A
具有不同特征值时是有限的。此外,如果任意两个特征值之间的距离接近零,梯度将是数值不稳定的,因为它依赖于特征值 ,通过计算 得到。警告
如果在 CUDA 版本早于 12.1 update 1 的 CUDA 设备上对大的病态矩阵输入运行 eigh,用户可能会遇到 PyTorch 崩溃。更多详情请参阅线性代数数值稳定性。如果出现这种情况,用户可以 (1) 调整矩阵输入使其病态性降低,或者 (2) 使用
torch.backends.cuda.preferred_linalg_library()
尝试其他支持的后端。另请参见
torch.linalg.eigvalsh()
仅计算 Hermitian 矩阵的特征值。与torch.linalg.eigh()
不同,eigvalsh()
的梯度始终是数值稳定的。对于 Hermitian 矩阵的不同分解,可使用
torch.linalg.cholesky()
。Cholesky 分解提供的矩阵信息较少,但计算速度比特征值分解快得多。对于不一定是 Hermitian 的方阵的特征值分解,可使用(较慢的)函数
torch.linalg.eig()
。对于任意形状矩阵的更通用的 SVD 分解,可使用(较慢的)函数
torch.linalg.svd()
。对于适用于一般矩阵的另一种(快得多的)分解,可使用
torch.linalg.qr()
。- 参数
A (张量) – 形状为 (*, n, n) 的张量,其中 * 表示零个或多个批量维度,包含对称矩阵或 Hermitian 矩阵。
UPLO ('L', 'U', 可选) – 控制计算中使用
A
的上三角或下三角部分。默认值:‘L’。
- 关键字参数
out (元组, 可选) – 由两个张量组成的输出元组。如果为 None 则忽略。默认值:None。
- 返回
一个命名元组 (eigenvalues, eigenvectors),对应于上面提到的 和 。
eigenvalues 将始终是实数,即使
A
是复数。它也将以升序排列。eigenvectors 将具有与
A
相同的数据类型,并且其列包含特征向量。
- 示例:
>>> A = torch.randn(2, 2, dtype=torch.complex128) >>> A = A + A.T.conj() # creates a Hermitian matrix >>> A tensor([[2.9228+0.0000j, 0.2029-0.0862j], [0.2029+0.0862j, 0.3464+0.0000j]], dtype=torch.complex128) >>> L, Q = torch.linalg.eigh(A) >>> L tensor([0.3277, 2.9415], dtype=torch.float64) >>> Q tensor([[-0.0846+-0.0000j, -0.9964+0.0000j], [ 0.9170+0.3898j, -0.0779-0.0331j]], dtype=torch.complex128) >>> torch.dist(Q @ torch.diag(L.cdouble()) @ Q.T.conj(), A) tensor(6.1062e-16, dtype=torch.float64)
>>> A = torch.randn(3, 2, 2, dtype=torch.float64) >>> A = A + A.mT # creates a batch of symmetric matrices >>> L, Q = torch.linalg.eigh(A) >>> torch.dist(Q @ torch.diag_embed(L) @ Q.mH, A) tensor(1.5423e-15, dtype=torch.float64)