快捷方式

torch.linalg.eig

torch.linalg.eig(A, *, out=None)

计算方阵的特征值分解(如果存在)。

K\mathbb{K}R\mathbb{R}C\mathbb{C},方阵 AKn×nA \in \mathbb{K}^{n \times n}特征值分解(如果存在)定义为

A=Vdiag(Λ)V1VCn×n,ΛCnA = V \operatorname{diag}(\Lambda) V^{-1}\mathrlap{\qquad V \in \mathbb{C}^{n \times n}, \Lambda \in \mathbb{C}^n}

此分解存在当且仅当 AA可对角化的。当其所有特征值都不同时,情况就是如此。

支持 float、double、cfloat 和 cdouble dtypes 的输入。还支持矩阵批处理,如果 A 是矩阵批处理,则输出具有相同的批处理维度。

返回的特征值不保证有任何特定顺序。

注意

实矩阵的特征值和特征向量可能是复数。

注意

当输入在 CUDA 设备上时,此函数会将该设备与 CPU 同步。

警告

此函数假定 A可对角化的(例如,当所有特征值都不同时)。如果它不可对角化,则返回的特征值将是正确的,但 AVdiag(Λ)V1A \neq V \operatorname{diag}(\Lambda)V^{-1}

警告

返回的特征向量被归一化为范数 1。即便如此,矩阵的特征向量也不是唯一的,它们也不相对于 A 连续。由于这种缺乏唯一性,不同的硬件和软件可能会计算出不同的特征向量。

这种非唯一性是由于将特征向量乘以 eiϕ,ϕRe^{i \phi}, \phi \in \mathbb{R} 会产生该矩阵的另一组有效特征向量。因此,损失函数不应依赖于特征向量的相位,因为此量未明确定义。在计算此函数的梯度时会检查这一点。因此,当输入在 CUDA 设备上时,此函数的梯度计算会将该设备与 CPU 同步。

警告

仅当 A 具有不同的特征值时,使用 eigenvectors 张量计算的梯度才是有限的。此外,如果任意两个特征值之间的距离接近于零,则梯度将在数值上不稳定,因为它取决于特征值 λi\lambda_i 通过计算 1minijλiλj\frac{1}{\min_{i \neq j} \lambda_i - \lambda_j}

另请参阅

torch.linalg.eigvals() 仅计算特征值。与 torch.linalg.eig() 不同,eigvals() 的梯度始终在数值上是稳定的。

torch.linalg.eigh() 一个(更快的)函数,用于计算 Hermitian 和对称矩阵的特征值分解。

torch.linalg.svd() 一个函数,用于计算另一种类型的谱分解,适用于任何形状的矩阵。

torch.linalg.qr() 另一种(更快得多的)分解,适用于任何形状的矩阵。

参数

A (Tensor) – 形状为 (*, n, n) 的张量,其中 * 是零个或多个由可对角化矩阵组成的批次维度。

关键字参数

out (tuple, optional) – 包含两个张量的输出元组。如果为 None 则忽略。默认值:None。

返回

一个名为 (eigenvalues, eigenvectors) 的命名元组,对应于上面的 Λ\LambdaVV

eigenvalueseigenvectors 将始终是复数值,即使 A 是实数。特征向量将由 eigenvectors 的列给出。

示例

>>> A = torch.randn(2, 2, dtype=torch.complex128)
>>> A
tensor([[ 0.9828+0.3889j, -0.4617+0.3010j],
        [ 0.1662-0.7435j, -0.6139+0.0562j]], dtype=torch.complex128)
>>> L, V = torch.linalg.eig(A)
>>> L
tensor([ 1.1226+0.5738j, -0.7537-0.1286j], dtype=torch.complex128)
>>> V
tensor([[ 0.9218+0.0000j,  0.1882-0.2220j],
        [-0.0270-0.3867j,  0.9567+0.0000j]], dtype=torch.complex128)
>>> torch.dist(V @ torch.diag(L) @ torch.linalg.inv(V), A)
tensor(7.7119e-16, dtype=torch.float64)

>>> A = torch.randn(3, 2, 2, dtype=torch.float64)
>>> L, V = torch.linalg.eig(A)
>>> torch.dist(V @ torch.diag_embed(L) @ torch.linalg.inv(V), A)
tensor(3.2841e-16, dtype=torch.float64)

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取面向初学者和高级开发者的深入教程

查看教程

资源

查找开发资源并获得解答

查看资源