torch.linalg.matrix_rank¶
- torch.linalg.matrix_rank(A, *, atol=None, rtol=None, hermitian=False, out=None) Tensor ¶
计算矩阵的数值秩。
矩阵的秩计算为奇异值的数量(如果
hermitian
= True,则为绝对值中的特征值),这些奇异值大于阈值 ,其中 是最大的奇异值(或特征值)。支持 float、double、cfloat 和 cdouble dtype 的输入。还支持矩阵批处理,如果
A
是矩阵批处理,则输出具有相同的批处理维度。如果
hermitian
= True,则假定A
在复数情况下为 Hermitian 矩阵,在实数情况下为对称矩阵,但这在内部不进行检查。相反,计算中仅使用矩阵的下三角部分。如果未指定
rtol
且A
是维度为 (m, n) 的矩阵,则相对容差设置为 ,其中 是A
的 dtype 的 epsilon 值(请参阅finfo
)。如果未指定rtol
且atol
指定为大于零,则rtol
设置为零。如果
atol
或rtol
是torch.Tensor
,则其形状必须可广播到torch.linalg.svdvals()
返回的A
的奇异值形状。注意
此函数具有 NumPy 兼容的变体 linalg.matrix_rank(A, tol, hermitian=False)。但是,不建议使用位置参数
tol
,而推荐使用atol
和rtol
。注意
矩阵秩是使用奇异值分解
torch.linalg.svdvals()
(如果hermitian
= False,默认值)和特征值分解torch.linalg.eigvalsh()
(当hermitian
= True 时)计算的。当输入在 CUDA 设备上时,此函数会将该设备与 CPU 同步。- 参数
- 关键字参数
示例
>>> A = torch.eye(10) >>> torch.linalg.matrix_rank(A) tensor(10) >>> B = torch.eye(10) >>> B[0, 0] = 0 >>> torch.linalg.matrix_rank(B) tensor(9) >>> A = torch.randn(4, 3, 2) >>> torch.linalg.matrix_rank(A) tensor([2, 2, 2, 2]) >>> A = torch.randn(2, 4, 2, 3) >>> torch.linalg.matrix_rank(A) tensor([[2, 2, 2, 2], [2, 2, 2, 2]]) >>> A = torch.randn(2, 4, 3, 3, dtype=torch.complex64) >>> torch.linalg.matrix_rank(A) tensor([[3, 3, 3, 3], [3, 3, 3, 3]]) >>> torch.linalg.matrix_rank(A, hermitian=True) tensor([[3, 3, 3, 3], [3, 3, 3, 3]]) >>> torch.linalg.matrix_rank(A, atol=1.0, rtol=0.0) tensor([[3, 2, 2, 2], [1, 2, 1, 2]]) >>> torch.linalg.matrix_rank(A, atol=1.0, rtol=0.0, hermitian=True) tensor([[2, 2, 2, 1], [1, 2, 2, 2]])