torch.linalg.matrix_rank¶
- torch.linalg.matrix_rank(A, *, atol=None, rtol=None, hermitian=False, out=None) Tensor ¶
计算矩阵的数值秩。
矩阵的秩计算为大于阈值 的奇异值数量(或当
hermitian
= True 时,为绝对值大于该阈值的特征值数量),其中 是最大奇异值(或特征值)。支持 float, double, cfloat 和 cdouble 数据类型的输入。也支持矩阵的批处理,如果
A
是一批矩阵,则输出具有相同的批处理维度。如果
hermitian
= True,则假定A
在复数情况下是厄米矩阵,在实数情况下是对称矩阵,但这在内部不进行检查。计算中仅使用矩阵的下三角部分。如果未指定
rtol
并且A
是维度为 (m, n) 的矩阵,则相对容差设置为 ,其中 是A
数据类型的 epsilon 值(参见finfo
)。如果未指定rtol
且指定了大于零的atol
,则将rtol
设置为零。如果
atol
或rtol
是torch.Tensor
,其形状必须能广播到torch.linalg.svdvals()
返回的A
的奇异值的形状。注意
此函数有一个 NumPy 兼容的变体 linalg.matrix_rank(A, tol, hermitian=False)。但是,不推荐使用位置参数
tol
,而推荐使用atol
和rtol
。注意
如果
hermitian
= False(默认),则使用奇异值分解torch.linalg.svdvals()
计算矩阵的秩;当hermitian
= True 时,使用特征值分解torch.linalg.eigvalsh()
计算。当输入在 CUDA 设备上时,此函数会将该设备与 CPU 同步。- 参数
- 关键字参数
示例
>>> A = torch.eye(10) >>> torch.linalg.matrix_rank(A) tensor(10) >>> B = torch.eye(10) >>> B[0, 0] = 0 >>> torch.linalg.matrix_rank(B) tensor(9) >>> A = torch.randn(4, 3, 2) >>> torch.linalg.matrix_rank(A) tensor([2, 2, 2, 2]) >>> A = torch.randn(2, 4, 2, 3) >>> torch.linalg.matrix_rank(A) tensor([[2, 2, 2, 2], [2, 2, 2, 2]]) >>> A = torch.randn(2, 4, 3, 3, dtype=torch.complex64) >>> torch.linalg.matrix_rank(A) tensor([[3, 3, 3, 3], [3, 3, 3, 3]]) >>> torch.linalg.matrix_rank(A, hermitian=True) tensor([[3, 3, 3, 3], [3, 3, 3, 3]]) >>> torch.linalg.matrix_rank(A, atol=1.0, rtol=0.0) tensor([[3, 2, 2, 2], [1, 2, 1, 2]]) >>> torch.linalg.matrix_rank(A, atol=1.0, rtol=0.0, hermitian=True) tensor([[2, 2, 2, 1], [1, 2, 2, 2]])