torch.linalg.eig#
- torch.linalg.eig(A, *, out=None)#
计算方阵的特征值分解(如果存在)。
令 为 或 ,方阵 的**特征值分解**(如果存在)定义为
此分解存在当且仅当 是 可对角化的。当其所有特征值都不同时,这种情况成立。
支持浮点 (float)、双精度浮点 (double)、复数浮点 (cfloat) 和复数双精度浮点 (cdouble) 数据类型。还支持矩阵批处理,如果 `A` 是一个矩阵批处理,则输出具有相同的批处理维度。
返回的特征值不保证按任何特定顺序排列。
注意
实数矩阵的特征值和特征向量可能是复数。
注意
当输入在 CUDA 设备上时,此函数会使该设备与 CPU 同步。
警告
此函数假定
A
是 可对角化的(例如,当所有特征值都不同时)。如果它不可对角化,则返回的特征值是正确的,但 .警告
返回的特征向量被归一化为范数 1。即便如此,矩阵的特征向量也不是唯一的,也不是关于
A
连续的。由于这种非唯一性,不同的硬件和软件可能计算出不同的特征向量。这种非唯一性是由一个事实引起的:将特征向量乘以 会产生另一组有效的矩阵特征向量。因此,损失函数不应依赖于特征向量的相位,因为该量不是明确定义的。在计算此函数的梯度时会检查这一点。因此,当输入在 CUDA 设备上时,此函数梯度的计算会使该设备与 CPU 同步。
警告
使用 eigenvectors 张量计算的梯度仅在
A
具有不同特征值时才为有限值。此外,如果任意两个特征值之间的距离接近于零,则梯度在数值上是不稳定的,因为它依赖于特征值 通过计算 .另请参阅
torch.linalg.eigvals()
仅计算特征值。与torch.linalg.eig()
不同,eigvals()
的梯度在数值上始终是稳定的。对于
torch.linalg.eigh()
,这是一个(更快的)函数,用于计算厄米矩阵和对称矩阵的特征值分解。对于
torch.linalg.svd()
,这是一个计算另一种谱分解的函数,适用于任何形状的矩阵。对于
torch.linalg.qr()
,这是一个(快得多)的分解,适用于任何形状的矩阵。- 参数
A (Tensor) – 形状为 (*, n, n) 的张量,其中 * 是零个或多个批次维度,由可对角化矩阵组成。
- 关键字参数
out (tuple, optional) – 包含两个张量的输出元组。如果为 None 则忽略。默认为 None。
- 返回
一个命名元组 (eigenvalues, eigenvectors),对应于上面的 和 。
eigenvalues 和 eigenvectors 始终为复数值,即使
A
为实数。特征向量将由 eigenvectors 的列给出。
示例
>>> A = torch.randn(2, 2, dtype=torch.complex128) >>> A tensor([[ 0.9828+0.3889j, -0.4617+0.3010j], [ 0.1662-0.7435j, -0.6139+0.0562j]], dtype=torch.complex128) >>> L, V = torch.linalg.eig(A) >>> L tensor([ 1.1226+0.5738j, -0.7537-0.1286j], dtype=torch.complex128) >>> V tensor([[ 0.9218+0.0000j, 0.1882-0.2220j], [-0.0270-0.3867j, 0.9567+0.0000j]], dtype=torch.complex128) >>> torch.dist(V @ torch.diag(L) @ torch.linalg.inv(V), A) tensor(7.7119e-16, dtype=torch.float64) >>> A = torch.randn(3, 2, 2, dtype=torch.float64) >>> L, V = torch.linalg.eig(A) >>> torch.dist(V @ torch.diag_embed(L) @ torch.linalg.inv(V), A) tensor(3.2841e-16, dtype=torch.float64)