为什么特征向量与对应特征值的乘积不等于原矩阵与特征向量的乘积?

Why does the product of the eigenvector and the corresponding eigenvalue not equal the product of the original matrix and the eigenvector?

当我将一个特征向量乘以一个矩阵时,它的结果应该与将该特征向量与其对应的特征值相乘的结果相同。我正在尝试验证我的特征向量和特征值是否像宣传的那样工作,但输出似乎不正确。

cov_matrix = np.cov(scaled_data)
eig_vals, eig_vecs = np.linalg.eigh(cov_matrix)

a = cov_matrix.dot(eig_vecs[:, 0])
b = eig_vecs[:, 0] * eig_vals[0]

当我打印 a 和 b 时,它们的形状相同,但它们的值都不同。这里出了什么问题?

尝试以下操作:

import numpy as np

np.random.seed(42) # for reproducibility
A = np.random.random((10,10)) + np.random.random((10,10)) * 1j
eig_vals, eig_vecs = np.linalg.eigh(A)

np.allclose(A @ eig_vecs[:, 0], eig_vals[0] * eig_vecs[:, 0])
>>> False

请记住,np.linalg.eigh return 复厄尔米特矩阵(共轭对称矩阵)或实对称矩阵的特征值和特征向量。所以对于厄米矩阵:

A = (A + A.T.conj())/2  # Here A is forced Hermitian now
eig_vals, eig_vecs = np.linalg.eigh(A)

print(np.allclose(A @ eig_vecs[:, 0], eig_vals[0] * eig_vecs[:, 0]))
>>> True

在对角化之前检查 cov_matrix 是否与 np.allclose(cov_matrix, cov_matrix.T.conj()) 之类的东西对称。如果没有,您可以使用 np.linalg.eig.