特征向量很复杂,但仅适用于大型矩阵

Eigenvectors are complex but only for large matrices

我正在尝试计算该矩阵的特征向量和特征值

import numpy as np
la = 0.02
mi = 0.08
n = 500

d1 = np.full(n, -(la+mi), np.double)
d1[0] = -la
d1[-1] = -mi
d2 = np.full(n-1, la, np.double)
d3 = np.full(n-1, mi, np.double)

A = np.diagflat(d1) + np.diagflat(d2, -1) + np.diag(d3, 1)
e_values, e_vectors = np.linalg.eig(A)

如果我将矩阵的维度设置为 n < 110,则输出很好。但是,如果我将它设置为 n >= 110,则特征值和特征向量分量都会变成具有显着虚部的复数。为什么会这样?它应该发生吗?这是非常奇怪的行为,坦率地说,我有点卡住了。

您看到的似乎是相当正常的舍入误差。这是以有限精度存储浮点数的不幸结果。对于大问题,它自然会变得相对更糟。这是特征值的实部与虚部的关系图:

你可以看到虚数实际上是噪声。这并不是说它们不重要。这是虚部与实部的关系图,表明在最坏的情况下该比率可以达到 0.06:

此比率相对于绝对量和相对量 lami 发生变化。如果将两者都乘以 10,则会得到

如果你保持la = 0.02并设置mi = 0.8,你得到一个较小的虚部:

当你反其道而行之时,事情会变得很奇怪,将 la 增加 10 倍,保持 mi 不变:

对于较小的特征值,计算的相对精度会降低,所以这并不奇怪。

鉴于虚部相对较小的量级(至少对于重要的特征值而言),您可以采用结果的量级或实部,因为您知道所有特征值都是实数。