微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

为什么这两种查找特征向量的方式在python中不同?

如何解决为什么这两种查找特征向量的方式在python中不同?

import numpy as np
#first way
A = np.array([[1,1],[-2,1,0]])
print(A)
B = A@A.transpose()
print(B)
eig_val,eig_vec = np.linalg.eig(B)
print(eig_vec)

#second way
from sympy import * 
G = Matrix([[2,-2],5]])
print(G.eigenvects())

为什么这两种方法在寻找特征向量的相同目标上却给出不同的结果?

解决方法

已经提到,特征向量仅在标量倍数之前是唯一的。这是一个数学事实。为了深入研究您使用的方法的实现,numpy.linalg.eig返回归一化特征向量(即向量的范数为1),而{{1}的eigenvects() }不能对向量进行归一化。

从某种意义上说,归一化向量之所以唯一是因为它们具有单位范数。他们可以定义单位特征方向(在几何上),就像坐标几何中的单位向量一样。 (知道并不是很重要)

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。