|
q*d 发帖数: 22178 | 2 1.x和y线性相关,在x,y表象下,|x>,
本征值为C=/,其它的本征值都是0,
2.x和y线性无关,在x,y表象下,|x>,|y>的
线性组合,很容易求得为:sqrt()*|x>+sqrt()|y>,本征值为
sqrt(),其它的是0
注:|x>=x, |
|
c**********a 发帖数: 25 | 3 谢谢jszhb!
我的问题比较复杂一些。不知道可不可以讨论一下。
Z是一个n*p的矩阵。
Z’Z是p*p的矩阵。对应的特征值和特征向量为a_i和v_i.
X=Z(v_1, v_2,...v_p)
X'X=diag(a_1, a_2, ..., a_p)
X'VX
有没有可能比较矩阵X'X和X'VX的主对角线上相应的元素的大小。
万分感谢! |
|
s**p 发帖数: 207 | 4 希望大家能讨论一下,指点一下
简单的说,我就是想知道一个矩阵的逆矩阵的一个元素,有没有什么办法可以不求解整
个问题解出来,克莱默法则不合适因为求特征值COST非常高甚至搞过了LUD。
因为LUD解出了所有的N^2元素,CG解出了N个元素,有没有可能降低一下COST
I have a dense boundary element matrix A, with very large dimension. The
matrix equation is Ax=b. For a specific problem, b is all zero except the
first element. So x=A^-1_{*1}. But I only want x_1, so basically I want A^-1
_{11}.
What we are doing now is solve Ax=b by CG. but it looks redundant because
now I have all the x solved, but I only want one element. If w |
|
i********e 发帖数: 31 | 5
要看你对分布本身有什么额外的要求.
这里你得到的特征值都是均匀分布在区间(0,1)上
(注意我将你上面的randn(n,n)改成了randn(n,p) 要求p>=n,
在p>=n时,A=M*M'得到正定矩阵的概率为1.)
这种方法得到的正定矩阵实际上是来自Wishart分布W_n(V,p)
这里n是矩阵大小,p是degrees of freedom (or shape parameter),
V是一个正定矩阵(scale parameter),你这里得到的V是n阶单位阵,
因为用的是1*randn. 你产生的样本平均值应该接近期望值p*V. |
|
m****n 发帖数: 45 | 6 看起来很容易
不知道有没有什么简单办法
这里正交阵特指SO(3)中的矩阵 |
|
s****y 发帖数: 2052 | 7 consider the determinant. |
|
|
m****n 发帖数: 45 | 9 Sorry, I meant a matrix in SO(3).
So 1 must be an eigenvalue |
|
g******a 发帖数: 69 | 10 this is because all the eigenvalues are
on the unit circle, and appear conjugately. |
|
|
|
|
x*****d 发帖数: 427 | 14 办法一: 考察特征多项式展开 det(aI-A)=(a-a1)...(a-an)
办法二: Jordan 标准型 |
|
J********9 发帖数: 36508 | 15 got it, set a = 0
thanks |
|
c******m 发帖数: 599 | 16 虽然最终你是要set a=0的
不过我怕你还是没想明白... |
|
J********9 发帖数: 36508 | 17 为什么啊?
行列式的第一项为 (-a)^n
P(0)=det(A)=(-1)^n(0-a1)(0-a2)... |
|
c******m 发帖数: 599 | 18 呵呵, 我的意思是, 你如果知道这个Cayley-Hamilton theorem怎么来的就更好了 |
|
J********9 发帖数: 36508 | 19 P(a)=del(A-aI)=0
证明del(A)=a1a2a3... 不需要用到这个定理吧 [P(A)=0]
呵呵 这个定理我知道怎么弄的
thanks anyway |
|
c******m 发帖数: 599 | 20 汗, 我想说的是这个characteristic polynomial 怎么来的 |
|
w**********m 发帖数: 82 | 21 多谢。
不过我问题的本意是说特征值分解的complexity很高,
所以想知道有没有别的变换能否满足这中要求。
thanks
合, |
|
a***n 发帖数: 3633 | 22 其实道理很简单。x_dot=Ax如果你把变量重新做一次线性组合,使得新的x_dot=Ax中的
A
变成对角阵。这样就是n个独立的scalar ODE。 然后你在反解回去就可以了。基本
上就是这么回事了。实际运用的时候可以直接解exp(At).关键一点的是,除非At是对角
阵,否则exp(At)并非是把它各个元素放到指数上那么简单。这个计算需要解特征值
所以一般必须需要借助数学软件。 |
|
c******s 发帖数: 20 | 23 没有完全理解你的问题。
但是建议对于这样的大型稀疏矩阵是否应该采用Krylov子空间的方法。
不知道你的系数矩阵是否对称或者接近对称,这样不同对应着特征值问题的Lanczos 算
法和块Lanczos算法。
另外Krylov子空间迭代算法的收敛的优点避免了你上面担心的问题。 |
|
s**c 发帖数: 1247 | 24 特征值没有重根是为了证明简单点
有重根也是充要条件 |
|
c*******h 发帖数: 1096 | 25 你说的开平方也是B的一种分解,只要B是正定,分解有无数种,都可以用,最后答案一样
深入一点说,矩阵开平方运算与cholesky,与特征分解,与svd有非常紧密的联系
还有就是你可以直接算B^-1*A或者A*B^-1的最大特征值,这样最省事,只不过当
B的条件数比较大的时候误差相对来说大一点 |
|
r****o 发帖数: 1950 | 26 多谢!我会找书来看的。
不过我现在还是有点糊涂,
你说的对所有可行方向是什么意思呢?如果求F的Hessian矩阵的特征值,求出来都为正
,不就是正定吗,反之为负定。是不是没这么简单?
如果问题是:f是否存在极值,那又应该如何下手呢?能否给点建议。 |
|
r****o 发帖数: 1950 | 27 多谢!我会找书来看的。
不过我现在还是有点糊涂。
你说的“所有可行方向”是什么意思啊?
如果我求F的Hessian矩阵的特征值,如果都为正,不就是正定吗,如果都为负,则为负
定。
是不是没这么简单?
另外,如果问题是: f是否存在极值,那又该如何下手?能否给点建议。
多谢先。 |
|
|
|
|
|
s*****r 发帖数: 69 | 32 不是,但是巧合的很,也是差不多同一个问题。
同求答案。 |
|
r*****f 发帖数: 247 | 33 F. Zhang and Q. Zhang, “Eigenvalue inequalities for matrix product,”
IEEE Trans. Autom. Control, vol. 51, pp. 1506-1509, Sept. 2006.
J. R. Magnus and H. Neudecker, Matrix Differential Calculus with
Applications in Statistics and Econometrics, New York: Wiley, 1999. |
|
s*****r 发帖数: 69 | 34 感觉到数学基础差的劣势了,几天也没结果,着急了。各位谁有空帮着看看啊,先谢谢
了! |
|
|
g******s 发帖数: 410 | 36 我知道SVD或者特征分解,在SVD分解中,我们可以将矩阵A表示成一组正交向量外积的加
权和,权重就是特征值或者奇异值。我想要证明的是半正定的Hermitian矩阵A(抑或再
加上Toeplitz特性)如何分解成某“一个”向量的外积。我想这里A肯定要满足一些条件
才行,那么是什么条件呢? |
|
|
g******s 发帖数: 410 | 38 那不就回到特征值分解了吗?这个半正定矩阵表示为一组(可能是N个)特征向量外积的
加权和,而不是某一个(随机)向量的外积。不知道我的理解有没有不对?我原来的问
题是想把A分解成一个列向量的外积的期望。 |
|
i********e 发帖数: 31 | 39 Yes.
Matrix Analysis: Roger A. Horn, Charles R. Johnson - Google Books Result
by Roger A. Horn, Charles R. Johnson - 1985 - Science - 561 pages
"The following result, an immediate corollary of Weyl's theorem known as the
monotonicity theorem, says that all the eigenvalues of a Hermitian matrix .
.."
books.google.com/books?isbn=0521386322... |
|
c*******h 发帖数: 1096 | 40 if alpha and beta are linearly independent, the two nonzero eigenvalues
are
/----------------------
(ax+by) + / (ax-by)^2 + 4(az)(bz)
-/ |
|
|
c*******h 发帖数: 1096 | 42 by the definition of eigenvalues and eigenvectors,
and note that the corresponding eigenvectors are linear combinations of
alpha and beta. |
|
|
h***l 发帖数: 3048 | 44 如果P是个对称矩阵,可以正定,负定,或者不定,是否都有
\lambda_min(P)\|x\|^2 \leq X^TPX \leq \lambda_max(P)\|x\|^2
\lambda_min(P) 和 \lambda_max(P) 分别代表最小和最大特征值。
另外, 是否有 \|PX\| \leq \|P\| \|x\|
这里面x是个向量,不是矩阵。 |
|
|
t********n 发帖数: 1524 | 46 应该可以算出这个symbolic的特征值和特征向量
知道了这个,好像也对求逆没什么帮助啊
你有什么好办法? |
|
k*******g 发帖数: 263 | 47 可以用function analysis的theory来证明吗? |
|
A*******r 发帖数: 768 | 48 inverse eigenvalue problem
很多文章的,飘过
存在 |
|
hs 发帖数: 1549 | 49 这个矩阵是idempotent的,特征值为0或1 |
|
b*****n 发帖数: 78 | 50 据我的了解,好像O(N*P^2)是当矩阵只有 P 个非零特征值并且只求前 P 个特征向量的
算法复杂度。 |
|