t**********g 发帖数: 30 | 1 Y_1 = a_1 X + N_1
Y_2 = a_2 X + N_2
where a_1 and a_2 are constants; X, N_1 and N_2 are independent zero-mean
Gaussian. What's the mutual information between Y_1 and Y_2?
谢谢 |
J*******g 发帖数: 267 | 2 use I(Y_1; Y_2) = h(Y_1) + h(Y_2) - h(Y_1, Y_2)
【在 t**********g 的大作中提到】 : Y_1 = a_1 X + N_1 : Y_2 = a_2 X + N_2 : where a_1 and a_2 are constants; X, N_1 and N_2 are independent zero-mean : Gaussian. What's the mutual information between Y_1 and Y_2? : 谢谢
|
t**********g 发帖数: 30 | 3 谢谢
我可以算出来 H(Y1) H(Y2)
但是不知道 H(Y1,Y2) 主要是不知道 p(Y1,Y2)
Y1 和 Y2不是独立的很麻烦 |
J*******g 发帖数: 267 | 4 Since Y_1 and Y_2 are joint Gaussian, you only need their covariance matrix
to compute the joint entropy. No need for the joint density
【在 t**********g 的大作中提到】 : 谢谢 : 我可以算出来 H(Y1) H(Y2) : 但是不知道 H(Y1,Y2) 主要是不知道 p(Y1,Y2) : Y1 和 Y2不是独立的很麻烦
|
t**********g 发帖数: 30 | 5 谢谢 那 C_(Y_1Y_2) 怎么用equation表示出来呢 现在我需要详细的数学推导 其实我
没有实际的Y_1 Y_2 可以直接算 convariance matrix. 我需要equation 来表示。 不
知道那个joint Gaussian 的 covariance 可不可以用
C_x 和 N1 N2 表示出来? |
t**********g 发帖数: 30 | 6 对了,怎么证明 Y1 Y2是 joint Gaussian 呢? 有没有什么经典的 书
我自己推 Y1-Y2=(a1-a2)X+N1-N2
推不动了,因为 Y2 和 N2 不独立,要不 p(Y1|Y2) 也是一个Gaussian 就好办了。
所以我想知道 为什么 Y1 Y2 是joint Gaussian? |
J*******g 发帖数: 267 | 7 Y_1 and Y_2 are JG since each of them is a linear combination of iid
Gaussian random variables (X, N_1, N_2)
【在 t**********g 的大作中提到】 : 对了,怎么证明 Y1 Y2是 joint Gaussian 呢? 有没有什么经典的 书 : 我自己推 Y1-Y2=(a1-a2)X+N1-N2 : 推不动了,因为 Y2 和 N2 不独立,要不 p(Y1|Y2) 也是一个Gaussian 就好办了。 : 所以我想知道 为什么 Y1 Y2 是joint Gaussian?
|
t**********g 发帖数: 30 | 8 谢谢 那像我这种情况的话 Y1 和 Y2的 correlation coefficient 应该是多少呢? |
t**********g 发帖数: 30 | |
a******m 发帖数: 1468 | 10
X=Y_2/a_2 - N_2/a_2. Hence
Y_1=a_1/a_2 Y_2 - a_1/a_2 N_2 + N_1
It is a Gaussian channel model. You can do the rest.
【在 t**********g 的大作中提到】 : Y_1 = a_1 X + N_1 : Y_2 = a_2 X + N_2 : where a_1 and a_2 are constants; X, N_1 and N_2 are independent zero-mean : Gaussian. What's the mutual information between Y_1 and Y_2? : 谢谢
|