p********a 发帖数: 5352 | 1 ☆─────────────────────────────────────☆
genechip (Smile) 于 (Mon Jan 22 09:30:20 2007) 提到:
I understand the function of MLE is still MLE.
If I have two parameters and know their maximum likelihood estimates and
variance. I divide one by the other. I wonder the ratio of MLEs is still MLE
? How can I calculate the variance of this ratio.
Thanks.
☆─────────────────────────────────────☆
marioes (back) 于 (Mon Jan 22 12:58:24 2007) 提到:
I am afraid not.
MLE
☆────────────────────────────────── |
|
L*******t 发帖数: 2385 | 2 我咋感觉MLE对付的是IID的分布,QMLE就灵活的多,asymptotically,QMLE->MLE |
|
z****g 发帖数: 1978 | 3 你MLE还没入门
MLE的本质是最大熵,大样本时log-likelihood function是逼近分布的熵的,这个也是
真实世界里的终极规律。所以虽然一般来说log-likelihood function直接用的是density
function,但是这个是连续变量的情况。一般情况下应该是distribution function的微分,所以
你不能直接把变换过以后的数值带到standard normal distribution的density里
你那个残差的概念,只不过是入门。
统计两大估计方法:MLE类和Momentum类,第一类是直接基于最大熵的,第二类是基于
分布的Momentum Generating function的Taylor逼近。
N( |
|
c*******e 发帖数: 150 | 4 DataSciences 版有一位朋友指出在 rho 给定情况下优化 beta 很简单(分别滤波X(t)
和Y(t) 序列,对应的噪音项就是白化了的\sigma * Z(t) 序列,i.i.d.了);而在
beta 给定的情况下优化 rho 也很简单,所以我们可以 iteratively 地数值解出一个
fixed point [rho_star, beta_star]。(在 rho 和 beta 都给定的情况下解出
小sigma 的 MLE很容易 )
从操作性上来看这样的算法非常地理想,实际编程试验后发现收敛也很快很稳定。最后
还是有点小好奇,有没有什么理论的结论保证这样的 fixed-point
[rho_star, beta_star] 也是globally maximizes the likelihood function 呢?不好
意思对于这个“MLE”的 optimality 比较在乎,因为下一步需要基于 MLE 的性质做
LLR test 等等,所以如果全局最优性有理论的保证基础可以很坚实一些,觉觉睡得更香
一些 *^_^*
有找 |
|
c****c 发帖数: 29 | 5 Maximum likelihood estimation 通常是假设残差是正态分布的,quasi MLE可以估计
残差是任何分布?那在likelihood function上有什么区别呢?
有大侠可以讲讲吗?或者推荐相关的书籍?谢谢~~研究Bollershev&Woodridge(1992),
看的好晕。。。 |
|
L*******t 发帖数: 2385 | 6 你说的不会是Density Expansion吧。。
那个是Markov SDE的,用Kolmogorov Equation。。
那个似乎就是MLE吧??? |
|
o******6 发帖数: 538 | 7 ☆─────────────────────────────────────☆
qian091 (november) 于 (Wed Mar 5 12:09:13 2008) 提到:
请教:已知error属于multivariate t distribution,covariance matrix 的MLE是什么
形式?和normal下的(n-1)/n * sample covariace matrix不同吧。
thanks!!
☆─────────────────────────────────────☆
jesonchang (jesonchang) 于 (Wed Mar 5 21:09:07 2008) 提到:
t is actually a scaled mixture normal. It seems that there is no closed form
solution for MLE, but EM algorithm should work definitely.
☆─────────────────────────────────────☆ |
|
a***g 发帖数: 2761 | 8 应该aic用的k-l divergence, bic用的不是
不过我这里有几点不太明白的地方
这里拟合的地方是指把A怎么处理?A是给定的,那么X和Y是不是实现给定的值
我看的感觉是它们不是预先给定,可能是通过mle得到的一组参数的值。当然这个也不
是最重要的。
现在我主要有一个疑惑,通过看你的帖子不太明白。当然我的疑问也不一定合理,一起
探讨一下吧。
我就按我的理解来说,在最开始拟合的时候我们是不是可以把形式写成这样:X=f(A,F)
这里F为一个分布,你把n(0,1)写在右边,我的感觉就是假设正态假定成立,然后开始用
mle估计参数。也就是先假定F=N(0,1)。那么到底F是不是正态,只能说靠过去的经验或
者是蒙的。这里就有了一个要考虑的地方,X和Y两个模型是不是不受F的影响,或者说
是否受F的影响很小。如果F对f有影响,X更贴合数据,Y更迎合正态假设,那么完全可能
出现你说的这个情况:即使在正态假定成立的情况下,拟合的时候X仍然有比较大的似然,
在考虑反过来的时候,由于F也不一定就是正态,所以Y可能通过反函数相对N(0,1)得到更
大的似然。关键就在你通过反函数再次来做衡量,这里逻... 阅读全帖 |
|
c*******e 发帖数: 150 | 9 【 以下文字转载自 Statistics 讨论区 】
发信人: cavaliere (Un Baiser S'il Vous Plaît), 信区: Statistics
标 题: Regression中噪音项是一个AR(1),如何做MLE或者其它Fit?
发信站: BBS 未名空间站 (Mon Sep 15 22:02:42 2014, 美东)
想请教一下版上的各位大牛们,如果
Linear Regression中Noise Term是一个AR(1) process,通常都有什么成熟的算法做
MLE 或者其它方法 fit ?
具体的说,模型可以表示为 Y(t) = X(t) \dot \beta + E(t),
X(t) 和 \beta 都是 K-维的向量,其它都是标量。
t = 1, 2, 3, ..., T 是手头的 sample,
但是和经典的 Linear Regression 不同,E(t) 不是 i.i.d. 的高斯白噪音,可以假定
E(t) 服从一下 model:
E(t) = \rho * E(t-1) + \sigma * Z(t)
\rho 和 \s... 阅读全帖 |
|
c*******e 发帖数: 150 | 10 Awesome. Upon doing further survey on this topic, I also think this is the
best solution.
Out of curiosity, may I ask a further questions:
given the sample X(t) and Y(t), suppose that beta_star(rho_star) maximized
the likehihood function of all beta given that rho == rho_star, and
rho_star(beta_star) maximized the likelihood function of all rho given that
beta == beta_star, namely this pair of beta_star(rho_star) and
rho_star(beta_star) is the fixed-point which we converged at step (3), is
there... 阅读全帖 |
|
p***a 发帖数: 104 | 11 I am a Laotu. So what's MLE? |
|
h***a 发帖数: 145 | 12 Hi,
I am wondering if anyone worked on MLE-15 cells transfection with siRNA
before?
What lipid solution did you use and at what confluency point did you
transfect the cells?
Thanks a lot |
|
i*****g 发帖数: 5 | 13 大虾救命!!!
How to find out the MLE of logistic distri.
f(x)=e^-1*(1+e^-1)^-2
it should be related to fisher information. but I do not
know how to calculate
the fisher information number.
also how to prove its variance=pi^2/3???
Thanks |
|
c******e 发帖数: 18 | 14 To consider MLE of a distribution, in the form of density,
there should have a parameter, so I think maybe u forgot to
include it. Is the density like this:
f(x,a)=e^(-(x-a))/[1+e^(-(x-a))]^2, it's the logistic
distribution.
For this distribution, consider L(x,a), which is
L(x,a)=f(x1,a)*f(x2,a)*...*f(xn,a) and take log both sides,
l(x,a)=log[f(x1,a)]+log[f(x2,a)]+...+log[f(xn,a)]
E{derivative of log[f(X,a)]}=Integral{ [derivative of
f(x,a)/f(x,a)]*f(x,a)dx
=Integral{ |
|
a***g 发帖数: 2761 | 15 我有两个思路不知道可行不可行
第一个就是如果你们平时处理数据的时候就是习惯做正态假设,同时好像这种假设影响
也不大。你们为什么不把两个模型写在一起,先拟合一下全模型,再检验各项显著性。
这样就可能有所取舍。
第二个是你们也对假设正态比较不放心,这么用只是对余项还没有认识更深入。那么我
就是随嘴这么一说啊,可不可以试试混合模型,全是用正态也无所谓。这里有两点,第
一就是mle也是混合模型的基本手段,你又熟悉很好用起来。第二就是你的数据比较大
,就是混合模型的复杂度上去了也能支持。
一点闭门造车的建议,你就权当参考吧。
a_ |
|
|
c*******e 发帖数: 150 | 17 想请教一下版上的各位大牛们,如果
Linear Regression中Noise Term是一个AR(1) process,通常都有什么成熟的算法做
MLE 或者其它方法 fit ?
具体的说,模型可以表示为 Y(t) = X(t) \dot \beta + E(t),
X(t) 和 \beta 都是 K-维的向量,其它都是标量。
t = 1, 2, 3, ..., T 是手头的 sample,
但是和经典的 Linear Regression 不同,E(t) 不是 i.i.d. 的高斯白噪音,可以假定
E(t) 服从一下 model:
E(t) = \rho * E(t-1) + \sigma * Z(t)
\rho 和 \sigma 是 unknown parameter,Z(t) 可以认为是高斯白噪音。
所以全部的 parameters 包括 向量 \beta 和标量 \sigma, \rho
最好还是 maximum-likelihood 的方法,这样我可以保留后面做 log-Likelihood
Ratio
Test 的可行性,以便于 做 model comparison/s... 阅读全帖 |
|
c*******e 发帖数: 150 | 18 嗯,如果知道噪音序列的协方差矩阵 大Sigma (which is a gigantic T-by-T matrix),
当然可以很方便地做 GLS。但是实际中 那个 大Sigma 矩阵是不知道的,即使假设了
大Sigma 矩阵具有一定的结构,比如原贴中假定的 AR(1) 结构,最后还是需要
estimate 参数 rho 并同时需要估计白化更新过程 Z(t) 的真实方差 小sigma,也就是
我在原贴中提出的核心问题。简单地谈论 GLS 并不能直接解决这个核心问题。
第二你提到的 Newey-West estimator 本质上是用于估计 the OLS-beta 的
standard error的,而并不是对于原贴中的模型对应的 likelihood function 进行最大
化,并得到相应的 (beta, rho, 小sigma) 的MLE估计,所以还是没有办法帮助我们最终
做model comparison/selection 时进行可靠的 LLR Test。
假定 |
|
a********e 发帖数: 56 | 19 请问MLE of u1-u2解题思路,是不是 L偏导u1-L偏导u2? |
|
a********e 发帖数: 56 | 20 我太笨了,请大牛指导。。。
Samples of size n_i (i=1,2) are drawn from 2 normal populations with means
μ_i and variances σ_i^2.
Find the MLE of μ1 – μ2 . Be sure it maximizes the likelihood. |
|
Y****a 发帖数: 243 | 21 I remember there was a prove that under certain conditions, the algorithm
reach global mle. But forgot what the conditions were :( |
|
h*****7 发帖数: 6781 | 22 EM没有理论论证全局最优的概率,to the best of my knowledge
记住一条,EM这类方法,不属于概率论范畴,属于随机过程,因为它用了指示器(可参
考随机过程计算方法算法导论之类的),所以很难给出理论确界和最优解概率。一般说
无限趋近最优解。
在GMM条件下,倒是有人系统测试过EM的解和最优解有多远
另外MLE本来就没道理的,就是通俗说法的屁股决定脑袋。就算解出全局最优,对参数
估计也是imperfect solution,至于后续Wilk's theorem,也是asymptotic的,所以LZ
就别要求太高了
LZ这种情况,没法用时序或者频域作分析,用EM是比较理想的
靠,说了一堆,回头看发现对LZ没啥帮助,还是疑似我老马甲的YueJia讲得好 |
|
g******2 发帖数: 234 | 23 好吧,我食言了,看到你说了这么多,又夹杂了这么多忽悠人的词汇,我还是忍不住回
了您这个统计"大牛"的帖子了。
1. 真正的推理是根据MLE推测出他们p的估计值
你只学过1,2门统计课,说出这样的话可以理解。 因为你见过的检验基本都是带参的。
这里我只想说,这句是不正确的,在非参的情况下,一般是没有MLE的 (MLE是最大似
然估计值)。另外,用MLE目的为何?为了得到最大power的检验。 很多情况下,这个
也是做不到的。 这个问题说多了就偏题了。
2. Fisher information matrix
你一定要把一个很简单的问题的最麻烦的叙述给拎出来么? 是的, Fisher
information matrix 用来计算MLE的variance的, 不过这种简单情况,根本不用这么
复杂的去算2阶导。
3. 因为covariance为0,所以可以简化成你那一步
你看了我之前关于独立性的描述了么?即使不独立也是可以做的,只不过因为正相关性
,得出方差更大。如果你还是看不懂我上面说的,你可以学一下数理统计1。
还想说一句,不是搬的专业术语越多就越显得你的专业的, 也不是言语中打压别人就... 阅读全帖 |
|
s*******u 发帖数: 1855 | 24 现在nba的cba,漏洞太大,导致球队强弱差距太大,对联盟伤害很大,完全丧失了cba的初
衷(平衡各队).我觉得hard cap是不错,但是几乎不可能近几年内行得通.几个折中更可
行的法子:
1) 每个队伍不能有>2名球员薪水>cap/20(现在按照58M算,就是12M).这个防止巨头抱团
.
2) 中产是个坏主意,可以让强队无限制补强,弱队水平更差.中产的salary跟队伍没关,
客观上导致人才流动更向强队.事实上,miller个阿泰愿意去湖人热火拿中产,不愿意去
狼熊拿中产.而且有中产,cap就是个joke. 中产必须改革.
a), luxury以上球队,只有在不增加总薪水的情况下,才能够用mle
b), luxuryy以下,cap以上,有mle
c) mle两年用一次.然后取消双年特例(中产跟双年合并).
d) mle不是固定值,而是跟salary浮动.luxury以下,full mle.luxury以上,线性递减.
3) trade跟waive漏洞太大.无数空手套白狼行为,应该堵住
a) trade结束1年内不得waive人.
b) waive掉的人,不得跟原队伍签约.
这几条 |
|
s**s 发帖数: 1 | 25 There is no best choice. Which one is better depends on your problem. MLE is a
consitent estimate, provided that your model is correct. Consitency means that
MLE will converge to real parameter in probability as sample size goes to
infinity. What is more, MLE is asymptotically efficient, which means as sample
size goes to infinity, the variance of MLE will achieve Cramer-Rao lower
bound. In this sense, no other estimators can beat MLE. However, if sample
size is small, other estimators can be be |
|
r***o 发帖数: 127 | 26
效
他的合同是4年mle,不是2年18m.
buyout的价钱应该是双方谈出来的,dike的case是2年合同-2年mle.因为他作为fa能拿到2
年mle
mourning的case应该是2年mle-2年min,差不多9m
就酱紫
不 |
|
a****n 发帖数: 279 | 27 ☆─────────────────────────────────────☆
pianerchuan (片儿川) 于 (Mon Jun 11 08:25:57 2007) 提到:
夸梅应该是个不错的选择。火箭传言想用8D2+KS+第一轮换阿泰,换来没用啊,要填的
坑一个都填不上,一个MLE要补控位和中锋两个洞,不可能吧?还不如用8D2+KS或者8D2
+SURA换夸梅,用MLE签控卫。碰到对手有强力大前或中锋的,YM和夸梅可以同时上,夸
梅驻守,YM主攻。
湖人用ODOM+19pick+bynum换小奥,MLE签控卫,40 pick抓啊尔芙萝,
MLE+KOBE+8D2+RONNY/RADMAN+小奥,替补FAMAR/ALFLO+MO+WALTON/KS+COOK+米姆/vle
双赢啊。
☆─────────────────────────────────────☆
Maverick (金砖玉瓦) 于 (Mon Jun 11 10:00:12 2007) 提到:
太火箭黑了吧,八九百万的替补,要他何用。拿老霍换还差不多。
☆──────────────────── |
|
p****p 发帖数: 3360 | 28 BAE不能连续两年使用。现在是2.1M?黄蜂今年用整个BAE签了lin,说明去年没有用,
明年也没有BAE了。总工资超过税线以后BAE也自动没有了。全额的MLE只要用了以后总
工资不超过apron都可以用,跟BAE没有关系。另外两个小点的MLE似乎和BAE有冲突。
看你这个连接,黄蜂现在有non taxpayer的全额MLE。林只拿BAE而没有让黄蜂用全部或
一部分MLE来签更高的合同有两种可能。1.他不值更多的钱;或者2.他要球员选项,被
黄蜂压工资了。
我觉得是2。感觉跟火箭前天老将特例签到thornton有点象,都是上一个赛季打不好,
现在压低工资找个自己觉得合适的球队打一个赛季,希望能打出来,明年能签个更好的
合同。 |
|
j*******y 发帖数: 58 | 29 what does that mean 'logistic regression has 3 methods, wald, LR and scoring
method'?
wald, lr and score test are testing methods which requiring
estimates of unknown parameters in the logistic regression. the estimating
is done by MLE and the computation is done by NR or iterative methods.
actually wald, lr and score test are asymptotially the same. All these are
broadly based on MLE idea. When you try to mazimize a function, you can take
derivative of the function and it becomes first order de... 阅读全帖 |
|
d*****u 发帖数: 17243 | 30 严格说也不完全是MLE,有的时候也人为添加prior或者bias
比如生成对话的时候,一般的MLE模型会导致单调重复的输出(当然也可以认为是没有
充分掌握MLE的使用条件)
有的就在里面加一些hidden variable,比如规定它们是Gaussian,参数训练得出。每
次从里面采样一个输出到下一层。
Network |
|
c*******h 发帖数: 1096 | 31 【 以下文字转载自 Statistics 讨论区 】
发信人: cockroach (冬冬), 信区: Statistics
标 题: maximum likelihood estimation
发信站: BBS 未名空间站 (Fri Jul 29 11:15:29 2011, 美东)
怎么知道MLE的结果是可信的呢?
我手上有一堆数,假设是iid正态分布出来的。那么我可以用MLE
估计出分布的均值和方差。好,结果我很满意。完事,收工。
但是我怎么确定我的假设是对的呢?万一我手上的那堆数不是正
态分布出来的呢?无论怎么样MLE都可以给我算出均值和方差。
怎么检验我的关于分布的假设是对的呢? |
|
z******8 发帖数: 844 | 32 ☆─────────────────────────────────────☆
dayutou (dayutou) 于 (Fri Mar 15 09:19:44 2013, 美东) 提到:
发信人: sunshadow (影子), 信区: MedicalCareer
标 题: Re: 外科之痛
发信站: BBS 未名空间站 (Wed Mar 20 12:17:09 2013, 美东)
dude, you are being way too serious....
it's gonna hard for your colleagues to work with you, especially in places
like OR...
you need to relax a bit, otherwise your peers will feel so much pressure
from your attitude....(i have the same problem as well)
do you know how to make fun of your friends? ... 阅读全帖 |
|
o******6 发帖数: 538 | 33 ☆─────────────────────────────────────☆
ReMinD (One Shoot,One KILL) 于 (Fri Feb 8 02:25:58 2008) 提到:
X1....XN be random sample from a distribution with one of two pdfs.
Q(MLE)=1的时候是标准正态分布 MLE=2是 cauchy分布 求MLE...
☆─────────────────────────────────────☆
ReMinD (One Shoot,One KILL) 于 (Fri Feb 8 02:28:23 2008) 提到:
求助哈 包子报答
☆─────────────────────────────────────☆
ReMinD (One Shoot,One KILL) 于 (Fri Feb 8 02:36:30 2008) 提到:
求助哈 包子报答
☆─────────────────────────────────────☆
oloolo ( |
|
|
n**f 发帖数: 121 | 35 I am having great trouble with using Maximum Likelihood to estimate
distribution parameters. I will appreciate if anyone can help me find out
what went wrong.
Assume that I have M iid samples of random vector V, denoted by v_1,v_2,...v
_M. Define random variable X = f(V|theta) where f is function whose closed
form is known but parameter theta is unknown.
I assume X=f(V|theta) follows a lognormal distribution logN(mu,sigma) where
mu and sigma are unknown. My purpose is to JOINTLY estimate theta, ... 阅读全帖 |
|
j*******y 发帖数: 58 | 36 I think LZ answered very well in logistic regression. The idea indeed is MLE
, which I learned in graduate school; the next step is to solve for MLE,
which is an algorithm problem.LZ didn't mention 'NR" or 'iterative methods',
probably this is because newton raphson and iterative methods are TOO
standard and TOO simple so that he didn't realize that this was part of the
answer.
I learned newton raphson method in the first year of college. It is as
simple as (a+b)^2=a^2+2ab+b^2.
anyone asking me ... 阅读全帖 |
|
s********a 发帖数: 328 | 37 I think you are wrong about the logistic part.
Method for solving Logistic Regression (independent responses) IS MLE, and
the problem is solving the score equation. When you use Fisher Scoring (
close
to Newton-Raphson except that Fisher Scoring uses expected second derivative
instead of real second derivative), it is Equivalent to IRLS in some form.
So
IRLS is a way of solving the MLE score equation. Refer to Nelder, Wedderburn
1972. However, when responses are not independent, MLE is not avai... 阅读全帖 |
|
c*******h 发帖数: 1096 | 38 怎么知道MLE的结果是可信的呢?
我手上有一堆数,假设是iid正态分布出来的。那么我可以用MLE
估计出分布的均值和方差。好,结果我很满意。完事,收工。
但是我怎么确定我的假设是对的呢?万一我手上的那堆数不是正
态分布出来的呢?无论怎么样MLE都可以给我算出均值和方差。
怎么检验我的关于分布的假设是对的呢? |
|
k*******a 发帖数: 772 | 39 what is N2?
MLE is transformation invariant, if you can obtain MLE for N2(1,2,sigma1,
sigma1,1/2), its inverse is MLE for sigma |
|
R*****0 发帖数: 146 | 40 First let's start with original Gamma distribution.
MLE: It is not hard to see the sufficient statistics are the 'mean' and the
'mean of log(data)'. The MLE for shape is accessible using Newton method.
Moment Method: Quite straightforward -> mean = shape*scale, var = shape*(
scale)^2.
However, truncated Gamma, if I get it, is much difficult even if you know
the interval [a,b] for truncation. The density function will have the form g
(x;shape,scale)/[G(b;shape,scale)-G(a;shape,scale)] on [a,b]. S... 阅读全帖 |
|
m******t 发帖数: 273 | 41 Thanks for all your help.
I have tried Moment Method, but the QQ-plot result is very bad.
How to know that truncated gamma pdf is the form of ?
g(x;shape,scale)/[G(b;shape,scale)-G(a;shape,scale)] on [a,b].
Are there some papers about that ?
'mean of log(data)' is unknown. We only know mean of data.
From, http://en.wikipedia.org/wiki/Gamma_distribution
If ln(x_i) is known, I can get estimated shape parameter. But, it is unknown
.
Any help would be appreciated.
First let's start with origin... 阅读全帖 |
|
s*****0 发帖数: 163 | 42 要不楼主考虑一下下面的决策方案:
有PHD/publication /top kaggle rank => DS
都没有 => MLE ?
: MLE好一点。
: DS现在有好多误解导致大家看不起。
|
|
s**********e 发帖数: 59 | 43 mr ur transfer to ba
经济舱
ba: 昆明飞哥伦布在飞麻袋
KMG-CMB-MLE 10000+4500 avios one way
29000 avios r.t
香港飞麻袋
HKG-MLE 12500 avios one way.
25000 r.t. |
|
m*****i 发帖数: 332 | 44 骑士打着想给boozer长薪的名义就想利用boozer的感情用MLE签下一个长合同,
我一开始就觉得如果签约了boozer绝对亏了,
如果keep team option一年后明年用大鸟条约boozer肯定挣的比MLE多多了,
这个骑士光想美事了,想用一年的蝇头小利赚一个多年的all star pf,
幸亏boozer识破了阴谋,30Million啊!你给我说说这世界上有几个人不会动心? |
|
p*********n 发帖数: 1618 | 45 If Ariza can be retained with no-more-than-MLE money, I think Buss might be
willing to pay. Even if he is lured away by other team, Lakers can still go
after players like Anthony Parker with their MLE. Anthony Parker is less
athletic and older. But he has better handle and better jump shot. He is a
solid defender too. And he has tie to LA. |
|
s*******u 发帖数: 1855 | 46 ariza asks for MLE, any team would like to offer
tmac asks for MLE, > 1/2 GM wont agree, for the remaining, > 1/4 will
hesitate |
|
g********n 发帖数: 4809 | 47 小鹰有MLE,骑士有BAE,但是小鹰基本不大可能给全额的中产给大Z,预计是半个MLE,差
不多2年能多3个米,大Z估计不会为了这点钱,放弃自己唯一真正服役过,在自己最困
难的时候对自己不离不弃的NBA球队(客观的说,骑士队和大Z都对对方说得上是有情有
义),和自己奋斗一生,伸手可及的全明星戒指和多年的老战友。
要是大Z为了这点钱跟了小鹰,那我可真看走眼了。 |
|
s*******u 发帖数: 1855 | 48 posey只是要mle.不高.对比我湖,walton,sasha,radman都是mle.
凯子吝啬了.当然,凯子后备多,少了posey也有的是别人. |
|
a*****n 发帖数: 5158 | 49 是我跟不上形势,还是版上比我菜的人太多?
lowry and scola 与MLE有啥关系?
rox为啥要用MLE来? no sense |
|
k******a 发帖数: 2436 | 50 Technically Lin is still in his rookie contract till end of this season. He
is not a first round pick. He is in the league for three years or less. This
makes him a restricted free agent at the end of this season. Due to the
Gilbert Arenas rule, any other teams can only offer up to MLE to sign Lin.
If New York wants to keep Lin, the max they need to match is MLE. |
|