i******a 发帖数: 27 | 1 在复习统计,开始觉得还挺明白。仔细看看又觉得都不明白了。不耻下问,上来和大家
一起讨论,听听别人的发言印象深刻一些,否则看了就忘
RSS (residual sum of squares) 就是 SSE (sum of squared errors) 么?也叫 Loss Function? |
n*****n 发帖数: 3123 | 2 这个“不耻下问”用的很好, 你还知道什么别的成语吗?
Loss Function?
【在 i******a 的大作中提到】 : 在复习统计,开始觉得还挺明白。仔细看看又觉得都不明白了。不耻下问,上来和大家 : 一起讨论,听听别人的发言印象深刻一些,否则看了就忘 : RSS (residual sum of squares) 就是 SSE (sum of squared errors) 么?也叫 Loss Function?
|
h******e 发帖数: 1791 | 3 楼主,“不耻下问”的潜台词是你很牛b,回答你问题的人很傻b。 |
b*****o 发帖数: 817 | |
l*****f 发帖数: 103 | |
b*******t 发帖数: 117 | 6 文科生不会用成语?
【在 l*****f 的大作中提到】 : 文科F2?
|
s*******e 发帖数: 1385 | 7 我觉得楼主只是搞笑吧。
【在 n*****n 的大作中提到】 : 这个“不耻下问”用的很好, 你还知道什么别的成语吗? : : Loss Function?
|
l*****f 发帖数: 103 | 8 烂校的被。 现在上大学又不象从前。 现在是个人, 有点钱就是大学生。
【在 b*******t 的大作中提到】 : 文科生不会用成语?
|
e******i 发帖数: 179 | 9 这个bbs上的都是文化人
所以楼主该说 不吝赐教 |
D******n 发帖数: 2836 | 10 there are certainly two sets of terminology for SS, which makes life
confusing.
total sum of squares= regression sum of squares/explained sum of squares +
error sum of squares/residual sum of squares
SSTO = SSR + SSE (1)
TSS = ESS + RSS (2)
so symetrically SSR(1)=ESS(2), SSE(1)=RSS(2), lol
Loss Function?
【在 i******a 的大作中提到】 : 在复习统计,开始觉得还挺明白。仔细看看又觉得都不明白了。不耻下问,上来和大家 : 一起讨论,听听别人的发言印象深刻一些,否则看了就忘 : RSS (residual sum of squares) 就是 SSE (sum of squared errors) 么?也叫 Loss Function?
|
|
|
o******6 发帖数: 538 | 11 哈哈哈
【在 e******i 的大作中提到】 : 这个bbs上的都是文化人 : 所以楼主该说 不吝赐教
|
A*******s 发帖数: 3942 | 12 RSS is one kind of loss functions。There are many other loss functions to
evaluate models.
Loss Function?
【在 i******a 的大作中提到】 : 在复习统计,开始觉得还挺明白。仔细看看又觉得都不明白了。不耻下问,上来和大家 : 一起讨论,听听别人的发言印象深刻一些,否则看了就忘 : RSS (residual sum of squares) 就是 SSE (sum of squared errors) 么?也叫 Loss Function?
|
o******6 发帖数: 538 | 13 就是,今天是周五啊,LZ好意是make our Friday
【在 s*******e 的大作中提到】 : 我觉得楼主只是搞笑吧。
|
i******a 发帖数: 27 | 14 别笑别笑,看在我深更半夜问问题大脑不清楚,哈哈
以前在别的地方看过别人犯一模一样的口误,还跟着嘲笑别人呢。这下居然自己说了一
模一样的话,我去改了行吧 |
i******a 发帖数: 27 | 15 谢谢!
是啊,很 confusing。我在一个教材里看的是 RSS,觉得挺明白的。换了个教材一看,
都是 loss function, SSE 之类,就糊涂了。毕竟不是统计专科出生,基础不行啊。
【在 D******n 的大作中提到】 : there are certainly two sets of terminology for SS, which makes life : confusing. : total sum of squares= regression sum of squares/explained sum of squares + : error sum of squares/residual sum of squares : SSTO = SSR + SSE (1) : TSS = ESS + RSS (2) : so symetrically SSR(1)=ESS(2), SSE(1)=RSS(2), lol : : Loss Function?
|
i******a 发帖数: 27 | 16 再讨论个问题,其实我已经搜过了,但是想拿来讨论一下,印象深刻。否则每此看过不
用,时间久了,就又模糊了。
LLN (Law of large numbers) 和 CLT(Centrail Limit Theorem) 有什么区别?
CLT 相对比较熟悉一些,是 estimate 的 sampling,取样次数越多,estimate 的分布可以用正态近似,无论样本本身分布如何。
LLN 貌似更基本,但是很少提到,居然现在都没印象是怎么解释的了。就是说越大样本的 estimate 越接近真值? |
l*******d 发帖数: 101 | |
D******n 发帖数: 2836 | 18 在看看书吧。。。。
LLN基本是说sample statistic跟population 的parameter 会converge当n-> infinity
CLT means sum of sufficiently large number of independent variables, converg
e to normal
布可以用正态近似,无论样本本身分布如何。
本的 estimate 越接近真值?
【在 i******a 的大作中提到】 : 再讨论个问题,其实我已经搜过了,但是想拿来讨论一下,印象深刻。否则每此看过不 : 用,时间久了,就又模糊了。 : LLN (Law of large numbers) 和 CLT(Centrail Limit Theorem) 有什么区别? : CLT 相对比较熟悉一些,是 estimate 的 sampling,取样次数越多,estimate 的分布可以用正态近似,无论样本本身分布如何。 : LLN 貌似更基本,但是很少提到,居然现在都没印象是怎么解释的了。就是说越大样本的 estimate 越接近真值?
|
i******a 发帖数: 27 | 19 这个严重超出我的理解了,呜呜,再回头去看书
【在 l*******d 的大作中提到】 : LLN: point convergence
|
i******a 发帖数: 27 | 20 恩,正在不停看书呢
CLT 我是这么理解的,比如一个 mean 的 estimate,如果你从同一 population 不同
的 sample 里每次都算出一个 mean,那么这些 mean 的分布随取样次数增多近似正态
分布。
LLN 从书面看觉得很常用啊,如果一个 sample 的 size 越大,那么 estimate 比如上
面那个 mean 就越接近 population mean。感觉 LLN 很少有提起,所以一下子都想不
起来是什么。其实到处都在用。
我看看书,回头再来讨论。实际应用中,用着用着就糊涂了。
infinity
converg
【在 D******n 的大作中提到】 : 在看看书吧。。。。 : LLN基本是说sample statistic跟population 的parameter 会converge当n-> infinity : CLT means sum of sufficiently large number of independent variables, converg : e to normal : : 布可以用正态近似,无论样本本身分布如何。 : 本的 estimate 越接近真值?
|
|
|
i******a 发帖数: 27 | 21 再讨论个问题,实际工作中,怎么选择 display SD 还是 SEM? 书面区别看着明显,但
在工作中,怎么决定哪个更重要呢?还是哪里有利就 present 哪个也没关系?
还是最好两个都 display ? |
l*******d 发帖数: 101 | 22 不好意思。。。
我觉得重点区别在与CLT是关于分布的,而LLN是关于某一点的。
DaShagen解释得挺好的,CLT很强大的地方就在于即使每一个变量不是正态分布,很多
加在一起就接近正态了。
我之所以提到WLLN, SLLN是想说明对某一点的逼近也是有区别的,取决于你怎么定义逼
近。
【在 i******a 的大作中提到】 : 这个严重超出我的理解了,呜呜,再回头去看书
|
i******a 发帖数: 27 | 23 谢谢!
point converge 和 distribution converge 我可以理解,就是后面的 WLLN, SLLN 还
有那些什么什么从来没看过。。。。。
其实在复习 probability 的时候肯定有看过记过LLN&CLT,后来就淡忘了。后来见到推导 SEM 的时候又想起了 CLT,印象比较深刻一点。
我发现我就只会考试,考完就忘,拿到实际当中不会用,也贯穿不起来。所以要和大家
多讨论,听你们说比我看多少遍书印象都深刻。
大家多包容啊
【在 l*******d 的大作中提到】 : 不好意思。。。 : 我觉得重点区别在与CLT是关于分布的,而LLN是关于某一点的。 : DaShagen解释得挺好的,CLT很强大的地方就在于即使每一个变量不是正态分布,很多 : 加在一起就接近正态了。 : 我之所以提到WLLN, SLLN是想说明对某一点的逼近也是有区别的,取决于你怎么定义逼 : 近。
|
i******a 发帖数: 27 | |
D*****e 发帖数: 761 | 25 大家还是挺帮忙的,我也趁机复习一下,理解更深了,不过wiki
http://en.wikipedia.org/wiki/Law_of_large_numbers
最后一段还是没看懂,这个Uniform law of large numbers和weak, strong是啥关系?
什么是uniformly converge?
【在 l*******d 的大作中提到】 : 不好意思。。。 : 我觉得重点区别在与CLT是关于分布的,而LLN是关于某一点的。 : DaShagen解释得挺好的,CLT很强大的地方就在于即使每一个变量不是正态分布,很多 : 加在一起就接近正态了。 : 我之所以提到WLLN, SLLN是想说明对某一点的逼近也是有区别的,取决于你怎么定义逼 : 近。
|
t******l 发帖数: 32 | 26 这个问题问得好。
SLLN and WLLN deal with iid random variables, i.e. how \bar{X} converge to \
mu.
Uniform convergence deals with with random functions derived from iid random
samples, say emprical distribution F_n(x)=\sum_{i=1}^nI(X_n
converges to F(x) uniformly, ie the convergence does not depend on x. Of
course, pointwise we have F_n(x)->F(x), by SLLN or WLLN, but uniform
convergence gives us more. |
i******a 发帖数: 27 | 27 我回來了,我知道哪里说错了
CLT 的正态近似是和取样的样本大小有关,我说“取样次数越多。。。”是不对的
。其实这个,我两周前还特别复习过,还复述给别人过。但是过了两周,不知不觉就说
错了,照本宣科不进脑子啊。
DaShagen 说到的 sum of .... 让我印象很深刻。我第一反应是,为什么是 sum of,
mean 也可以啊。后来一想,其实 mean 也是 sum of
infinity
converg
【在 D******n 的大作中提到】 : 在看看书吧。。。。 : LLN基本是说sample statistic跟population 的parameter 会converge当n-> infinity : CLT means sum of sufficiently large number of independent variables, converg : e to normal : : 布可以用正态近似,无论样本本身分布如何。 : 本的 estimate 越接近真值?
|
i******a 发帖数: 27 | 28 再来讨论个问题。比如一个药给了5个人吃,一个 placebo 给了50个人吃。然后做比较
,看药有没有造成什么效果,会怎样?
是不是5个人那组的 size 太少了? |