由买买提看人间百态

boards

本页内容为未名空间相应帖子的节选和存档,一周内的贴子最多显示50字,超过一周显示500字 访问原贴
Statistics版 - 也从工程的角度给陈老师提个意见吧.
相关主题
答水泡泡:陈立功是谁教出来的?Re: 关于肖手术的最新review (转载)
临界回归模型的连续性热闹够了。大伙来总结一下陈大师的“不败逻辑”吧。
陈大师居然在维基百科上大放厥词我问陈大师几个问题
那些挺陈大师的陈大师讨论总结
陈大师的意思我终于有点领会了陈大师的wiki阵地沦陷了
陈大师的连续性陈大师不遗余力的去数学版折腾了
好奇问陈老师一个问题大家能不能考虑点儿深入的统计问题
很desperate,求问生物统计牛人一些interview技术问题。。。。一个简单的数学问题,我和我老板争论不停,其中一定有一个人是(转载)
相关话题的讨论汇总
话题: 陈老师话题: 方法话题: 工程话题: 临界点话题: 回归
进入Statistics版参与讨论
1 (共1页)
w*****5
发帖数: 515
1
理论的角度就不说了,我不是统计PHD,GLM就是学过而已..
陈老师的模型从工程上,在某些特殊的应用应该是有一定意义的..
从大多数情况来说:
首先,如果数据符合线性关系,那么直接的线性回归在工程应该是最好的选择..因为需要
的参数少,精确度高..一般不会考虑分段回归,因为这样的话,参数太多,而且陈老师并没
有给出case study,告诉我们他可以在准确度上有多大的提高..
其次,如果是非线性关系,那么最好的方法是利用经验建立非线性的模型...这样的好处
是可以用最简洁的方式来建模..如果用分段的方法,假设对每一段进行线性回归,为了能
够拟合曲线,必须要尽可能细分,这样的话,还是那个问题, 就是参数太多..光参数估计
就够工程人员搞半天了,不用说别的分析了.
陈老师的方法,我觉得可以用在某些特殊的工程应用中,比如某种材料的特性,在一些临
界点以后,性质明显不同.但是准确确定临界点又比较困难, 这时候可能用分段的模型,
通过一些方法来确定临界点,预测效果会提高一些. 但是谈不上对统计学有啥重要的突
破. 如果陈老师想弄这个,那应该要把这个topic变小,才有实际价值.
建议陈老师找几个工程上的特殊应用,把你的方法用上去, 然后和传统的线性回归或者
非线性回归做个比较..看看,你在预测上能不能有什么提高. 最后再加一些七七八八的
优化算法来调整权重,比如什么遗传算法,退火算法,蚁群算法,神经网络.估计发2篇IEEE
灌水的journal还是有指望的.....赫赫.
s*****r
发帖数: 790
2
你说的,早就有人做过了,不过肯定比陈大师的准确完备应用性强。千万别扯上陈大师
,这些低级的东西,陈大师会觉得脸上无光的。
陈大师的这个想法,就是朴素的混合模型。
简单讲,就是你怀疑数据从两个或多个不同的分布来的,需要估计有几个分布,这几个
分布又是怎么混合的。

【在 w*****5 的大作中提到】
: 理论的角度就不说了,我不是统计PHD,GLM就是学过而已..
: 陈老师的模型从工程上,在某些特殊的应用应该是有一定意义的..
: 从大多数情况来说:
: 首先,如果数据符合线性关系,那么直接的线性回归在工程应该是最好的选择..因为需要
: 的参数少,精确度高..一般不会考虑分段回归,因为这样的话,参数太多,而且陈老师并没
: 有给出case study,告诉我们他可以在准确度上有多大的提高..
: 其次,如果是非线性关系,那么最好的方法是利用经验建立非线性的模型...这样的好处
: 是可以用最简洁的方式来建模..如果用分段的方法,假设对每一段进行线性回归,为了能
: 够拟合曲线,必须要尽可能细分,这样的话,还是那个问题, 就是参数太多..光参数估计
: 就够工程人员搞半天了,不用说别的分析了.

q*****q
发帖数: 158
3
你提的这些,统计上都有做。大师其实只是在目前的方法上做些改进,可惜还只是拍脑
袋拍出来的。。竟然还能上升到新的地平线了。。。

【在 w*****5 的大作中提到】
: 理论的角度就不说了,我不是统计PHD,GLM就是学过而已..
: 陈老师的模型从工程上,在某些特殊的应用应该是有一定意义的..
: 从大多数情况来说:
: 首先,如果数据符合线性关系,那么直接的线性回归在工程应该是最好的选择..因为需要
: 的参数少,精确度高..一般不会考虑分段回归,因为这样的话,参数太多,而且陈老师并没
: 有给出case study,告诉我们他可以在准确度上有多大的提高..
: 其次,如果是非线性关系,那么最好的方法是利用经验建立非线性的模型...这样的好处
: 是可以用最简洁的方式来建模..如果用分段的方法,假设对每一段进行线性回归,为了能
: 够拟合曲线,必须要尽可能细分,这样的话,还是那个问题, 就是参数太多..光参数估计
: 就够工程人员搞半天了,不用说别的分析了.

s*****r
发帖数: 790
4
你太贬低大师了吧?做些改进?他哪些东西比已经做得更进一步更好?
这些还不是新的地平线?

【在 q*****q 的大作中提到】
: 你提的这些,统计上都有做。大师其实只是在目前的方法上做些改进,可惜还只是拍脑
: 袋拍出来的。。竟然还能上升到新的地平线了。。。

w*****5
发帖数: 515
5
我知道呀..这东西这么直接的想法,没有啥fancy的.肯定有人弄过..所以我说么..估计
弄一弄可以发2篇灌水的IEEE journal..
我觉得这个对他是最实际的了.

【在 s*****r 的大作中提到】
: 你说的,早就有人做过了,不过肯定比陈大师的准确完备应用性强。千万别扯上陈大师
: ,这些低级的东西,陈大师会觉得脸上无光的。
: 陈大师的这个想法,就是朴素的混合模型。
: 简单讲,就是你怀疑数据从两个或多个不同的分布来的,需要估计有几个分布,这几个
: 分布又是怎么混合的。

q*****q
发帖数: 158
6
哈哈,本来是写“试图”做些改进的。。。

【在 s*****r 的大作中提到】
: 你太贬低大师了吧?做些改进?他哪些东西比已经做得更进一步更好?
: 这些还不是新的地平线?

g********r
发帖数: 8017
7
他做得比已经存在得东西差远了。要是这样也能发IEEE,计算机的人不要活了。

【在 w*****5 的大作中提到】
: 我知道呀..这东西这么直接的想法,没有啥fancy的.肯定有人弄过..所以我说么..估计
: 弄一弄可以发2篇灌水的IEEE journal..
: 我觉得这个对他是最实际的了.

w*****5
发帖数: 515
8
hehe 那我就不知道了.我不是这个方向的,也没做这个literature review.
就随便提个意见.

【在 g********r 的大作中提到】
: 他做得比已经存在得东西差远了。要是这样也能发IEEE,计算机的人不要活了。
g********r
发帖数: 8017
9
他就是靠堆砌名词来欺骗人的。乍一看以为是个东西。
还有人夸他辩品好。其实他虽然不骂人,但辩论的时候使用软暴力。很狡诈的一个人。

【在 w*****5 的大作中提到】
: hehe 那我就不知道了.我不是这个方向的,也没做这个literature review.
: 就随便提个意见.

s********n
发帖数: 69
10
是啊,我就佩服你们了,怎么那么nice呢

【在 g********r 的大作中提到】
: 他就是靠堆砌名词来欺骗人的。乍一看以为是个东西。
: 还有人夸他辩品好。其实他虽然不骂人,但辩论的时候使用软暴力。很狡诈的一个人。

相关主题
陈大师的连续性Re: 关于肖手术的最新review (转载)
好奇问陈老师一个问题热闹够了。大伙来总结一下陈大师的“不败逻辑”吧。
很desperate,求问生物统计牛人一些interview技术问题。。。。我问陈大师几个问题
进入Statistics版参与讨论
T*******I
发帖数: 5138
11
想了半天,还是给LZ一个回帖吧,不然太不友善了。
首先,我不会寻求发paper了,因为我知道根本不可能获得发表,因为它过不了peer
review. 那些peers都是在最优化和强制连续性假设的理论下建自己方法论的名家。
看看这里发飚的人就知道那些peers会更加飚到何种程度?所以,我宁可瞪着双眼继续
观看他们上演荒诞的黑白悲喜剧。这令我很享受。
其次,我依然要声明我的方法是该领域唯一正确的统计学正解。当然,它在具体应有领
域的实际问题上可以做出一些细微的调整,但整个的分析逻辑是不变的,那就是,未知
临界点是且只能是一个加权期望估计。我们没有任何其它magic的数学方法可以实现未
知临界点的估计,因为我所做的工作实际是“post-sampling sampling
investingation or survey”or “post-sampling statistical investingation or
survey” for the random relative contributions of all random sampling points
to the unknown threshold!!!!!! What kind of other methods can do it?????

【在 w*****5 的大作中提到】
: 理论的角度就不说了,我不是统计PHD,GLM就是学过而已..
: 陈老师的模型从工程上,在某些特殊的应用应该是有一定意义的..
: 从大多数情况来说:
: 首先,如果数据符合线性关系,那么直接的线性回归在工程应该是最好的选择..因为需要
: 的参数少,精确度高..一般不会考虑分段回归,因为这样的话,参数太多,而且陈老师并没
: 有给出case study,告诉我们他可以在准确度上有多大的提高..
: 其次,如果是非线性关系,那么最好的方法是利用经验建立非线性的模型...这样的好处
: 是可以用最简洁的方式来建模..如果用分段的方法,假设对每一段进行线性回归,为了能
: 够拟合曲线,必须要尽可能细分,这样的话,还是那个问题, 就是参数太多..光参数估计
: 就够工程人员搞半天了,不用说别的分析了.

q*****q
发帖数: 158
12
软暴力这个词描绘得太恰当了。大师说话很有他那个时代的风范,先给人扣帽子,然后
就从人家ID或者背景下手,阴阳怪气.再用国内master的身份把自己置于弱势的地位,
跟文革时候,宣称自己“我是贫下中农”真是太神似了。。。

【在 g********r 的大作中提到】
: 他就是靠堆砌名词来欺骗人的。乍一看以为是个东西。
: 还有人夸他辩品好。其实他虽然不骂人,但辩论的时候使用软暴力。很狡诈的一个人。

r*****y
发帖数: 199
13
觉得你说得非常好,我第一次莫名其妙的的被陈大师奚落是在某讨论bootstrap的帖子
里,当时他的口气就搞得自
己是什么学术大牛一样,动不动就来句"在我的文章里已经"怎么滴怎么滴,当时没想
跟他多争,其实他所谓的
文章也就是jsm的,根本毫无权威性可言。这人典型的自恋+偏执,等他自己禁锢自己
的气泡被打碎的那天,他
必定回自我奔溃的。另外他的确挖空心思的去研究别人的id,我的id本来是自嘲的,竟
然成了他主动攻击我的说
辞,对于这样的人,根本不值得大家好言相劝,希望他好自为之。

【在 q*****q 的大作中提到】
: 软暴力这个词描绘得太恰当了。大师说话很有他那个时代的风范,先给人扣帽子,然后
: 就从人家ID或者背景下手,阴阳怪气.再用国内master的身份把自己置于弱势的地位,
: 跟文革时候,宣称自己“我是贫下中农”真是太神似了。。。

T*******I
发帖数: 5138
14
这bbs还真是一块神奇的地方,各路神仙汇聚,奇思飘散,幻象丛生。你上次看了我的
《陈立功的粉丝团成员名单》后感动得找我要包子,今儿个又窜到这里来指责我欺骗,
骂我狡诈,而且还是“很”一类的。
对于那些言行不一,前后矛盾的member,大家说说该如何对待?难不成是因为没被配发
包子的缘故?
不过,对他/她的“软暴力”的用语表示一点欣赏,估计他/她也因此而从我这里学到了
一点东东。但是,至于他/她对我的方法论的认识,我实在不敢恭维他/她的统计学素养。
借此机会顺便带来两颗普雷斯伯斯,配发给楼上的讫讫克拉克和诸男。

【在 g********r 的大作中提到】
: 他就是靠堆砌名词来欺骗人的。乍一看以为是个东西。
: 还有人夸他辩品好。其实他虽然不骂人,但辩论的时候使用软暴力。很狡诈的一个人。

T*******I
发帖数: 5138
15
你的后半部说得不错,但前半部的陈述表明你的概念系统没有得到更新(尽管我已经给
了你,但不学新知识怪不得他人),因而逻辑思路依然沿袭在老套路上。
建议你沉下心来仔细揣摩我所使用的概念和逻辑。不要为它们表面的语义所迷惑,你要
从概率论的基本概念出发来思考:随机变量、可测性、可测空间、测度分布、期望估计、
权重或贡献等。然后你再看看你所熟悉的本领域他人做出来的方法,他们的临界点是否
是一个随机变量?可测空间在哪里?分布是怎样的?期望何在?
如果你自诩自己懂概率论,你不会看不到这些问题。如果你在他们的文章里找不到这些
东西,你觉得他们遵从了概率论吗?如果他们没有遵从概率论,你觉得他们的方法是统
计方法吗?如果不是,怎么能说他们的方法在统计学里是正确的解法?

【在 s*****r 的大作中提到】
: 你说的,早就有人做过了,不过肯定比陈大师的准确完备应用性强。千万别扯上陈大师
: ,这些低级的东西,陈大师会觉得脸上无光的。
: 陈大师的这个想法,就是朴素的混合模型。
: 简单讲,就是你怀疑数据从两个或多个不同的分布来的,需要估计有几个分布,这几个
: 分布又是怎么混合的。

1 (共1页)
进入Statistics版参与讨论
相关主题
一个简单的数学问题,我和我老板争论不停,其中一定有一个人是(转载)陈大师的意思我终于有点领会了
看看这个人有没有陈大师的风范陈大师的连续性
请教陈大师几个问题好奇问陈老师一个问题
帮陈大师咆哮体一下很desperate,求问生物统计牛人一些interview技术问题。。。。
答水泡泡:陈立功是谁教出来的?Re: 关于肖手术的最新review (转载)
临界回归模型的连续性热闹够了。大伙来总结一下陈大师的“不败逻辑”吧。
陈大师居然在维基百科上大放厥词我问陈大师几个问题
那些挺陈大师的陈大师讨论总结
相关话题的讨论汇总
话题: 陈老师话题: 方法话题: 工程话题: 临界点话题: 回归