T**l 发帖数: 235 | 1 什么是系统误差?
举个例子,奸商有把秤,秤砣比较特别
那么每次卖给你东西,你拿去公平秤去称,发现都少了
比如,他的一斤只有8两
那么这个叫系统误差
什么是随机误差?
举个例子,非奸商也有把秤,什么都正常,就是秤秆子上刻度比较稀
只有半斤的地方才有刻度
那么他秤出来是1斤2两的东西,你拿去公平秤上称
那么有几回可能是1斤1两,有几回可能是1斤3两4两
所以系统误差是可以消除的,或者纠正的(比如你把奸商砍了,换个正常的秤砣)
但是随机误差不太好消除,换句话说你只能减小随机误差的值,但是你不能把他变成0
这个是大学普通物理实验第一节课里面的
所以jingyong同学不应该不知道 |
|
T********N 发帖数: 2680 | 2 这次美国大选,民意调查出现了较大的误差,而且这个误差很奇怪,从去年以来一直到
大选的前几天,调查结果都是希拉里领先几个百分点,但是最后大选的结果,却是特朗
普胜出,我以为,这需要进行纯学术的研究,为什么民意调查会出现较大误差?
作为世界顶尖级的统计学家,我是相当相信民意调查这种手段的,这在统计学上称之为
抽样检验,这个抽样检验技术,是现在大学本科生的数学教育中是属于概率论与数理统
计课程,就是说,如果你过不了这门课程,你就拿不到毕业证书。此外,这门课程也是
全国硕士研究生的考研数学的必考部分,就是说如果你的关于概率论与数理统计课程掌
握得不精,就别想上硕士。
这个抽样调查的原理可以认为是这样,假设有一袋米中,有百分之三十的黑米,百分之
七十的白米,则你不必将袋子里的所有米都数一遍才知道这个比例,你从中任意地抽取
一千粒米,或者一万粒米,如果其中有百分之三十的黑米,你就可以相信黑米的比例大
致是百分之三十了。而且,只要样本数足够多,你就根本不相信它是不准的。虽然说,
从小概率事件的角度讲,是有可能抽了一万粒米结果有百分之五是黑米,但是这样的机
会基本上是不可能出现的。
而且这个统计抽样我... 阅读全帖 |
|
T*******I 发帖数: 5138 | 3 我认为你的数据中的variance不是完全由随机测量所产生的,而是有一部分由不同的“
测量法:方法A和方法B等”导致的。尽管在同一方法内部的variance是随机测量产生的
,但不同的方法之间的variance就不是单纯的随机变异了。而不是随机变异导致的
variance就不能用处理随机变异的方法来分析。这应该是一个最基本的统计学常识。因
此,你可能需要找到一种方法将不同方法计算的工业指标一致化,然后再作统计分析;
否则,我认为你会犯错误。
打个比方,你要测量100个成年中国人男性的身高。一部分人你用的是米制尺,另一部分
人你用的是英寸制尺,两部分人群的测量结果是不可混在一起分析的,除非你找到了转
换方法将两类测量结果转换为一致的测量。我在我的文章里曾提出过“测量的一致性”
应该是统计学里的一个重要的公理性陈述。
这种由不同测量法导致的测量结果上的差异不是单纯的随机误差,而是包含了系统误差,
而系统误差在统计分析前就应该被避免或消除。
以上意见供参考。 |
|
b***y 发帖数: 14281 | 4 靠,如果全部150,一个149,不是900和0分的差距也是500分和100分的差距,
有啥本质区别?中国高考成绩那次是正态分布?你懂啥是正态分布吗?你以为高考
还真是纯随机过程啊?更况且,凭什么语文数学物理必需有相同的分布?有什么科
学依据?
说你蠢你还不信。考试是deterministic+random process,理想的考卷是让考生之间的
差距比误差大,这样名次完全正确。一般来说,一门课的随机误差在两三分之间,几门
课一加,相互抵消,总分更能反映真实差距,但是如果万一一张考卷出简单了,造成分
数差距缩小,这时候只能将错就错,千万不能人为去调节,因为这时候考分之间的差距
中有相当一部分是随机误差,如果使用卷面分,和其他科目一加,随即误差还是能基本
抵消,真是差距虽然变小,但多少还能有所体现,虽然对该科目强的学生略有不公平,
但还不算离谱,一旦人为去调大考分差距,结果大幅放大了该门科目的误差范围,反而
错上加错。
你还好意思说别人不懂,其实最不懂的就是你这种半瓶子。 |
|
T*******I 发帖数: 5138 | 5 来自主题: ChineseMed版 - 统计的学问 “t-检验的零假设H0是两个总体的均值绝对相等,不能有丝毫差别。”这句话表明作者
甚至连假设检验在检验什么都没搞清楚。这个是在胡说八道。
假设检验中的t-检验是在检验两个样本均值的绝对差中由抽样变异引起的随机误差发生
的可能性是否显著,因为这个绝对差有且只有两个来源:一个是由于总体中个体的随机
变异而引起的抽样随机误差,另一个就是由定义两个总体的不同子系统属性所引起的系
统误差。但是,我们的问题是无法通过一次抽样直接测量这两类误差的绝对大小,这才
有了用概率来判断两类误差在此次抽样研究中发生可能性的假设检验问题。
还有就是拿关于疫苗回顾性比较研究的例子归纳出“文科统计”的概念,又是一个绝对
的无知或偏见。 |
|
T*******I 发帖数: 5138 | 6 “t-检验的零假设H0是两个总体的均值绝对相等,不能有丝毫差别。”这句话表明作者
甚至连假设检验在检验什么都没搞清楚。这是在胡说八道。
假设检验中的t-检验是在检验两个样本均值的绝对差中由抽样变异引起的随机误差发生
的可能性是否显著,因为这个绝对差有且只有两个来源:一个是由于总体中个体的随机
变异而引起的抽样随机误差,另一个就是由定义两个总体的不同子系统属性所引起的系
统误差。但是,我们的问题是无法通过一次抽样直接测量这两类误差的绝对大小,这才
有了用概率来判断两类误差在此次抽样研究中发生可能性的假设检验问题。
还有就是拿关于疫苗回顾性比较研究的例子归纳出“文科统计”的概念,又是一个绝对
的无知或偏见。 |
|
T*******I 发帖数: 5138 | 7 “t-检验的零假设H0是两个总体的均值绝对相等,不能有丝毫差别。”这句话表明作者
甚至连假设检验在检验什么都没搞清楚。这是在胡说八道。
假设检验中的t-检验是在检验两个样本均值的绝对差中由抽样变异引起的随机误差发生
的可能性是否显著,因为这个绝对差有且只有两个来源:一个是由于总体中个体的随机
变异而引起的抽样随机误差,另一个就是由定义两个总体的不同子系统属性所引起的系
统误差。但是,我们的问题是无法通过一次抽样直接测量这两类误差的绝对大小,这才
有了用概率来判断两类误差在此次抽样研究中发生可能性的假设检验问题。
还有就是拿关于疫苗回顾性比较研究的例子归纳出“文科统计”的概念,又是一个绝对
的无知或偏见。 |
|
d*********r 发帖数: 813 | 8 有一点必须说明:我们刚才谈的,仅仅是随机误差。除随机误差外,一般不确定度还包
括系统误差。对于系统误差来说,无论你再怎么增大样本,它该在的还在,消不掉的。
除非你用更高级的仪器或更好的办法来做校正,或干脆分析系统误差的来源,想办法改
进仪器或测量方法来减小或消除系统误差。
1) |
|
X*U 发帖数: 5518 | 9 【 以下文字转载自 Statistics 讨论区 】
发信人: TNEGIETNI (lovewisdom), 信区: Statistics
标 题: 临界回归模型的连续性
发信站: BBS 未名空间站 (Sat May 14 19:04:31 2011, 美东)
Continuity of Threshold Regression Model
我做了一个图来说明统计学中分段回归模型的连续性与数学中分段函数的连续性的区别。
说明一下:图中的临界点被假设并估计在X上(Threshold on X),它是在全样本空间
里进行迭代搜索(即每假设X的一个随机实测点为可能的临界点时就得到一对分段模型
,当样本量为n时,就有n对随机临界模型,每对临界模型都有一个合并的预测残差的
期望估计量)的基础上以分段模型的合并残差期望对全域模型的残差期望的相对改变为
权重而计算出来的X上的一个加权期望。所以,两个分段模型间不是exactly连
接在一起的。
我的问题是,这两个分段模型间是连续的还是离断的?为什么?(问题上站几个小时了
也没人愿意回答。还是让我自己回答好了:从统计的随机变异角度看,我们没法假设... 阅读全帖 |
|
T*******I 发帖数: 5138 | 10 Continuity of Threshold Regression Model
我做了一个图来说明统计学中分段回归模型的连续性与数学中分段函数的连续性的区别。
说明一下:图中的临界点被假设并估计在X上(Threshold on X),它是在全样本空间
里进行迭代搜索(即每假设X的一个随机实测点为可能的临界点时就得到一对分段模型
,当样本量为n时,就有n对随机临界模型,每对临界模型都有一个合并的预测残差的
期望估计量)的基础上以分段模型的合并残差期望对全域模型的残差期望的相对改变为
权重而计算出来的X上的一个加权期望。所以,两个分段模型间不是exactly连
接在一起的。
我的问题是,这两个分段模型间是连续的还是离断的?为什么?(问题上站几个小时了
也没人愿意回答。还是让我自己回答好了:从统计的随机变异角度看,我们没法假设两
段模型间是连续的,两者间必有一个随机的连接变异存在,从而也就不能用解联立方程
的办法来估计临界点。为了知道两段模型是否连续,我们需要一个概率推断,即推断那
个随机的连接变异在本次抽样中作为随机误差发生的大小。这个变异在样本空间上发生
概率的大小可以用来估计其抽样误... 阅读全帖 |
|
v******d 发帖数: 1939 | 11 前两天把我的beretta 92fs的扳机,扳机弹簧,击锤,和击锤弹簧都换了,感觉单动和
双动都轻多了。
今天兴冲冲去靶场实弹,开始在10码打8寸靶,结果一发都没有上靶,全都在右下,还
很分散,顿时傻眼了!
继续在5码打,发现结果非常不可预期,虽然基本都偏下,但一会左下,一会右下,一
会儿正中牛眼,偏的方向和距离都很随机,毫无规律可言。
其间,有中两组5发,都偏左下,而且比较密集,还以为枪终于warm up了,随机误差消
失,我可以专心研究系统误差了。
但再打,又乱了,又随机了,在5码的距离可以跟瞄准点差3寸!
把手放在台子上打,也是一样。
打完带的180发子弹,还是没有找到问题,只好郁闷的回家了。
请教老大们,这到底是咋回事???
两天前还没换零件的时候,在5码打2寸(直径)靶,基本上都能上靶,系统误差也不太
明显。
我自己分析,有3个可能:
1. trigger轻了,我得从头苦练,重新找到感觉;
2. 我自己换零件的时候,没装好;
3. 零件之间不是很compatible。
请大老们指导指导,心里很着急。多谢! |
|
s*****V 发帖数: 21731 | 12 你这是假设系统偏差,实际上这种测量误差多半是随机误差,随机误差的叠加,有时候
增大有时候是减小,长时间积累是根时间的平方根成正比。
3. |
|
q***0 发帖数: 225 | 13 把这个3%叫做误差其实有点misleading,实际上这是给了一个 confidence interval。
也就是说,假设sampling完全随机,真实结果和统计结果的差别在3%以内的机率有 95
%,或者说有95%的信心真实结果的误差在3%以内。
这个 margin of error 的大小是由调查人数决定的,根据统计学里的大数原理,这个
分布接近正态分布,这个 confidence interval 的大小是由正态分布的方差决定的,
而这个方差是由调查人数的多少决定的。调查的人数越多,confidence interval越小
,也就是说 margin of error 越小。
其实不需要调查太多人,一千人已经很准确了,但然做到完全随机很难,这也是poll出
错的主要原因。像538网站那样把那么多polls的data放在一起分析,单从统计学上讲,
应该非常非常准确 |
|
M******e 发帖数: 4179 | 14 我也认为本田可能在利用误差钻空子,对于这种做法,要给以无情的揭露。
所谓“误差”,如果是随机误差,应该是有正有负,如果一直是“正”,那么就是系统
误差。而系统误差是可以改正的。比如本田的mpg油耗表,为什么显示的数值总是比手
算实际值高,不会比实际值低?发言人当顾客是傻子?
假如是刚刚使用油耗表,那么最初一两年是可以允许仪器误差的存在。但是如果车子卖
了很多年,而不去校正的话,那么只能认为是在利用误差钻空子。 |
|
f*********r 发帖数: 1233 | 15 大家都过虑了。
模板(样品、cDNA)加得一致不一致,其实没那么重要。精益求精当然好,但RT-PCR是
个非常敏感的实验,duplicates或triplicates之间Ct值互相吻合的程度很低(相对于
其他定量试验而言,比如ELISA)。一般情况下,duplicates的Ct值相差0.5就可以容忍
(有的实验室可能要求0.2,我在此致用0.5来举例)。那么这个0.5是个什么概念呢?
那就是2^0.5,或者说根号2,也就是1.4。这两个duplicates,其中一个比另一个高40%
,这样都可以容忍。
你加模板的时候,假设加5ul。140%就相当于7ul。你想想看,谁加样的技术能差到这个
地步?所以说,模板加得是不是一致,并不重要。Ct值的偏差来自于其他试验条件。
那么引物啊、buffer啊、原料啊(dNTP)、酶啊等等的重要程度如何呢?我不想展开太
多。简便起见,我只说说引物和master mix(就是buffer,原料、酶、荧光染料的混合
物)。在对数扩增曲线(LOG VIEW)中,模板的多少主要影响x轴截距;引物的多少主
要影响平台的高度;master mix的特性主要影响斜率(... 阅读全帖 |
|
s*********r 发帖数: 30 | 16 芝麻仁事件想必已经尽人皆知了,只是想说说种族歧视问题。
说到种族歧视,先来说说统计意义上的common sense.从统计学上讲, 在X年内在Y地区
的犯罪人群中(正式落案的)Z种族的人占的比例明显高于其他种族(个人认为这个明
显高于至少需要是1。5倍于第二),那么得出以下结论并不能算种族歧视:在X年内Y地
区罪犯中Z种族的人比其他种族更多。也就是在X年内Y地区随机抽取一定样本(样本的
规模要足以消除随机误差)的人,其中罪犯中Z种族的所占比例从统计学角度来说最高。
即便这样,当时间,地域和人口等因素发生变化时,得出的结论也应该随之变化。具体
到芝麻仁事件中,就是该小区在过去几年的罪案中能被确认的罪犯或嫌疑人中种族比例
构成。打个比方,如果该小区2年内共发生100起恶性案件,其中黑人犯罪占60起,那么
,你可以说在该小区这2年犯罪人群中黑人比例高,但你不能就此说这2年该小区黑人更
容易犯罪。
涉及到芝麻仁事件,应该将统计范围扩大到该小区的活动人口,也就是常住口加上来访
人口,并分析种族比例构成。再打比方,如果总活动人口1000,其中白人400,黑人300
,拉丁裔200,其他族裔100,... 阅读全帖 |
|
发帖数: 1 | 17 芝麻仁事件想必已经尽人皆知了,只是想说说种族歧视问题。
说到种族歧视,先来说说统计意义上的common sense.从统计学上讲, 在X年内在Y地区
的犯罪人群中(正式落案的)Z种族的人占的比例明显高于其他种族(个人认为这个明
显高于至少需要是1。5倍于第二),那么得出以下结论并不能算种族歧视:在X年内Y地
区罪犯中Z种族的人比其他种族更多。也就是在X年内Y地区随机抽取一定样本(样本的
规模要足以消除随机误差)的人,其中罪犯中Z种族的所占比例从统计学角度来说最高。
即便这样,当时间,地域和人口等因素发生变化时,得出的结论也应该随之变化。具体
到芝麻仁事件中,就是该小区在过去几年的罪案中能被确认的罪犯或嫌疑人中种族比例
构成。打个比方,如果该小区2年内共发生100起恶性案件,其中黑人犯罪占60起,那么
,你可以说在该小区这2年犯罪人群中黑人比例高,但你不能就此说这2年该小区黑人更
容易犯罪。
涉及到芝麻仁事件,应该将统计范围扩大到该小区的活动人口,也就是常住口加上来访
人口,并分析种族比例构成。再打比方,如果总活动人口1000,其中白人400,黑人300
,拉丁裔200,其他族裔100,... 阅读全帖 |
|
M******e 发帖数: 4179 | 18 您还真别说,
根据我的经历,MDX的电脑显示mpg永远比实际值高,能高个1-3mpg,我算过很多箱油,
都是这样。无论高速还是local。说明这不是随机误差(随机误差是有正有负的),而
是本田故意调高的。
所以现在我不再算油耗了,直接拿显示值减掉1-3mpg,就是实际值。电脑油耗在20-
30mpg的时候减掉1-2mpg,电脑油耗在30-35mpg的时候,减掉2-3mpg,大致就能得出真
实值。 |
|
|
T*******I 发帖数: 5138 | 20 你这样的说法无疑表明你将每个样品的两种处理之间的差异看成是确定性的了。
我已经说过了,对如此小的样本量做检验没有意义,无论你的实际数据给了你怎样的结
果(诸如power,P value, etc.)。须知,统计检验的基础是在充分大量的样本观察的
基础上对变异性导致的随机误差发生可能性的检验。仅有三个样本,你怎么能得到充分
的变异性观察?没有这样的观察,怎么能判断随机误差发生的可能性?几乎不可能。
size |
|
n*********a 发帖数: 1956 | 21 你这个认识世界的层次还是回去补补课吧。
共产制度纳粹制度这些极权制度都是跑不出错的Las Vegas随机算法,在小规模系统和
豆腐块整齐划一的简单(大规模)系统里表现又好又不出错。(中央控制排排坐吃果果,一
切的一切都在掌控中不会出错)
英美法治社会跑的是出错的Monte Carlo随机算法,你但凡知道一点Monte Carlo算法必
产生出错结果的特点就知道这绝不是什么人类社会的终极正确制度。
但是在复杂(大规模)系统里,只有共产主义傻逼们和纳粹傻逼们才会执迷不悟地跑那
Las Vegas随机算法,因为根本是和自然规律瞎较劲跑不通的。因此,复杂大社会的总
体设计Monte Carlo一派的路子正确,但简单社会和复杂大社会的小单位内部(公司法人
内部,党团法人内部)还是Las Vegas一派的路子更make sense。即便是英美法治社会,
一个法人团体的内部还是人治,没听说老板是投票选出来的。
Monte Carlo随机算法也不是个个都一样,设计得好和设计得不好的Monte Carlo算法的
performance天差地别。在一个复杂大系统里,最好的Monte Carlo算法在pol... 阅读全帖 |
|
g******r 发帖数: 139 | 22 谢谢你的建议。我知道qPCR的efficiency, 但确实没有测过各个primer的efficiency到
底怎么样。但理论上effiency对Absolute Quantification影响很大,而对ddCT方法的
影响有限。而我就只用ddCT方法比较各个gene在不同条件下的表达,没有去比较基因间
的表达。至于ddCt的方法有人要argue有缺陷,不理想,那是另外的话题 (体外话,我
发现没有测primer效率的人不在少数,当然绝大部分人也是用ddCt)。
以一个简单的knockdown为例,设目标gene表达量为X0,在Ct时的PCR产物为Xt0,效率
为EX, reference gene的表达量为R0,在Ct时的PCR产物为Rt0,效率为ER;在
knockdown情况下目标gene表达量为X1,在Ct时的PCR产物为Xt1, reference gene的表
达量不变,仍然是R0,在Ct时的PCR产物为Rt1 (两次的Ct可能一样,也可能不一样)。
Xt0=X0 (1+EX)CtX0, Rt0= R0 (1+ER)CtR0 ;Xt1=X1 (1+EX)CtX1, Rt1... 阅读全帖 |
|
b*********h 发帖数: 46 | 23 【 以下文字转载自 Statistics 讨论区 】
发信人: breakthough (吾将上下而求索), 信区: Statistics
标 题: 外行问个基本的统计问题
发信站: BBS 未名空间站 (Tue Aug 17 17:15:40 2010, 美东)
最近遇到的,应该是个很标准的estimation的问题,想来内行人很容易回答
一个线性模型, y=Ax+e, x是未知随机输入,A是已知的非随机模型,y是
观测到的输出,e是观测的随机误差。任务是根据y估计x。
给出的解是最小化(Ax-y)'*inv(Cy)*(Ax-y)'+x'*inv(Cx)*x, Cy和Cx是y和
x的covariance matrix,我的问题是,这种解法的数学解释是什么。
我不懂统计的术语,但是知道概率,分布,随机变量和随机过
程什么的。举个例子,你说“regression”我就听不懂。希望明白人给个解释,
如果有简单明了的tutorial,可以一看就懂是最好了。多谢了。 |
|
b*********h 发帖数: 46 | 24 最近遇到的,应该是个很标准的estimation的问题,想来内行人很容易回答
一个线性模型, y=Ax+e, x是未知随机输入,A是已知的非随机模型,y是
观测到的输出,e是观测的随机误差。任务是根据y估计x。
给出的解是最小化(Ax-y)'*inv(Cy)*(Ax-y)'+x'*inv(Cx)*x, Cy和Cx是y和
x的covariance matrix,我的问题是,这种解法的数学解释是什么。
我不懂统计的术语,但是知道概率,分布,随机变量和随机过
程什么的。举个例子,你说“regression”我就听不懂。希望明白人给个解释,
如果有简单明了的tutorial,可以一看就懂是最好了。多谢了。 |
|
h*****n 发帖数: 1630 | 25 从实验的角度来说,可以用同样的方法准备很多个电子,确保这些电子有相同的初始参
数(或者说处于同样的初始量子态),然后处于同样的实验环境,并观察它们的行为演
化。
无论如何你一定会发现,虽然它们一开始没有差别,环境也没有差别,但最后的状态总
是不一样,有一个几率分布,这就说明它们的行为是真正随机的。
当然,你肯定会说初始参数有个误差问题,不可能100%完全一样,环境也不可能完全一
样,谁知道什么时候有个宇宙射线打进实验室了呢。诚然这些都会造成结论不是100%精
确,但是我们可以说,在目前的实验精度下,我们观察到它们的运动是真正随机的。
有些人比如爱因斯坦还是会反对,他认为上帝不会掷骰子,物理学必须是决定论,但是
他并不认为实验的精度是原因,于是他提出存在“隐变量”,某种我们观察不到的参数
在暗中决定了结果。本来这个隐变量理论完全没有细节,可以有很多个变种,一个如此
之虚的观点看似无法反驳。不过爱因斯坦也没想到,决定论这个思路本身就决定了它会
产生和几率论不同的实验预言,而后来人居然发现了可以检验隐变量理论的实验方法--
贝尔不等式。经过多年的实验,目前为止隐变量理论大多都已被证伪。按照T... 阅读全帖 |
|
a***e 发帖数: 27968 | 26 看你这个误差是怎么产生的了,随机误差的话也许下一秒就算少了5m/s了
系统误差的话就打设计者屁股了
大气外飞行就是重力加推力,扰动比开车可能还小些
1000 |
|
c*********w 发帖数: 13 | 27 好文.
归结起来就是
1. 相位对焦随机误差大.
2. 镜头跑焦是相位对焦的系统误差, 可以微调消除, 但随即误差还在.
3. 测的都是中心点静态, AF SERVO TRACKING 能力未在测试中.
5D2 中心点静态还是NB 的, 说7D 对焦牛不是说它静态牛, 是TRACKING 追焦牛.
顺便问:
何为手动对焦? 是眼睛看毛玻璃?
何为“多次合焦指示”? 是反复半按快门多次来对焦?
何为"LV和手动对焦差别不大"? LV 不是手动? 难道是LV 时按下AF ON 让机器对? |
|
|
s******8 发帖数: 4192 | 29 有完全随机的,有一个叫Google Consumer Surveys就是google做的网上匿名随机的,
没有按照小团体比例,只是按照地区人口比例来的。不过这个poll有时候误差很大,
margin有时候甚至有20%,上一次+6%,下一次-6%都出现过。 |
|
T*******I 发帖数: 5138 | 30 我的模型中的y是戴了hat的,所以,我将等式右边的随机误差项省略了。我没说那是函
数关系,而是说它是由样本估计的统计回归模型。谁都知道那些系数都是随机常量(按
现行概念系统,它们都是随机变量)。 |
|
d******a 发帖数: 32122 | 31 专家说错了, 可能是随机误差
总统说错了, 很可能是系统误差 |
|
|
M******e 发帖数: 4179 | 33 根据我的前后三辆本田车经历,本田没有调快速度表和里程表。但是调高了mpg油耗。
这三者都是很容易验证的。但是我猜在mpg上很难指责本田作弊,只要本田新车标示的
EPA油耗准确,行车电脑不准确很难作为集体诉讼的理由。
显示的mpg永远比手动计算的要高,没有例外过。所以这是系统误差或者说作弊,而不
是随机误差。 |
|
t*m 发帖数: 4414 | 34 PM2.5各种测量方法(比如beta 射线法)都是什么原理?,随机误差多大?
系统误差如何矫正(比如如何矫正空气湿度)?
谁给科普一下? |
|
a***s 发帖数: 5417 | 35 已经说过了,同一个nuzzle用同样的姿势和角度加油。这个并不难。
你要是想去掉每次实验的随机误差,那你可以用那一个nuzzle做多次试验
取均值。
不过有一点你们可能都没注意到,就是同一个品牌,不同加油站的油量计
是有差异的。比如说,在大华附近的shell加油,跟在poway某处的shell
加油,最后获得的mpg是不一样的。我怀疑是某些油量计的误差比较大,
加满一缸油,读数很容易就差一个gallon. 所以要想省汽油钱的人,
应该注意不同加油站计量表的差别。花少量的时间,可以获得长期的
受益。比如我注意到我经常去的某个costco附近的某个shell加油站
的流量计太快,导致我平均要多付一加仑油钱。原因是我的油缸每次都
是加14-15加仑之间就满了。而去那个shell却要加大与16加仑。可是
之后那缸油能开的总里程却没有提高。从此我就不去那个加油站了。
5GALLON
探测 |
|
|
T******g 发帖数: 21328 | 37 看了一些新闻:
http://www.popyard.com/cgi-mod/newspage.cgi?num=2037093&r=0&j=0
“比如,西班牙政府日前就确认,在马德里感染埃博拉病毒的女护士特雷莎·罗梅罗就
是在脱下防护服时,用未经消毒的手触碰自己的脸,因此感染的。根据人类对埃博拉病
毒、“非典”病毒的认识,它们主要通过物理接触传播。“非典”病毒2003年在亚洲各
地蔓延,包括发达地区的香港在内,医院里有大批医护人员被感染。”
“误区三,认为埃博拉病毒可以通过空气传播。
加勒特认为,埃博拉病毒的确正在变异,但不是基因突变。《科学》杂志8月刊登的研
究报告显示,该病毒已发生超过300次突变。不过应明白一点,就是附着于循环系统内
皮细胞外的病毒不会进入肺泡细胞中。所谓的“基因突变”,只存在于科幻小说中。
一般而言,病毒在两种情况下会发生变异,即“随机误差”和“自然选择”。基于“随
机误差”现象,那种认为病毒发生性质上变异的观点无疑是荒谬的。仅能感染血管细胞
的病毒不可能快速变异成附着在肺部边界的、另一种完全不同的病毒。病毒只有在面对
迫使其改变或消亡的巨大压力下,即在“自然选... 阅读全帖 |
|
c********y 发帖数: 30813 | 38 据说sigma的跑焦不是系统误差,而是随机误差大。
换句话说,准确度是好的,但是精确度太差
所以你去店里挑,估计用处也不是很大。。。 |
|
l***g 发帖数: 225 | 39 你是理科生吗?Confidence Level 97%都有5厘米了,你还这么多鞋子高度和身体状
态的不确定因素,系统误差和随机误差加起来,这种所谓的测量就是个joke |
|
s*w 发帖数: 329 | 40 骗人。问题的关键是系统误差,不是随机误差。食堂师傅那手抖得,平均也就
6块肉。 |
|
M******e 发帖数: 4179 | 41 你说的是随机误差,大家讨论的是系统误差。
on |
|
s******y 发帖数: 28562 | 42 SYBR system 天生就比Taqman 的特异性差一些,在实践上,线性区间也差一些。但是
差别没有那么大。
你的问题主要应该是PCR condition 没有优化,检测的有效Ct区间不高。
注意你用的SYBR premix 和你的Taqman premix 不是同一个buffer, 不能直接比较优化
度。
大部分realtime PCR premix 的有效线形区间是12-25.对于高Ct sample误差变大的原
因主要是在那些区间的反应已经不再是线性,而是会受一些随机因素很大的影响。
我的建议是,加大你的样品的上量,尽量把有效Ct控制在30之内。如果你没有办法控制
上样量的话,那么就需要优化条件,去试探镁离子组合,dNTP含量,annealing
temperature, extension duration等等条件,把你的线性区间调到高Ct区。
cycle |
|
T*******I 发帖数: 5138 | 43 我不认为我说的是屁话,因为它们都是统计学中最基本的概念。如果你认为这些最基本
的概念是屁话,那么,你要么是没有学懂它们,要么就是根本没学到。
你以为我不知道如何估计missing values? 不知道弥补了missing values后有多少好处
?结果会怎样?
但是,我宁愿要一个损失了MISSING CASES的、只有随机误差的结果,也不愿接受一个由
理论估计带来的带着系统误差的估计。 |
|
T*******I 发帖数: 5138 | 44 拜托,不要把统计搞成了数学。在数学范畴里,一些概念和定义何许是永恒不变的,但
在统计学里,一些概念和定义则有可能被不断更新。否则,我们的思想就会被僵化,就
不会有新思想的诞生和新算法的形成。
一个说法是否正确,并不取决于它是否符合现有的概念和定义系统,而是是否符合它本
身所表达的现实世界。为此,我们更多的是需要一种缜密的哲学式的思考,而不是在既
有的概念系统里进行考证。所以,在统计学里,“名言共许”是不必要的。
你借用贝叶斯理论来解释概率和统计量之间的关系,表明你没有准确地理解我所说的检
验概率和统计量之间的关系。建议你回头看看我是如何解释回归系数的检验的。在我的
解释里面有两个极其重要的概念:系统误差和随机误差,它们构成了b-0的全部。我的
这个解释与贝叶斯理论完全无关,而可能是对Fisher检验原理的重新阐述,如果以前没
有人这样做过的话。 |
|
H**7 发帖数: 8624 | 45 heavy barrel
主要是热容量大和散热加快, 连续射击时弹道受枪管温度变化影响相对较小。 热容量增加使得相同时间内相同击发次数下枪管温度升幅减小, 由于枪管外径略为增加使得散热面积加大。 定量分析就是一个圆筒外径增加时体积和外表面积增加的情况。
另外枪管厚重对提高精度也有帮助, 子弹出膛前对枪管造成的随机位移比普通枪管要小, 因为质量大 (ft=mv)。 俺管这个随机误差源叫做“膛震偏移量”。
现在还讲究 barrel fluting, 就是在重管外侧开纵向浅槽, 增加散热面积, 减轻全枪重量。
所以如果应用场合是固定射点, heavy fluted barrel 对保证连续射击的精度有很大帮助。
走猎一般不用重管枪, 太不方便, 等发现猎物手累哆嗦了, 枪的精度再高没用, 射手的精度没了。 比如 Tikka T3 Hunter, 精度很高, 连续三发过后子弹就开始有点乱偏(以精度射击的要求), 做过试验, 每枪间隔 5 分钟, 就能保证连续精度。
下面列举在其它条件不变的情况下三类枪管的比较:
1)普通枪管
枪管热容量和散热面积最小, 精度射击间歇时间长,... 阅读全帖 |
|