w*s 发帖数: 7227 | 1 怎么知道最优匹配的是2维,3维还是n维的曲线呢? |
G**Y 发帖数: 33224 | 2 2维不行的话,一般要考虑splines了
3次和高次的问题太多
【在 w*s 的大作中提到】 : 怎么知道最优匹配的是2维,3维还是n维的曲线呢?
|
r*g 发帖数: 3159 | 3 cross validation.
只用一部分数据拟合,用剩下的检验。 |
w*s 发帖数: 7227 | 4 are you saying you cannot get the answer in 1 shot like line fit (least
square) algorithm ?
【在 r*g 的大作中提到】 : cross validation. : 只用一部分数据拟合,用剩下的检验。
|
u******x 发帖数: 54 | 5 Regularization?
【在 w*s 的大作中提到】 : 怎么知道最优匹配的是2维,3维还是n维的曲线呢?
|
w*s 发帖数: 7227 | 6 any link pls ?
【在 u******x 的大作中提到】 : Regularization?
|
N******K 发帖数: 10202 | 7 鬼知道
【在 w*s 的大作中提到】 : 怎么知道最优匹配的是2维,3维还是n维的曲线呢?
|
N******K 发帖数: 10202 | 8 spline是个好东西
【在 G**Y 的大作中提到】 : 2维不行的话,一般要考虑splines了 : 3次和高次的问题太多
|
u******x 发帖数: 54 | 9 no link. this is common knowledge
【在 w*s 的大作中提到】 : any link pls ?
|
u******x 发帖数: 54 | 10 also,no matter what your lost function is, didnt you validate it on hold-out
data?
【在 w*s 的大作中提到】 : any link pls ?
|
|
|
w*s 发帖数: 7227 | 11 well, if it can be mathematically proved, then i don't need to validate, do
i ?
out
【在 u******x 的大作中提到】 : also,no matter what your lost function is, didnt you validate it on hold-out : data?
|
w*x 发帖数: 518 | 12 首先,你指的是order(次)而不是dimension(维)吧?维是由数据决定的,次是可选
的,比如线性(一次)、抛物线(二次)等等。
然后,次数越高肯定效果会越好,因为一次是二次的一个nested model (可以wiki一
下就明白了)。是不是值得用二次(换句话说,是不是增加的拟合效果值得多花两个系
数),可以采取F检验,也可以WIKI一下。
【在 w*s 的大作中提到】 : 怎么知道最优匹配的是2维,3维还是n维的曲线呢?
|
u******x 发帖数: 54 | 13 I guess we are talking about different things.
do
【在 w*s 的大作中提到】 : well, if it can be mathematically proved, then i don't need to validate, do : i ? : : out
|
m********5 发帖数: 17667 | 14 如果没有物理模型,可以完美fit任何数据,但这又有什么意义?
所以这个一次,二次,甚至更高次,如果不是物理模型指导,可以设计实验证伪的话,
没有任何意义,越高次越没有意义
【在 w*x 的大作中提到】 : 首先,你指的是order(次)而不是dimension(维)吧?维是由数据决定的,次是可选 : 的,比如线性(一次)、抛物线(二次)等等。 : 然后,次数越高肯定效果会越好,因为一次是二次的一个nested model (可以wiki一 : 下就明白了)。是不是值得用二次(换句话说,是不是增加的拟合效果值得多花两个系 : 数),可以采取F检验,也可以WIKI一下。
|
w*s 发帖数: 7227 | 15 i do not understand your points, if u can put more explanations, that'll be
better ...
【在 u******x 的大作中提到】 : I guess we are talking about different things. : : do
|
m********5 发帖数: 17667 | 16 肯定是越高次fit越好,但这没有任何意义
一般会根据复杂程度进行惩罚,但在没有物理模型指导的情况下,统计上的惩罚度只能
是经验性的,没有太大意义
说个最土的,你随机重抽样你的data pool,得到一个子样本. fit子样本以后拿去匹配
剩下的样本,看哪个fit更好。
然后多重复几次随机抽样,看fit参数是否稳定
【在 w*s 的大作中提到】 : 怎么知道最优匹配的是2维,3维还是n维的曲线呢?
|
w*s 发帖数: 7227 | 17 "肯定是越高次fit越好", make sense, thanks !
【在 m********5 的大作中提到】 : 肯定是越高次fit越好,但这没有任何意义 : 一般会根据复杂程度进行惩罚,但在没有物理模型指导的情况下,统计上的惩罚度只能 : 是经验性的,没有太大意义 : 说个最土的,你随机重抽样你的data pool,得到一个子样本. fit子样本以后拿去匹配 : 剩下的样本,看哪个fit更好。 : 然后多重复几次随机抽样,看fit参数是否稳定
|
i**i 发帖数: 1500 | 18 看书,有标准方法检验.
【在 w*s 的大作中提到】 : 怎么知道最优匹配的是2维,3维还是n维的曲线呢?
|