a*f 发帖数: 1790 | 1 只知道变量输入结果是偏大和偏小,不知道离target数据具体差多少? |
W***o 发帖数: 6519 | 2 不知道target output怎么能做supervised learning?更不要说用nn这种了吧?
【在 a*f 的大作中提到】 : 只知道变量输入结果是偏大和偏小,不知道离target数据具体差多少?
|
w***g 发帖数: 5958 | 3 只知道偏大偏小不久可以用二分法定位target了?实际不需要这么做。
直接预测residual就行。一开始输入residual为+1,-1。SGD的时候发现
training error上去了,就把residual减小接着train。
如果你有真实target,但是假装不知道,我觉得随着iteration数的增多,
你可以验证下,是不是真实residual和+r, -r的距离也会减少。
如果确实如此,那么用+r, -r代替真实residual的破坏性也会
逐渐降低。少不得试验各种threshold。
【在 a*f 的大作中提到】 : 只知道变量输入结果是偏大和偏小,不知道离target数据具体差多少?
|
a*f 发帖数: 1790 | 4 这个问题是从Santander Customer Satisfaction产生的。我尝试用bp拟合,Pearson大
概滤掉50多个column。试过几种activation function模型,但是training都失败(95%
的测试数据做training)。猜想target=1或者0不能直接作为目标数据输入。如果真实的
target做了四舍五入,误差就不好估测。不知道能不能把前面300多个column做成类似
decision tree的办法来估测误差。
【在 w***g 的大作中提到】 : 只知道偏大偏小不久可以用二分法定位target了?实际不需要这么做。 : 直接预测residual就行。一开始输入residual为+1,-1。SGD的时候发现 : training error上去了,就把residual减小接着train。 : 如果你有真实target,但是假装不知道,我觉得随着iteration数的增多, : 你可以验证下,是不是真实residual和+r, -r的距离也会减少。 : 如果确实如此,那么用+r, -r代替真实residual的破坏性也会 : 逐渐降低。少不得试验各种threshold。
|
w***g 发帖数: 5958 | 5 我知道我在本版发的帖子对NN的潜力有很大的低估。不过我还是要说santander这种
数据可能不适合NN。用类似xgboost的方法应该更好。
95%
【在 a*f 的大作中提到】 : 这个问题是从Santander Customer Satisfaction产生的。我尝试用bp拟合,Pearson大 : 概滤掉50多个column。试过几种activation function模型,但是training都失败(95% : 的测试数据做training)。猜想target=1或者0不能直接作为目标数据输入。如果真实的 : target做了四舍五入,误差就不好估测。不知道能不能把前面300多个column做成类似 : decision tree的办法来估测误差。
|
a*f 发帖数: 1790 | 6 santander = f(f(x))
看来要第四步大能解决了
【在 w***g 的大作中提到】 : 我知道我在本版发的帖子对NN的潜力有很大的低估。不过我还是要说santander这种 : 数据可能不适合NN。用类似xgboost的方法应该更好。 : : 95%
|