由买买提看人间百态

boards

本页内容为未名空间相应帖子的节选和存档,一周内的贴子最多显示50字,超过一周显示500字 访问原贴
Programming版 - Kaggle 泰坦尼克80%几的准确率再上不去了,怎么办
相关主题
看了几个kaggle的答题,有点迷惑了kaggle上那批人太逆天了
你们刷Kaggle 泰坦尼克的最好成绩是多少?看了2个月书后,工作很痛苦
how to use stack(s) to realize a queque总结一下kaggle比赛
关于thread的stack关于搞ML刷数据的职业前途
xgboost 里面的tree到底是一整个depth=N的树,还是一个binarykaggle大牛请进:比赛不提供ground truth contour?
说说python (转载)有没有大牛愿意牵头搞一个 deep learning project
The 7 Most Data-Rich Companies in the WorldPython越来越火爆啊
欢迎加入“机器学习竞赛实践”俱乐部 (转载)R已经是第六大语言了....
相关话题的讨论汇总
话题: kaggle话题: 泰坦尼克话题: 准确率话题: tuning话题: parameter
进入Programming版参与讨论
1 (共1页)
s*******h
发帖数: 3219
1
各种feature eng和hyper parameter tuning神马的都试过了。还是0.81-0.82这个水
平。应该怎
么办?用的是random forest model
s*******h
发帖数: 3219
2
自己顶。大家用bagging, boosting stacking这些技巧吗?

各种feature eng和hyper parameter tuning神马的都试过了。还是0.81-0.82这个水

【在 s*******h 的大作中提到】
: 各种feature eng和hyper parameter tuning神马的都试过了。还是0.81-0.82这个水
: 平。应该怎
: 么办?用的是random forest model

n******g
发帖数: 2201
3
用xgboost 啊
[在 sammamish (sammamish) 的大作中提到:]
:自己顶。大家用bagging, boosting stacking这些技巧吗?
s*******h
发帖数: 3219
4
已经用了

【在 n******g 的大作中提到】
: 用xgboost 啊
: [在 sammamish (sammamish) 的大作中提到:]
: :自己顶。大家用bagging, boosting stacking这些技巧吗?

1 (共1页)
进入Programming版参与讨论
相关主题
R已经是第六大语言了....xgboost 里面的tree到底是一整个depth=N的树,还是一个binary
ML 需不需要搞懂那些数学说说python (转载)
数据科学碗2017The 7 Most Data-Rich Companies in the World
Deep Learning怎么入门?欢迎加入“机器学习竞赛实践”俱乐部 (转载)
看了几个kaggle的答题,有点迷惑了kaggle上那批人太逆天了
你们刷Kaggle 泰坦尼克的最好成绩是多少?看了2个月书后,工作很痛苦
how to use stack(s) to realize a queque总结一下kaggle比赛
关于thread的stack关于搞ML刷数据的职业前途
相关话题的讨论汇总
话题: kaggle话题: 泰坦尼克话题: 准确率话题: tuning话题: parameter