boards

本页内容为未名空间相应帖子的节选和存档,一周内的贴子最多显示50字,超过一周显示500字 访问原贴
CS版 - boosting 土问题
相关主题
做computer vision的还没出过一个图灵奖
SVM这个方向怎么样
问个 SVM 分类器画 ROC 的问题。。。
计算机vision中最常用的是哪种classifier?
Classfication 比较好的算法是什么?
请教machine learning 哪个方向比较有前途?
What is the meaning of attribute weights in SVM?
PAC和SVM你用google各自查一下就知道影响力高下了
学术届讲的是开创性的贡献
ask help for a paper
相关话题的讨论汇总
话题: learner话题: weighted话题: weak话题: sample话题: svm
进入CS版参与讨论
1 (共1页)
s*w
发帖数: 729
1
实在没人可以讨论的,冒昧的问下各位大拿
1. 最基本的 discrete adaboost, 里面的 weak learner , 我用的是 decision stump
, 这个东西不用 sample 权重的, 就是算 error 的时候用 weighted count; 发现 过
几轮 这个 weighted error 有时候会变 0, 这时候是不是说本轮的 weak classifier
对于难 sample 表现太好了,应该 stop? 这个0 weighted error 再算 alpha (本轮 w
eak learner的权重),会出一个 +inf 的值, 到底要不要加进去最终的 weighted vote?
2. 我看说也可以用 resampling according to weights, 而不是 weighted error 来训
练 weak learner; 我试验了一下,发现 sampling 出来的training data 变化很大.
哪种更好?
3. 因为 decision stump 容易, 我自己编的; 看别人有说用 radial basis function
as weak learner 的,没找到具体的实现细节啊,能不能指点一下
4. 看有人说 adaboost 受 label noise 影响很大, 我不大理解这个 label noise。
比如我的数据的ground truth label 有时候就是很难确定,同一个sample我来手工 la
bel 两次可能都不一样,这个算不算 label noise?
5. 有人试过 adaboost 用 svm 作 weak learner 吗? 我很奇怪 svm training 怎么
用到 sample weight 的, 难道也是 resampling according to sample weights?
问题很碎,多谢各位同修了
X******2
发帖数: 5859
2
1) 你这个weighted error是不是算错了?一般是往1/2逼近
2) 两者差不多,Breiman做过相关实验。
4) 相对于SVM或是Random Forests, boosting受noise影响
比较大。你说的这种情况应该算label noise。我最近在arXiv
看到一篇文章讨论label noise的模型以及它对分类问题精
度的影响,链接在下面
http://arxiv.org/abs/1101.3594
你可以去看一下。
5) 选SVM做weak learner意义不大,由于SVM本身已经比较
强了而且由于svm比较复杂,boosting之后精度说不定还会
降低。
1 (共1页)
进入CS版参与讨论
相关主题
ask help for a paper
纳闷: 百度的技术
说说工业研究所的体会
问个clustering的问题
请教多媒体Sampling问题
谁有Mario Martin 的SVM Incremental Regression 包
速成machine learning?
SVM clustering
借人气问一下posdoc的利弊
求平均值zz关于research应该怎么做
相关话题的讨论汇总
话题: learner话题: weighted话题: weak话题: sample话题: svm