s****i 发帖数: 197 | 1 小弟目前是一二流大学在读stat phd 刚刚成为phd candidate不久, 老板是做
classification
方向的, 最近正在拉合作 搞到一套数据 让我用classification (主要是random
forest, SVM
boosting这些啦)去套 希望看到的是用classification方法做出来的预测比用
multinomial
logistic regression做出来的准确 但是小弟用R的package改parameter无论如何也做
不出这效
果啊 即使用binomial的都是logistic比class的强 multi的logistic就更准了 每次见
老板都被
一顿臭骂 唉~ 请问各位大大该怎样改 用何种方法或者model才能提高classification
方法的准确
率啊 再次先谢谢众位大大了!!
==============更新==================
先谢谢 楼下几位大大的回答 这个问题是说的有点模糊 这套数据的response是一个
ordinal variable (0 1 2 3 4 5 五级 越大越显著 0表示没有), predictor中包含
numeric和categorical的(categorical的都被我
as.factor了) 我R package用的是randomforest e1071 mlogit这几个 建立的RF是no
prune的 with replacement, SVM radial linear sig poly都试过了结果是一样的,
randomforest这个package给的model貌似可以调parameter没几个 如果按照nominal的
response RF SVM怎样也干不过logistic的现在正头痛 即使merge0-5到0-1也是, 正确
率的计算
就是靠predict出来的和预留test的response比较 取错误率低的model,
crossvalidation已经
做了 使用McNemar test检验各个model的prediction是否趋同 0-1的0-1-2的RF SVM和
logistic没有显著区别 0-1-2-3-4-5的logistic和RF SVM的prediction有显著不同 但
是正确
率都差不多(m-logistic好点) 小弟准备回去试试2楼这位大大的方法 一时也想不出其他方法搞啊 |
N****n 发帖数: 1208 | 2 我也菜鸟一个。
你试试用R的RPART PACKAGE,FIT一个分类树模型,然后计算错误率。如果太高了,做
一个10-FOLD CROSSVALIDATION。 或者把树给PRUNE了。
还可以用RESAMPLE的方法把POPULATION换了,再FIT。
说得不对请指正。
【在 s****i 的大作中提到】 : 小弟目前是一二流大学在读stat phd 刚刚成为phd candidate不久, 老板是做 : classification : 方向的, 最近正在拉合作 搞到一套数据 让我用classification (主要是random : forest, SVM : boosting这些啦)去套 希望看到的是用classification方法做出来的预测比用 : multinomial : logistic regression做出来的准确 但是小弟用R的package改parameter无论如何也做 : 不出这效 : 果啊 即使用binomial的都是logistic比class的强 multi的logistic就更准了 每次见 : 老板都被
|
l***o 发帖数: 5337 | 3 这问题问得太大了,天下没一个人能答得好。。。
何况这和你的数据有关,除非你不怕overfitting,否则那个方法预测最好是完全依赖
于data的。
logistic regression是最好的model完全可能啊。。。
【在 s****i 的大作中提到】 : 小弟目前是一二流大学在读stat phd 刚刚成为phd candidate不久, 老板是做 : classification : 方向的, 最近正在拉合作 搞到一套数据 让我用classification (主要是random : forest, SVM : boosting这些啦)去套 希望看到的是用classification方法做出来的预测比用 : multinomial : logistic regression做出来的准确 但是小弟用R的package改parameter无论如何也做 : 不出这效 : 果啊 即使用binomial的都是logistic比class的强 multi的logistic就更准了 每次见 : 老板都被
|
g********r 发帖数: 8017 | 4 这个问题不懂.但我可以给出一个陈派的回答:
为什么搞classfication? 是因为你对自然的理解太浅薄.世间万物千变万化,不能够用
简单的二分法去理解.陈大师刚刚推翻了统计经典理论.如果你想深刻地理解你的数据,
那么你要忘掉你的所学,做一个小学生,從陈大师的理论学起.
【在 s****i 的大作中提到】 : 小弟目前是一二流大学在读stat phd 刚刚成为phd candidate不久, 老板是做 : classification : 方向的, 最近正在拉合作 搞到一套数据 让我用classification (主要是random : forest, SVM : boosting这些啦)去套 希望看到的是用classification方法做出来的预测比用 : multinomial : logistic regression做出来的准确 但是小弟用R的package改parameter无论如何也做 : 不出这效 : 果啊 即使用binomial的都是logistic比class的强 multi的logistic就更准了 每次见 : 老板都被
|
g********r 发帖数: 8017 | 5 先说说准确率怎么比较的.
【在 s****i 的大作中提到】 : 小弟目前是一二流大学在读stat phd 刚刚成为phd candidate不久, 老板是做 : classification : 方向的, 最近正在拉合作 搞到一套数据 让我用classification (主要是random : forest, SVM : boosting这些啦)去套 希望看到的是用classification方法做出来的预测比用 : multinomial : logistic regression做出来的准确 但是小弟用R的package改parameter无论如何也做 : 不出这效 : 果啊 即使用binomial的都是logistic比class的强 multi的logistic就更准了 每次见 : 老板都被
|
D******n 发帖数: 2836 | 6 好啊,最好创个立功体出来。
【在 g********r 的大作中提到】 : 这个问题不懂.但我可以给出一个陈派的回答: : 为什么搞classfication? 是因为你对自然的理解太浅薄.世间万物千变万化,不能够用 : 简单的二分法去理解.陈大师刚刚推翻了统计经典理论.如果你想深刻地理解你的数据, : 那么你要忘掉你的所学,做一个小学生,從陈大师的理论学起.
|
l*********s 发帖数: 5409 | 7 good idea
【在 N****n 的大作中提到】 : 我也菜鸟一个。 : 你试试用R的RPART PACKAGE,FIT一个分类树模型,然后计算错误率。如果太高了,做 : 一个10-FOLD CROSSVALIDATION。 或者把树给PRUNE了。 : 还可以用RESAMPLE的方法把POPULATION换了,再FIT。 : 说得不对请指正。
|
c********d 发帖数: 253 | 8 logistic regression比其他classification方法表现得好完全是可能的,这跟数据有
关,同意三楼的看法. 个人觉得在这种情况下,没有必要硬要去找一个比logistic
model更好的方法,不过我的意见仅供参考。 |
h***i 发帖数: 3844 | 9 估计是你boss 打算把logistics 当成baseline model,用其他的
把logistics 狠批一通,结果你搞了半天,发现logistics就已经很不错,完全不用deep的research。。。估计paper危险了。。你boss 不甘心,想用这灌些水。。
【在 s****i 的大作中提到】 : 小弟目前是一二流大学在读stat phd 刚刚成为phd candidate不久, 老板是做 : classification : 方向的, 最近正在拉合作 搞到一套数据 让我用classification (主要是random : forest, SVM : boosting这些啦)去套 希望看到的是用classification方法做出来的预测比用 : multinomial : logistic regression做出来的准确 但是小弟用R的package改parameter无论如何也做 : 不出这效 : 果啊 即使用binomial的都是logistic比class的强 multi的logistic就更准了 每次见 : 老板都被
|
h***i 发帖数: 3844 | 10 用SVM之类的时候,加kernel,用nonparametric 方法搞一个kernel出来,不要用现成
的那些个kernel,或许能行,但是,本人认为,这就是没事找事。
【在 s****i 的大作中提到】 : 小弟目前是一二流大学在读stat phd 刚刚成为phd candidate不久, 老板是做 : classification : 方向的, 最近正在拉合作 搞到一套数据 让我用classification (主要是random : forest, SVM : boosting这些啦)去套 希望看到的是用classification方法做出来的预测比用 : multinomial : logistic regression做出来的准确 但是小弟用R的package改parameter无论如何也做 : 不出这效 : 果啊 即使用binomial的都是logistic比class的强 multi的logistic就更准了 每次见 : 老板都被
|
|
|
A*******s 发帖数: 3942 | 11 乱说一句,logistic loss长得本来就挺像hinge loss. 如果logistic没有overfitting
的话,表现差不多是正常的吧。你的数据p多少N多少?
【在 s****i 的大作中提到】 : 小弟目前是一二流大学在读stat phd 刚刚成为phd candidate不久, 老板是做 : classification : 方向的, 最近正在拉合作 搞到一套数据 让我用classification (主要是random : forest, SVM : boosting这些啦)去套 希望看到的是用classification方法做出来的预测比用 : multinomial : logistic regression做出来的准确 但是小弟用R的package改parameter无论如何也做 : 不出这效 : 果啊 即使用binomial的都是logistic比class的强 multi的logistic就更准了 每次见 : 老板都被
|
d******e 发帖数: 7844 | 12 这俩真没啥差别,logistic regression还有计算上和多类别的优势
overfitting
【在 A*******s 的大作中提到】 : 乱说一句,logistic loss长得本来就挺像hinge loss. 如果logistic没有overfitting : 的话,表现差不多是正常的吧。你的数据p多少N多少?
|
F****n 发帖数: 3271 | 13 不知道你上过SVM的课没有, 上过的话应该记得有个常见的象棋盘黑白格子状的SVM分类
例子,两类无法用一条多项曲线分开,这种情况SVM很容易 out-perform 回归。相反,
如果可以用一条多项曲线分开,多项回归永远可以通过加项来达到 perfect fitting.
估计你的数据是第二类,所以不要在精度上纠结,work on over-fitting /
transferability, i.e. using CV to test robustness of the classification.
【在 s****i 的大作中提到】 : 小弟目前是一二流大学在读stat phd 刚刚成为phd candidate不久, 老板是做 : classification : 方向的, 最近正在拉合作 搞到一套数据 让我用classification (主要是random : forest, SVM : boosting这些啦)去套 希望看到的是用classification方法做出来的预测比用 : multinomial : logistic regression做出来的准确 但是小弟用R的package改parameter无论如何也做 : 不出这效 : 果啊 即使用binomial的都是logistic比class的强 multi的logistic就更准了 每次见 : 老板都被
|
A*******s 发帖数: 3942 | 14 since the response is ordinal and your purpose is just publishing a paper,
you could try some learning to rank models, which i think is a very hot
topic now.
【在 s****i 的大作中提到】 : 小弟目前是一二流大学在读stat phd 刚刚成为phd candidate不久, 老板是做 : classification : 方向的, 最近正在拉合作 搞到一套数据 让我用classification (主要是random : forest, SVM : boosting这些啦)去套 希望看到的是用classification方法做出来的预测比用 : multinomial : logistic regression做出来的准确 但是小弟用R的package改parameter无论如何也做 : 不出这效 : 果啊 即使用binomial的都是logistic比class的强 multi的logistic就更准了 每次见 : 老板都被
|
h***i 发帖数: 3844 | 15 灌水啊。。
hehe
【在 A*******s 的大作中提到】 : since the response is ordinal and your purpose is just publishing a paper, : you could try some learning to rank models, which i think is a very hot : topic now.
|
A*******s 发帖数: 3942 | 16 definitely not the style of Master Chen.
Master chen always uses a lot of math terminologies such as functional,
continuity, measurable, prob space, etc. and he also likes to create some
new terminology by combing some common ones, like random constant...
let's look at his new work:
A CRV X and its n random points x_i can be expressed in X{x_i}(i=1,2,.,n).
We define a point-to-point differentiality D_j(j=i) with its range R_X for x
_i as D_j{d_ij}=|X-x_i|/R_X and a similarity S_j{s_ij}=1-D_j{d_ij}. A
product V{v_i} of the sum of D_j and the sum of S_j will be a real measure
in a range R_V. We define C{c_i}=1-[V-min(V)]/R_V as an unbiased self-weight
for the X{x_i} to the E(X). Then, we will have a convex-concave self-weight
curve, i.e. it looks like a normal curve if the X is normal. Based on
examining two properties of sample size n, we tried to unify the definitions
of the weighted and non-weighted basic statistics, in which the degree of
freedom may be defined as the sum of weights minus the self-weighted mean of
the weight. These unified definitions can be used to substitute various
optimizations in advanced statistical methodological constructions. We also
tried to infer the representativeness of arithmetical mean and propose a
self-weighted t-test for the microarray data analysis to obtain a random
variable P-value in multiple tests. A sample illustration and a series of
simulations have shown that the new algorithms are extremely accurate and
robust.
【在 g********r 的大作中提到】 : 这个问题不懂.但我可以给出一个陈派的回答: : 为什么搞classfication? 是因为你对自然的理解太浅薄.世间万物千变万化,不能够用 : 简单的二分法去理解.陈大师刚刚推翻了统计经典理论.如果你想深刻地理解你的数据, : 那么你要忘掉你的所学,做一个小学生,從陈大师的理论学起.
|
s**f 发帖数: 365 | 17 Just curious,
Accepted as contributed papers for JSM. does this mean someone reviewed his
papers and accepted them?
x
【在 A*******s 的大作中提到】 : definitely not the style of Master Chen. : Master chen always uses a lot of math terminologies such as functional, : continuity, measurable, prob space, etc. and he also likes to create some : new terminology by combing some common ones, like random constant... : let's look at his new work: : : A CRV X and its n random points x_i can be expressed in X{x_i}(i=1,2,.,n). : We define a point-to-point differentiality D_j(j=i) with its range R_X for x : _i as D_j{d_ij}=|X-x_i|/R_X and a similarity S_j{s_ij}=1-D_j{d_ij}. A : product V{v_i} of the sum of D_j and the sum of S_j will be a real measure
|
g********r 发帖数: 8017 | 18 JSM不review的。
his
【在 s**f 的大作中提到】 : Just curious, : Accepted as contributed papers for JSM. does this mean someone reviewed his : papers and accepted them? : : x
|
s**f 发帖数: 365 | 19 呵呵
偶一个manuscript觉得不是很成熟,老板建议下投了个poster,没自信阿
【在 g********r 的大作中提到】 : JSM不review的。 : : his
|