由买买提看人间百态

boards

本页内容为未名空间相应帖子的节选和存档,一周内的贴子最多显示50字,超过一周显示500字 访问原贴
Programming版 - 找了个人跑xgboost
相关主题
卷积这东西真神了求教 xgboost train error 非常小,咋回事
[bssd]ANN有用xgboost 训练大数据问题
Re: Zillow Prize kaggle的比赛 求问xgboost 训练小感
CNN网络之后一般还要加FNN?xgboost 里面的tree到底是一整个depth=N的树,还是一个binary
请问一个CNN结构设计的问题彻底抛弃xgboost 找新欢lightlgm没毛病吧?
svm/svr还是不错的请问xgboost训练需要保持不同类别样本数尽量一致吗?
单变量xgboost模型好的吓人,求解大家试过 h2o吗?
有没有做sentiment analysis的,求思路xgboost预测结果不一致怎么回事?
相关话题的讨论汇总
话题: 卷积话题: xgboost话题: br话题: 图像话题: cifar
进入Programming版参与讨论
1 (共1页)
g****t
发帖数: 31659
1
找了个intern跑xgboost. 一星期下来,cifar 10最好也就52%。模型还挺大,鲁棒性存
疑。
实证下来。似乎可以认为,没有卷积这一步骤,或者别的前置滤波器。图像分类不可能
成功。
也可以认为,卷积是和人的视觉密切相关的domain specific filter。
m******r
发帖数: 1033
2
所以结论是个啥? 必须用卷积? 用卷积能到多少?
因为我也用xgboost, 确实好用,就是调参数有点麻烦, 得有5,6个参数。 grid
search很慢 but worth it.
g****t
发帖数: 31659
3
图像必须用卷积神经网。这是算法的问题。不是数据处理能力的问题。
并不是“传统机器学习软件处理不了大批量数据”导致的。


: 所以结论是个啥? 必须用卷积? 用卷积能到多少?

: 因为我也用xgboost, 确实好用,就是调参数有点麻烦, 得有5,6个参数
。 grid

: search很慢 but worth it.



【在 m******r 的大作中提到】
: 所以结论是个啥? 必须用卷积? 用卷积能到多少?
: 因为我也用xgboost, 确实好用,就是调参数有点麻烦, 得有5,6个参数。 grid
: search很慢 but worth it.

C*****l
发帖数: 1
4
理论上卷及网络是fully connected的子集,但是实际训练出来很难,这个应该有一个
深刻的原理还没有被人类发现。

【在 g****t 的大作中提到】
: 图像必须用卷积神经网。这是算法的问题。不是数据处理能力的问题。
: 并不是“传统机器学习软件处理不了大批量数据”导致的。
:
:
: 所以结论是个啥? 必须用卷积? 用卷积能到多少?
:
: 因为我也用xgboost, 确实好用,就是调参数有点麻烦, 得有5,6个参数
: 。 grid
:
: search很慢 but worth it.
:

h**********c
发帖数: 4120
5
你找了“一个”intern 然后你就得出必须的结论。
进而升华到创世纪的高度。
What are you doing?
===
"找了个intern跑xgboost. 一星期下来,cifar 10最好也就52%。模型还挺大,鲁棒性存
疑。
实证下来。似乎可以认为,没有卷积这一步骤,或者别的前置滤波器。图像分类不可能
成功。
也可以认为,卷积是和人的视觉密切相关的domain specific filter。
图像必须用卷积神经网。这是算法的问题。不是数据处理能力的问题。
并不是“传统机器学习软件处理不了大批量数据”导致的。"
g****t
发帖数: 31659
6
现有的工具中,从实践上结论就是如此。你觉得不对,那么自己去学习。去跑程序。
我给的结论未必正确。但是没有一条是像你这样嘴炮打出来的。


: 你找了“一个”intern 然后你就得出必须的结论。

: 进而升华到创世纪的高度。

: What are you doing?

: ===

: "找了个intern跑xgboost. 一星期下来,cifar 10最好也就52%。模
型还挺大,
鲁棒性存

: 疑。

: 实证下来。似乎可以认为,没有卷积这一步骤,或者别的前置滤波器。图
像分类
不可能

: 成功。

: 也可以认为,卷积是和人的视觉密切相关的domain specific filter。

: 图像必须用卷积神经网。这是算法的问题。不是数据处理能力的问题。



【在 h**********c 的大作中提到】
: 你找了“一个”intern 然后你就得出必须的结论。
: 进而升华到创世纪的高度。
: What are you doing?
: ===
: "找了个intern跑xgboost. 一星期下来,cifar 10最好也就52%。模型还挺大,鲁棒性存
: 疑。
: 实证下来。似乎可以认为,没有卷积这一步骤,或者别的前置滤波器。图像分类不可能
: 成功。
: 也可以认为,卷积是和人的视觉密切相关的domain specific filter。
: 图像必须用卷积神经网。这是算法的问题。不是数据处理能力的问题。

g*******u
发帖数: 3948
7
卷机已经被大家都认可了最适合图像问题的了
和人类的区别和近似是另外一个问题

【在 g****t 的大作中提到】
: 找了个intern跑xgboost. 一星期下来,cifar 10最好也就52%。模型还挺大,鲁棒性存
: 疑。
: 实证下来。似乎可以认为,没有卷积这一步骤,或者别的前置滤波器。图像分类不可能
: 成功。
: 也可以认为,卷积是和人的视觉密切相关的domain specific filter。

h**********c
发帖数: 4120
8
我肯能感觉良好,说到嘴炮能举个例子吗?
另外生物识别涉及光源的相变。如之奈何?


: 卷机已经被大家都认可了最适合图像问题的了

: 和人类的区别和近似是另外一个问题



【在 g*******u 的大作中提到】
: 卷机已经被大家都认可了最适合图像问题的了
: 和人类的区别和近似是另外一个问题

g****t
发帖数: 31659
9
这个贴里的东西。你有一个字能听懂吗?这还不是嘴炮。你自己讲的东西有几个字是跑
过程序的。你觉得你懂生物识别啥的。那发帖讲经验呗。不然不还是嘴炮。堆buzz
word有啥用。


: 我肯能感觉良好,说到嘴炮能举个例子吗?

: 另外生物识别涉及光源的相变。如之奈何?



【在 h**********c 的大作中提到】
: 我肯能感觉良好,说到嘴炮能举个例子吗?
: 另外生物识别涉及光源的相变。如之奈何?
:
:
: 卷机已经被大家都认可了最适合图像问题的了
:
: 和人类的区别和近似是另外一个问题
:

h**********c
发帖数: 4120
10
I don't have more questions.

【在 g****t 的大作中提到】
: 这个贴里的东西。你有一个字能听懂吗?这还不是嘴炮。你自己讲的东西有几个字是跑
: 过程序的。你觉得你懂生物识别啥的。那发帖讲经验呗。不然不还是嘴炮。堆buzz
: word有啥用。
:
:
: 我肯能感觉良好,说到嘴炮能举个例子吗?
:
: 另外生物识别涉及光源的相变。如之奈何?
:

相关主题
单变量xgboost模型好的吓人,求解xgboost 训练大数据问题
有没有做sentiment analysis的,求思路xgboost 训练小感
求教 xgboost train error 非常小,咋回事xgboost 里面的tree到底是一整个depth=N的树,还是一个binary
进入Programming版参与讨论
o****u
发帖数: 714
11
如果全部是fully connected深度学习就失效了,深度学习的精髓就在于部分链接和非
线性的激活部分。

【在 C*****l 的大作中提到】
: 理论上卷及网络是fully connected的子集,但是实际训练出来很难,这个应该有一个
: 深刻的原理还没有被人类发现。

d*******l
发帖数: 48
12
做了什么feature engineering?

【在 g****t 的大作中提到】
: 找了个intern跑xgboost. 一星期下来,cifar 10最好也就52%。模型还挺大,鲁棒性存
: 疑。
: 实证下来。似乎可以认为,没有卷积这一步骤,或者别的前置滤波器。图像分类不可能
: 成功。
: 也可以认为,卷积是和人的视觉密切相关的domain specific filter。

M********0
发帖数: 1230
13
嗯 xgb作者都曾在自己知乎文章上面承认tree boosting被cnn击败 几年前了
g****t
发帖数: 31659
14
没有feature engineering。我是写算法的,不是用算法做项目的。
比较算法只能看out of box表现。各种ad hoc的办法加上去比较工作量太大了。负担不
了工作量。


: 做了什么feature engineering?



【在 d*******l 的大作中提到】
: 做了什么feature engineering?
n******g
发帖数: 2201
15
english name for "juan ji" is CNN?

【在 g****t 的大作中提到】
: 找了个intern跑xgboost. 一星期下来,cifar 10最好也就52%。模型还挺大,鲁棒性存
: 疑。
: 实证下来。似乎可以认为,没有卷积这一步骤,或者别的前置滤波器。图像分类不可能
: 成功。
: 也可以认为,卷积是和人的视觉密切相关的domain specific filter。

1 (共1页)
进入Programming版参与讨论
相关主题
如何计算卷积?请问一个CNN结构设计的问题
matlab里数字滤波的问题svm/svr还是不错的
有人参加hacker cup吗?单变量xgboost模型好的吓人,求解
推荐个VISUAL STUDIO 2010和C++入门书吧有没有做sentiment analysis的,求思路
卷积这东西真神了求教 xgboost train error 非常小,咋回事
[bssd]ANN有用xgboost 训练大数据问题
Re: Zillow Prize kaggle的比赛 求问xgboost 训练小感
CNN网络之后一般还要加FNN?xgboost 里面的tree到底是一整个depth=N的树,还是一个binary
相关话题的讨论汇总
话题: 卷积话题: xgboost话题: br话题: 图像话题: cifar