由买买提看人间百态

boards

本页内容为未名空间相应帖子的节选和存档,一周内的贴子最多显示50字,超过一周显示500字 访问原贴
CS版 - 请教一下这个做Learning的faculty水平如何?
相关主题
预测几个值图灵奖的得主请教一下SVM和ANN的区别
问个小白问题为啥Vapnik没拿图灵奖求教machine learning的基础材料
牛人很神奇的简历啊速成machine learning?
2010年图灵奖得主Leslie G. ValiantSupervised和Unsupervised Learning有什么区别
Valiant 是理论大牛PhD找程序员工作的时候publication有人看吗?
Vapnik获2008年ACM Paris Kanellakis理论与实践奖Classfication 比较好的算法是什么?
vapnik牛x的那个叫VC theorymachine learning vs data mining courses
学术届讲的是开创性的贡献CS博士选题求指教
相关话题的讨论汇总
话题: learning话题: lssvm话题: svm话题: thesis话题: rlsc
进入CS版参与讨论
1 (共1页)
l***e
发帖数: 12
1
http://www.esat.kuleuven.be/sista/members/suykens.html
比利时发考题,是那个小有名气的LS-SVM toolbox的项目领头人,做过SVM的人可能听
说过(貌似不如台湾国立大牛林智仁的libsvm用的多)。看publication蛮多的,但是
鄙人眼拙看不出质量,望有高人能指点一二,谢过。
t***s
发帖数: 15
2
这个人做的东西我比较了解。首先lssvm不是svm,两者的用的loss functioin
不一样(square loss vs. hinge loss),所以lssvm toolbox跟libsvm或者
svmlight不同,它不是一个svm solver。效果上,lssvm和svm不相上下,但用
的人并不多。这个人2000年左右搞出lssvm,发了非常多的paper,还写了一本书,
但其实贡献并不大,因为lssvm不过是已经有的某些machine的新的提法而已
(比如regularized networks,regularized kernel fda)。ml主流对他这种
鸡毛当令箭的做法不太看得上,甚至有人在文章里直接讽刺挖苦(e.g. ryan rifkin)。
他的publication里,icml 0, nips 1, jmlr 3,但都不是第一作者。结论:
不在主流ml community里,本人学术水平一般。

【在 l***e 的大作中提到】
: http://www.esat.kuleuven.be/sista/members/suykens.html
: 比利时发考题,是那个小有名气的LS-SVM toolbox的项目领头人,做过SVM的人可能听
: 说过(貌似不如台湾国立大牛林智仁的libsvm用的多)。看publication蛮多的,但是
: 鄙人眼拙看不出质量,望有高人能指点一二,谢过。

l***e
发帖数: 12
3
多谢高人现身指点。
不过主流ml community如今是什么呢?比如transfer learning其实也就是learning by
analogy的升级版吧。个人感觉除了vapnik的统计学习理论,近十几年来没有什么重大
进展。如今的主流多少也都有点鸡毛当令箭的意味。

)。

【在 t***s 的大作中提到】
: 这个人做的东西我比较了解。首先lssvm不是svm,两者的用的loss functioin
: 不一样(square loss vs. hinge loss),所以lssvm toolbox跟libsvm或者
: svmlight不同,它不是一个svm solver。效果上,lssvm和svm不相上下,但用
: 的人并不多。这个人2000年左右搞出lssvm,发了非常多的paper,还写了一本书,
: 但其实贡献并不大,因为lssvm不过是已经有的某些machine的新的提法而已
: (比如regularized networks,regularized kernel fda)。ml主流对他这种
: 鸡毛当令箭的做法不太看得上,甚至有人在文章里直接讽刺挖苦(e.g. ryan rifkin)。
: 他的publication里,icml 0, nips 1, jmlr 3,但都不是第一作者。结论:
: 不在主流ml community里,本人学术水平一般。

s******g
发帖数: 3841
4
主流就是最上层人互相吹捧的,他们认可的就是主流,其实剥开了都没啥
但是我们还是需要拼命挤进去,因为他们掌握资源
L*****k
发帖数: 327
5
不是再出一个vapnik的学习理论才叫进展,那种建立基础性质的工作本来就是很多年才
有一个

by

【在 l***e 的大作中提到】
: 多谢高人现身指点。
: 不过主流ml community如今是什么呢?比如transfer learning其实也就是learning by
: analogy的升级版吧。个人感觉除了vapnik的统计学习理论,近十几年来没有什么重大
: 进展。如今的主流多少也都有点鸡毛当令箭的意味。
:
: )。

L*****k
发帖数: 327
6
lssvm稍微发几篇paper其实还成,搞这么多年有点太无语了。。。。

)。

【在 t***s 的大作中提到】
: 这个人做的东西我比较了解。首先lssvm不是svm,两者的用的loss functioin
: 不一样(square loss vs. hinge loss),所以lssvm toolbox跟libsvm或者
: svmlight不同,它不是一个svm solver。效果上,lssvm和svm不相上下,但用
: 的人并不多。这个人2000年左右搞出lssvm,发了非常多的paper,还写了一本书,
: 但其实贡献并不大,因为lssvm不过是已经有的某些machine的新的提法而已
: (比如regularized networks,regularized kernel fda)。ml主流对他这种
: 鸡毛当令箭的做法不太看得上,甚至有人在文章里直接讽刺挖苦(e.g. ryan rifkin)。
: 他的publication里,icml 0, nips 1, jmlr 3,但都不是第一作者。结论:
: 不在主流ml community里,本人学术水平一般。

f*****x
发帖数: 2748
7

)。
在哪篇文章里讽刺?找了半天没找到。

【在 t***s 的大作中提到】
: 这个人做的东西我比较了解。首先lssvm不是svm,两者的用的loss functioin
: 不一样(square loss vs. hinge loss),所以lssvm toolbox跟libsvm或者
: svmlight不同,它不是一个svm solver。效果上,lssvm和svm不相上下,但用
: 的人并不多。这个人2000年左右搞出lssvm,发了非常多的paper,还写了一本书,
: 但其实贡献并不大,因为lssvm不过是已经有的某些machine的新的提法而已
: (比如regularized networks,regularized kernel fda)。ml主流对他这种
: 鸡毛当令箭的做法不太看得上,甚至有人在文章里直接讽刺挖苦(e.g. ryan rifkin)。
: 他的publication里,icml 0, nips 1, jmlr 3,但都不是第一作者。结论:
: 不在主流ml community里,本人学术水平一般。

t***s
发帖数: 15
8
Everything Old is New Again: A Fresh Look at Historical
Approaches in Machine Learning
Ryan Rifkin, PhD Thesis, 2002
Page 100:
Hans Suykens has also rederived the RLSC algorithm, under the
name of Least Squares Support Vector Machines. He has been
extremely prolific on the topic, publishing literally dozens of
papers; the papers most relevant to the topic discussed in this
thesis are [109,110,107,108,105,44,106]. However, these papers
do not seem to advance either the theory or practice of RLSC.
Like the work of Fung and Mangasarian, Suykens derives RLSC as
a modification of Support Vector Machine, rather than directly
as an implementation of Tikhonov regularization with a particular
loss function, and seems somewhat ignorant of previous work in
approximation theory.
是不是讽刺见仁见智,我是觉得已经夹枪带棒了。。

【在 f*****x 的大作中提到】
:
: )。
: 在哪篇文章里讽刺?找了半天没找到。

t***s
发帖数: 15
9
还专门为lssvm写了本书。还有那个toolbox,光documentation就
几百页,实际上去掉pre- post- processing,visualization,
真正的核心matlab代码不超过5行。用"\"解两个线形系统,over。
难为他搞出那么大动静来。

【在 L*****k 的大作中提到】
: lssvm稍微发几篇paper其实还成,搞这么多年有点太无语了。。。。
:
: )。

t***s
发帖数: 15
10
我不是什么高人,初窥门径而已。说Suykens水平一般其实都轮不到我,
不过他跟ml主流community关系不密切是确定的。ml的重大进展,这个我
更是没资格评论。。

by

【在 l***e 的大作中提到】
: 多谢高人现身指点。
: 不过主流ml community如今是什么呢?比如transfer learning其实也就是learning by
: analogy的升级版吧。个人感觉除了vapnik的统计学习理论,近十几年来没有什么重大
: 进展。如今的主流多少也都有点鸡毛当令箭的意味。
:
: )。

相关主题
Vapnik获2008年ACM Paris Kanellakis理论与实践奖请教一下SVM和ANN的区别
vapnik牛x的那个叫VC theory求教machine learning的基础材料
学术届讲的是开创性的贡献速成machine learning?
进入CS版参与讨论
r********3
发帖数: 2998
11
赞!欧洲很多这样的人。只在自己的圈子狂灌水,混不进主流。

)。

【在 t***s 的大作中提到】
: 这个人做的东西我比较了解。首先lssvm不是svm,两者的用的loss functioin
: 不一样(square loss vs. hinge loss),所以lssvm toolbox跟libsvm或者
: svmlight不同,它不是一个svm solver。效果上,lssvm和svm不相上下,但用
: 的人并不多。这个人2000年左右搞出lssvm,发了非常多的paper,还写了一本书,
: 但其实贡献并不大,因为lssvm不过是已经有的某些machine的新的提法而已
: (比如regularized networks,regularized kernel fda)。ml主流对他这种
: 鸡毛当令箭的做法不太看得上,甚至有人在文章里直接讽刺挖苦(e.g. ryan rifkin)。
: 他的publication里,icml 0, nips 1, jmlr 3,但都不是第一作者。结论:
: 不在主流ml community里,本人学术水平一般。

r********3
发帖数: 2998
12
Learning领域是这样的。
其他传统领域还是比较实在,不是靠吹捧就行的。要拿出实际的系统和产品出来,跑跑
Benchmark,是龙是虫一下子就比较出来了。

【在 s******g 的大作中提到】
: 主流就是最上层人互相吹捧的,他们认可的就是主流,其实剥开了都没啥
: 但是我们还是需要拼命挤进去,因为他们掌握资源

f*****x
发帖数: 2748
13
多谢这段摘录,见识了比较专业的讽刺写法。

【在 t***s 的大作中提到】
: Everything Old is New Again: A Fresh Look at Historical
: Approaches in Machine Learning
: Ryan Rifkin, PhD Thesis, 2002
: Page 100:
: Hans Suykens has also rederived the RLSC algorithm, under the
: name of Least Squares Support Vector Machines. He has been
: extremely prolific on the topic, publishing literally dozens of
: papers; the papers most relevant to the topic discussed in this
: thesis are [109,110,107,108,105,44,106]. However, these papers
: do not seem to advance either the theory or practice of RLSC.

d******e
发帖数: 7844
14
写进Thesis真是有够mean

【在 t***s 的大作中提到】
: Everything Old is New Again: A Fresh Look at Historical
: Approaches in Machine Learning
: Ryan Rifkin, PhD Thesis, 2002
: Page 100:
: Hans Suykens has also rederived the RLSC algorithm, under the
: name of Least Squares Support Vector Machines. He has been
: extremely prolific on the topic, publishing literally dozens of
: papers; the papers most relevant to the topic discussed in this
: thesis are [109,110,107,108,105,44,106]. However, these papers
: do not seem to advance either the theory or practice of RLSC.

r********3
发帖数: 2998
15
从这个PhD Thesis的title就可以看出这个人很“牛”。

【在 d******e 的大作中提到】
: 写进Thesis真是有够mean
v******d
发帖数: 1322
16
也不见得是,大部分领域都有不少人自己划个圈灌水的

【在 r********3 的大作中提到】
: Learning领域是这样的。
: 其他传统领域还是比较实在,不是靠吹捧就行的。要拿出实际的系统和产品出来,跑跑
: Benchmark,是龙是虫一下子就比较出来了。

r********3
发帖数: 2998
17
Learning的这种领域是这种现象最严重的。

【在 v******d 的大作中提到】
: 也不见得是,大部分领域都有不少人自己划个圈灌水的
1 (共1页)
进入CS版参与讨论
相关主题
CS博士选题求指教Valiant 是理论大牛
cs的方向请教Vapnik获2008年ACM Paris Kanellakis理论与实践奖
包子贴 求 master thesis topic 建议vapnik牛x的那个叫VC theory
选校求助!学术届讲的是开创性的贡献
预测几个值图灵奖的得主请教一下SVM和ANN的区别
问个小白问题为啥Vapnik没拿图灵奖求教machine learning的基础材料
牛人很神奇的简历啊速成machine learning?
2010年图灵奖得主Leslie G. ValiantSupervised和Unsupervised Learning有什么区别
相关话题的讨论汇总
话题: learning话题: lssvm话题: svm话题: thesis话题: rlsc