l***e 发帖数: 12 | 1 http://www.esat.kuleuven.be/sista/members/suykens.html
比利时发考题,是那个小有名气的LS-SVM toolbox的项目领头人,做过SVM的人可能听
说过(貌似不如台湾国立大牛林智仁的libsvm用的多)。看publication蛮多的,但是
鄙人眼拙看不出质量,望有高人能指点一二,谢过。 |
t***s 发帖数: 15 | 2 这个人做的东西我比较了解。首先lssvm不是svm,两者的用的loss functioin
不一样(square loss vs. hinge loss),所以lssvm toolbox跟libsvm或者
svmlight不同,它不是一个svm solver。效果上,lssvm和svm不相上下,但用
的人并不多。这个人2000年左右搞出lssvm,发了非常多的paper,还写了一本书,
但其实贡献并不大,因为lssvm不过是已经有的某些machine的新的提法而已
(比如regularized networks,regularized kernel fda)。ml主流对他这种
鸡毛当令箭的做法不太看得上,甚至有人在文章里直接讽刺挖苦(e.g. ryan rifkin)。
他的publication里,icml 0, nips 1, jmlr 3,但都不是第一作者。结论:
不在主流ml community里,本人学术水平一般。
【在 l***e 的大作中提到】 : http://www.esat.kuleuven.be/sista/members/suykens.html : 比利时发考题,是那个小有名气的LS-SVM toolbox的项目领头人,做过SVM的人可能听 : 说过(貌似不如台湾国立大牛林智仁的libsvm用的多)。看publication蛮多的,但是 : 鄙人眼拙看不出质量,望有高人能指点一二,谢过。
|
l***e 发帖数: 12 | 3 多谢高人现身指点。
不过主流ml community如今是什么呢?比如transfer learning其实也就是learning by
analogy的升级版吧。个人感觉除了vapnik的统计学习理论,近十几年来没有什么重大
进展。如今的主流多少也都有点鸡毛当令箭的意味。
)。
【在 t***s 的大作中提到】 : 这个人做的东西我比较了解。首先lssvm不是svm,两者的用的loss functioin : 不一样(square loss vs. hinge loss),所以lssvm toolbox跟libsvm或者 : svmlight不同,它不是一个svm solver。效果上,lssvm和svm不相上下,但用 : 的人并不多。这个人2000年左右搞出lssvm,发了非常多的paper,还写了一本书, : 但其实贡献并不大,因为lssvm不过是已经有的某些machine的新的提法而已 : (比如regularized networks,regularized kernel fda)。ml主流对他这种 : 鸡毛当令箭的做法不太看得上,甚至有人在文章里直接讽刺挖苦(e.g. ryan rifkin)。 : 他的publication里,icml 0, nips 1, jmlr 3,但都不是第一作者。结论: : 不在主流ml community里,本人学术水平一般。
|
s******g 发帖数: 3841 | 4 主流就是最上层人互相吹捧的,他们认可的就是主流,其实剥开了都没啥
但是我们还是需要拼命挤进去,因为他们掌握资源 |
L*****k 发帖数: 327 | 5 不是再出一个vapnik的学习理论才叫进展,那种建立基础性质的工作本来就是很多年才
有一个
by
【在 l***e 的大作中提到】 : 多谢高人现身指点。 : 不过主流ml community如今是什么呢?比如transfer learning其实也就是learning by : analogy的升级版吧。个人感觉除了vapnik的统计学习理论,近十几年来没有什么重大 : 进展。如今的主流多少也都有点鸡毛当令箭的意味。 : : )。
|
L*****k 发帖数: 327 | 6 lssvm稍微发几篇paper其实还成,搞这么多年有点太无语了。。。。
)。
【在 t***s 的大作中提到】 : 这个人做的东西我比较了解。首先lssvm不是svm,两者的用的loss functioin : 不一样(square loss vs. hinge loss),所以lssvm toolbox跟libsvm或者 : svmlight不同,它不是一个svm solver。效果上,lssvm和svm不相上下,但用 : 的人并不多。这个人2000年左右搞出lssvm,发了非常多的paper,还写了一本书, : 但其实贡献并不大,因为lssvm不过是已经有的某些machine的新的提法而已 : (比如regularized networks,regularized kernel fda)。ml主流对他这种 : 鸡毛当令箭的做法不太看得上,甚至有人在文章里直接讽刺挖苦(e.g. ryan rifkin)。 : 他的publication里,icml 0, nips 1, jmlr 3,但都不是第一作者。结论: : 不在主流ml community里,本人学术水平一般。
|
f*****x 发帖数: 2748 | 7
)。
在哪篇文章里讽刺?找了半天没找到。
【在 t***s 的大作中提到】 : 这个人做的东西我比较了解。首先lssvm不是svm,两者的用的loss functioin : 不一样(square loss vs. hinge loss),所以lssvm toolbox跟libsvm或者 : svmlight不同,它不是一个svm solver。效果上,lssvm和svm不相上下,但用 : 的人并不多。这个人2000年左右搞出lssvm,发了非常多的paper,还写了一本书, : 但其实贡献并不大,因为lssvm不过是已经有的某些machine的新的提法而已 : (比如regularized networks,regularized kernel fda)。ml主流对他这种 : 鸡毛当令箭的做法不太看得上,甚至有人在文章里直接讽刺挖苦(e.g. ryan rifkin)。 : 他的publication里,icml 0, nips 1, jmlr 3,但都不是第一作者。结论: : 不在主流ml community里,本人学术水平一般。
|
t***s 发帖数: 15 | 8 Everything Old is New Again: A Fresh Look at Historical
Approaches in Machine Learning
Ryan Rifkin, PhD Thesis, 2002
Page 100:
Hans Suykens has also rederived the RLSC algorithm, under the
name of Least Squares Support Vector Machines. He has been
extremely prolific on the topic, publishing literally dozens of
papers; the papers most relevant to the topic discussed in this
thesis are [109,110,107,108,105,44,106]. However, these papers
do not seem to advance either the theory or practice of RLSC.
Like the work of Fung and Mangasarian, Suykens derives RLSC as
a modification of Support Vector Machine, rather than directly
as an implementation of Tikhonov regularization with a particular
loss function, and seems somewhat ignorant of previous work in
approximation theory.
是不是讽刺见仁见智,我是觉得已经夹枪带棒了。。
【在 f*****x 的大作中提到】 : : )。 : 在哪篇文章里讽刺?找了半天没找到。
|
t***s 发帖数: 15 | 9 还专门为lssvm写了本书。还有那个toolbox,光documentation就
几百页,实际上去掉pre- post- processing,visualization,
真正的核心matlab代码不超过5行。用"\"解两个线形系统,over。
难为他搞出那么大动静来。
【在 L*****k 的大作中提到】 : lssvm稍微发几篇paper其实还成,搞这么多年有点太无语了。。。。 : : )。
|
t***s 发帖数: 15 | 10 我不是什么高人,初窥门径而已。说Suykens水平一般其实都轮不到我,
不过他跟ml主流community关系不密切是确定的。ml的重大进展,这个我
更是没资格评论。。
by
【在 l***e 的大作中提到】 : 多谢高人现身指点。 : 不过主流ml community如今是什么呢?比如transfer learning其实也就是learning by : analogy的升级版吧。个人感觉除了vapnik的统计学习理论,近十几年来没有什么重大 : 进展。如今的主流多少也都有点鸡毛当令箭的意味。 : : )。
|
|
|
r********3 发帖数: 2998 | 11 赞!欧洲很多这样的人。只在自己的圈子狂灌水,混不进主流。
)。
【在 t***s 的大作中提到】 : 这个人做的东西我比较了解。首先lssvm不是svm,两者的用的loss functioin : 不一样(square loss vs. hinge loss),所以lssvm toolbox跟libsvm或者 : svmlight不同,它不是一个svm solver。效果上,lssvm和svm不相上下,但用 : 的人并不多。这个人2000年左右搞出lssvm,发了非常多的paper,还写了一本书, : 但其实贡献并不大,因为lssvm不过是已经有的某些machine的新的提法而已 : (比如regularized networks,regularized kernel fda)。ml主流对他这种 : 鸡毛当令箭的做法不太看得上,甚至有人在文章里直接讽刺挖苦(e.g. ryan rifkin)。 : 他的publication里,icml 0, nips 1, jmlr 3,但都不是第一作者。结论: : 不在主流ml community里,本人学术水平一般。
|
r********3 发帖数: 2998 | 12 Learning领域是这样的。
其他传统领域还是比较实在,不是靠吹捧就行的。要拿出实际的系统和产品出来,跑跑
Benchmark,是龙是虫一下子就比较出来了。
【在 s******g 的大作中提到】 : 主流就是最上层人互相吹捧的,他们认可的就是主流,其实剥开了都没啥 : 但是我们还是需要拼命挤进去,因为他们掌握资源
|
f*****x 发帖数: 2748 | 13 多谢这段摘录,见识了比较专业的讽刺写法。
【在 t***s 的大作中提到】 : Everything Old is New Again: A Fresh Look at Historical : Approaches in Machine Learning : Ryan Rifkin, PhD Thesis, 2002 : Page 100: : Hans Suykens has also rederived the RLSC algorithm, under the : name of Least Squares Support Vector Machines. He has been : extremely prolific on the topic, publishing literally dozens of : papers; the papers most relevant to the topic discussed in this : thesis are [109,110,107,108,105,44,106]. However, these papers : do not seem to advance either the theory or practice of RLSC.
|
d******e 发帖数: 7844 | 14 写进Thesis真是有够mean
【在 t***s 的大作中提到】 : Everything Old is New Again: A Fresh Look at Historical : Approaches in Machine Learning : Ryan Rifkin, PhD Thesis, 2002 : Page 100: : Hans Suykens has also rederived the RLSC algorithm, under the : name of Least Squares Support Vector Machines. He has been : extremely prolific on the topic, publishing literally dozens of : papers; the papers most relevant to the topic discussed in this : thesis are [109,110,107,108,105,44,106]. However, these papers : do not seem to advance either the theory or practice of RLSC.
|
r********3 发帖数: 2998 | 15 从这个PhD Thesis的title就可以看出这个人很“牛”。
【在 d******e 的大作中提到】 : 写进Thesis真是有够mean
|
v******d 发帖数: 1322 | 16 也不见得是,大部分领域都有不少人自己划个圈灌水的
【在 r********3 的大作中提到】 : Learning领域是这样的。 : 其他传统领域还是比较实在,不是靠吹捧就行的。要拿出实际的系统和产品出来,跑跑 : Benchmark,是龙是虫一下子就比较出来了。
|
r********3 发帖数: 2998 | 17 Learning的这种领域是这种现象最严重的。
【在 v******d 的大作中提到】 : 也不见得是,大部分领域都有不少人自己划个圈灌水的
|