s****i 发帖数: 216 | 1 最近想涉及这个领域, 看论文abstract都有些迷茫,
以前看有牛人说,现在基本上都是对各种learning method下
的算法小改进, 好像没什么更highlevel的东西,
听了还是很迷惑, 请达人介绍下吧。 |
h*******e 发帖数: 225 | 2 入门的话,先看看经典的书吧,没有基本的了解看paper也没有太大意义。
【在 s****i 的大作中提到】 : 最近想涉及这个领域, 看论文abstract都有些迷茫, : 以前看有牛人说,现在基本上都是对各种learning method下 : 的算法小改进, 好像没什么更highlevel的东西, : 听了还是很迷惑, 请达人介绍下吧。
|
p*********w 发帖数: 606 | 3 duda的pattern recognition,大概就有个了解。
想理论深点就看vapnic的统计学习理论,是svm的理论基础,要用svm就不用看了
再看点bayes,markov概率模型,图模型
看一下boosting
差不多了
【在 s****i 的大作中提到】 : 最近想涉及这个领域, 看论文abstract都有些迷茫, : 以前看有牛人说,现在基本上都是对各种learning method下 : 的算法小改进, 好像没什么更highlevel的东西, : 听了还是很迷惑, 请达人介绍下吧。
|
N**D 发帖数: 10322 | 4 Ralf Herbrich has a book, very good, little hard to read. worth reading
【在 s****i 的大作中提到】 : 最近想涉及这个领域, 看论文abstract都有些迷茫, : 以前看有牛人说,现在基本上都是对各种learning method下 : 的算法小改进, 好像没什么更highlevel的东西, : 听了还是很迷惑, 请达人介绍下吧。
|
l********o 发帖数: 33 | 5 bishop's new book on pattern recognition and machine learning
but not suitable for beginner;
duda's book is the first step.
【在 s****i 的大作中提到】 : 最近想涉及这个领域, 看论文abstract都有些迷茫, : 以前看有牛人说,现在基本上都是对各种learning method下 : 的算法小改进, 好像没什么更highlevel的东西, : 听了还是很迷惑, 请达人介绍下吧。
|
s****i 发帖数: 216 | 6 thanks you all !!!
but what is the possibility to apply for graduate study in usa in this area,
on condition that i am a new comer?
is that possible?
someone tells me it would be impossible if applying for top 20 school ?
that sounds sad~~ |
v********e 发帖数: 1058 | 7 virtually impossible for top 20
area,
【在 s****i 的大作中提到】 : thanks you all !!! : but what is the possibility to apply for graduate study in usa in this area, : on condition that i am a new comer? : is that possible? : someone tells me it would be impossible if applying for top 20 school ? : that sounds sad~~
|
p*******r 发帖数: 475 | 8 之前没做过希望不大,除非你是名校的GPA前几名
area,
【在 s****i 的大作中提到】 : thanks you all !!! : but what is the possibility to apply for graduate study in usa in this area, : on condition that i am a new comer? : is that possible? : someone tells me it would be impossible if applying for top 20 school ? : that sounds sad~~
|
b********p 发帖数: 875 | 9 从duda到vapnik跳跃太大了点.
其实从AIMA相关章节开始好了,在看看主教和乔丹的书,
要看懂vapnik得把拓扑实变泛函概率论都打通才行啊
【在 p*********w 的大作中提到】 : duda的pattern recognition,大概就有个了解。 : 想理论深点就看vapnic的统计学习理论,是svm的理论基础,要用svm就不用看了 : 再看点bayes,markov概率模型,图模型 : 看一下boosting : 差不多了
|
v********e 发帖数: 1058 | 10 主教是Tom Mitchell?
【在 b********p 的大作中提到】 : 从duda到vapnik跳跃太大了点. : 其实从AIMA相关章节开始好了,在看看主教和乔丹的书, : 要看懂vapnik得把拓扑实变泛函概率论都打通才行啊
|
|
|
b********p 发帖数: 875 | 11 bishop
【在 v********e 的大作中提到】 : 主教是Tom Mitchell?
|
v********e 发帖数: 1058 | 12 哦,才反应过来,哈哈
【在 b********p 的大作中提到】 : bishop
|
v****s 发帖数: 1112 | 13 r u in computer vision research field?
how can "boosting" be listed after PGM, Markov? emsemble learning is just a
small branch of ML.
【在 p*********w 的大作中提到】 : duda的pattern recognition,大概就有个了解。 : 想理论深点就看vapnic的统计学习理论,是svm的理论基础,要用svm就不用看了 : 再看点bayes,markov概率模型,图模型 : 看一下boosting : 差不多了
|
v****s 发帖数: 1112 | 14 if u want to choose ML and dig deep, u should be very very strong in
mathematics, esp statistics, optimization, etc.
so many smart guys in this planet r researching ML.
to c how it can be, google one of them,
dahua lin
【在 s****i 的大作中提到】 : 最近想涉及这个领域, 看论文abstract都有些迷茫, : 以前看有牛人说,现在基本上都是对各种learning method下 : 的算法小改进, 好像没什么更highlevel的东西, : 听了还是很迷惑, 请达人介绍下吧。
|
g***o 发帖数: 230 | 15 借人气问一下,有人参加NIPS workshop吗,寻roommate中.....
a
【在 v****s 的大作中提到】 : r u in computer vision research field? : how can "boosting" be listed after PGM, Markov? emsemble learning is just a : small branch of ML.
|
g******y 发帖数: 46 | 16 我靠,我一开始以为你就是dahua lin呢?
这人狂发CVPR啊。
【在 v****s 的大作中提到】 : if u want to choose ML and dig deep, u should be very very strong in : mathematics, esp statistics, optimization, etc. : so many smart guys in this planet r researching ML. : to c how it can be, google one of them, : dahua lin
|
g***o 发帖数: 230 | 17 how did you figure out he is not then? hehe
【在 g******y 的大作中提到】 : 我靠,我一开始以为你就是dahua lin呢? : 这人狂发CVPR啊。
|
d******e 发帖数: 7844 | 18 看IP,dahua lin现在是18开头
【在 g***o 的大作中提到】 : how did you figure out he is not then? hehe
|
b********p 发帖数: 875 | 19 dahua lin这种现象级偶像应该没时间来mitbbs把, |
v****s 发帖数: 1112 | 20 now he turned to journal....
well, cvpr is just tie2 conf.... he had iccv too, which is tie1 !
【在 g******y 的大作中提到】 : 我靠,我一开始以为你就是dahua lin呢? : 这人狂发CVPR啊。
|
|
|
v****s 发帖数: 1112 | 21 haha, i'm also his fan....
csail is a cool place, paradise for all AI guys...
【在 d******e 的大作中提到】 : 看IP,dahua lin现在是18开头
|
n*s 发帖数: 599 | 22 iccv用得着 叹号么,要是有个nature science的你不就得用叹号扫屏了
至于那句关于cvpr的就懒得说你了
【在 v****s 的大作中提到】 : now he turned to journal.... : well, cvpr is just tie2 conf.... he had iccv too, which is tie1 !
|
s****i 发帖数: 216 | 23 说的很现实啊, !!!
看样子要想大作为, 得闷一闷了,
另外,既然和统计相关这么大,
那么统计和cs交叉研究的一定也很广泛咯?
我听说是这样的, ucberkeley很多搞ml的都是statistic的professor,
但是在烂一点(30~50)的学校这个有可能吗?
还是说那些学校的统计都是搞
我的想法是,去差一点的学校, 虽然也读cs,
但是我争取读到一个统计的学位, 那数学加强些,
否则我想如果一直读cs牛校读下去, 估计是被project和reserach任务压着,会很赶
吧。
【在 p*******r 的大作中提到】 : 之前没做过希望不大,除非你是名校的GPA前几名 : : area,
|
g***o 发帖数: 230 | 24 don't know much about either of them, but iccv is kind of treated as tier 2
in our lab
【在 n*s 的大作中提到】 : iccv用得着 叹号么,要是有个nature science的你不就得用叹号扫屏了 : 至于那句关于cvpr的就懒得说你了
|
R********n 发帖数: 519 | 25 读一个统计加强不了多少数学,多学些概率还好些,这些和pure math太远了。Bayes
Inference只是learning中一个方向,并不觉得那么多搞统计的跳进来搞出来多少东西
。各种图模型,各种先验假设,很多时候感觉不太solid
【在 s****i 的大作中提到】 : 说的很现实啊, !!! : 看样子要想大作为, 得闷一闷了, : 另外,既然和统计相关这么大, : 那么统计和cs交叉研究的一定也很广泛咯? : 我听说是这样的, ucberkeley很多搞ml的都是statistic的professor, : 但是在烂一点(30~50)的学校这个有可能吗? : 还是说那些学校的统计都是搞 : 我的想法是,去差一点的学校, 虽然也读cs, : 但是我争取读到一个统计的学位, 那数学加强些, : 否则我想如果一直读cs牛校读下去, 估计是被project和reserach任务压着,会很赶
|
d******e 发帖数: 7844 | 26 如果读applied statistics确实没什么用,里面的Regression,Anova那些东西和ML根本
不搭边。
数学课程有用的很多。比如Real Analysis,Linear Programming,PDE,Advanced
Linear Algebra。而统计的课程,修一修Probability Theory,Probability Model,
Multivariate, Linear Model, Statistical Inference也是很有必要的。
其实不是统计跳到CS来做东西,而是这东西本来就是共有的。
能自学数学的牛人,不修这个学位也罢。对于非牛人,读一个还是能学到不少东西的
【在 R********n 的大作中提到】 : 读一个统计加强不了多少数学,多学些概率还好些,这些和pure math太远了。Bayes : Inference只是learning中一个方向,并不觉得那么多搞统计的跳进来搞出来多少东西 : 。各种图模型,各种先验假设,很多时候感觉不太solid
|
g***o 发帖数: 230 | 27
are you kidding me?
I would remove Real Analysis and PDE, but add functional analysis and differential
geometry. Besides, why do you list linear programming instead of optimization?
【在 d******e 的大作中提到】 : 如果读applied statistics确实没什么用,里面的Regression,Anova那些东西和ML根本 : 不搭边。 : 数学课程有用的很多。比如Real Analysis,Linear Programming,PDE,Advanced : Linear Algebra。而统计的课程,修一修Probability Theory,Probability Model, : Multivariate, Linear Model, Statistical Inference也是很有必要的。 : 其实不是统计跳到CS来做东西,而是这东西本来就是共有的。 : 能自学数学的牛人,不修这个学位也罢。对于非牛人,读一个还是能学到不少东西的
|
d******e 发帖数: 7844 | 28 你这完全是跟我抬杠。
你看applied statistics里学的regression是什么难度的你就知道了。ANOVA就是整天
Design Matrix。
至于说Optimization,Functional Analysis和Differential Geometry,Master Level
是没有这种课程的。
根本
differential
optimization?
【在 g***o 的大作中提到】 : : are you kidding me? : I would remove Real Analysis and PDE, but add functional analysis and differential : geometry. Besides, why do you list linear programming instead of optimization?
|
g***o 发帖数: 230 | 29 I am just saying these courses are the most useful ones for machine learning
research. Never took applied statistics before, you might be right on the
ANOVA stuff...
Level
【在 d******e 的大作中提到】 : 你这完全是跟我抬杠。 : 你看applied statistics里学的regression是什么难度的你就知道了。ANOVA就是整天 : Design Matrix。 : 至于说Optimization,Functional Analysis和Differential Geometry,Master Level : 是没有这种课程的。 : : 根本 : differential : optimization?
|
c*******h 发帖数: 1096 | 30 其实大多数这些方向的人就是不懂优化,也不懂矩阵,知道有些黑盒子可以套就是了
至于几何啊统计啊什么的照葫芦画瓢也就差不多了
learning
【在 g***o 的大作中提到】 : I am just saying these courses are the most useful ones for machine learning : research. Never took applied statistics before, you might be right on the : ANOVA stuff... : : Level
|
|
|
g***o 发帖数: 230 | 31 I am just saying these courses are the most useful ones for machine learning
research. Never took applied statistics before, you might be right on the
ANOVA stuff...
Level
【在 d******e 的大作中提到】 : 你这完全是跟我抬杠。 : 你看applied statistics里学的regression是什么难度的你就知道了。ANOVA就是整天 : Design Matrix。 : 至于说Optimization,Functional Analysis和Differential Geometry,Master Level : 是没有这种课程的。 : : 根本 : differential : optimization?
|
K****n 发帖数: 5970 | 32 不懂矩阵?你举个例子.和和
【在 c*******h 的大作中提到】 : 其实大多数这些方向的人就是不懂优化,也不懂矩阵,知道有些黑盒子可以套就是了 : 至于几何啊统计啊什么的照葫芦画瓢也就差不多了 : : learning
|
d******e 发帖数: 7844 | 33 矩阵分解就够学一阵子的了。
【在 K****n 的大作中提到】 : 不懂矩阵?你举个例子.和和
|
c*******h 发帖数: 1096 | 34 还有就是解线性方程组,trick太多了
其实PDE搞到最后也就是解一线性方程组,从数值的角度来说
【在 d******e 的大作中提到】 : 矩阵分解就够学一阵子的了。
|
d******e 发帖数: 7844 | 35 我还没修到数值解法那门,还在上PDE
【在 c*******h 的大作中提到】 : 还有就是解线性方程组,trick太多了 : 其实PDE搞到最后也就是解一线性方程组,从数值的角度来说
|
K****n 发帖数: 5970 | 36 一页一页看书能看懂的我觉得都没啥
我是说ml当黑箱可不容易,不啃两本儿书咋行,不至于不懂矩阵
发信人: drburnie (专门爆料), 信区: CS
标 题: Re: 达人介绍一下MachineLearning吧
发信站: BBS 未名空间站 (Thu Oct 30 23:03:13 2008), 转信
矩阵分解就够学一阵子的了。 |
R********n 发帖数: 519 | 37 基本的矩阵应该还是知道的
但是延伸一点就不一定了,不是简单看书就能明白的,很多人发了paper也不见得很明白
比如从矩阵到图论,graph spectral theory,做manifold的用了好多,不过chuang的
那本书应该看懂了前4章的很少
或者衍生到group theory,懂得就更少了
【在 K****n 的大作中提到】 : 一页一页看书能看懂的我觉得都没啥 : 我是说ml当黑箱可不容易,不啃两本儿书咋行,不至于不懂矩阵 : 发信人: drburnie (专门爆料), 信区: CS : 标 题: Re: 达人介绍一下MachineLearning吧 : 发信站: BBS 未名空间站 (Thu Oct 30 23:03:13 2008), 转信 : 矩阵分解就够学一阵子的了。
|
v********e 发帖数: 1058 | 38 是Fan Chung吧。
前些日子还来过我们这儿,牛的
明白
【在 R********n 的大作中提到】 : 基本的矩阵应该还是知道的 : 但是延伸一点就不一定了,不是简单看书就能明白的,很多人发了paper也不见得很明白 : 比如从矩阵到图论,graph spectral theory,做manifold的用了好多,不过chuang的 : 那本书应该看懂了前4章的很少 : 或者衍生到group theory,懂得就更少了
|
R********n 发帖数: 519 | 39 对,呵呵,是UCSD Math的,去你们那给talk?
【在 v********e 的大作中提到】 : 是Fan Chung吧。 : 前些日子还来过我们这儿,牛的 : : 明白
|
i***c 发帖数: 301 | 40 标 题: 机器学习推荐论文和书籍
发信站: 水木社区 (Thu Oct 30 21:00:39 2008), 站内
======================================
基本模型:
HMM(Hidden Markov Models):
A Tutorial on Hidden Markov Models and Selected Applications in
Speech Recognition.pdf
ME(Maximum Entropy):
ME_to_NLP.pdf
MEMM(Maximum Entropy Markov Models):
memm.pdf
CRF(Conditional Random Fields):
An Introduction to Conditional Random Fields for Relational Learning.
pdf
Conditional Random Fields: Probabilistic Models for Segmenti |
|
|
c******a 发帖数: 600 | |
s****i 发帖数: 216 | 42 这个ms很强大~~~
【在 i***c 的大作中提到】 : 标 题: 机器学习推荐论文和书籍 : 发信站: 水木社区 (Thu Oct 30 21:00:39 2008), 站内 : ====================================== : 基本模型: : HMM(Hidden Markov Models): : A Tutorial on Hidden Markov Models and Selected Applications in : Speech Recognition.pdf : ME(Maximum Entropy): : ME_to_NLP.pdf : MEMM(Maximum Entropy Markov Models):
|