H****S 发帖数: 1359 | 1 我试着回答一下这个问题。最古老的AI学习算法是上世纪50,60年代提出的perceptron
算法,说白了就是完全前向输出(feedforward)神经网络,输入和输出之间的连接权
值也会更据输出结果和目标值之间的同于不同发生改变,但是是一种机械的改变,不是
基于回馈(backpropagation)的改变。这么一个算法虽然简单,但是刚刚诞生的时候
却着实引起了轰动,perceptron的作者声称这个算法已经可以解决所有的AI学习问题,
AI的真正实现似乎已经唾手可及。好景不长,随后有人专门写了一本书数学证明了
perceptron无法解决的一系列AI问题,其中一个简单例子暨perceptron无法辨别
wrapped sequences,比如1234和4123其实指向的是同一个pattern。这个问题对于人类
来说如此简单,但是perceptron却是完败,再加上之前的对神经网络的hype又太高,导
致了后者一时间臭名昭著。Hinton说他选择研究神经网络做方向的时候,同行几乎见面
就和他说神经网络是没有前途的。之后神经网络重新崛起肇始于Hinton划时代的
Backprogagat... 阅读全帖 |
|
f****4 发帖数: 1359 | 2 Within a 2D space, there is a batch of points(no duplicate) in the region (0
,0),(0,1),(1,0),(1,1), try to find a line which can divide the region to 2
parts with half points in each .the input will be an array of points and the
length of the array.
struct point{
int x;
int y;
};
input : struct point * points, int length
google了一下,说是Linear Perceptron algorithm可以解决,但找到的Linear
Perceptron 都是关于AI的;知道的人能给我个具体链接么?谢谢
算法压根就没准备那么深,临时抱佛脚中 |
|
g*********n 发帖数: 21 | 3 首先多谢等会出手相助的牛人。
我比较郁闷,选了门神经计算,本来是想学理论神经科学,以后给我的节细胞做做离子
通道的建模,应该是比较有趣的事情,谁知道这课开始讲了一大通神经网络的东西
其实也难怪,听课的除了我一个学生物的,其他的都是计算机系的
主要工具就是matlab,
其实他们那个人工神经网络思想还是比较简单的,可偶从来也没学过编程
所以对老师的这个project感觉无法下手
内容很简单,那老师用一个13x12的矩阵,有的元素是一,有的是零
看上去,就像A,B,C,...当然一共是26个这样的矩阵啦
然后说要做一个perceptron来识别这些pattern
还要训练这个perceptron,估计就是什么back-propagation 的思想
给出training curve(what the hell is that?)
给出dependence on the recognition rate with different levels of noise
我更加糊涂了
偶实在看不出搞这个和我原始的目标什么相干,反正两个星期过去了
Hodgkin-Huxley方程还没讲
只是这个pr |
|
f**d 发帖数: 768 | 4 这是一本计算神经科学的优秀著作,全文拷贝这里(图和公式缺),有兴趣的同学可以
阅读
如需要,我可以分享PDF文件(--仅供个人学习,无商业用途)
From Computer to Brain
William W. Lytton
From Computer to Brain
Foundations of Computational Neuroscience
Springer
William W. Lytton, M.D.
Associate Professor, State University of New York, Downstato, Brooklyn, NY
Visiting Associate Professor, University of Wisconsin, Madison
Visiting Associate Professor, Polytechnic University, Brooklyn, NY
Staff Neurologist., Kings County Hospital, Brooklyn, NY
In From Computer to Brain: ... 阅读全帖 |
|
h**********l 发帖数: 6342 | 5 请发给我姓名,单位,联系方式喝简要研究方向给我
1月10号以前
keywords:Gender identification.
MFCC.
Gaussian mixture model (GMM).
Multilayer Perceptrons (MLP)
谢谢
review通过电子邮件附件的form |
|
L*******r 发帖数: 59 | 6 Suppose we have six samples from three classes as (+1, 0), (0, +1) for class
1, (-1, +1), (-1, 0) for class 2, and (0, -1), (+1, -1) for class 3. Design
and implement a perceptron-like linear classifier to separate these three
classes
能不能帮我提供一点思路 包子答谢
谢谢 |
|
M**A 发帖数: 78 | 7 各位朋友,
Neural Networks 问题紧急求助, 万分感谢.
Problem:
Implement a MLP (the multilayer perceptron) with 64 input nodes, arbitrary
number of hidden nodes and
5 output nodes. Train the MLP to recognize characters 1,2,3,4 and 5 of
different shapes and forms, represented as 8*8 bitmap patterns illustrated
the above character patterns in the presence of noise and distortion using
the test cases shown.(see the picture)
link for the picture
http://cn.briefcase.yahoo.com/skype12342005 |
|
K****n 发帖数: 5970 | 8 我觉得NN现在不太提了,主要是很多方法和它本质是一样的,但是数学表达更简单.
NN倒底是很直观的,而且可以对concave的function有arbitrary的精确度. Perceptron
也算经典吧. |
|
w***g 发帖数: 5958 | 9 我不知道vapnik当初搞SVM是怎么搞出来的。但是我上学时教授教的顺序是先PAC,然后
VC dimension,然后再SVM,所有这些都在PAC的框架上做的。我不是说Vapnik不牛,他
从贡献上来说早就够诺贝尔奖了。但是这个Valiant即使不如Vapnik,差的也不大。
(看了 BudFox的回帖再补充一下,PAC和SVM可能没关系。话说我上的那门课是Robert
Schapire教的,所以SVM就被PAC给统一了。)
再说statistical learning theory。这东西现在这么火主要就是出了个SVM。别的理论
也不是没有,只是因为没有像SVM这么好用的,所以就都被比下去了。这么多learning方
法,SVM胜出了,30%是理论好,30%是时代背景,还有30%是运气。十年前neural
network多火?现在还有多少人用?
再说时代背景。很难说50年后是什么状态,但我比较倾向认为10年后SVM就会让位于K-N
N。什么算法最流行,很大程度上决定于当时的计算机性能和数据规模的。一旦SVM退出
了历史舞台,statistical learning theory也就... 阅读全帖 |
|
w***f 发帖数: 903 | 10 Deep Learning 这个坑我劝你能不跳就不跳。 Neural Networks 历史上的几次大的起
伏都是数学上的工作引发的。 那本perceptron一下就压住它几十年。BP算法的出现(
或者应该说被重新发现),突然又让人看到希望了。这次的Deep Learning 实际上是和
当年那个一个隐层就够了的精彩证明对掐。问题是,你看到了Deep Learning背后有一
样solid的数学工作吗?反正我是没看见。 |
|
c*****t 发帖数: 1879 | 11 统计有帮助,不过如果只是要学会用的话,有些基本概念就是了。就算学
统计,也不可能学得那么深入。这方面学精通非得多年的投入。如果只是
肤浅的学到怎么用,反倒是只要花几天囫囵吞枣的能大致明白就是了。
大致就是按这个顺序看看 tutorial 就是了。
1. linear discriminant / minimizing error / least square
2. quadratic discriminant
3. confusion matrix / accuracy / bias variance trade off etc
4. maximal margin classifier
5. SVM
6. kernel method
7. perceptron
8. neuro network
9. boosting
10. naive bayesian
11. decision tree / c4.5
12. bagging
13. random forest
14. voting / ensemble methods
15. PCA / dimension reduction et |
|
h*i 发帖数: 3446 | 12 backprop都出来了好几十年了,ANN照样都快死了。你说的这些都与DL兴起无关。
最根本的原因,就是DL的办法在imagenet2012大胜引起了轰动,把错误率从25%一把降
到了16%。不要以为我说的“终于有李飞飞来搞出了足够多的数据“是在说笑话,这就
是根本原因。因为DL就是需要很多很多的ground truth,以前他们从来就没得到过这么
多的数据。
然后大家就在各种问题上开始试用DL了。同时各种理论家就跳出来包装了。然后就有了
今天。
perceptron |
|
|
w*********n 发帖数: 4 | 14 J R Soc Interface 2014 11:20131100; doi:10.1098/rsif.2013.1100
Training an asymmetric signal perceptron through reinforcement in an
artificial chemistry
Thanks in advance! |
|
L*******r 发帖数: 59 | 15 Suppose we have six samples from three classes as (+1, 0), (0, +1) for class
1, (-1, +1), (-1, 0) for class 2, and (0, -1), (+1, -1) for class 3. Design
and implement a perceptron-like linear classifier to separate these three
classes
能不能帮我提供一点思路 包子答谢
谢谢 |
|
n******y 发帖数: 192 | 16 他和multiple layer perceptron什么关系? |
|
s********7 发帖数: 200 | 17 分算法吧,
naive bayes,boosting就更概率论
要是 perceptron svm就线性代数一些 |
|