由买买提看人间百态

topics

全部话题 - 话题: 神经网络
首页 上页 1 2 3 4 5 6 7 8 9 10 下页 末页 (共10页)
m***r
发帖数: 359
1
来自主题: Programming版 - Python日报 2015年2月楼
Python日报 2015-02-13
@好东西传送门 出品, 过刊见
http://py.memect.com
订阅:给 [email protected]
/* */ 发封空信, 标题: 订阅Python日报
更好看的HTML版
http://py.memect.com/archive/2015-02-13/short.html
1) 【用PyBrain做MNIST图像分类】 by @爱可可-爱生活
关键词:库, 数据科学, 机器学习
[文章]《Classifying MNIST dataset with Pybrain》 [1] Python下用PyBrain做
MNIST图像分类,PyBrain是另一个机器学习模块库 [2]
[1] http://analyticsbot.ml/2015/02/classifying-mnist-dataset-pybrain/
[2] http://pybrain.org/
长微博图:http://ww2.sinaimg.cn/large/5396ee05jw1ep7ecvbdo6j20pq60znpe.jpg
2) 【Micro... 阅读全帖
w***g
发帖数: 5958
2
来自主题: Programming版 - zhaoce你要做skynet的话最好跟我学
问题的原因是目前的神经网络是用穷举法在做优化,所以机器再多
也没用。你要是认为近100年人类做不出来,别的不说,你自己肯定
就做不出来。最后做出来的都是相信能做出来的人。
你觉得想想就累,没想对方向而已。现在大家都还没想对方向。
真想对方向了,一切就都显而易见了。我也还没想对方向。
机会在于,大部分人根本没有创造力。他们还会一根筋地往穷举法
的方向做下去,把注意力放在构造更大的神经网络上。或者在神经元
函数上做一些incremental的调整。只要这种incremental的改进还没有
穷尽,他们就会接着往下走。只要他们还在那条路上走,
我就还有优势。
你觉得识别,学习,举一反三啥的不是一回事,那是你想的还不够深入。
至少在我看来,它们只是同一个数据结构上的三种操作而已。不过这个
设计商业机密,暂时我也做不出来,就不详细解释了。

地方
w***g
发帖数: 5958
3
来自主题: Programming版 - 赵策我问你个本质的问题
纠结编程语言和数学其实都是细枝末节,无非就是发帖前有没有google一下的区别。
我问你个本质的问题,看看你有何高见:
世上这么多人这么多生物,每个人都有一个神经网络和世界交互,这本来是一个很
对称的过程。为什么偏偏有一个observing self被加载到了我的神经网络上,
以至于产生了inner world和external world这个最大的不对称?
w***g
发帖数: 5958
4
来自主题: Programming版 - 妈的怎么那么多鸡毛语言/软件
资金越多越难做啊。免费的数据应该没有,但是从quantquote.com买似乎也不是很贵。
找那么几十个个股,回归最近几年的数据,然后每天自动检测,发现信号后发邮件
报告。我之所以在想这个,是因为很多时候神经网络暴力拟合能超过手工搞的模型。
我最近搞比赛也是,精心设计的手工模型被别人的神经网络暴力拟合秒得找不到北了。
w***g
发帖数: 5958
5
来自主题: Programming版 - 妈的怎么那么多鸡毛语言/软件
资金越多越难做啊。免费的数据应该没有,但是从quantquote.com买似乎也不是很贵。
找那么几十个个股,回归最近几年的数据,然后每天自动检测,发现信号后发邮件
报告。我之所以在想这个,是因为很多时候神经网络暴力拟合能超过手工搞的模型。
我最近搞比赛也是,精心设计的手工模型被别人的神经网络暴力拟合秒得找不到北了。
d******e
发帖数: 2265
6
来自主题: Programming版 - 我来科普下深度学习的应用范围吧
神经网络不可能预测股市。
这个是game theory的地盘。
你必须知道对手的BDI,才能采取策略。
神经网络解决简单的模式识别问题。解决 sensing,运动,感知就够了。剔出特征。深
层的东西还是要
更传统的AI搞定。
w***g
发帖数: 5958
7
来自主题: Programming版 - 我来科普下深度学习的应用范围吧
已经从数学上证明:
1:神经网络能拟合任意数学函数
2:recursive神经网络能模拟图灵机。
这两点是这么多人前赴后继地折腾这个技术的理论支持。数学分析多得很。
机器学习这个领域其实一直是做系统的牛于数学分析。在好的数学,不干活就是没用。
几个响当当的算法,比如boosting, naive bayes啥的名气都是建立在解决实际
问题上的。现在再回过头来看,naive bayes (boosting)没啥了不起的,
垃圾邮件监测(人脸识别)也不一定非要用naive bayes (boosting)来做,如果光看
推公式是没法理解这些算法的业界地位的。业界地位就是第一个解决某问题的系统
用了某方法,而不是某方法在数学上有啥独到之处。
w***g
发帖数: 5958
8
来自主题: Programming版 - kaggle上那批人太逆天了
第二名解法公布了。确实攀错科技枝了。我走了一半神经网络,最后还是做了
segmentation(上面的图可以看见)。然后大量的时间就花到了怎么画那个
contour画得好了。应该神经网络走到底的!
机器战胜人类的又一个实例!
H**r
发帖数: 10015
9
来自主题: Programming版 - 王垠:AlphaGo与人工智能zz (转载)
神经网络当然是胡扯…
人类的神经怎么工作的,生物千老都搞不清,人造的可能能比?
计算机的神经网络只是假设了一个很简单的神经模型,输入输出,节点关系加强之类的。
z*****3
发帖数: 1793
10
来自主题: Programming版 - 计算和学习根本就是两回事
这个恩怨就是我给你说的统计ML,80,90年代兴起,把神经网络艹翻了。话说我现在研
究的RL以前居然叫neuro-dynamic programming。现在是风水轮流转,轮到神经网络了。
c****3
发帖数: 10787
11
来自主题: Programming版 - 计算和学习根本就是两回事
都是闭着眼睛,凭着自己想象瞎搞。说是模仿人,其实也是自己骗自己。挂着羊头卖狗
肉,还是怕没人信,说是全新发明的机器学习,和人没关系还差不多。
说是神经网络,其实连生物神经网络是如何编码,传信息的都不知道,更不要说里面是
具体干啥的了。还有意识和学习用概率法往上套更是瞎扯,连搞生物的都弄不清人的意
识和学习是怎么回事,搞计算机的能知道?那可以得诺贝尔奖了,可惜搞生物的不认可。
f******2
发帖数: 2455
12
来自主题: Programming版 - 亚麻决定支持mxnet
Mxnet这些人的总精神领袖的背景好想不太神经网络friendly,是跟风过去的吗?https
://alex.smola.org/cv.html
跟风过去的会不会短期看还成,长远看没有前瞻性。tensorflow里面实现团队的人也全
是跟风过去的,可是Google至少有deepmind的思想光辉照耀(deepmind的人们背景是比
较纯正的神经网络派)


: 不想上google的船. mxnet本来就不错.

w***g
发帖数: 5958
13
来自主题: Programming版 - 聊两句wdong的内功总纲
你这个是物理学家的做法,找到一个不变量/对称性,
就能提取一个维度。现在之所以大家喜欢deep learning,
因为希望能通过无脑拟合解决问题,而不需要用人脑去
分析研究问题的本质。目前的做法显然有很大的局限性。
你随便写个数学公式产生个图形,分形那种,
神经网络就是算死了也拟合不出来。
现在吹得好像神经网络无所不能,其实远没有那么厉害。
z***t
发帖数: 10817
14
【 以下文字转载自 Military 讨论区 】
发信人: threepig (), 信区: Military
标 题: 德州扑克也不是啥人工智能的禁区,早晚碾压人类
发信站: BBS 未名空间站 (Tue Jan 10 09:35:38 2017, 美东)
看来网上扑克赌场的生意做不了多久了。
学界 | 新论文提出玩扑克人工智能DeepStack:已达职业玩家水平
2017-01-10 机器之心
选自arxiv.org
机器之心编译
参与:吴攀、李亚洲
当地时间 1 月 11 日,在宾夕法尼亚州匹兹堡的 Rivers 赌场,由卡耐基梅隆大学(
CMU)开发的名为 Libratus 的人工智能系统将与人类顶级职业德州扑克玩家进行 20
万美元的比赛。然而 CMU 并不是唯一一个在研究如何让人工智能学习玩扑克牌的地方
,近日,加拿大阿尔伯塔大学、捷克布拉格查理大学和捷克理工大学的研究者联合发表
了一篇论文,表示其人工智能已经在无限制扑克(No-Limit Poker)游戏上达到了专家
级的水平。点击阅读原文可下载该论文。
摘要
近些年来,人工智能领域出现了很多突破,其中游戏往往被用作重... 阅读全帖
x****u
发帖数: 44466
15
只要你脑子还能用,神经网络就不会死,因为人脑物理结构就是神经网络
符号主义是来自于计算机发明前人类的幻想之一,被数学否定了就完蛋了。
w***g
发帖数: 5958
16
神经网络训练已抽取的特征数据,多余一hidden layer效果就会变差。
2000年左右被SVM打得满地找牙的就是这种一个hidden layer的神经网络。
d*******r
发帖数: 3299
17
来自主题: Programming版 - 王垠:我为什么不在乎人工智能
你们第一线搞AI的,说说现在神经网络那种分层灌数据,
产生多层feature提取的pattern detector,然后再合起来用的, 是否有前景?
感觉所谓神经网络, 要有各种hierarchy或者graph的结构,才感觉有搞头.
研究单个拟合函数,肯定没搞头,能有好理论分解/组合拟合的pattern就不同了.
w***g
发帖数: 5958
18
来自主题: Programming版 - 我来讨论下意识的问题吧
坛子里很多人喜欢提意识,甚至意识的量子机制,
其实本质上来说是用一些说不清的东西蹚浑水。
我觉得很多人其实没有认真思考过这些问题。
这些东西我思考过很多,而且还在不断思考,
下面说说我的看法。
佛教里有八识之说。其中前五识眼耳鼻舌身,其实
就是目前普通计算机能处理的视觉,听觉等输入。
第六识意识,就是神经网络的自反馈。从实现上来说,
就是把部分神经元的状态作为神经网络的输入,也就是
recurrent neural network。
佛教的第七识末那识,也就是“我执”的起源,
我觉得还可以再分解。其中的“执”,其实就是
AI的优化目标。对于人类而言,这个目标是写死在
基因里的。对于AI而言,则是程序员指定的一个目标。
以上这些,目前AI理论中都已有对应部分。
至于“我执”中的“我”,这个才是坛子里的诸位
在谈“意识”时真正所指的东西。如果把前六识以及
执对应的部分层层剥除,最后所剩的我,其实只是一个
observing self。这个“我”是绝对passive的,除了
observe,其实啥也干不了,不会对人的行为有任何可
以观察到的影响。大家其实可以再想想,是不是所有
人类,甚至动物... 阅读全帖
g****t
发帖数: 31659
19
来自主题: Programming版 - AI的终极优化目标
(1)
无损压缩和有损压缩是本质不同的啊。
你看过 Kolmogorov complexity 吧?
我觉得物理本质上是聪明的有损压缩。
例如你说的牛顿定律是压缩质点运动的轨迹。
严格的说,应该是牛顿定律近似的压缩了
实际物体运动的轨迹。
(2)
你说的那个拼接问题。方向最后应该是universal neural machine?
就是神经网络在一个特殊的神经网络上获得表达。然后才能composable
f***t
发帖数: 2247
20
来自主题: Programming版 - 再次求教各位大仙算法问题 (转载)
【 以下文字转载自 Joke 讨论区 】
发信人: ftmit (八戒), 信区: Joke
标 题: 再次求教各位大仙算法问题
发信站: BBS 未名空间站 (Thu Jun 29 22:53:36 2017, 美东)
paper需要模拟一个随机过程。老板说要用那个啥神经网络算法。俺一直是做实验出身
的,对于modelling那套玩艺实在是不感冒。神经网络算法到底能不能有效地模拟一个
随机过程?关门放狗,答案又是千奇百怪。没法子,只好上来求教了各位大仙了。先谢
谢了!
c*******v
发帖数: 2599
21
来自主题: Programming版 - [bssd]我第一篇ai论文
Abstract
本文研究了神经网络方法。应用于某某系统的某某设计中。编制了某某程序。程序过程
简明强壮。
运行结果证明该法十分有效。这说明,神经网络方法可以成功运用于某某领域。
----Chebyshev 1997
昨天和wdong聊了几句数学。我从一开始就认为。
尽管数学理论的正确与否是自己循环引用的。
数学理论的高下,也就是价值应该是程序运行的结果来决定的。
当代学术界的DL/ML论文不强调程序,程序的文本(包括代码和文档)都
没有,程序结构和设计取舍也不说。只讲一些简单的数学和不等式估计。
我认为这是不对的。
真要讲究性能,收敛估计什么的。能赢研究解析数论的吗?
ML/DL论文,我觉得重点还是应该放在计算问题的要求和约束,以及如何设计
程序回应这些要求和约束上。数学有常识,不至于不知道1/n的和不收敛就可以了。
b***i
发帖数: 3043
22
来自主题: Programming版 - 伪随机数能够产生智能吗?
神经网络的初始值是随机地。那么,如果系统不使用真的随机数,就是不用时间,温度
等信息,来进行图像识别等神经网络的应用,这个系统可否产生智能的效果?
是否需要量子级别的真随机?还是量子也是伪随机真混沌?
m*****e
发帖数: 47
23
来自主题: Programming版 - 从数据压缩角度理解CNN
好主意,顶一个。
我考虑过类似的问题,有几个不同的角度。
一,神经网络本身就是提取信息,是一种压缩,一堆猫狗图片,最后就是一个bit,是
猫还是不是猫。
二,神经网络本身的压缩,有些地方计算精度可以降低,并不影响结果,最近好像有人
发了文章,是关于这个的。你的想法似乎是这个角度。
三,针对具体问题,到底需要多少神经元,再多就是浪费,少了影响结果。或者说,你
做了个网络,结果不错,你怎么知道是minimal。
w***g
发帖数: 5958
24
来自主题: Programming版 - 郁闷啊
deep learning目前解决的其实还是人的神经中枢比较低层次的
模式识别的问题。其实即使是多层神经网络,到上面几层其实
还是非常sparse的,可能只有1%的神经元有信号。这个我是
实际measure过的。本质来说,高层神经网络已经有一定的
symbolic reasoning了。以后发展symbolic reasoning我觉得
几乎是必然的。就是不知道什么时候能做出来什么而已。
w***g
发帖数: 5958
25
来自主题: Programming版 - 可微分编程
我的理解:DL的基石back propagation,其实是一套反馈传递系统。
可不可微不是关键,关键是要能把反馈传递下去并在每个节点按
反馈调参。怎么在目前的框架上进行扩展要看各人的理解。
有人觉得可微性是关键,也是一条路。
我觉得只要有合适的反馈机制,可微性完全可以放弃。
如果有机会,我会发展“非可微神经网络”。
接下来的一个大坑就是怎么和之前发展了几十年的
符号逻辑专家系统这些接轨。无非两条路。第一是
神经网络放弃可微性,另一条路就是把让符号逻辑
变得可微。我觉得前者更可行。
g****t
发帖数: 31659
26
来自主题: Programming版 - 可微分编程
不可微的问题lift up一个参数p
变成高一维度的新问题
然后原问题变成p为0时候的特殊情况
新问题对p可微用DL可解
那么解一系列p,p逼近零就找到了原问题的解
这种办法把tool做好是formally没问题的
但是反馈传回去容易
收敛难


: 我的理解:DL的基石back propagation,其实是一套反馈传递系统。

: 可不可微不是关键,关键是要能把反馈传递下去并在每个节点按

: 反馈调参。怎么在目前的框架上进行扩展要看各人的理解。

: 有人觉得可微性是关键,也是一条路。

: 我觉得只要有合适的反馈机制,可微性完全可以放弃。

: 如果有机会,我会发展“非可微神经网络”。

: 接下来的一个大坑就是怎么和之前发展了几十年的

: 符号逻辑专家系统这些接轨。无非两条路。第一是

: 神经网络放弃可微性,另一条路就是把让符号逻辑

: 变得可微。我觉得前者更可行。

s*****V
发帖数: 21731
27
来自主题: Programming版 - 仔细看了一下 alaphgo
看了一下David silver NIPS 2017的keynote, 发现alaphgo zero把MCTS 的rollout都
完全取消了,很传统的MCTS 很不要一样,treenode evaluation 完全靠神经网络的估
值。 这不基本退回到minmax search象棋的做法了么,就是用神经网络把action space
减小到了国像的水平,然后暴力搜索。
g****t
发帖数: 31659
28
来自主题: Programming版 - [bssd]AI血泪史
Btw, widrow - Hoff
里面的hoff 做了世界上第一个微处理器。2000 transistors。
我想恐怕今日没多少人知道他phd是神经网络学习算法.
60年代懂silicon很多是物理学家。懂信号处理的人群里面
恐怕相当部分是改行的神经网络爱好者。(另一部分可能是
自控出来的)
From intc:
In the late 1960s, there was a great deal of discussion regarding the
possibility of a computer on a chip. Ted Hoff was the first to recognize
that Intel's new silicon-gated MOS technology might make a single-chip CPU
possible if a simple enough architecture could be formed. Hoff developed
this architecture with just over 2000 transistor... 阅读全帖
w*****r
发帖数: 197
29
来自主题: Programming版 - 大胆预测一下下一个风口
之前Hadoop和spark火了,基于离线数据的深度学习也该快火完了,接下来我觉得业界
需要一个分布式的神经网络框架,把不同功能的神经网络按业务需要进行任意组合。各
节点的网络不仅可以有单独的业务预测分支,也可以几个节点之间直接传递特征矢量,
联合训练。训练和部署会趋于融合,都同时在线进行,训练的snapshot直接commit去业
务平台。
目前的框架里,tf貌似有那么点意思,这也是我为什么看好tf的原因。
g****t
发帖数: 31659
30
来自主题: Programming版 - 区块链真正有意义的地方是
50,70年代还是什么时候。神经网络低潮,一个phd屌丝从学校出来,改行去了intc,逻
辑上发明了微处理器。造了4004,成为intc第一个fellow.


: 40年代的神经网络就和中国古代的二进制一样

g****t
发帖数: 31659
31
来自主题: Programming版 - 关于LISP的长贴
Hardware这边以前做过Lisp 机器芯片的有人早就是senior VP了。其他人也混的不错。
这就好比神经网络低潮,有个神经网络phd去
Intc发明了微处理器一样。到什么山唱什么歌吧
不能太执着

发帖数: 1
32
来自主题: Programming版 - Blackberry的QNX有谁用过么?
所以說這個版上的人都是外行,但是外行還喜歡評論,這就是我的結論,也是我當初高
看你們啦。。。
首先嘗試看懂那篇文章再提問。這個肯定是第一代產品,未來會通過CCIX連接FPGA或各
種加速器。普通的IVI芯片不需要過AEC-Q100和ASIL-D認證。所以這個肯定是自動駕駛
芯片。最後一個圖裡中間的Safety Island的R52是儀表控制。左邊DSU裡面的A76AE /
A65AE / AIPUAE / MaliAE做自動駕駛。最右邊的C71/D71/V76做視頻採集和顯示。
Reference
http://www.eetrend.com/article/2018-11/100126895.html
Quote Begin
这个框架的计算流是这样的:C71(ASIL-B)把数据从传感器收集,做固定的图像信号
处理,把结果放到DDR;A65AE读取数据,进行车道检测等传统的矢量运算。相对于大核
,A65AE提供了高能效比的运算能力,适合多路并行计算。也可以把任务丢到图形处理
器来运算,延迟稍大,能效比也很高。如果涉及神经网络运算,那A76AE会把任务调度
到AI加速器上,同时在算子不... 阅读全帖
x****u
发帖数: 44466
33
过去写程序就是这种奇技淫巧多,现在手机上的密集运算都交给芯片了,加密解密视频
播放语音识别神经网络,cpu最重要的就是朝九晚五少管闲事浪费电
过几年神经网络技术成熟,老码农工程师统统失业,都是些新人在几万几十万并行度没
什么技巧的专用芯片上编程了
g****t
发帖数: 31659
34
我讲的不是写程序的奇技淫巧。是CPU指令集如何省发热。


: 过去写程序就是这种奇技淫巧多,现在手机上的密集运算都交给芯片了,加密解
密视频

: 播放语音识别神经网络,cpu最重要的就是朝九晚五少管闲事浪费电

: 过几年神经网络技术成熟,老码农工程师统统失业,都是些新人在几万几十万并
行度没

: 什么技巧的专用芯片上编程了

A*****s
发帖数: 76
35
在上世纪60-70年代,加拿大神经生理学专家DavidHubel(1926-2013) 与瑞典生理学
家TorstenWiesel (1924-)紧密合作,以实验为基础,搞清楚了大脑视觉系统对外界
刺激信号的反应机制,证明了大脑神经皮层的多层次结构,奠定了现代人工智能的仿生
学基础,为此,荣获1981年度诺贝尔医学奖。
2006年,加拿大人工智能专家GeoffreyHinton在《科学》期刊上发表署名文章,指
出:深度神经网络(DNN)在系统训练上的难度,可以通过“逐层初始化”(Layer-
wisePre-training)来有效克服,从此。开启了深度神经网络(DNN,又叫“深度学习
”)的研究与应用的世界浪潮。
实际上,深度学习(DeepLearning)就是现代人工智能的核心技术。谷歌、微软与
百度是现代人工智能领域的“三巨头”。它们拥有海量数据以及DNN技术,比如:2012
年11月,微软(中国)在天津的一次会议上公开演示了一个全自动的“同声传译”系统
,讲演者用英文演讲,后台的计算机一气呵成,完成语音识别、英中机器翻译,以及中
文语音合成,效果非常流畅。微软使... 阅读全帖
c****3
发帖数: 10787
36
学生物的还会被那些搞计算机的蒙了?
虽然大家都知道大脑有神经网络,但他们根本不知道大脑是怎么工作的,当然你们也不
知道。
所谓神经网络的工作原理,都是他们自己想象出来的。
你自己也可以想象一个,当然你不是主流,人家不会买账。但本质上和他们想象的也不
见得有区别,很大可能都和大脑真正的差的远了。

发帖数: 1
37
提出的数学模型和假设,在后来更高精度的HiC实验结果出来以后,被推翻了。只不过
后来不提那个不准确的模型了而已,也没人直接说做错了。
所以,在做科学的道理上,由于这种原因,后来的研究结果推翻以前的很正常,没必要
因为不准确的结果就批判一个人的研究。当年第一篇HiC的作者们现在还是大牛。
当年在80年代的时候,神经网络也被认为是歪理邪说。YeCun划时代的论文80年代末就
发了,还是在做钱老的,连副教授都不是,到了2010s,多层神经网络就给computer
vision带来革命性变化。
所以,成果需要经过时间的考验,不能有点问题就立刻推翻。
我没有影射任何事件,纯就事论事

发帖数: 1
38
不要因为是非著名机构出的成果,就认为是造假。现在看80年代90年代的一些重大突破
,到现在已经开始广泛应用的,很多原始作者都是各种名气平平机构出来的,比河科大
差的远。
举个例子,
SVM发明者,1958年,他在撒马尔罕(现属乌兹别克斯坦)的乌兹别克国立大学完成了硕
士学业。1964年,他于莫斯科的控制科学学院获得博士学位。毕业后,他一直在该校工
作直到1990年,在此期间,他成为了该校计算机科学与研究系的系主任。
1995年,他被伦敦大学聘为计算机与统计科学专业的教授。1991至2001年间,他工作于
AT&T贝尔实验室(后来的香农实验室),并和他的同事们一起发明了支持向量机理论。他
们为机器学习的许多方法奠定了理论基础。
现在热门话题,深度学习里边CNN之父也是一路普通学校上来
扬·勒丘恩于1960年生于法国巴黎附近。他1983年从位于巴黎的Ecole Superieure d'
Ingénieur en Electrotechnique et Electronique (ESIEE), 获得了一个Diplô
me d'Ingénieur(一种学位),1987年从巴黎第六... 阅读全帖
v*******e
发帖数: 11604
39
来自主题: Biology版 - 记忆的存储方式究竟是什么?

去搞搞神经网络,你就知道了。神经网络的记忆都在连接权重里。动物的记忆,重点是
那“祖母细胞”,那“下午三点有个会”的记忆,就是存储在“下午三点有个会细胞”
的神经突触上,以及它所有上游细胞的神经突触上。
g**********4
发帖数: 32
40
来自主题: Biology版 - 记忆的存储方式究竟是什么?
貌似很多人把记忆想成了一种物质,然后需要一定的空间来存储。我认为人脑的记忆是
虚拟的,是n多神经细胞之间形成的链接被激发后的一套信号重现。而这一套信号的来
源就是当初你接受了的外界刺激,这种刺激塑造了一套特殊的神经细胞网络链接,当同
样的刺激来袭的时候,这一信号又重现了。可能有人会想是不是每个记忆都有自己独立
的神经网络链接?答案应该是否定的,很多记忆应该是partially share几个神经网络
的,只是有个别不同的链接模式。
很多记忆是需要加强才不会忘记的,这种加强估计也只是稳定特定的链接。如果长时间
不加强,这个链接就会退化,然后你以前学的某样东西又全还给高中/大学老师了。这
也是人脑与电脑的区别,后者是不需要加强的。(但是我认为人脑比电脑强n多倍,因
为人脑的可塑性是非常大的。)
g*********n
发帖数: 21
41
首先多谢等会出手相助的牛人。
我比较郁闷,选了门神经计算,本来是想学理论神经科学,以后给我的节细胞做做离子
通道的建模,应该是比较有趣的事情,谁知道这课开始讲了一大通神经网络的东西
其实也难怪,听课的除了我一个学生物的,其他的都是计算机系的
主要工具就是matlab,
其实他们那个人工神经网络思想还是比较简单的,可偶从来也没学过编程
所以对老师的这个project感觉无法下手
内容很简单,那老师用一个13x12的矩阵,有的元素是一,有的是零
看上去,就像A,B,C,...当然一共是26个这样的矩阵啦
然后说要做一个perceptron来识别这些pattern
还要训练这个perceptron,估计就是什么back-propagation 的思想
给出training curve(what the hell is that?)
给出dependence on the recognition rate with different levels of noise
我更加糊涂了
偶实在看不出搞这个和我原始的目标什么相干,反正两个星期过去了
Hodgkin-Huxley方程还没讲
只是这个pr
H***F
发帖数: 2501
42
来自主题: EE版 - Deep learning现状和未来
按hinton的说法,以前神经网络名声臭大街,文章题目带神经网络的高级会议都不收。
后来他改进了方法,现在改头换面称deep learning,又热火了

如果阿法狗可以自己产生无数棋谱,是否意味着它可以在很短时间内大幅提高能力?阿
法狗互下的棋谱和人类的棋谱对于机器学习来说效果应该不同。
前几年的deep learning好像还没这么厉害,最近的主要技术突破是否有本质的提高?
比如说以前的机器很好骗,但现在只能程度更高。当然还是有局限性。
L*********s
发帖数: 3063
43
来自主题: Mathematics版 - 说说我身边的民科吧
用模拟机做神经网络(编程就是调节节点的拓扑和强度)很多情况要比数字的快。
人脑就是一台神经网络模拟机,在学习、推理、识别、围棋等方面能力远强于现有的计
算机。

力。
L*********s
发帖数: 3063
44
来自主题: Mathematics版 - 说说我身边的民科吧
用模拟机做神经网络(编程就是调节节点的拓扑和强度)很多情况要比数字的快。
人脑就是一台神经网络模拟机,在学习、推理、识别、围棋等方面能力远强于现有的计
算机。

力。
a*****g
发帖数: 19398
45
【 以下文字转载自 Go 讨论区 】
发信人: ananpig (●○ 围棋数学一把抓的安安猪), 信区: Go
标 题: Nature重磅封面:谷歌人工智能击败欧洲围棋冠军
发信站: BBS 未名空间站 (Wed Jan 27 12:44:10 2016, 美东)
http://chuansong.me/n/2267390
消息来源:Nature
视频字幕:张之乎,Wei,汪汪
一个月前,DeepMind创始人Demis Hassabis曾说道很快会有关于围棋研究的惊喜,而1
月28日的《Nature》杂志即将以封面论文的形式介绍Google旗下人工智能公司DeepMind
开发的一款名为AlphaGo的人工智能,它已经击败了欧洲围棋冠军,并将于3月与世界冠
军李世乭对战。该程序采用了两个深度神经网络,policy network与value network,
极大地降低了需要考虑的搜索空间的复杂度,前者降低搜索的广度,后者降低搜索的深
度,很像人脑在下围棋时凭直觉快速锁定策略的思维。
以下视频是Nature对该项研究的详细采访报道,视频中,DeepMind的团队会介绍他们是
如何... 阅读全帖
g***l
发帖数: 31
46
我学的是机械,但一不是流体,也不是传热,本科就学了点机加工技术.国内工作沾点控制
的边,所以来这边读博的有意选了许多控制方向的课,现在到了定课题的时候了,就想还是
搞控制技术.但是数学功力不足,控制理论怕是不行;电子技术也差,看到电路图就疼,要是
做实验肯定要找人帮忙;再一个计算机软硬件更是业余水平...这么一看,控制也没法戏了!
不过,别的更不行,所以还得从控制着手.
以这样的水平和基础,能做什么课题? 我想了几个:
1.新型控制技术+新的应用对象
"新型控制技术"也不过神经网络,模糊控制,遗传算法,鲁棒控制,最优控制,自适应控制
等,应用对象么,看导师目前的项目,没项目就空想一个,其实这也是大家研究烂了的,往往
是一个系统,如"位置伺服"用遍N种控制方法,写出N+n篇论文,发在N-n种期刊上.其实有一"
新"即可,但关键是结果是否真正有意思,能不能达到博士水平?
2.非线性系统. 其实这也是"新型控制技术+新的应用对象".系统本质都是非线性的,目
前技术有"滑模变结构控制","bang-bang控制",神经网络,模糊控制等.选这类题也可以,问
题在哪些方
k*****u
发帖数: 1688
47
原作者为 爱萌@人大经济论坛,本文是我转载过来的。
文本挖掘是新时期人们对数据的更加深入的需求的,文本挖掘的原材料是各种文本格式
的文本,文字,图片,通过这些来分析相似,关键性,内部蕴涵的逻辑结构等等.
文本数据多是半结构化的数据,(结构化数据是有一定规律的数据,半结构化,是这些文本
有标题,作者,出版日期,类别等结构的东西,同时也有非结构的成分:内容)
文本挖掘有很多方法,基于关键字的方法,标记方法,信息提取方法.
web挖掘是对网页的挖掘,这是因为随着www的发展,
越来越多的信息在网络中,这些数据不仅对商业,对经济,
而且对政治,文化有很深远的影响. web挖掘可以分为web内容挖掘,web结构挖掘,web使
用挖掘,
可以根据html语言对web进行文本挖掘从而达到web挖掘,
但是很多网页并不遵守W3C html规范.
如何通过SAS进行编程对文本,web进行挖掘
为什么我一直在说SAS的文本挖掘和web挖掘,因为这些程序我还不知道如何编写,
其他程序我都知道了,也编写过了.
这是与算法相关的了!
文本挖掘是数据挖掘的一种,有时也看成是质性研究的一种方法。大致的... 阅读全帖
s****p
发帖数: 1087
48
有趣。版主为了版面热闹,时不时开些新话题。
关于这些科学畅想,我经常问的问题是:
(1)要做到这点,需要克服什么?
(2)如果做到了这点,那么别的什么也能做到?因为很多技术是相关或者前提的。
比如阿凡达里面,人的思维可以控制另外一个生物体。但是那个男主角的腿还不能治好
!有木有可能?有木有?有些科幻就是让人觉得矛盾。
我觉得移植大脑,关键的是要解决生物体的排斥异体功能。
大脑尤其有很多屏障,不允许一些意外不需要或者有害的物质进去。那么如何修饰这个
排斥异体功能,使得大脑可以和身体协调,还可以有一定的免疫能力?
一个个体,主要是由他的意识决定的。比如一对双胞胎,基因一致,但是在胚胎发育和
个体发育过程中,有了不同;特别是在大脑皮层神经网络的突触连接的形成中有了巨大
的不同。这些不同导致这两个个体的差异性。
而意识,我个人认为物理上就是由大脑结构(包括神经网络的突触连接)决定的。不同
的生活经历还会导致不同的记忆,学习的不同伦理,也会导致这个人对某个事件的不同
反应。
比如一部科幻电影《月球》,那个经过3年训练的克隆人,在做细致活就比那个刚激活
的克隆人厉害。我觉得那部电影通过这个细节也是... 阅读全帖
s****p
发帖数: 1087
49
有趣。版主为了版面热闹,时不时开些新话题。
关于这些科学畅想,我经常问的问题是:
(1)要做到这点,需要克服什么?
(2)如果做到了这点,那么别的什么也能做到?因为很多技术是相关或者前提的。
比如阿凡达里面,人的思维可以控制另外一个生物体。但是那个男主角的腿还不能治好
!有木有可能?有木有?有些科幻就是让人觉得矛盾。
我觉得移植大脑,关键的是要解决生物体的排斥异体功能。
大脑尤其有很多屏障,不允许一些意外不需要或者有害的物质进去。那么如何修饰这个
排斥异体功能,使得大脑可以和身体协调,还可以有一定的免疫能力?
一个个体,主要是由他的意识决定的。比如一对双胞胎,基因一致,但是在胚胎发育和
个体发育过程中,有了不同;特别是在大脑皮层神经网络的突触连接的形成中有了巨大
的不同。这些不同导致这两个个体的差异性。
而意识,我个人认为物理上就是由大脑结构(包括神经网络的突触连接)决定的。不同
的生活经历还会导致不同的记忆,学习的不同伦理,也会导致这个人对某个事件的不同
反应。
比如一部科幻电影《月球》,那个经过3年训练的克隆人,在做细致活就比那个刚激活
的克隆人厉害。我觉得那部电影通过这个细节也是... 阅读全帖
s****p
发帖数: 1087
50
来自主题: Medicalpractice版 - 物质决定意识在医学上是不成立的。
你的观点好绕。
我仿佛要明白你的逻辑了。
但是你在阐述你的观点时用了两个例子。第一个例子是错误的,所以那么多人砰你。第
二个例子才能真正说明你想说的。
你的第一个例子:
“既然人体的一切是基因决定的, 那么monozygotic twin的大脑应该完全一样。”
这个是错误的。
第二个例子:
“5岁的sjslip被复制了, 你们只可能是twin sister。 这个自我认知是不能复制的,

这个例子正确。因为我们可以认为在克隆的那一刹那,这两个个体是完全一样的。
我感觉你的理解其实是个函数决定关系。
x点在“人个体空间”,其点的位置由大脑神经网络决定的。比如x1是决定张三这个人体的一个点,x2是决定李四这个人体的一个点。
y点在“人意识空间”。比如y1是张三这个人的意识,y2是李四这个人的意识,
然后A++是说 “人个体空间” 的 某点 不能一对一对应 “人意识空间” 的某点。
因此不能说“物质决定意识”。
A++认为,如果克隆出x1',并且在克隆出来的刹那间,x1和x1'是完完全全一样的。也就是说,x1和x1'在“人个体空间”是同一个点。
但这时x1和x1'是两个不同的意识,在“人意... 阅读全帖
首页 上页 1 2 3 4 5 6 7 8 9 10 下页 末页 (共10页)