由买买提看人间百态

boards

本页内容为未名空间相应帖子的节选和存档,一周内的贴子最多显示50字,超过一周显示500字 访问原贴
Programming版 - 区块链真正有意义的地方是
相关主题
神经网络研究的致命伤xiaoju 老师进来一下
我来科普下深度学习的应用范围吧MPI合并数据的两种算法性能比较?
可微分编程full stack马工算个几把毛,还不是被你们嘲笑的臭教书的管着
"学习"就两种一个Deep Learning的talk
伪随机数能够产生智能吗?谁能用本科生就能理解的语言解释图灵机和拉姆达计算的区别
大胆预测一下下一个风口华人大妈谈deep learning的未来,大家怎么看? (转载)
[bssd]我现在有个难题[bssd] Yann LeCun stepped down
再问机器学习。。。用keras分类LeCun被搞下来是必然的
相关话题的讨论汇总
话题: ai话题: 区块话题: 梯度话题: 神经网络话题: relu
进入Programming版参与讨论
1 (共1页)
x****u
发帖数: 44466
1
工作量证明记账法
我们设想1000年以后,AI能替代一切人类智能行为比如写论文,写代码,拍电影,这时
候计算力就成为了和能源一样重要的东西,人类调用ai一切劳动都可以用计算量衡量,
这时候p2p记账法就可以代替货币了
当然了,btc,eth什么的传销币必然无效,这些纯属制造垃圾加浪费电。而且现在就算
你设计出个深度学习计算能力区块链,也没人能用来写代码。
h**c
发帖数: 1979
2
浪费点电根本无所谓的,本来人类做的大部分事情都是浪费。而且eth就要上casper了。
x****u
发帖数: 44466
3
现在能买到的深度学习计算硬件只有tpu的beta云,可tmd的矿机早玩出花了,这是人类
资源,智力的巨大浪费
大家早晚有死掉的一天,多把ai用在医学领域,到时候治疗癌症心脑血管病特效药会多
几个数量级

了。

【在 h**c 的大作中提到】
: 浪费点电根本无所谓的,本来人类做的大部分事情都是浪费。而且eth就要上casper了。
h**c
发帖数: 1979
4
几个AI骗子给你吹吹你就信了, LeCun都说深度学习是dead了

【在 x****u 的大作中提到】
: 现在能买到的深度学习计算硬件只有tpu的beta云,可tmd的矿机早玩出花了,这是人类
: 资源,智力的巨大浪费
: 大家早晚有死掉的一天,多把ai用在医学领域,到时候治疗癌症心脑血管病特效药会多
: 几个数量级
:
: 了。

x****u
发帖数: 44466
5
你不要只看文科记者新闻
LeCun说的是目前最前端的遇到的难题,但即使目前现有成果没个20年都消化不光。生
物男学了点ai写的水文都能发cell。

人类
会多

【在 h**c 的大作中提到】
: 几个AI骗子给你吹吹你就信了, LeCun都说深度学习是dead了
h**c
发帖数: 1979
6
神经网络四十年代就有了,再消化个100年吧。21世纪是AI的世纪。

【在 x****u 的大作中提到】
: 你不要只看文科记者新闻
: LeCun说的是目前最前端的遇到的难题,但即使目前现有成果没个20年都消化不光。生
: 物男学了点ai写的水文都能发cell。
:
: 人类
: 会多

x****u
发帖数: 44466
7
40年代的神经网络就和中国古代的二进制一样

【在 h**c 的大作中提到】
: 神经网络四十年代就有了,再消化个100年吧。21世纪是AI的世纪。
n*w
发帖数: 3393
8
如果prove of stake就不浪费电了吧。
N*****r
发帖数: 94
9

没觉得今天的神经网络比四十年代的在原理上强多少

【在 x****u 的大作中提到】
: 40年代的神经网络就和中国古代的二进制一样
g****t
发帖数: 31659
10
50,70年代还是什么时候。神经网络低潮,一个phd屌丝从学校出来,改行去了intc,逻
辑上发明了微处理器。造了4004,成为intc第一个fellow.


: 40年代的神经网络就和中国古代的二进制一样



【在 x****u 的大作中提到】
: 40年代的神经网络就和中国古代的二进制一样
相关主题
大胆预测一下下一个风口xiaoju 老师进来一下
[bssd]我现在有个难题MPI合并数据的两种算法性能比较?
再问机器学习。。。用keras分类full stack马工算个几把毛,还不是被你们嘲笑的臭教书的管着
进入Programming版参与讨论
g****t
发帖数: 31659
11
System level有新知识。不同规模的计算学问是不一样的。另外
就算都是力学。造飞机的和造船的也不同。


: 没觉得今天的神经网络比四十年代的在原理上强多少



【在 N*****r 的大作中提到】
:
: 没觉得今天的神经网络比四十年代的在原理上强多少

x****u
发帖数: 44466
12
现在的效果好,24小时内在任何棋类游戏上击败人类

【在 N*****r 的大作中提到】
:
: 没觉得今天的神经网络比四十年代的在原理上强多少

x****u
发帖数: 44466
13
那时数学发展不够

【在 g****t 的大作中提到】
: 50,70年代还是什么时候。神经网络低潮,一个phd屌丝从学校出来,改行去了intc,逻
: 辑上发明了微处理器。造了4004,成为intc第一个fellow.
:
:
: 40年代的神经网络就和中国古代的二进制一样
:

m**u
发帖数: 541
14
90年代初,日本大搞了一把AI,这玩意别当真。
m**u
发帖数: 541
15
区块链最有价值的地方就是bitcoin这种东西;而bitcoin最有价值的地方就是黑市货币
啊。。。 想想地下交易太需要这种东西了, 腐败送钱这个很合适。。
m****o
发帖数: 182
16
那个时候的模型一开始连xor都没有办法进行识别,激发函数就是简单的step function
。80年代第一次复兴,但是隐含层不能过多,否则会造成梯度消失,或者梯度爆炸。梯
度爆炸还可以用梯度剪裁来挽回,梯度消失是一点办法都没有。再后来hinton提出了
restricted boltzman machine预处理feature,实现了第二次复兴。再到后来Xavier
Initialization横空出世彻底解决梯度消失和梯度爆炸问题,深底网络真正开始一统江
湖。之后就玩出花了,现在batch normalization这样的技术连权值初始化都可以无视
了。激发函数更是各种relu的变种。

【在 N*****r 的大作中提到】
:
: 没觉得今天的神经网络比四十年代的在原理上强多少

h**c
发帖数: 1979
17
和生物千老做实验一样,这边调调参数那边挑挑数据。忽悠一下啥也不懂的大学生还行。

function

【在 m****o 的大作中提到】
: 那个时候的模型一开始连xor都没有办法进行识别,激发函数就是简单的step function
: 。80年代第一次复兴,但是隐含层不能过多,否则会造成梯度消失,或者梯度爆炸。梯
: 度爆炸还可以用梯度剪裁来挽回,梯度消失是一点办法都没有。再后来hinton提出了
: restricted boltzman machine预处理feature,实现了第二次复兴。再到后来Xavier
: Initialization横空出世彻底解决梯度消失和梯度爆炸问题,深底网络真正开始一统江
: 湖。之后就玩出花了,现在batch normalization这样的技术连权值初始化都可以无视
: 了。激发函数更是各种relu的变种。

h**c
发帖数: 1979
18
AI傻冒逢人便说,你知道relu的一百种变种吗?
h**c
发帖数: 1979
19
改个几个参数,吹吹就行了,还横空出世一统江湖,恶心不

function

【在 m****o 的大作中提到】
: 那个时候的模型一开始连xor都没有办法进行识别,激发函数就是简单的step function
: 。80年代第一次复兴,但是隐含层不能过多,否则会造成梯度消失,或者梯度爆炸。梯
: 度爆炸还可以用梯度剪裁来挽回,梯度消失是一点办法都没有。再后来hinton提出了
: restricted boltzman machine预处理feature,实现了第二次复兴。再到后来Xavier
: Initialization横空出世彻底解决梯度消失和梯度爆炸问题,深底网络真正开始一统江
: 湖。之后就玩出花了,现在batch normalization这样的技术连权值初始化都可以无视
: 了。激发函数更是各种relu的变种。

x****u
发帖数: 44466
20
日本搞的是逻辑谓词式的,早就被数学证明无解的路子

【在 m**u 的大作中提到】
: 90年代初,日本大搞了一把AI,这玩意别当真。
相关主题
一个Deep Learning的talk[bssd] Yann LeCun stepped down
谁能用本科生就能理解的语言解释图灵机和拉姆达计算的区别LeCun被搞下来是必然的
华人大妈谈deep learning的未来,大家怎么看? (转载)请教一个快速图像配准的问题
进入Programming版参与讨论
x****u
发帖数: 44466
21
调参是一门中医艺术,越老越吃香

行。

【在 h**c 的大作中提到】
: 和生物千老做实验一样,这边调调参数那边挑挑数据。忽悠一下啥也不懂的大学生还行。
:
: function

x****u
发帖数: 44466
22
relu不值钱,值钱的是搞清楚为什么要relu

【在 h**c 的大作中提到】
: AI傻冒逢人便说,你知道relu的一百种变种吗?
L****8
发帖数: 3938
23
类似 boosting tree

【在 x****u 的大作中提到】
: relu不值钱,值钱的是搞清楚为什么要relu
1 (共1页)
进入Programming版参与讨论
相关主题
LeCun被搞下来是必然的伪随机数能够产生智能吗?
请教一个快速图像配准的问题大胆预测一下下一个风口
打算写一个类似CNN的C++库,搞点deep learning新算法[bssd]我现在有个难题
wdong, 要不要换Julia?再问机器学习。。。用keras分类
神经网络研究的致命伤xiaoju 老师进来一下
我来科普下深度学习的应用范围吧MPI合并数据的两种算法性能比较?
可微分编程full stack马工算个几把毛,还不是被你们嘲笑的臭教书的管着
"学习"就两种一个Deep Learning的talk
相关话题的讨论汇总
话题: ai话题: 区块话题: 梯度话题: 神经网络话题: relu