x****u 发帖数: 44466 | 1 工作量证明记账法
我们设想1000年以后,AI能替代一切人类智能行为比如写论文,写代码,拍电影,这时
候计算力就成为了和能源一样重要的东西,人类调用ai一切劳动都可以用计算量衡量,
这时候p2p记账法就可以代替货币了
当然了,btc,eth什么的传销币必然无效,这些纯属制造垃圾加浪费电。而且现在就算
你设计出个深度学习计算能力区块链,也没人能用来写代码。 |
h**c 发帖数: 1979 | 2 浪费点电根本无所谓的,本来人类做的大部分事情都是浪费。而且eth就要上casper了。 |
x****u 发帖数: 44466 | 3 现在能买到的深度学习计算硬件只有tpu的beta云,可tmd的矿机早玩出花了,这是人类
资源,智力的巨大浪费
大家早晚有死掉的一天,多把ai用在医学领域,到时候治疗癌症心脑血管病特效药会多
几个数量级
了。
【在 h**c 的大作中提到】 : 浪费点电根本无所谓的,本来人类做的大部分事情都是浪费。而且eth就要上casper了。
|
h**c 发帖数: 1979 | 4 几个AI骗子给你吹吹你就信了, LeCun都说深度学习是dead了
【在 x****u 的大作中提到】 : 现在能买到的深度学习计算硬件只有tpu的beta云,可tmd的矿机早玩出花了,这是人类 : 资源,智力的巨大浪费 : 大家早晚有死掉的一天,多把ai用在医学领域,到时候治疗癌症心脑血管病特效药会多 : 几个数量级 : : 了。
|
x****u 发帖数: 44466 | 5 你不要只看文科记者新闻
LeCun说的是目前最前端的遇到的难题,但即使目前现有成果没个20年都消化不光。生
物男学了点ai写的水文都能发cell。
人类
会多
【在 h**c 的大作中提到】 : 几个AI骗子给你吹吹你就信了, LeCun都说深度学习是dead了
|
h**c 发帖数: 1979 | 6 神经网络四十年代就有了,再消化个100年吧。21世纪是AI的世纪。
【在 x****u 的大作中提到】 : 你不要只看文科记者新闻 : LeCun说的是目前最前端的遇到的难题,但即使目前现有成果没个20年都消化不光。生 : 物男学了点ai写的水文都能发cell。 : : 人类 : 会多
|
x****u 发帖数: 44466 | 7 40年代的神经网络就和中国古代的二进制一样
【在 h**c 的大作中提到】 : 神经网络四十年代就有了,再消化个100年吧。21世纪是AI的世纪。
|
n*w 发帖数: 3393 | 8 如果prove of stake就不浪费电了吧。 |
N*****r 发帖数: 94 | 9
没觉得今天的神经网络比四十年代的在原理上强多少
【在 x****u 的大作中提到】 : 40年代的神经网络就和中国古代的二进制一样
|
g****t 发帖数: 31659 | 10 50,70年代还是什么时候。神经网络低潮,一个phd屌丝从学校出来,改行去了intc,逻
辑上发明了微处理器。造了4004,成为intc第一个fellow.
: 40年代的神经网络就和中国古代的二进制一样
【在 x****u 的大作中提到】 : 40年代的神经网络就和中国古代的二进制一样
|
|
|
g****t 发帖数: 31659 | 11 System level有新知识。不同规模的计算学问是不一样的。另外
就算都是力学。造飞机的和造船的也不同。
: 没觉得今天的神经网络比四十年代的在原理上强多少
【在 N*****r 的大作中提到】 : : 没觉得今天的神经网络比四十年代的在原理上强多少
|
x****u 发帖数: 44466 | 12 现在的效果好,24小时内在任何棋类游戏上击败人类
【在 N*****r 的大作中提到】 : : 没觉得今天的神经网络比四十年代的在原理上强多少
|
x****u 发帖数: 44466 | 13 那时数学发展不够
【在 g****t 的大作中提到】 : 50,70年代还是什么时候。神经网络低潮,一个phd屌丝从学校出来,改行去了intc,逻 : 辑上发明了微处理器。造了4004,成为intc第一个fellow. : : : 40年代的神经网络就和中国古代的二进制一样 :
|
m**u 发帖数: 541 | 14 90年代初,日本大搞了一把AI,这玩意别当真。 |
m**u 发帖数: 541 | 15 区块链最有价值的地方就是bitcoin这种东西;而bitcoin最有价值的地方就是黑市货币
啊。。。 想想地下交易太需要这种东西了, 腐败送钱这个很合适。。 |
m****o 发帖数: 182 | 16 那个时候的模型一开始连xor都没有办法进行识别,激发函数就是简单的step function
。80年代第一次复兴,但是隐含层不能过多,否则会造成梯度消失,或者梯度爆炸。梯
度爆炸还可以用梯度剪裁来挽回,梯度消失是一点办法都没有。再后来hinton提出了
restricted boltzman machine预处理feature,实现了第二次复兴。再到后来Xavier
Initialization横空出世彻底解决梯度消失和梯度爆炸问题,深底网络真正开始一统江
湖。之后就玩出花了,现在batch normalization这样的技术连权值初始化都可以无视
了。激发函数更是各种relu的变种。
【在 N*****r 的大作中提到】 : : 没觉得今天的神经网络比四十年代的在原理上强多少
|
h**c 发帖数: 1979 | 17 和生物千老做实验一样,这边调调参数那边挑挑数据。忽悠一下啥也不懂的大学生还行。
function
【在 m****o 的大作中提到】 : 那个时候的模型一开始连xor都没有办法进行识别,激发函数就是简单的step function : 。80年代第一次复兴,但是隐含层不能过多,否则会造成梯度消失,或者梯度爆炸。梯 : 度爆炸还可以用梯度剪裁来挽回,梯度消失是一点办法都没有。再后来hinton提出了 : restricted boltzman machine预处理feature,实现了第二次复兴。再到后来Xavier : Initialization横空出世彻底解决梯度消失和梯度爆炸问题,深底网络真正开始一统江 : 湖。之后就玩出花了,现在batch normalization这样的技术连权值初始化都可以无视 : 了。激发函数更是各种relu的变种。
|
h**c 发帖数: 1979 | 18 AI傻冒逢人便说,你知道relu的一百种变种吗? |
h**c 发帖数: 1979 | 19 改个几个参数,吹吹就行了,还横空出世一统江湖,恶心不
function
【在 m****o 的大作中提到】 : 那个时候的模型一开始连xor都没有办法进行识别,激发函数就是简单的step function : 。80年代第一次复兴,但是隐含层不能过多,否则会造成梯度消失,或者梯度爆炸。梯 : 度爆炸还可以用梯度剪裁来挽回,梯度消失是一点办法都没有。再后来hinton提出了 : restricted boltzman machine预处理feature,实现了第二次复兴。再到后来Xavier : Initialization横空出世彻底解决梯度消失和梯度爆炸问题,深底网络真正开始一统江 : 湖。之后就玩出花了,现在batch normalization这样的技术连权值初始化都可以无视 : 了。激发函数更是各种relu的变种。
|
x****u 发帖数: 44466 | 20 日本搞的是逻辑谓词式的,早就被数学证明无解的路子
【在 m**u 的大作中提到】 : 90年代初,日本大搞了一把AI,这玩意别当真。
|
|
|
x****u 发帖数: 44466 | 21 调参是一门中医艺术,越老越吃香
行。
【在 h**c 的大作中提到】 : 和生物千老做实验一样,这边调调参数那边挑挑数据。忽悠一下啥也不懂的大学生还行。 : : function
|
x****u 发帖数: 44466 | 22 relu不值钱,值钱的是搞清楚为什么要relu
【在 h**c 的大作中提到】 : AI傻冒逢人便说,你知道relu的一百种变种吗?
|
L****8 发帖数: 3938 | 23 类似 boosting tree
【在 x****u 的大作中提到】 : relu不值钱,值钱的是搞清楚为什么要relu
|