s*****w 发帖数: 1527 | |
a*****e 发帖数: 159 | 2 软件要革命性突破?不是吧。
硬件才这么说吧。
软件难道不是根据客户需求来的吗,难道客户会有革命性的需求突破? |
C*****l 发帖数: 1 | 3 ai就是突破进展
【在 s*****w 的大作中提到】 : 但好像就是没啥革命性的突破
|
g****t 发帖数: 31659 | 4 還有Bitcoin。
【在 C*****l 的大作中提到】 : ai就是突破进展
|
i********y 发帖数: 6 | 5 Deep Learning的理论基础是1998年的,人家研究了十几年搞了个AlphaGo,给中国人民
普及了一下,对工程界是进展,理论界这几年仍然原地没动,后面十年可能也进展缓慢。
【在 C*****l 的大作中提到】 : ai就是突破进展
|
C*****l 发帖数: 1 | 6 98年什么理论,back propagation? DL的理论到现在还是搞不清楚,以前搞曲线模拟,
参数太多就会过拟合,而DL model多少亿的参数也没有事情。
现在最好的理论是神经正切核,无限宽的网络一步就能收敛,因为空间维度越高,逼近
目标越容易。
我现在越来越相信wolfram的一些思想,宇宙本质上只能被模拟,而不能指望被reduce
成一个简单的原理。
慢。
【在 i********y 的大作中提到】 : Deep Learning的理论基础是1998年的,人家研究了十几年搞了个AlphaGo,给中国人民 : 普及了一下,对工程界是进展,理论界这几年仍然原地没动,后面十年可能也进展缓慢。
|
t*****n 发帖数: 2578 | 7 你现在才知道?哥德尔不早证明了么?
reduce
【在 C*****l 的大作中提到】 : 98年什么理论,back propagation? DL的理论到现在还是搞不清楚,以前搞曲线模拟, : 参数太多就会过拟合,而DL model多少亿的参数也没有事情。 : 现在最好的理论是神经正切核,无限宽的网络一步就能收敛,因为空间维度越高,逼近 : 目标越容易。 : 我现在越来越相信wolfram的一些思想,宇宙本质上只能被模拟,而不能指望被reduce : 成一个简单的原理。 : : 慢。
|
h**********c 发帖数: 4120 | 8 不明觉烈一下,
而DL model多少亿的参数也没有事情 -- 是什么样的存储模式,ECC memory么?
有什么例子,小点的也行,咱能在PC机上跑一下。
感觉就是马工很好熊的样子。怎么白话的都不放声。书来装一下。
你那这个神经去给修车的劳模版和买卖提的大夫版去给人家调一下参数,别忘叫我去围
观一下。
reduce
【在 C*****l 的大作中提到】 : 98年什么理论,back propagation? DL的理论到现在还是搞不清楚,以前搞曲线模拟, : 参数太多就会过拟合,而DL model多少亿的参数也没有事情。 : 现在最好的理论是神经正切核,无限宽的网络一步就能收敛,因为空间维度越高,逼近 : 目标越容易。 : 我现在越来越相信wolfram的一些思想,宇宙本质上只能被模拟,而不能指望被reduce : 成一个简单的原理。 : : 慢。
|