g****t 发帖数: 31659 | 1 http://cs231n.stanford.edu/slides/2016/winter1516_lecture12.pdf
cs231n.stanford.edu/slides/2016/winter1516_lecture12.pdf
按此文件的描述,我认为现在的框架还有很大的不足之处。
深度学习或者ANN的工具进展,距离消化20年前,10年前的知识差距还很远。
有三个方向我认为值得注意。
第一就是RNN,LSTM等反馈网络。带反馈的信号流图在电路分析中已经存在60年以上。
任何一个本科EE应该都知道梅森图求解电路什么的。三极管之类的东西有饱和区和线性
区,其实就是ReLU。现在这方面
的深度学习网络,没有体现EE人员的品味和思考。现在的反馈网连几十年前的描述函数
法等经验分析知识,都尚未吸收。
第二是神经计算机。在最著名的那本DL书中提及这方面的研究。但是作者没有能力深入
讲解。那个女教授的老师的老师是R.Kalman,他们是从自控出来的AI学者。这就是隔行
如隔山。DL的知识未来会作用于计算机的结构自身,会作用于os,db,
Language。
肯定会消灭一大批的统计科学家和编程人员。
第三是符号计算。所谓神经网络,就是线性和非线性算符的
迭代。线性函数的迭代是多项式。非线性函数的迭代,如果走符号运算,第一步是找线
性展开或者用摄动法。一个最简单例子:
X^2 x*y y 20 = 0
求x以y表示的级数。
那么假如现在右边不是0,而是一个以x为输入的ANN.
怎么做?
或者说一个线性微分算子Lf=ANN(x)怎么做?
多年前我做的软件,解决的是
Lf = T0 T1 ... (x)
这里T是一系列near identity 变换。就是把x变成
x epsilon * x^2*p1 ...
这是Poincare 的技术(包括现代的重整化技术)。
以我的经验来看,符号计算是必须的。但目前看来,尚未出现比Mathematica更强大的
软件工具。
总体而言,我个人是把AI看作established 好用的知识集。
ANN类似于牛顿莱布尼兹的迭代线性化技术,或者poincare
的迭代非线性技术,或者Fourier 的正交化技术,
是一种新的迭代非线性技术,
是对函数或者知识的新的表示方法。
目前的投资量尚未达到使这门技术过度成熟,出现泡沫的地步。现在多数应用主要只是
在人类感知方面。其他方面的应用其实更有空间和经济价值。例如军工方面其实是ANN
人员保持最完整,没有断代和转行问题的实力雄厚的一个幸存者聚集地。 |
g*******u 发帖数: 3948 | 2 我觉得 框架没用 好用就行
我对DL现在的认识相当肤浅 我就觉得 现在的DL就是暴力拟合
数据多点, 使劲拟合就行了
我甚至觉得 数据多点 计算强点 其他的算法也差不多,尤其对实际的问题
所以关键点还是数据 和计算能力
具体框架方法 ,我觉得不占主要部分最多10% |
w***g 发帖数: 5958 | 3 同意。我大部分时间都花在洗数据上。
【在 g*******u 的大作中提到】 : 我觉得 框架没用 好用就行 : 我对DL现在的认识相当肤浅 我就觉得 现在的DL就是暴力拟合 : 数据多点, 使劲拟合就行了 : 我甚至觉得 数据多点 计算强点 其他的算法也差不多,尤其对实际的问题 : 所以关键点还是数据 和计算能力 : 具体框架方法 ,我觉得不占主要部分最多10%
|
d*******r 发帖数: 3299 | 4 是做Kalman Filter那个老头么?
我看现在自动驾驶,robot的self localization, 还在用Kalman Filter
【在 g****t 的大作中提到】 : http://cs231n.stanford.edu/slides/2016/winter1516_lecture12.pdf : cs231n.stanford.edu/slides/2016/winter1516_lecture12.pdf : 按此文件的描述,我认为现在的框架还有很大的不足之处。 : 深度学习或者ANN的工具进展,距离消化20年前,10年前的知识差距还很远。 : 有三个方向我认为值得注意。 : 第一就是RNN,LSTM等反馈网络。带反馈的信号流图在电路分析中已经存在60年以上。 : 任何一个本科EE应该都知道梅森图求解电路什么的。三极管之类的东西有饱和区和线性 : 区,其实就是ReLU。现在这方面 : 的深度学习网络,没有体现EE人员的品味和思考。现在的反馈网连几十年前的描述函数 : 法等经验分析知识,都尚未吸收。
|
w*****r 发帖数: 197 | 5 这个心态去kaggle肯定不行。。。
【在 g*******u 的大作中提到】 : 我觉得 框架没用 好用就行 : 我对DL现在的认识相当肤浅 我就觉得 现在的DL就是暴力拟合 : 数据多点, 使劲拟合就行了 : 我甚至觉得 数据多点 计算强点 其他的算法也差不多,尤其对实际的问题 : 所以关键点还是数据 和计算能力 : 具体框架方法 ,我觉得不占主要部分最多10%
|
w*****r 发帖数: 197 | 6 洗数据将是未来马工的主要职责。
【在 w***g 的大作中提到】 : 同意。我大部分时间都花在洗数据上。
|
g****t 发帖数: 31659 | 7 KF最早的成功应用是阿婆罗登月计划。
这个历史nasa有报告。github上以前有。code好像也公开了。
: 是做Kalman Filter那个老头么?
: 我看现在自动驾驶,robot的self localization, 还在用Kalman Filter
【在 d*******r 的大作中提到】 : 是做Kalman Filter那个老头么? : 我看现在自动驾驶,robot的self localization, 还在用Kalman Filter
|
g****t 发帖数: 31659 | 8 框架对产业发展有用。就好比windows推广了计算机技术类似。框架统一以后会有更大
的发展。
有个80-20规律。一个东西的总价值的80%由20%working load造成。20%的价值,例如数
据清洗,占80% working load. 数据清洗价值不高,但是劳动量一定是主要的。
: 同意。我大部分时间都花在洗数据上。
【在 w***g 的大作中提到】 : 同意。我大部分时间都花在洗数据上。
|
g****t 发帖数: 31659 | 9 工具好用的话,那你一天可以多拟合20%。效率提高就有竞争优势。
另外现在垂直领域的AI还没有开始。不可能各行各业都几千
gPu的
: 我觉得 框架没用 好用就行
: 我对DL现在的认识相当肤浅 我就觉得 现在的DL就是暴力拟合
: 数据多点, 使劲拟合就行了
: 我甚至觉得 数据多点 计算强点 其他的算法也差不多,尤其对实际的问题
: 所以关键点还是数据 和计算能力
: 具体框架方法 ,我觉得不占主要部分最多10%
【在 g*******u 的大作中提到】 : 我觉得 框架没用 好用就行 : 我对DL现在的认识相当肤浅 我就觉得 现在的DL就是暴力拟合 : 数据多点, 使劲拟合就行了 : 我甚至觉得 数据多点 计算强点 其他的算法也差不多,尤其对实际的问题 : 所以关键点还是数据 和计算能力 : 具体框架方法 ,我觉得不占主要部分最多10%
|
d*******r 发帖数: 3299 | 10 这个知道, 老头子厉害, 名副其实的rocket science
【在 g****t 的大作中提到】 : KF最早的成功应用是阿婆罗登月计划。 : 这个历史nasa有报告。github上以前有。code好像也公开了。 : : : 是做Kalman Filter那个老头么? : : 我看现在自动驾驶,robot的self localization, 还在用Kalman Filter :
|
|
|
g*******u 发帖数: 3948 | 11 那应该是什么心态?
【在 w*****r 的大作中提到】 : 这个心态去kaggle肯定不行。。。
|
w***g 发帖数: 5958 | 12 苍蝇肉也是肉,这儿扣0.005,那儿扣0.005,攒起来排名就
上去了。只要能提高分数,换框架就换框架。
我最近干了三个晚上,竟然连0.01都提高不上去。
【在 g*******u 的大作中提到】 : 那应该是什么心态?
|
g*******u 发帖数: 3948 | 13 我很同意。别看不起土办法 哈哈。
话说你们做 kaggle 是为了什么? 能挣钱吗?
【在 w***g 的大作中提到】 : 苍蝇肉也是肉,这儿扣0.005,那儿扣0.005,攒起来排名就 : 上去了。只要能提高分数,换框架就换框架。 : 我最近干了三个晚上,竟然连0.01都提高不上去。
|
g*******u 发帖数: 3948 | 14 现在什么框架啊?
我现在觉得 xgbost或者 lgb就很好用啊
其他的 DL的 框架 keras 我打算试试
然后就攒数据 然后就是看大家新用什么我就准备用啥
不打算自己花时间验证, 别人验证完的 我在用 |
w***g 发帖数: 5958 | 15 做kaggle本身挣不了钱。我水平还不够到不了领奖金的地步。
不过能带来挣钱的机会。另外就是跟进技术。
还有就是特别好玩。刷进去了欲罢不能。
【在 g*******u 的大作中提到】 : 我很同意。别看不起土办法 哈哈。 : 话说你们做 kaggle 是为了什么? 能挣钱吗?
|
g****t 发帖数: 31659 | 16 Kalman不是工程人员。他和发明动态规划的bellman,以及做变分法最优控制的苏联人
类似,
是数学控制论的鼻祖。
从他们60年代的报告开始,国际数学大会4年一次,现在还有个控制论的sector.
这是宗师遗德,留给后人饭碗。
工程上最厉害的是同时发明Kalman filtering的一个雷达界的
宗师。人没有争优先权,自己开了个公司。现在雷达学界大奖是以他为命名的。
: 这个知道, 老头子厉害, 名副其实的rocket science
【在 d*******r 的大作中提到】 : 这个知道, 老头子厉害, 名副其实的rocket science
|
g****t 发帖数: 31659 | 17 换新机器吧
工具是王道
人的智慧有涯啊
不用新工具,怠亦,lol
: 苍蝇肉也是肉,这儿扣0.005,那儿扣0.005,攒起来排名就
: 上去了。只要能提高分数,换框架就换框架。
: 我最近干了三个晚上,竟然连0.01都提高不上去。
【在 w***g 的大作中提到】 : 做kaggle本身挣不了钱。我水平还不够到不了领奖金的地步。 : 不过能带来挣钱的机会。另外就是跟进技术。 : 还有就是特别好玩。刷进去了欲罢不能。
|
x********o 发帖数: 2092 | 18 哪道题?
【在 w***g 的大作中提到】 : 苍蝇肉也是肉,这儿扣0.005,那儿扣0.005,攒起来排名就 : 上去了。只要能提高分数,换框架就换框架。 : 我最近干了三个晚上,竟然连0.01都提高不上去。
|
w***g 发帖数: 5958 | |
h**********c 发帖数: 4120 | 20 你说了一堆名人,那么你又说DP,那么DP在时间空间是怎么做到有限的?
An algorithm is an effective method that can be expressed within a finite
amount of space and time[1] and in a well-defined formal language[2] for
calculating a function. |
|
|
h**********c 发帖数: 4120 | 21 [33]被广泛引用,作为例证,见证奇迹。
那么,
当初学computational geometry,实际笔迹鉴定还是用spline inerpolation.
我个人一个见证,我寄给加州DMV一张支票,被USPS的工作人员盗用,然后修改了金额
,在美国银行无争议使用,后来是我自己打电话争议。
你的这些框架,能起倒什么作用。
LeCun et al., "Backpropagation Applied to Handwritten Zip Code Recognition,
" Neural Computation, 1, pp. 541–551, 1989.
【在 g****t 的大作中提到】 : http://cs231n.stanford.edu/slides/2016/winter1516_lecture12.pdf : cs231n.stanford.edu/slides/2016/winter1516_lecture12.pdf : 按此文件的描述,我认为现在的框架还有很大的不足之处。 : 深度学习或者ANN的工具进展,距离消化20年前,10年前的知识差距还很远。 : 有三个方向我认为值得注意。 : 第一就是RNN,LSTM等反馈网络。带反馈的信号流图在电路分析中已经存在60年以上。 : 任何一个本科EE应该都知道梅森图求解电路什么的。三极管之类的东西有饱和区和线性 : 区,其实就是ReLU。现在这方面 : 的深度学习网络,没有体现EE人员的品味和思考。现在的反馈网连几十年前的描述函数 : 法等经验分析知识,都尚未吸收。
|
g****t 发帖数: 31659 | 22 http://cs231n.stanford.edu/slides/2016/winter1516_lecture12.pdf
cs231n.stanford.edu/slides/2016/winter1516_lecture12.pdf
按此文件的描述,我认为现在的框架还有很大的不足之处。
深度学习或者ANN的工具进展,距离消化20年前,10年前的知识差距还很远。
有三个方向我认为值得注意。
第一就是RNN,LSTM等反馈网络。带反馈的信号流图在电路分析中已经存在60年以上。
任何一个本科EE应该都知道梅森图求解电路什么的。三极管之类的东西有饱和区和线性
区,其实就是ReLU。现在这方面
的深度学习网络,没有体现EE人员的品味和思考。现在的反馈网连几十年前的描述函数
法等经验分析知识,都尚未吸收。
第二是神经计算机。在最著名的那本DL书中提及这方面的研究。但是作者没有能力深入
讲解。那个女教授的老师的老师是R.Kalman,他们是从自控出来的AI学者。这就是隔行
如隔山。DL的知识未来会作用于计算机的结构自身,会作用于os,db,
Language。
肯定会消灭一大批的统计科学家和编程人员。
第三是符号计算。所谓神经网络,就是线性和非线性算符的
迭代。线性函数的迭代是多项式。非线性函数的迭代,如果走符号运算,第一步是找线
性展开或者用摄动法。一个最简单例子:
X^2 x*y y 20 = 0
求x以y表示的级数。
那么假如现在右边不是0,而是一个以x为输入的ANN.
怎么做?
或者说一个线性微分算子Lf=ANN(x)怎么做?
多年前我做的软件,解决的是
Lf = T0 T1 ... (x)
这里T是一系列near identity 变换。就是把x变成
x epsilon * x^2*p1 ...
这是Poincare 的技术(包括现代的重整化技术)。
以我的经验来看,符号计算是必须的。但目前看来,尚未出现比Mathematica更强大的
软件工具。
总体而言,我个人是把AI看作established 好用的知识集。
ANN类似于牛顿莱布尼兹的迭代线性化技术,或者poincare
的迭代非线性技术,或者Fourier 的正交化技术,
是一种新的迭代非线性技术,
是对函数或者知识的新的表示方法。
目前的投资量尚未达到使这门技术过度成熟,出现泡沫的地步。现在多数应用主要只是
在人类感知方面。其他方面的应用其实更有空间和经济价值。例如军工方面其实是ANN
人员保持最完整,没有断代和转行问题的实力雄厚的一个幸存者聚集地。 |
g*******u 发帖数: 3948 | 23 我觉得 框架没用 好用就行
我对DL现在的认识相当肤浅 我就觉得 现在的DL就是暴力拟合
数据多点, 使劲拟合就行了
我甚至觉得 数据多点 计算强点 其他的算法也差不多,尤其对实际的问题
所以关键点还是数据 和计算能力
具体框架方法 ,我觉得不占主要部分最多10% |
w***g 发帖数: 5958 | 24 同意。我大部分时间都花在洗数据上。
【在 g*******u 的大作中提到】 : 我觉得 框架没用 好用就行 : 我对DL现在的认识相当肤浅 我就觉得 现在的DL就是暴力拟合 : 数据多点, 使劲拟合就行了 : 我甚至觉得 数据多点 计算强点 其他的算法也差不多,尤其对实际的问题 : 所以关键点还是数据 和计算能力 : 具体框架方法 ,我觉得不占主要部分最多10%
|
d*******r 发帖数: 3299 | 25 是做Kalman Filter那个老头么?
我看现在自动驾驶,robot的self localization, 还在用Kalman Filter
【在 g****t 的大作中提到】 : http://cs231n.stanford.edu/slides/2016/winter1516_lecture12.pdf : cs231n.stanford.edu/slides/2016/winter1516_lecture12.pdf : 按此文件的描述,我认为现在的框架还有很大的不足之处。 : 深度学习或者ANN的工具进展,距离消化20年前,10年前的知识差距还很远。 : 有三个方向我认为值得注意。 : 第一就是RNN,LSTM等反馈网络。带反馈的信号流图在电路分析中已经存在60年以上。 : 任何一个本科EE应该都知道梅森图求解电路什么的。三极管之类的东西有饱和区和线性 : 区,其实就是ReLU。现在这方面 : 的深度学习网络,没有体现EE人员的品味和思考。现在的反馈网连几十年前的描述函数 : 法等经验分析知识,都尚未吸收。
|
w*****r 发帖数: 197 | 26 这个心态去kaggle肯定不行。。。
【在 g*******u 的大作中提到】 : 我觉得 框架没用 好用就行 : 我对DL现在的认识相当肤浅 我就觉得 现在的DL就是暴力拟合 : 数据多点, 使劲拟合就行了 : 我甚至觉得 数据多点 计算强点 其他的算法也差不多,尤其对实际的问题 : 所以关键点还是数据 和计算能力 : 具体框架方法 ,我觉得不占主要部分最多10%
|
w*****r 发帖数: 197 | 27 洗数据将是未来马工的主要职责。
【在 w***g 的大作中提到】 : 同意。我大部分时间都花在洗数据上。
|
g****t 发帖数: 31659 | 28 KF最早的成功应用是阿婆罗登月计划。
这个历史nasa有报告。github上以前有。code好像也公开了。
: 是做Kalman Filter那个老头么?
: 我看现在自动驾驶,robot的self localization, 还在用Kalman Filter
【在 d*******r 的大作中提到】 : 是做Kalman Filter那个老头么? : 我看现在自动驾驶,robot的self localization, 还在用Kalman Filter
|
g****t 发帖数: 31659 | 29 框架对产业发展有用。就好比windows推广了计算机技术类似。框架统一以后会有更大
的发展。
有个80-20规律。一个东西的总价值的80%由20%working load造成。20%的价值,例如数
据清洗,占80% working load. 数据清洗价值不高,但是劳动量一定是主要的。
: 同意。我大部分时间都花在洗数据上。
【在 w***g 的大作中提到】 : 同意。我大部分时间都花在洗数据上。
|
g****t 发帖数: 31659 | 30 工具好用的话,那你一天可以多拟合20%。效率提高就有竞争优势。
另外现在垂直领域的AI还没有开始。不可能各行各业都几千
gPu的
: 我觉得 框架没用 好用就行
: 我对DL现在的认识相当肤浅 我就觉得 现在的DL就是暴力拟合
: 数据多点, 使劲拟合就行了
: 我甚至觉得 数据多点 计算强点 其他的算法也差不多,尤其对实际的问题
: 所以关键点还是数据 和计算能力
: 具体框架方法 ,我觉得不占主要部分最多10%
【在 g*******u 的大作中提到】 : 我觉得 框架没用 好用就行 : 我对DL现在的认识相当肤浅 我就觉得 现在的DL就是暴力拟合 : 数据多点, 使劲拟合就行了 : 我甚至觉得 数据多点 计算强点 其他的算法也差不多,尤其对实际的问题 : 所以关键点还是数据 和计算能力 : 具体框架方法 ,我觉得不占主要部分最多10%
|
|
|
d*******r 发帖数: 3299 | 31 这个知道, 老头子厉害, 名副其实的rocket science
【在 g****t 的大作中提到】 : KF最早的成功应用是阿婆罗登月计划。 : 这个历史nasa有报告。github上以前有。code好像也公开了。 : : : 是做Kalman Filter那个老头么? : : 我看现在自动驾驶,robot的self localization, 还在用Kalman Filter :
|
g*******u 发帖数: 3948 | 32 那应该是什么心态?
【在 w*****r 的大作中提到】 : 这个心态去kaggle肯定不行。。。
|
w***g 发帖数: 5958 | 33 苍蝇肉也是肉,这儿扣0.005,那儿扣0.005,攒起来排名就
上去了。只要能提高分数,换框架就换框架。
我最近干了三个晚上,竟然连0.01都提高不上去。
【在 g*******u 的大作中提到】 : 那应该是什么心态?
|
g*******u 发帖数: 3948 | 34 我很同意。别看不起土办法 哈哈。
话说你们做 kaggle 是为了什么? 能挣钱吗?
【在 w***g 的大作中提到】 : 苍蝇肉也是肉,这儿扣0.005,那儿扣0.005,攒起来排名就 : 上去了。只要能提高分数,换框架就换框架。 : 我最近干了三个晚上,竟然连0.01都提高不上去。
|
g*******u 发帖数: 3948 | 35 现在什么框架啊?
我现在觉得 xgbost或者 lgb就很好用啊
其他的 DL的 框架 keras 我打算试试
然后就攒数据 然后就是看大家新用什么我就准备用啥
不打算自己花时间验证, 别人验证完的 我在用 |
w***g 发帖数: 5958 | 36 做kaggle本身挣不了钱。我水平还不够到不了领奖金的地步。
不过能带来挣钱的机会。另外就是跟进技术。
还有就是特别好玩。刷进去了欲罢不能。
【在 g*******u 的大作中提到】 : 我很同意。别看不起土办法 哈哈。 : 话说你们做 kaggle 是为了什么? 能挣钱吗?
|
g****t 发帖数: 31659 | 37 Kalman不是工程人员。他和发明动态规划的bellman,以及做变分法最优控制的苏联人
类似,
是数学控制论的鼻祖。
从他们60年代的报告开始,国际数学大会4年一次,现在还有个控制论的sector.
这是宗师遗德,留给后人饭碗。
工程上最厉害的是同时发明Kalman filtering的一个雷达界的
宗师。人没有争优先权,自己开了个公司。现在雷达学界大奖是以他为命名的。
: 这个知道, 老头子厉害, 名副其实的rocket science
【在 d*******r 的大作中提到】 : 这个知道, 老头子厉害, 名副其实的rocket science
|
g****t 发帖数: 31659 | 38 换新机器吧
工具是王道
人的智慧有涯啊
不用新工具,怠亦,lol
: 苍蝇肉也是肉,这儿扣0.005,那儿扣0.005,攒起来排名就
: 上去了。只要能提高分数,换框架就换框架。
: 我最近干了三个晚上,竟然连0.01都提高不上去。
【在 w***g 的大作中提到】 : 做kaggle本身挣不了钱。我水平还不够到不了领奖金的地步。 : 不过能带来挣钱的机会。另外就是跟进技术。 : 还有就是特别好玩。刷进去了欲罢不能。
|
x********o 发帖数: 2092 | 39 哪道题?
【在 w***g 的大作中提到】 : 苍蝇肉也是肉,这儿扣0.005,那儿扣0.005,攒起来排名就 : 上去了。只要能提高分数,换框架就换框架。 : 我最近干了三个晚上,竟然连0.01都提高不上去。
|
w***g 发帖数: 5958 | |
|
|
h**********c 发帖数: 4120 | 41 你说了一堆名人,那么你又说DP,那么DP在时间空间是怎么做到有限的?
An algorithm is an effective method that can be expressed within a finite
amount of space and time[1] and in a well-defined formal language[2] for
calculating a function. |
h**********c 发帖数: 4120 | 42 [33]被广泛引用,作为例证,见证奇迹。
那么,
当初学computational geometry,实际笔迹鉴定还是用spline inerpolation.
我个人一个见证,我寄给加州DMV一张支票,被USPS的工作人员盗用,然后修改了金额
,在美国银行无争议使用,后来是我自己打电话争议。
你的这些框架,能起倒什么作用。
LeCun et al., "Backpropagation Applied to Handwritten Zip Code Recognition,
" Neural Computation, 1, pp. 541–551, 1989.
【在 g****t 的大作中提到】 : http://cs231n.stanford.edu/slides/2016/winter1516_lecture12.pdf : cs231n.stanford.edu/slides/2016/winter1516_lecture12.pdf : 按此文件的描述,我认为现在的框架还有很大的不足之处。 : 深度学习或者ANN的工具进展,距离消化20年前,10年前的知识差距还很远。 : 有三个方向我认为值得注意。 : 第一就是RNN,LSTM等反馈网络。带反馈的信号流图在电路分析中已经存在60年以上。 : 任何一个本科EE应该都知道梅森图求解电路什么的。三极管之类的东西有饱和区和线性 : 区,其实就是ReLU。现在这方面 : 的深度学习网络,没有体现EE人员的品味和思考。现在的反馈网连几十年前的描述函数 : 法等经验分析知识,都尚未吸收。
|
g****t 发帖数: 31659 | 43 https://arxiv.org/pdf/1902.04106.pdf
Finally, appears a paper about ANN and near identity transformation in the
perturbation area.
【在 g****t 的大作中提到】 : http://cs231n.stanford.edu/slides/2016/winter1516_lecture12.pdf : cs231n.stanford.edu/slides/2016/winter1516_lecture12.pdf : 按此文件的描述,我认为现在的框架还有很大的不足之处。 : 深度学习或者ANN的工具进展,距离消化20年前,10年前的知识差距还很远。 : 有三个方向我认为值得注意。 : 第一就是RNN,LSTM等反馈网络。带反馈的信号流图在电路分析中已经存在60年以上。 : 任何一个本科EE应该都知道梅森图求解电路什么的。三极管之类的东西有饱和区和线性 : 区,其实就是ReLU。现在这方面 : 的深度学习网络,没有体现EE人员的品味和思考。现在的反馈网连几十年前的描述函数 : 法等经验分析知识,都尚未吸收。
|