L******i 发帖数: 3027 | 1 在犹豫到底是用cnn、rnn还是lstm
姜菌们 给把把关? |
e****w 发帖数: 1565 | |
k**********4 发帖数: 16092 | 3 cnn
【在 L******i 的大作中提到】 : 在犹豫到底是用cnn、rnn还是lstm : 姜菌们 给把把关?
|
L******i 发帖数: 3027 | 4 为什么
微观事件是连续序列
更适合rnn啊
【在 k**********4 的大作中提到】 : cnn
|
k**********4 发帖数: 16092 | 5 because they are good at reporting fake news.
【在 L******i 的大作中提到】 : 为什么 : 微观事件是连续序列 : 更适合rnn啊
|
l******t 发帖数: 55733 | |
L******i 发帖数: 3027 | 7 那可不是好事
我还是希望我的模型只报真情况
【在 k**********4 的大作中提到】 : because they are good at reporting fake news.
|
C**A 发帖数: 535 | 8 lstm,不过你真能拿到核爆数据训练model的话,用啥network还不是你一句话。 |
d****o 发帖数: 32610 | 9 这种模拟都是FE,俺脚得可以拿residual network当surrogate
【在 L******i 的大作中提到】 : 在犹豫到底是用cnn、rnn还是lstm : 姜菌们 给把把关?
|
L******i 发帖数: 3027 | 10 有半公开 去掉关键信息的数据集
【在 C**A 的大作中提到】 : lstm,不过你真能拿到核爆数据训练model的话,用啥network还不是你一句话。
|
|
|
c****3 发帖数: 6038 | 11 你得把线性的成分都抽走,再上神经网络吧。
我的观点是神经网络就是一个有非线性能力的统计模型。
代价就是计算机上的时空复杂度了。 |
d*****u 发帖数: 17243 | 12 你的数据是啥样?
另外现在RNN不fancy了,要用BERT或者transformer
【在 L******i 的大作中提到】 : 在犹豫到底是用cnn、rnn还是lstm : 姜菌们 给把把关?
|
c****x 发帖数: 6601 | 13 我看见nn,就枪毙
:在犹豫到底是用cnn、rnn还是lstm
: |
L******i 发帖数: 3027 | 14 完全赞同
而且是超高维空间里进行曲面划分
我这物理专业的也是刚学的
【在 c****3 的大作中提到】 : 你得把线性的成分都抽走,再上神经网络吧。 : 我的观点是神经网络就是一个有非线性能力的统计模型。 : 代价就是计算机上的时空复杂度了。
|
L******i 发帖数: 3027 | 15 bert太复杂了 我担心搞不来
听说google最近有nlp projects用了它
【在 d*****u 的大作中提到】 : 你的数据是啥样? : 另外现在RNN不fancy了,要用BERT或者transformer
|