t*******o 发帖数: 1464 | 1 我考,跌回我几天前捶胸顿足出手的价格了...
Rexahn Pharmaceuticals Announces Phase IIa Study Results of Serdaxin in
Major Depressive Disorder (MDD)
Statistical Significance Achieved on MADRS Change From Baseline (p<0.041) in
Subgroup Analysis of Severe Patients
NEW YORK, Apr 13, 2010 (GlobeNewswire via COMTEX) -- Rexahn Pharmaceuticals,
Inc. /quotes/comstock/14*!rnn/quotes/nls/rnn (RNN 1.88, -1.77, -48.49%) , a
clinical stage pharmaceutical company developing potential best in class
oncology and central nervous syst... 阅读全帖 |
|
p**********e 发帖数: 703 | 2 IF you like RNN, it is time to get in (IMO)...IF... |
|
发帖数: 1 | 3 根本没超过RNN,FB这批作者用大3-4倍的网络来训,然后claim性能最佳,却根本不看
狗的另一篇文章。
https://arxiv.org/abs/1701.06538
看完你再比比,同样大小的网络(参数数量),RNN还是超过CNN。
我不想说FAIR的研究人员不老实,但起码不严谨,哪里超过state-of-the-art,根本没
有嘛。 |
|
g****t 发帖数: 31659 | 4 都是攒GPU
你2000个,我3000个
揣着明白装糊涂,弄的热热闹闹
我不认为算法上有多少新创制
: 根本没超过RNN,FB这批作者用大3-4倍的网络来训,然后claim性能最佳,却根
本不看
: 狗的另一篇文章。
: https://arxiv.org/abs/1701.06538
: 看完你再比比,同样大小的网络(参数数量),RNN还是超过CNN。
: 我不想说FAIR的研究人员不老实,但起码不严谨,哪里超过state-of-the-art,
根本没
: 有嘛。
|
|
发帖数: 1 | 5 Encoder哪有直接fc的,rnn encoder也都是接rnn decoder。 |
|
e****o 发帖数: 690 | 6 生物制药潜力股RNN
is it a good buy now? |
|
|
e****o 发帖数: 690 | 8 RNN ????????
deep under the water now, sigh |
|
|
r***r 发帖数: 2077 | 10 还好早上没把RNN扔出去,差2分就触发卖出,还好留住了。明天看了还有一爆 |
|
r***r 发帖数: 2077 | 11 楼上二位都有道理。
PLUG,FCEL,RNN,FREE明天象是还继续涨的节奏,我进还是不进呢? |
|
s********k 发帖数: 6180 | 12 按照我的理解,其实就是用stacked CNN,前面提取局部句子信息,后面的CNN layer提
取更长距离相对全局文章信息,来模拟RNN的可以处理任意长度句子。这样好处是训练
起来估计容易点,可以并行,参数少,但是感觉没有时间序列信息,还是容易overfit
啊。FB用了啥trick? |
|
s********k 发帖数: 6180 | 13 "跟早期LSTM一样,但是LSTM已经解决了?"大牛说说LSTM怎么解决的?还是说早期的RNN
,然后被LSTM解决? |
|
s********k 发帖数: 6180 | 14 倒不是说一定要算法创新,只是觉得CNN虽然能近似模拟RNN,按道理不会比LSTM做得更
好啊?狗家也有足够的机器堆啊,还是狗家已经对这样翻译这种事情不上心了? |
|
发帖数: 1 | 15 就是这么做的,但是decoding如果也是CNN的话,不好控制输出长度。比较自然的办法
是CNN encoding + RNN decoding。看狗脸谁先做到更好吧。 |
|
s********k 发帖数: 6180 | 16 不太清楚CNN encoding之后的抽象信息对于RNN来说意义是一样的吗? |
|
s********k 发帖数: 6180 | 17 我理解CNN encoding就是说先用CNN去训练一个类似embedding space,然后RNN decode
?是这个意思? |
|
|
s********k 发帖数: 6180 | 19 哦,就是CNN的输出不接FC layer,接上RNN?这样的参数岂不是更多? |
|
L**j 发帖数: 948 | 20 RNN腰斩了,
Adam Feuerstein says Rexahn Ph II study of serdaxin in depression fails
MIPI也不涨了,
Molecular Insight data is 6 years old, says TheStreet's Adam Feuerstein
Adam Feuerstein reported on Twitter that Molecular Insight is trading up on
data that 。。。。
这个Adam Feuerstein 是谁,说话很有效啊。 |
|
p**********e 发帖数: 703 | 21
蝶来风有致同学,
下面的帖您看着不眼气儿吧???????????
俺奔的账户您看了一定很舒服吧???????????
选了个"面壁"的师傅...一定是生活和工作中的winner....
同主题阅读:RNN, RNN, as fast as you can....in a year or two
[版面:股海弄潮][首篇作者:pineapplePie] , 2014年01月06日11:08:51
发信人: pineapplePie (justSweet), 信区: Stock
标 题: RNN, RNN, as fast as you can....in a year or two
发信站: BBS 未名空间站 (Mon Jan 6 11:08:51 2014, 美东)
By the way, I bought it at 0.41 on 12/11/2013 and posted here under someone'
s post...
high risk, your money, your call...
Good luck! |
|
C*****5 发帖数: 8812 | 22 今天有空瞎扯几句,版上的大神们不要见笑。其实今天很多人所谓的ML入门,其实是DL
入门,或者叫神经网络入门。我觉得可以分三步。
第一,把Goodfellow等著的deep learning书Part I and Park II都看懂,包括第一章数
学基础都查漏补缺完成,基本的理论基础就具备了。看不懂的youtube,Coursera,
udacity找资源帮助理解。
第二,自己实现几个简单的神经网络,我个人建议是用numpy手撕一个MLP,一个
vanilla的CNN和一个vanilla的RNN,重点是了解matrix(或者叫tensor)在层之间怎么流
动,forward(比如convolution),backward(尤其是RNN的backpropagation
through time)怎么实现。这些都不难,但是需要一些耐心。虽然耗时间,但是对彻底
摸清神经网络的工作细节很有帮助。所有的三个网络都可以用mnist数据集。
第三,学习一两个主流的libraries。个人推荐先学pytorch,后学tensorflow。因为这
两个是DL libraries的两种风格,imperat... 阅读全帖 |
|
d*****u 发帖数: 17243 | 23 RNN在训练的时候,每一步只跟当前的label比较,得出误差。
但是RNN每一步都会把当前信息反馈回网络去,所以后面的输出是coditioned on前面的
输出。
特别是LSTM,它有gate控制记忆和遗忘,可能记住较长的序列。
把RNN和CRF弄到一起,就是最后用transitional概率再优化一次。 |
|
d*****u 发帖数: 17243 | 24 首先普通神经网络训练用到的就是梯度,这不是你想不想的问题,而是现在就这样。
而深度学习的代表模型就是CNN和RNN两个,我不说CNN说RNN你更是一窍不通。其实我本
人一般用RNN,反而基本不用CNN。
举例子当然要举简单的,比如我说个梯度,你这种水平差的也能理解个大概。
而楼主这种天资好一些的即使不做这方面工作,一看也就马上明白了。毕竟这是高等数
学里的最基础的部分,大家都有共同语言。 |
|
g****t 发帖数: 31659 | 25 你查computation beyond turing limit
或者church thesis
Super turing rnn
: 你记错了吧,RNN是更晚的概念,而且RNN有很多种,我印象中至少大部分
都是有
限循环
: 机的
|
|
m********u 发帖数: 3942 | 26 地点 Santa Clara
有兴趣的同学或者想了解更多职位信息的可以站内或者发邮件联系 [email protected]
gmail.com
Responsibilities:
Include but not limited the following three main directions:
• Apply Deep Learning or traditional NLP algorithms such as RNN/DNN/
CRF to improve Entity Recognition and Sequence Labeling;
• Apply machine learning algorithms to improve query understanding
such as query suggestion/ query rewriting
• Work with engineering team to implement those algorithms into search
runtime system
Qua... 阅读全帖 |
|
发帖数: 1 | 27 应该不光是RNN 如果只用RNN出来的那这个模型已经非常好了 |
|
p**********e 发帖数: 703 | 28 Lesson No.1 to my little frog friends
YOU can make/loss money from any stocks, it does not matter whether it is 垃
圾股 or 蓝臭股, timing!!!
just some examples (not showing off)
In AEZS on 11/21/2013 at $1.03, posted here as my first post and met 梦哥大
牛!
In RNN on 12/11/2013 at $0.41, I posted "RNN is running as well...
In ATHX 6/3/2013 at $1.58, not on this site yet...
By the way, I have a little bit 狗屎运 on CANF, bid on two news, 75% chance
up and 25% down (thanks Heli007), and gain 40% in 3 weeks, th... 阅读全帖 |
|
p**********e 发帖数: 703 | 29 By the way, I bought it at 0.41 on 12/11/2013 and posted here under someone'
s post...
high risk, your money, your call...
Good luck! |
|
|
p**********e 发帖数: 703 | 31 谢谢, 只想不厚道的说一句: 请那位看不起生物千老的猪头自煽两个耳光--猪眼看人低
, 上帝会原谅你... |
|
E**********r 发帖数: 2743 | 32 哈哈。:)恭喜发财!
下周买哪些小药股好?我今天退市一天,满手的金钱。 :) |
|
|
D*V 发帖数: 564 | 34 那您再给讲讲,现在还能买吗?目标价是什么?
谢谢!
someone' |
|
|
p**********e 发帖数: 703 | 36 If for short term, no; If for longer term, yes.... but choose a better in
time.....
It has been running up too fast, I personally will not chase such kind of
stocks...but I will hold my shares longer...
Good luck! |
|
|
p**********e 发帖数: 703 | 38 您是做大买卖的, 10万股俺都满足了。。。俺部不greedy... |
|
发帖数: 1 | 39 嗯,我在上个月,2.24的时候喊过一次,因为知道RNN要出临床结果所以进去的,结果
后面连着阴跌两天,我就知道不对劲就跑了。
后面就忘了RNN的事情了,今天在没有任何消息的情况下拉升了20%,看看周一会爆出什
么消息吧,有可能是药不错,如果药不错,可以跟进。 |
|
T********i 发帖数: 2416 | 40 昨天还和聊这个问题。RNN能模拟图灵机是90年代中期证明了的。不知道为啥花了这么
多年才火起来?
这个模拟图灵机是无限逼近。机理完全不同。图灵机内存是无限的。RNN模拟的代价是
什么?如何估计?这方面有论文么?是不是最后陷入堆机器的邪路?
据说谷歌的神经图灵机,只完成一项简单任务,拷贝字符串。
话说回来,真模拟成了又如何?假定模拟出一个完美大脑,样样都比人强。而且没有神
经病。用来干啥?搞不好还要训练它成一个程序员来写图灵机程序。。。 |
|
x****u 发帖数: 44466 | 41 话说RL成大器之前得搞定RNN吧。
现在CNN已经表现出人类水平之上的感知和学习能力了,但RNN还解决不了什么核心问题
,一个机器翻译也是狗屁不通。
了。 |
|
s********k 发帖数: 6180 | 42 不用LSTM,老式的RNN什么都记忆,很容易一团糟,LSTM之后RNN才开始真的实战效果好把
cell |
|
g****t 发帖数: 31659 | 43 Rnn和图灵机等价。我记得1995年science有个文章。
我本科做过rnn
: 如果机器人是神经网络,就不能死机啊,不是图灵机就可以做成确定停机的
|
|
x****u 发帖数: 44466 | 44 你记错了吧,RNN是更晚的概念,而且RNN有很多种,我印象中至少大部分都是有限循环
机的 |
|
g****t 发帖数: 31659 | 45 it is known that RNNs are Turing-Complete in the sense that they can to
simulate arbitrary programs (with proper weights). But similar to universal
approximation theorems for neural nets you shouldn’t read too much into
this. In fact, forget I said anything
这个blog作者引用的就是我说的那几个文章。
: RNN在哪里?
|
|
c*******v 发帖数: 2599 | 46 之前几年或者多年,我在本版聊过几点浅见。
一是universal turing machine
我抽屉里有一本2000年买的本科生教材。计算理论基础。harry R Lewis写的。5。2节
第一段:
"
In other words, we shall be thinking of the formalism of Turing machines as
a programming language,
in which we can write programs. Programs written in this language can then
be interpreted by a
universal Turing machine----that is to say, another program in the same
language.
"
二是这个trick在什么地方?
Self Interpret的技术在Kenneth Thompson的图灵奖lecture有一段描述。
这个讲座以前我引用过.
其实就是C语言的\n 和 \ \n .
[老邢这个垃圾站。两个斜杠n要写成4... 阅读全帖 |
|
w***g 发帖数: 5958 | 47 你想到的思路都没有问题。但是都太incremental不够糙快猛。
我自己觉得,你的bottleneck是在word2vec和sentence to vector
这个大框架上。不知道你具体sentence to vector是怎么做的,
但是如果是变成固定维数的vector,那就比较肯定是一个可以
有所突破的bottleneck。你可以试下基于CNN或者RNN的model。
你在这里找找看有没有能用的代码:
https://nlp.stanford.edu/sentiment/
不过在这之前,我建议试下xgboost。固定维度的数据分类,标准
做法就是xgboost。注意树的深度不要太高,2,3,4试一下就差不多了。
我觉得这个能帮你从68%提高到70%。
semisupervised learning实战非常risky,轻易不要浪费时间在上面。
上CNN/RNN,我估计做好了能到75%以上。80%很可能超过了数据
本身的难度。
还有,你让business重新tag,如果差异可以量化,这个是一个非常
好的指标。如果让人做都有多少多少差异,就别指望机器能做的更好了。
testing |
|
w***g 发帖数: 5958 | 48 你想到的思路都没有问题。但是都太incremental不够糙快猛。
我自己觉得,你的bottleneck是在word2vec和sentence to vector
这个大框架上。不知道你具体sentence to vector是怎么做的,
但是如果是变成固定维数的vector,那就比较肯定是一个可以
有所突破的bottleneck。你可以试下基于CNN或者RNN的model。
你在这里找找看有没有能用的代码:
https://nlp.stanford.edu/sentiment/
不过在这之前,我建议试下xgboost。固定维度的数据分类,标准
做法就是xgboost。注意树的深度不要太高,2,3,4试一下就差不多了。
我觉得这个能帮你从68%提高到70%。
semisupervised learning实战非常risky,轻易不要浪费时间在上面。
上CNN/RNN,我估计做好了能到75%以上。80%很可能超过了数据
本身的难度。
还有,你让business重新tag,如果差异可以量化,这个是一个非常
好的指标。如果让人做都有多少多少差异,就别指望机器能做的更好了。
testing |
|
g****t 发帖数: 31659 | 49 C手写从基本的math lib写到rnn,lstm我干过很多遍。
doable.
你们要买的话可以发消息给我。
你自己做的rnn将会有很多问题。这个坑比dnn深。 |
|
g****t 发帖数: 31659 | 50 LSTM手写体识别比alexnet早。但是没有美国公司背后宣传。
https://www.nytimes.com/2016/11/27/technology/artificial-intelligence-
pioneer-jurgen-schmidhuber-overlooked.html
www.nytimes.com/2016/11/27/technology/artificial-intelligence-pioneer-jurgen
-schmidhuber-overlooked.html
MY times软文2016才出来。RNN/LSTM goog translate突破。
辛顿也好,任何别人也好。写不了RNN/LSTM也就是反馈神经网络的review。 |
|