w***g 发帖数: 5958 | 1 现在titan xp还能拼专业计算卡。volta一出,必然没有对应性能的便宜游戏卡,
业余玩家穷一点的都得完蛋啦。 |
w*****r 发帖数: 197 | 2 建议囤几块刚出的Titan V,以后的消费级GPU很有可能就没有tensor core了。
https://news.ycombinator.com/item?id=16002068
也有可能老黄会在gamer和企业用户之间,为深学散户再开一条产品线。Titan V 3000
刀的价位看起来像这个套路。 |
w***g 发帖数: 5958 | 3 3000刀,一块都买不起。只能指望老黄出学生卡了。
话说博后可以去老黄那里申一个免费的titan xp玩。
:建议囤几块刚出的Titan V,以后的消费级GPU很有可能就没有tensor core了。
:https://news.ycombinator.com/item?id=16002068 |
g****t 发帖数: 31659 | 4 现在这些硬件支持大规模复数神经网吗?
【在 w***g 的大作中提到】 : 现在titan xp还能拼专业计算卡。volta一出,必然没有对应性能的便宜游戏卡, : 业余玩家穷一点的都得完蛋啦。
|
w***g 发帖数: 5958 | 5 应该没有硬件支持吧。负数线性代数有比实数本质上好的地方吗?
我一般就是模和角度拆成两个channel算了。
【在 g****t 的大作中提到】 : 现在这些硬件支持大规模复数神经网吗?
|
g****t 发帖数: 31659 | 6 LSTM的标准形式
c(t)=f*c(t-1)+... .....[1]
例如c有三个元素,x,y
f也有三个元素的,f1,f2
星号是element wise乘法.
不是矩阵.
这些元素之间的线性组合不能反映出来。
例如sin(t)的实数方程是:
x'=y
y’=-x
不fit in [1]
LSTM这样设计是为了对角元素小于1,对稳定性有一定帮助。
但是表示能力可能成问题。
这问题我用别的办法解决了。
但如果能用复数会好很多。比较方便.
【在 w***g 的大作中提到】 : 应该没有硬件支持吧。负数线性代数有比实数本质上好的地方吗? : 我一般就是模和角度拆成两个channel算了。
|
w***g 发帖数: 5958 | 7 现在的神经网络不是这样的。
RNN的话,f是矩阵,*是矩阵乘法。LSTM还要复杂的多。
外面还要再套几层普通网络。
【在 g****t 的大作中提到】 : LSTM的标准形式 : c(t)=f*c(t-1)+... .....[1] : 例如c有三个元素,x,y : f也有三个元素的,f1,f2 : 星号是element wise乘法. : 不是矩阵. : 这些元素之间的线性组合不能反映出来。 : 例如sin(t)的实数方程是: : x'=y : y’=-x
|
x****u 发帖数: 44466 | 8 老黄这个垄断地位其实很脆弱,沙丘上城堡
如果自己作死,倒塌会非常快
【在 w***g 的大作中提到】 : 3000刀,一块都买不起。只能指望老黄出学生卡了。 : 话说博后可以去老黄那里申一个免费的titan xp玩。 : : :建议囤几块刚出的Titan V,以后的消费级GPU很有可能就没有tensor core了。 : :https://news.ycombinator.com/item?id=16002068
|
L****8 发帖数: 3938 | 9 什么能替代? tpu? amd? intel?
【在 x****u 的大作中提到】 : 老黄这个垄断地位其实很脆弱,沙丘上城堡 : 如果自己作死,倒塌会非常快
|