C*****5 发帖数: 8812 | |
d********r 发帖数: 9331 | 2 1000不止,6888至少。
【在 C*****5 的大作中提到】 : 要有信仰。
|
T*********4 发帖数: 451 | |
p**********7 发帖数: 519 | |
t***l 发帖数: 3644 | |
m**********g 发帖数: 2705 | 6 哈,房哥给nvda upgrade了。
【在 C*****5 的大作中提到】 : 要有信仰。
|
w********9 发帖数: 8613 | 7 Year 2047, the year of their retirment when NVDA robots roam the world |
r*****e 发帖数: 7853 | 8 1000rmb
[在 CRH1235 (江左没狼) 的大作中提到:]
:要有信仰。
:☆ 发自 iPhone 买买提 1.23.01 |
y*********u 发帖数: 3664 | 9 房哥这是要刮浮夸风,亩产一万斤
话说如果他家能做成AI as platform还真说不定,但不看好,搞不过amazon/微软/
google
【在 m**********g 的大作中提到】 : 哈,房哥给nvda upgrade了。
|
C*****5 发帖数: 8812 | 10 所以说neng好了上1000嘛
只对上300比较有期待
【在 y*********u 的大作中提到】 : 房哥这是要刮浮夸风,亩产一万斤 : 话说如果他家能做成AI as platform还真说不定,但不看好,搞不过amazon/微软/ : google
|
|
|
a***w 发帖数: 63 | 11 季报图显示,这次有起色的是数据中心的收入:
static.seekingalpha.com/uploads/2017/5/10/30029595-14944279929749036.png
CRH1235 可否说说NVDA的增长潜力在哪里?:
1.数据中心使用GPU 的数量有限。NVDA 电话会议提到主要是: AWS, Facebook,
Google, IBM, and Microsoft as well as Alibaba, Baidu, and Tencent。这些公司
现在已经购置了足够数量的GPU。因此,数据中心对GPU的需求会不会饱和?
2. GPU 只做training, 不做inferencing. 这样机会少了很多, 这两者需求可能有很多
数量级的差别,好似对一个车壳模子的需求与大批生产车壳数量上的区别。
老黄在会上说inferencing is a zero opportunity for us. We do 0% of our
business in inferencing, and it's 100% on CPUs. |
y*********u 发帖数: 3664 | 12 1.GPU不可能饱和,平时做training大家基本时间都花在等job完成,再多GPU也不嫌多
不嫌快。关键取决于各个公司愿意投入多少钱
2.初了training,serving也能用到GPU,尤其是model很复杂时候。比如自动驾驶
我对NVDA一年内的期望是150,再往后要看看市场
【在 a***w 的大作中提到】 : 季报图显示,这次有起色的是数据中心的收入: : static.seekingalpha.com/uploads/2017/5/10/30029595-14944279929749036.png : CRH1235 可否说说NVDA的增长潜力在哪里?: : 1.数据中心使用GPU 的数量有限。NVDA 电话会议提到主要是: AWS, Facebook, : Google, IBM, and Microsoft as well as Alibaba, Baidu, and Tencent。这些公司 : 现在已经购置了足够数量的GPU。因此,数据中心对GPU的需求会不会饱和? : 2. GPU 只做training, 不做inferencing. 这样机会少了很多, 这两者需求可能有很多 : 数量级的差别,好似对一个车壳模子的需求与大批生产车壳数量上的区别。 : 老黄在会上说inferencing is a zero opportunity for us. We do 0% of our : business in inferencing, and it's 100% on CPUs.
|
a***w 发帖数: 63 | 13 我用了“饱和” ,容易造成误解。我的意思是,NVDA提到的数据中心已经配置了按计
划该配置的GPU,很可能下一个季度的报表,数据中心的增长不会这么好看了。
如上所说,对GPU的需求与CPU的需求远不在几个数量级,好似对一个车壳模子的需求与
大批生产车壳数量上的区别。serving的使用量能达到明显改变数量使报表好看吗。除
了training和serving是否还有其他AI显著应用GPU的吗?
【在 y*********u 的大作中提到】 : 1.GPU不可能饱和,平时做training大家基本时间都花在等job完成,再多GPU也不嫌多 : 不嫌快。关键取决于各个公司愿意投入多少钱 : 2.初了training,serving也能用到GPU,尤其是model很复杂时候。比如自动驾驶 : 我对NVDA一年内的期望是150,再往后要看看市场
|
l*******m 发帖数: 1096 | 14 fb ai research几十个人,去年买了1000个p100
【在 a***w 的大作中提到】 : 季报图显示,这次有起色的是数据中心的收入: : static.seekingalpha.com/uploads/2017/5/10/30029595-14944279929749036.png : CRH1235 可否说说NVDA的增长潜力在哪里?: : 1.数据中心使用GPU 的数量有限。NVDA 电话会议提到主要是: AWS, Facebook, : Google, IBM, and Microsoft as well as Alibaba, Baidu, and Tencent。这些公司 : 现在已经购置了足够数量的GPU。因此,数据中心对GPU的需求会不会饱和? : 2. GPU 只做training, 不做inferencing. 这样机会少了很多, 这两者需求可能有很多 : 数量级的差别,好似对一个车壳模子的需求与大批生产车壳数量上的区别。 : 老黄在会上说inferencing is a zero opportunity for us. We do 0% of our : business in inferencing, and it's 100% on CPUs.
|
s***d 发帖数: 15421 | 15 谁说老黄不高interference? 已经说了要弄,要和fpga, tpu一决高下.
【在 a***w 的大作中提到】 : 我用了“饱和” ,容易造成误解。我的意思是,NVDA提到的数据中心已经配置了按计 : 划该配置的GPU,很可能下一个季度的报表,数据中心的增长不会这么好看了。 : 如上所说,对GPU的需求与CPU的需求远不在几个数量级,好似对一个车壳模子的需求与 : 大批生产车壳数量上的区别。serving的使用量能达到明显改变数量使报表好看吗。除 : 了training和serving是否还有其他AI显著应用GPU的吗?
|
C*****5 发帖数: 8812 | 16 DLA
【在 s***d 的大作中提到】 : 谁说老黄不高interference? 已经说了要弄,要和fpga, tpu一决高下.
|
F****s 发帖数: 3761 | 17 Google最会玩这一套了,自己开个头,让别人去拼命。
【在 s***d 的大作中提到】 : 谁说老黄不高interference? 已经说了要弄,要和fpga, tpu一决高下.
|
m*****n 发帖数: 1631 | 18 我也看过transcript,有关"inferencing"那一段你理解错了,老黄讲的是inferencing
的现状而已,没放弃。
【在 a***w 的大作中提到】 : 季报图显示,这次有起色的是数据中心的收入: : static.seekingalpha.com/uploads/2017/5/10/30029595-14944279929749036.png : CRH1235 可否说说NVDA的增长潜力在哪里?: : 1.数据中心使用GPU 的数量有限。NVDA 电话会议提到主要是: AWS, Facebook, : Google, IBM, and Microsoft as well as Alibaba, Baidu, and Tencent。这些公司 : 现在已经购置了足够数量的GPU。因此,数据中心对GPU的需求会不会饱和? : 2. GPU 只做training, 不做inferencing. 这样机会少了很多, 这两者需求可能有很多 : 数量级的差别,好似对一个车壳模子的需求与大批生产车壳数量上的区别。 : 老黄在会上说inferencing is a zero opportunity for us. We do 0% of our : business in inferencing, and it's 100% on CPUs.
|
T*******a 发帖数: 23033 | 19 我草,饱和的说法都是扯淡,尼玛有好的东东出来一下子就把饱和冲掉了。 |
C*****5 发帖数: 8812 | |
|
|
d********r 发帖数: 9331 | 21 1000不止,6888至少。
【在 C*****5 的大作中提到】 : 要有信仰。
|
T*********4 发帖数: 451 | |
p**********7 发帖数: 519 | |
t***l 发帖数: 3644 | |
m**********g 发帖数: 2705 | 25 哈,房哥给nvda upgrade了。
【在 C*****5 的大作中提到】 : 要有信仰。
|
w********9 发帖数: 8613 | 26 Year 2047, the year of their retirment when NVDA robots roam the world |
r*****e 发帖数: 7853 | 27 1000rmb
[在 CRH1235 (江左没狼) 的大作中提到:]
:要有信仰。
:☆ 发自 iPhone 买买提 1.23.01 |
y*********u 发帖数: 3664 | 28 房哥这是要刮浮夸风,亩产一万斤
话说如果他家能做成AI as platform还真说不定,但不看好,搞不过amazon/微软/
google
【在 m**********g 的大作中提到】 : 哈,房哥给nvda upgrade了。
|
C*****5 发帖数: 8812 | 29 所以说neng好了上1000嘛
只对上300比较有期待
【在 y*********u 的大作中提到】 : 房哥这是要刮浮夸风,亩产一万斤 : 话说如果他家能做成AI as platform还真说不定,但不看好,搞不过amazon/微软/ : google
|
a***w 发帖数: 63 | 30 季报图显示,这次有起色的是数据中心的收入:
static.seekingalpha.com/uploads/2017/5/10/30029595-14944279929749036.png
CRH1235 可否说说NVDA的增长潜力在哪里?:
1.数据中心使用GPU 的数量有限。NVDA 电话会议提到主要是: AWS, Facebook,
Google, IBM, and Microsoft as well as Alibaba, Baidu, and Tencent。这些公司
现在已经购置了足够数量的GPU。因此,数据中心对GPU的需求会不会饱和?
2. GPU 只做training, 不做inferencing. 这样机会少了很多, 这两者需求可能有很多
数量级的差别,好似对一个车壳模子的需求与大批生产车壳数量上的区别。
老黄在会上说inferencing is a zero opportunity for us. We do 0% of our
business in inferencing, and it's 100% on CPUs. |
|
|
y*********u 发帖数: 3664 | 31 1.GPU不可能饱和,平时做training大家基本时间都花在等job完成,再多GPU也不嫌多
不嫌快。关键取决于各个公司愿意投入多少钱
2.初了training,serving也能用到GPU,尤其是model很复杂时候。比如自动驾驶
我对NVDA一年内的期望是150,再往后要看看市场
【在 a***w 的大作中提到】 : 季报图显示,这次有起色的是数据中心的收入: : static.seekingalpha.com/uploads/2017/5/10/30029595-14944279929749036.png : CRH1235 可否说说NVDA的增长潜力在哪里?: : 1.数据中心使用GPU 的数量有限。NVDA 电话会议提到主要是: AWS, Facebook, : Google, IBM, and Microsoft as well as Alibaba, Baidu, and Tencent。这些公司 : 现在已经购置了足够数量的GPU。因此,数据中心对GPU的需求会不会饱和? : 2. GPU 只做training, 不做inferencing. 这样机会少了很多, 这两者需求可能有很多 : 数量级的差别,好似对一个车壳模子的需求与大批生产车壳数量上的区别。 : 老黄在会上说inferencing is a zero opportunity for us. We do 0% of our : business in inferencing, and it's 100% on CPUs.
|
a***w 发帖数: 63 | 32 我用了“饱和” ,容易造成误解。我的意思是,NVDA提到的数据中心已经配置了按计
划该配置的GPU,很可能下一个季度的报表,数据中心的增长不会这么好看了。
如上所说,对GPU的需求与CPU的需求远不在几个数量级,好似对一个车壳模子的需求与
大批生产车壳数量上的区别。serving的使用量能达到明显改变数量使报表好看吗。除
了training和serving是否还有其他AI显著应用GPU的吗?
【在 y*********u 的大作中提到】 : 1.GPU不可能饱和,平时做training大家基本时间都花在等job完成,再多GPU也不嫌多 : 不嫌快。关键取决于各个公司愿意投入多少钱 : 2.初了training,serving也能用到GPU,尤其是model很复杂时候。比如自动驾驶 : 我对NVDA一年内的期望是150,再往后要看看市场
|
l*******m 发帖数: 1096 | 33 fb ai research几十个人,去年买了1000个p100
【在 a***w 的大作中提到】 : 季报图显示,这次有起色的是数据中心的收入: : static.seekingalpha.com/uploads/2017/5/10/30029595-14944279929749036.png : CRH1235 可否说说NVDA的增长潜力在哪里?: : 1.数据中心使用GPU 的数量有限。NVDA 电话会议提到主要是: AWS, Facebook, : Google, IBM, and Microsoft as well as Alibaba, Baidu, and Tencent。这些公司 : 现在已经购置了足够数量的GPU。因此,数据中心对GPU的需求会不会饱和? : 2. GPU 只做training, 不做inferencing. 这样机会少了很多, 这两者需求可能有很多 : 数量级的差别,好似对一个车壳模子的需求与大批生产车壳数量上的区别。 : 老黄在会上说inferencing is a zero opportunity for us. We do 0% of our : business in inferencing, and it's 100% on CPUs.
|
s***d 发帖数: 15421 | 34 谁说老黄不高interference? 已经说了要弄,要和fpga, tpu一决高下.
【在 a***w 的大作中提到】 : 我用了“饱和” ,容易造成误解。我的意思是,NVDA提到的数据中心已经配置了按计 : 划该配置的GPU,很可能下一个季度的报表,数据中心的增长不会这么好看了。 : 如上所说,对GPU的需求与CPU的需求远不在几个数量级,好似对一个车壳模子的需求与 : 大批生产车壳数量上的区别。serving的使用量能达到明显改变数量使报表好看吗。除 : 了training和serving是否还有其他AI显著应用GPU的吗?
|
C*****5 发帖数: 8812 | 35 DLA
【在 s***d 的大作中提到】 : 谁说老黄不高interference? 已经说了要弄,要和fpga, tpu一决高下.
|
m*****n 发帖数: 1631 | 36 我也看过transcript,有关"inferencing"那一段你理解错了,老黄讲的是inferencing
的现状而已,没放弃。
【在 a***w 的大作中提到】 : 季报图显示,这次有起色的是数据中心的收入: : static.seekingalpha.com/uploads/2017/5/10/30029595-14944279929749036.png : CRH1235 可否说说NVDA的增长潜力在哪里?: : 1.数据中心使用GPU 的数量有限。NVDA 电话会议提到主要是: AWS, Facebook, : Google, IBM, and Microsoft as well as Alibaba, Baidu, and Tencent。这些公司 : 现在已经购置了足够数量的GPU。因此,数据中心对GPU的需求会不会饱和? : 2. GPU 只做training, 不做inferencing. 这样机会少了很多, 这两者需求可能有很多 : 数量级的差别,好似对一个车壳模子的需求与大批生产车壳数量上的区别。 : 老黄在会上说inferencing is a zero opportunity for us. We do 0% of our : business in inferencing, and it's 100% on CPUs.
|
T*******a 发帖数: 23033 | 37 我草,饱和的说法都是扯淡,尼玛有好的东东出来一下子就把饱和冲掉了。 |
g*********9 发帖数: 1285 | 38 不能不顶
【在 C*****5 的大作中提到】 : 要有信仰。
|
p**********7 发帖数: 519 | |
t*********e 发帖数: 540 | 40 话说的的确满了一些,但的确nvda也曾快要到300 |