p*****2 发帖数: 21240 | | e*****t 发帖数: 1005 | 2 要我说,一台机器的memory handle不了就算了。现在的servers, 大概都有个384GB的内
存吧。
【在 p*****2 的大作中提到】 : roughly来说
| c****e 发帖数: 1453 | 3 真海量,至少200个机器的cluster处理才能算。一般来说,有个1T你要说海量也行吧。
average hadoop job处理不到10G的数据。 计算比数据更影响scalablity, 100T的数据
做个COUNT也远远比不上1T JOIN一把。 | p*****2 发帖数: 21240 | 4
大牛现在还在M吗?感觉你对外边的技术也比较熟呀。
【在 c****e 的大作中提到】 : 真海量,至少200个机器的cluster处理才能算。一般来说,有个1T你要说海量也行吧。 : average hadoop job处理不到10G的数据。 计算比数据更影响scalablity, 100T的数据 : 做个COUNT也远远比不上1T JOIN一把。
|
|