由买买提看人间百态

boards

本页内容为未名空间相应帖子的节选和存档,一周内的贴子最多显示50字,超过一周显示500字 访问原贴
Programming版 - 想请教魏老师一个方案中的理解问题。
相关主题
Goodbug,是不是单机大于1 million/s的I/O你就输了?其实就是两党党争
清净版:写一个Complete Failover Handbook吧这坑实在没劲,都是些嘴炮王
应该给魏大师发10个图灵奖。让老弱残疾扛着打包换车厢还是人吗?
我的实测结果,纯计算每秒50M次interlocked.increment弱问:1us包含packet在网卡里和kernel里处理的时间吗?
魏老师聊聊FPGA吧魏老师偷偷地通过加core和网卡来升级自己的系统
顺便和nod101说说做产品废话少说,单机500万次每秒
魏公公把吹的牛逼给圆了吧,我就看到魏公公下面没有了。干活到了一个阶段,刚搞定一个东西,上来总结一下老魏
Consistency做好了不容易qxc,我接招了,你给的要求太弱的,给你加强了
相关话题的讨论汇总
话题: 10g话题: 网卡话题: cpu话题: 写盘话题: 单机
进入Programming版参与讨论
1 (共1页)
S*A
发帖数: 7142
1
这个我一直没有搞懂,虚心请教。
你的方案里面,订单 ACK 的时候到底数据有没有确保
写到硬盘上了?(SSD 归类为快的硬盘)。
如果没有的话网络全部机器停电然后重启,就会
有订单丢失了。
这个不是 Fail Over 的问题,而是订单买出去了
不能丢掉的问题。
可不可以再解释一下。真的是没理解到精髓。
g*****g
发帖数: 34805
2
这个我跟你说了吧,他是异步写盘,量大的时候没存就ack了。他希望通过网络备份来
达到
同样的目的。但是网络是会断的。

【在 S*A 的大作中提到】
: 这个我一直没有搞懂,虚心请教。
: 你的方案里面,订单 ACK 的时候到底数据有没有确保
: 写到硬盘上了?(SSD 归类为快的硬盘)。
: 如果没有的话网络全部机器停电然后重启,就会
: 有订单丢失了。
: 这个不是 Fail Over 的问题,而是订单买出去了
: 不能丢掉的问题。
: 可不可以再解释一下。真的是没理解到精髓。

T********i
发帖数: 2416
3
不保证写盘。其实现实中这么大的latency,几乎肯定是写进去了。
因为如果订单ACK到达web客户那边。那就是整个transaction的消息从request到ACK在
所有DC的主机里travel一圈。
这可是横跨广大地区的多台机器。要他们都毁掉才会对不上帐。
假设就是这些机器都死掉了,是世界末日。

【在 S*A 的大作中提到】
: 这个我一直没有搞懂,虚心请教。
: 你的方案里面,订单 ACK 的时候到底数据有没有确保
: 写到硬盘上了?(SSD 归类为快的硬盘)。
: 如果没有的话网络全部机器停电然后重启,就会
: 有订单丢失了。
: 这个不是 Fail Over 的问题,而是订单买出去了
: 不能丢掉的问题。
: 可不可以再解释一下。真的是没理解到精髓。

S*A
发帖数: 7142
4
哦,那我明白了。
也就是说你的方案是不考虑后台所有机器同时断电然后重启的
这种情况的。
谢谢解释。

【在 T********i 的大作中提到】
: 不保证写盘。其实现实中这么大的latency,几乎肯定是写进去了。
: 因为如果订单ACK到达web客户那边。那就是整个transaction的消息从request到ACK在
: 所有DC的主机里travel一圈。
: 这可是横跨广大地区的多台机器。要他们都毁掉才会对不上帐。
: 假设就是这些机器都死掉了,是世界末日。

T********i
发帖数: 2416
5
这些机器横跨多个data center。就是要保证可靠性。
碰到同时断电这种情况,大家都死的很惨。

【在 S*A 的大作中提到】
: 哦,那我明白了。
: 也就是说你的方案是不考虑后台所有机器同时断电然后重启的
: 这种情况的。
: 谢谢解释。

z****e
发帖数: 54598
6
那就是没辙了对不对?
所以持久化能够解决这个问题
比你这种纯粹内存操作的强一万倍

【在 T********i 的大作中提到】
: 这些机器横跨多个data center。就是要保证可靠性。
: 碰到同时断电这种情况,大家都死的很惨。

g*****g
发帖数: 34805
7
错,我的方案,同时断电也不丢单。丢正在处理的单子没什么,
你丢的是百万级来不及写盘的历史单子,说成功了的。

【在 T********i 的大作中提到】
: 这些机器横跨多个data center。就是要保证可靠性。
: 碰到同时断电这种情况,大家都死的很惨。

S*A
发帖数: 7142
8
其实没有必要纠缠网络断的问题,网络只是硬盘的延伸。
我最关心的是大家一起断电的时候。一断电没有写到硬盘的就都消失了。
我就是想搞清楚魏老师的方案是能不能处理这种情况。
结论似乎是不可以。

【在 g*****g 的大作中提到】
: 这个我跟你说了吧,他是异步写盘,量大的时候没存就ack了。他希望通过网络备份来
: 达到
: 同样的目的。但是网络是会断的。

T********i
发帖数: 2416
9
再打你的脸就烂了。
你也说了你的Cassandra不同步写盘。还在用机械硬盘。完成的单子也可能没有sync。
况且,一个订单可能写多个记录。又不是atomic的。
在sync这个问题上你要被打多少次脸?
而且,我的系统也可以同步写SSD。

【在 g*****g 的大作中提到】
: 错,我的方案,同时断电也不丢单。丢正在处理的单子没什么,
: 你丢的是百万级来不及写盘的历史单子,说成功了的。

g*****g
发帖数: 34805
10
对,所以敏感的数据,最少都是同步写盘,异步复制。同时掉电不丢数据,+一个盘坏
,最多也不过
丢异步没来得及复制的数据。魏老师丢的就多了。

【在 S*A 的大作中提到】
: 其实没有必要纠缠网络断的问题,网络只是硬盘的延伸。
: 我最关心的是大家一起断电的时候。一断电没有写到硬盘的就都消失了。
: 我就是想搞清楚魏老师的方案是能不能处理这种情况。
: 结论似乎是不可以。

相关主题
顺便和nod101说说做产品其实就是两党党争
魏公公把吹的牛逼给圆了吧,我就看到魏公公下面没有了。这坑实在没劲,都是些嘴炮王
Consistency做好了不容易让老弱残疾扛着打包换车厢还是人吗?
进入Programming版参与讨论
g*****g
发帖数: 34805
11
一个单子为啥不能写一行?你这个说得完全没有道理。你对sync意见很大,我把那个
sync delya设成0,慢10倍,3000台机器来顶,这下你满意了吧?

【在 T********i 的大作中提到】
: 再打你的脸就烂了。
: 你也说了你的Cassandra不同步写盘。还在用机械硬盘。完成的单子也可能没有sync。
: 况且,一个订单可能写多个记录。又不是atomic的。
: 在sync这个问题上你要被打多少次脸?
: 而且,我的系统也可以同步写SSD。

S*A
发帖数: 7142
12
我同意这个应该是个基本要求。
而且丢单比系统 down 掉,来不及 fail over 还要糟糕。
不能实现保证断电不丢单的系统我觉得就不能用。
T********i
发帖数: 2416
13
这样好了。我每个DC反正就放一台机器。每台机器才1万美金出头。
我每台机器上加一块9 million IOPS的SSD同步写盘好不好?
这样还有啥问题?
g*****g
发帖数: 34805
14
还是没解决网断,加DC着火的问题呀。

【在 T********i 的大作中提到】
: 这样好了。我每个DC反正就放一台机器。每台机器才1万美金出头。
: 我每台机器上加一块9 million IOPS的SSD同步写盘好不好?
: 这样还有啥问题?

T********i
发帖数: 2416
15
你这样就无耻了。你弱智的话可以认为我的设计什么都没解决。
除了你,还有人弱智到敢说没解决么?

【在 g*****g 的大作中提到】
: 还是没解决网断,加DC着火的问题呀。
g*****g
发帖数: 34805
16
我问你一个timeout设置,你打死都憋不出来。还设计个屁呀?

【在 T********i 的大作中提到】
: 你这样就无耻了。你弱智的话可以认为我的设计什么都没解决。
: 除了你,还有人弱智到敢说没解决么?

T********i
发帖数: 2416
17
你再去找一个和你一样弱智的到这里来支持你提的那两个问题。我就算你赢了好不好?

【在 g*****g 的大作中提到】
: 我问你一个timeout设置,你打死都憋不出来。还设计个屁呀?
S*A
发帖数: 7142
18
这个单机的问题我其实不想纠结太深,没有意义。
单机性能如何强,终究是有比较明的上限的。
反复争论这个上限画在哪里是没有意义的。
因为这是个比较硬的上限,出了这个上限以后
整个系统就要从新规划,这个是硬伤。
g*****g
发帖数: 34805
19
你丢人丢到家了,口口声声failover设计,最后连timeout都不敢设置。
设置不了timeout,就没法判断网络断没,还设计个屁呀。

【在 T********i 的大作中提到】
: 你再去找一个和你一样弱智的到这里来支持你提的那两个问题。我就算你赢了好不好?
T********i
发帖数: 2416
20
按照我给定的问题的限制条件(紧耦合数据),这是世界上性能最好的方案了。
没有之一。而且,现实中,任何系统都有可能出上限。又不会死,只不过用户
多等一会儿。
我这个方案,每天500万张票在1秒中内出完。1000万张2秒钟内出完。
卖银河系的票我没那个本事。卖天朝的票根本是一个大材小用的系统。

【在 S*A 的大作中提到】
: 这个单机的问题我其实不想纠结太深,没有意义。
: 单机性能如何强,终究是有比较明的上限的。
: 反复争论这个上限画在哪里是没有意义的。
: 因为这是个比较硬的上限,出了这个上限以后
: 整个系统就要从新规划,这个是硬伤。

相关主题
弱问:1us包含packet在网卡里和kernel里处理的时间吗?干活到了一个阶段,刚搞定一个东西,上来总结一下老魏
魏老师偷偷地通过加core和网卡来升级自己的系统qxc,我接招了,你给的要求太弱的,给你加强了
废话少说,单机500万次每秒解决点实际问题,网络拷贝硬盘
进入Programming版参与讨论
S*A
发帖数: 7142
21
我对划上限的事情不是很感兴趣。
不过有些上限还是可以划一下的。
那个 单机 4 x 10G = 40G 的网络带宽不能这末来玩的。
最一个很明显的上限是 DDR3 内存的速度。
你的网卡是不能直接到 CPU cache 的,要先 DMA 到
内存,然后 CPU 从内存读入。因为内容是从外部进来的,
这个一定是 cache miss. 然后 CPU 发数据需要写内存,
然后才是网卡从内存 DMA 。一进一出至少要 4 次访问
内存。
现在的 DDR3 是 6.4G 理论极限,(这个我不是很确定
最新的数字)。就算有 3 个 channel 满负荷运转。
6.4 * 3 / 4 也就是大概 4G 左右。这个还不算 CPU
其他的内存访问。 所以那 4 个 10G 网卡是白给的。
单机系统处理不了这么多流量。
实际测量 10G 网卡也是不能单机接近 10G 上限的。
回到写硬盘这件事,你要确保进来的流量的数据可以用
这个带宽写进去。而且每次必须写完才能网络 ACK 这个单子。
这样其实会大大降低你的延时。写 SCSI 或着 SATA 都要
包装成 SCSI command。确保数据写到磁盘需要等磁盘控制
器的中断(或者 spin poll)。
这个我没有仔细算,但是我真的没有什么把握你的单机
方案没有触犯这些基本的上限。

【在 T********i 的大作中提到】
: 按照我给定的问题的限制条件(紧耦合数据),这是世界上性能最好的方案了。
: 没有之一。而且,现实中,任何系统都有可能出上限。又不会死,只不过用户
: 多等一会儿。
: 我这个方案,每天500万张票在1秒中内出完。1000万张2秒钟内出完。
: 卖银河系的票我没那个本事。卖天朝的票根本是一个大材小用的系统。

T********i
发帖数: 2416
22
好!很高兴能和你交流。
你这个算法没啥大问题。有几点可以探讨。
1. 其实我只想20G进,20G出。是全双工。
2. Xeon是quad channel 256 bit。
3. Sandy bridge能够直接PCI - L3 cache I/O。
4. Sandy bridge L3 cache 是 full speed。
5. 假定只用5G,message size 256 byte,还能有2.5M messages/second。
6. 用dual socket sandy bridge,每个CPU都有一条IOH PCI lane。
Need I say more?
T********i
发帖数: 2416
23
SSD写盘。fusion I/O。
http://www.fusionio.com/press-releases/fusion-io-achieves-more-
The 9.6 million IOPS was accomplished with Auto-Commit Memory, which
maintains the persistence of flash at performance levels in the nanoseconds,
running on directFS. A nonvolatile memory optimized file system developed
by Fusion-io, directFS eliminates duplicate work between the host file
system and flash memory management software. The performance numbers were
achieved utilizing single threaded, single queue depth 64 byte writes to the
Auto-Commit Memory log.
w*******r
发帖数: 34
24
这个真心觉得不能算需求,老魏之前那个failover的帖子里有一句话很赞,写到硬盘和
写到其他机器的内存其实是一个意思,只是很多人观念上没办法接收。
@TeacherWei, 目前说的都是单机能抗住,假如一定扩展到几台机器同时做primary
appserver,怎么样来实现票的信息共享呢?本来都在一台机器的内存里的。谢啦

【在 S*A 的大作中提到】
: 哦,那我明白了。
: 也就是说你的方案是不考虑后台所有机器同时断电然后重启的
: 这种情况的。
: 谢谢解释。

b*******s
发帖数: 5216
25
这个我也觉得很受启发,一下子碰到了一些本质的东西

【在 w*******r 的大作中提到】
: 这个真心觉得不能算需求,老魏之前那个failover的帖子里有一句话很赞,写到硬盘和
: 写到其他机器的内存其实是一个意思,只是很多人观念上没办法接收。
: @TeacherWei, 目前说的都是单机能抗住,假如一定扩展到几台机器同时做primary
: appserver,怎么样来实现票的信息共享呢?本来都在一台机器的内存里的。谢啦

T********i
发帖数: 2416
26
呵呵。谬赞!不敢当。
你这个我已经没精力去思考了。更何况讨论了。
不过直觉是,如果数据紧耦合还不如单机。

【在 w*******r 的大作中提到】
: 这个真心觉得不能算需求,老魏之前那个failover的帖子里有一句话很赞,写到硬盘和
: 写到其他机器的内存其实是一个意思,只是很多人观念上没办法接收。
: @TeacherWei, 目前说的都是单机能抗住,假如一定扩展到几台机器同时做primary
: appserver,怎么样来实现票的信息共享呢?本来都在一台机器的内存里的。谢啦

w*******r
发帖数: 34
27
的确,老魏给的法子为啥会有这么大的争议,我觉得最主要原因就是在扩展性和稳定性
的实现上,跟大多数人的认识不一致。
goodbug那个法子是大多数人的都会选择的路,架构分层,数据分区,单机不够就依靠
软件的支持搞分布式,再不行就上云平台,反正大家都这么做,尤其是做网站的,简直
是固定的路子,好不好?挺好的,省心可靠,麻烦都丢给第三方软件商了。
但老魏的法子更有意思,而且看得出他给的思路很多都是已经实现出来的,只是板上众
多平时没机会接触他那类应用,所以显得有点另类,真心觉得他讲了个事实,再上分布
式之前,单机的性能有没有榨取干净?

【在 b*******s 的大作中提到】
: 这个我也觉得很受启发,一下子碰到了一些本质的东西
S*A
发帖数: 7142
28

对,技术讨论我很喜欢。
实际上如果有 CPU 需要处理每一个数据包的话,
到不了 10G, 5G 就很吃力了。10G 测试那种
是盲发盲收,没有真正读写数据的。
quad channel 拉,256 bit 已经折算到 DDR3 的 6.4G 里面了。
但是网卡的 SG list 里面必须要填一个物理地址,就是内存的地址。
没法填 L3 cache 地址。如果哪里有 Linux driver 填了 Cache 地址
请指给我看。 我估计这些功能是保留给显卡的缓存用的。
还是要进出内存 4 次, 至少。
256 byte 到不了 2.5M frame/sec。 那个是理想状态。10G 网卡只有用最大的
frame size 才能达到速度极限,frame rate 是有上限的。
256 bytes 只有 0.7M frame / sec。网卡官方测试都是用 jumbo frame 或者
1.5K frame。这样你的 5G 只有 1.xG。
看这个:
http://docs.rodecker.nl/10-GE_Routing_on_Linux.pdf
deal socket 对 memory 来说没有帮助,不同 CPU 要抢 memory 总线。
Yes, please :-)

【在 T********i 的大作中提到】
: 好!很高兴能和你交流。
: 你这个算法没啥大问题。有几点可以探讨。
: 1. 其实我只想20G进,20G出。是全双工。
: 2. Xeon是quad channel 256 bit。
: 3. Sandy bridge能够直接PCI - L3 cache I/O。
: 4. Sandy bridge L3 cache 是 full speed。
: 5. 假定只用5G,message size 256 byte,还能有2.5M messages/second。
: 6. 用dual socket sandy bridge,每个CPU都有一条IOH PCI lane。
: Need I say more?

z****e
发帖数: 54598
29
现在硬件便宜得跟什么一样的
你这样搞不累么?
当年买个内存还斤斤计较了半天
现在呢?老魏就是思维方式还停留在十年前
以为硬件还很贵
说了还不乐意,要告我老板,把我今天一天的心情都点亮了

【在 w*******r 的大作中提到】
: 的确,老魏给的法子为啥会有这么大的争议,我觉得最主要原因就是在扩展性和稳定性
: 的实现上,跟大多数人的认识不一致。
: goodbug那个法子是大多数人的都会选择的路,架构分层,数据分区,单机不够就依靠
: 软件的支持搞分布式,再不行就上云平台,反正大家都这么做,尤其是做网站的,简直
: 是固定的路子,好不好?挺好的,省心可靠,麻烦都丢给第三方软件商了。
: 但老魏的法子更有意思,而且看得出他给的思路很多都是已经实现出来的,只是板上众
: 多平时没机会接触他那类应用,所以显得有点另类,真心觉得他讲了个事实,再上分布
: 式之前,单机的性能有没有榨取干净?

S*A
发帖数: 7142
30
这个就是超级牛的硬盘了,赞。
归根到底还是要刷硬盘够快才行..

nanoseconds,
the

【在 T********i 的大作中提到】
: SSD写盘。fusion I/O。
: http://www.fusionio.com/press-releases/fusion-io-achieves-more-
: The 9.6 million IOPS was accomplished with Auto-Commit Memory, which
: maintains the persistence of flash at performance levels in the nanoseconds,
: running on directFS. A nonvolatile memory optimized file system developed
: by Fusion-io, directFS eliminates duplicate work between the host file
: system and flash memory management software. The performance numbers were
: achieved utilizing single threaded, single queue depth 64 byte writes to the
: Auto-Commit Memory log.

相关主题
这个版看来是毁了清净版:写一个Complete Failover Handbook吧
机械硬盘的物理极限应该给魏大师发10个图灵奖。
Goodbug,是不是单机大于1 million/s的I/O你就输了?我的实测结果,纯计算每秒50M次interlocked.increment
进入Programming版参与讨论
T********i
发帖数: 2416
31
我用的是Solarflare card。
可以负责地讲。从Nehalem开始,10G接近峰值就不是问题了。
但是双10G,还是要靠Sandy Bridge。
我的方案也是把技术推到极限了。
毕竟三年时间Intel做了很多。不是啥都没做。

【在 S*A 的大作中提到】
: 这个就是超级牛的硬盘了,赞。
: 归根到底还是要刷硬盘够快才行..
:
: nanoseconds,
: the

w*******r
发帖数: 34
32
老魏你这风格真有点挑战主流文化的意思啊,哈哈,这是要说明绝大多数上分布式的都
属于脱裤子放屁,为自己不可靠的实现寻求心理安慰啊,哈哈。
我相信你提到的东西大部分都是做出来的,可惜没机会看到,可惜可惜啦。

【在 T********i 的大作中提到】
: 呵呵。谬赞!不敢当。
: 你这个我已经没精力去思考了。更何况讨论了。
: 不过直觉是,如果数据紧耦合还不如单机。

S*A
发帖数: 7142
33
这个要看场合。如果是 FB 应用大概是足够好了,大不了丢个消息。
买票是绝对不能丢票的,尤其是已经买出去票。尤其不能因为断电而
丢票,这个真的是非常基本的要求。
我也是看魏老师的设计很有意思所以才来挖深点的。
你注意如果可以丢票和不可以丢票两个的难度是玩全
不一样的吗?
这里有几个基本瓶颈要解决,网络是一个,硬盘存储是一个。
所白了,我想大家多讨论点各自方案的 assumption 和 局限性
在哪里,这个是我主要挖的方向。气头上的话还是少说一点,提高
信噪比。
谢谢。

【在 w*******r 的大作中提到】
: 这个真心觉得不能算需求,老魏之前那个failover的帖子里有一句话很赞,写到硬盘和
: 写到其他机器的内存其实是一个意思,只是很多人观念上没办法接收。
: @TeacherWei, 目前说的都是单机能抗住,假如一定扩展到几台机器同时做primary
: appserver,怎么样来实现票的信息共享呢?本来都在一台机器的内存里的。谢啦

w*******r
发帖数: 34
34
我明白你意思,追着一台机器搞有点纯属没事找事,对不?早早上的云里,大家都省事
, 哈哈。
要实际动手做,你之前的那些回复都靠铺,说法也没错。但有个问题,不是什么应用都
能往云里搁的,没走到云那一步之前怎么办?咱不是在走项目,早早交付了收款了事,
这不是在说纯技术实现么?
再退一步讲,不卖火车票了,搁到其他应用上,老魏的路子是有很大借鉴意义的。你要
是nasa搞火星车的那帮人,难不成还背个云上火星么?再或者要在google做东西,也能
跟大老板说咱不行就放aws上去跑吧。呵呵,真到这种时候了,老魏的路子就是正路了
,万事靠自己,没有第三方。

【在 z****e 的大作中提到】
: 现在硬件便宜得跟什么一样的
: 你这样搞不累么?
: 当年买个内存还斤斤计较了半天
: 现在呢?老魏就是思维方式还停留在十年前
: 以为硬件还很贵
: 说了还不乐意,要告我老板,把我今天一天的心情都点亮了

T********i
发帖数: 2416
35
他这种屎一样的懂什么?
金融,工业控制,LHC加速器,核电,宇航,军事,有很多需求差几个microsecond就可
能致命的。
铁老大不讲用户体验。电子商务还讲呢。这人一个混混,就是出来卖的。

【在 w*******r 的大作中提到】
: 我明白你意思,追着一台机器搞有点纯属没事找事,对不?早早上的云里,大家都省事
: , 哈哈。
: 要实际动手做,你之前的那些回复都靠铺,说法也没错。但有个问题,不是什么应用都
: 能往云里搁的,没走到云那一步之前怎么办?咱不是在走项目,早早交付了收款了事,
: 这不是在说纯技术实现么?
: 再退一步讲,不卖火车票了,搁到其他应用上,老魏的路子是有很大借鉴意义的。你要
: 是nasa搞火星车的那帮人,难不成还背个云上火星么?再或者要在google做东西,也能
: 跟大老板说咱不行就放aws上去跑吧。呵呵,真到这种时候了,老魏的路子就是正路了
: ,万事靠自己,没有第三方。

z****e
发帖数: 54598
36
对,就这个意思

【在 w*******r 的大作中提到】
: 我明白你意思,追着一台机器搞有点纯属没事找事,对不?早早上的云里,大家都省事
: , 哈哈。
: 要实际动手做,你之前的那些回复都靠铺,说法也没错。但有个问题,不是什么应用都
: 能往云里搁的,没走到云那一步之前怎么办?咱不是在走项目,早早交付了收款了事,
: 这不是在说纯技术实现么?
: 再退一步讲,不卖火车票了,搁到其他应用上,老魏的路子是有很大借鉴意义的。你要
: 是nasa搞火星车的那帮人,难不成还背个云上火星么?再或者要在google做东西,也能
: 跟大老板说咱不行就放aws上去跑吧。呵呵,真到这种时候了,老魏的路子就是正路了
: ,万事靠自己,没有第三方。

S*A
发帖数: 7142
37

人家 Paper 里都讨论啦。
Sandy Bridge 也是至少两代以前的了。
Number talks 。 你既然有 Solarflare, 你可以做个实验,
用 10G对连 10G,写个高性能程序发数据包,每个数据包
都不一样,然后接受方收到数据,把数据都读一遍然后写
数据包回去,例如把数据包byte sum 一遍发回去。
看看你能单机用到 10G 多少带宽?
这样的程序应该不长吧?发出来有 10G 网卡的可以
一起试一下。

【在 T********i 的大作中提到】
: 我用的是Solarflare card。
: 可以负责地讲。从Nehalem开始,10G接近峰值就不是问题了。
: 但是双10G,还是要靠Sandy Bridge。
: 我的方案也是把技术推到极限了。
: 毕竟三年时间Intel做了很多。不是啥都没做。

T********i
发帖数: 2416
38
你那paper都是2007年的。Nehalem Server是第一种上solarflare到10G的架构。
其实都是Kernel bypass。基本上是读写PCI的速度。
你要是相信那个9M IOPS的SSD,就应该相信Solarflare。
这个早就测试多少回了。

【在 S*A 的大作中提到】
:
: 人家 Paper 里都讨论啦。
: Sandy Bridge 也是至少两代以前的了。
: Number talks 。 你既然有 Solarflare, 你可以做个实验,
: 用 10G对连 10G,写个高性能程序发数据包,每个数据包
: 都不一样,然后接受方收到数据,把数据都读一遍然后写
: 数据包回去,例如把数据包byte sum 一遍发回去。
: 看看你能单机用到 10G 多少带宽?
: 这样的程序应该不长吧?发出来有 10G 网卡的可以
: 一起试一下。

z****e
发帖数: 54598
39
说website却无视web server的瓶颈
你也是很奇芭的一个动物

【在 T********i 的大作中提到】
: 他这种屎一样的懂什么?
: 金融,工业控制,LHC加速器,核电,宇航,军事,有很多需求差几个microsecond就可
: 能致命的。
: 铁老大不讲用户体验。电子商务还讲呢。这人一个混混,就是出来卖的。

T********i
发帖数: 2416
40
web server 10年前就解决了。没人关心。

【在 z****e 的大作中提到】
: 说website却无视web server的瓶颈
: 你也是很奇芭的一个动物

相关主题
我的实测结果,纯计算每秒50M次interlocked.increment魏公公把吹的牛逼给圆了吧,我就看到魏公公下面没有了。
魏老师聊聊FPGA吧Consistency做好了不容易
顺便和nod101说说做产品其实就是两党党争
进入Programming版参与讨论
S*A
发帖数: 7142
41
myricom 盲发也可以上 10G。
https://www.myricom.com/solutions/10-gigabit-ethernet/performance.html
我感兴趣的是你接受然后回应 256 包10G 网卡带宽能上到多少。
测过数字是多少?别人能重复这个实验吗?

【在 T********i 的大作中提到】
: 你那paper都是2007年的。Nehalem Server是第一种上solarflare到10G的架构。
: 其实都是Kernel bypass。基本上是读写PCI的速度。
: 你要是相信那个9M IOPS的SSD,就应该相信Solarflare。
: 这个早就测试多少回了。

z****e
发帖数: 54598
42
那怎么就web server出问题了?
老魏,我们这是第几次回到原点了?

【在 T********i 的大作中提到】
: web server 10年前就解决了。没人关心。
T********i
发帖数: 2416
43
Sandy Bridge上,用SFN6322F能行。前一代CPU的不行。
现在最新的是SFN7322F。过两天买几块看看。

【在 S*A 的大作中提到】
: myricom 盲发也可以上 10G。
: https://www.myricom.com/solutions/10-gigabit-ethernet/performance.html
: 我感兴趣的是你接受然后回应 256 包10G 网卡带宽能上到多少。
: 测过数字是多少?别人能重复这个实验吗?

S*A
发帖数: 7142
44
那这个会是很有意义的一件事情,帮助界定你的单机
网络带宽上限可以去到是多少。如果简单的 echo check
sum 都上不去,那就更不用讨论复杂的 app 逻辑和
写盘部分了。
和 netperf 不一样,不能盲收盲发。建议是收一个
256 byte 的数据包,做个 sum 然后发回去。
这样可以避免编译器优化掉那些读的指令。
这样也好顺便和那些 J2EE 的服务器比比性能。
程序应该很简单,如果能 share 出程序(不需要
源程序,有 exec 就行),大家也好验证。

【在 T********i 的大作中提到】
: Sandy Bridge上,用SFN6322F能行。前一代CPU的不行。
: 现在最新的是SFN7322F。过两天买几块看看。

T********i
发帖数: 2416
45
这东东没几个人玩。知道就行了。

【在 S*A 的大作中提到】
: 那这个会是很有意义的一件事情,帮助界定你的单机
: 网络带宽上限可以去到是多少。如果简单的 echo check
: sum 都上不去,那就更不用讨论复杂的 app 逻辑和
: 写盘部分了。
: 和 netperf 不一样,不能盲收盲发。建议是收一个
: 256 byte 的数据包,做个 sum 然后发回去。
: 这样可以避免编译器优化掉那些读的指令。
: 这样也好顺便和那些 J2EE 的服务器比比性能。
: 程序应该很简单,如果能 share 出程序(不需要
: 源程序,有 exec 就行),大家也好验证。

S*A
发帖数: 7142
46
学术的严谨性啊,要有数字,然后别人要能重复。

【在 T********i 的大作中提到】
: 这东东没几个人玩。知道就行了。
T********i
发帖数: 2416
47
本来就是假设的项目。
理论上成立就好了。

【在 S*A 的大作中提到】
: 学术的严谨性啊,要有数字,然后别人要能重复。
S*A
发帖数: 7142
48
Faint。说了半天你这个是不能被实现也不能被验证的啊?
我还是相信实践是检验真理的唯一标准。
话说回来,我一般不想划上限在哪里,但是这个激起 我的
好奇心了。我查对了一下,你那个单机 5M transcation per
second 的吞吐量用现在最先进的 Intel 机器 + 10G 网卡
应该是做不出来的。你能在10G网卡上每秒钟 5M 个 空的TCP
链接和撤销就已经可以偷着乐了(不是 loopback,在物
理网卡上)。不信你可以试试看。
1 (共1页)
进入Programming版参与讨论
相关主题
qxc,我接招了,你给的要求太弱的,给你加强了魏老师聊聊FPGA吧
解决点实际问题,网络拷贝硬盘顺便和nod101说说做产品
这个版看来是毁了魏公公把吹的牛逼给圆了吧,我就看到魏公公下面没有了。
机械硬盘的物理极限Consistency做好了不容易
Goodbug,是不是单机大于1 million/s的I/O你就输了?其实就是两党党争
清净版:写一个Complete Failover Handbook吧这坑实在没劲,都是些嘴炮王
应该给魏大师发10个图灵奖。让老弱残疾扛着打包换车厢还是人吗?
我的实测结果,纯计算每秒50M次interlocked.increment弱问:1us包含packet在网卡里和kernel里处理的时间吗?
相关话题的讨论汇总
话题: 10g话题: 网卡话题: cpu话题: 写盘话题: 单机