w*r 发帖数: 2421 | 1 你这个iostats怎么只有一行,而且看起来三个盘加起来只有2M/sec
你的dd显示有49M/sec的throughput... 你认为你的iostat的结果有没有问题?
iostat [interav] [count] |
|
a***y 发帖数: 19743 | 2 用别的方法测会死吗?
你以为懂unix命令用用dd就不得了了?
你这是浪费自己和他人的时间。
我这里是原装fusion drive
time dd if=/dev/zero bs=1024k of=tstfile count=1024
1024+0 records in
1024+0 records out
1073741824 bytes transferred in 20.579865 secs (52174386 bytes/sec)
不过是50MB/s
而dd时iostat的输出则是:
disk0 disk1 disk3 cpu load average
KB/t tps MB/s KB/t tps MB/s KB/t tps MB/s us sy id 1m 5m
15m
21.29 113 2.34 32.16 11 0.34 17.75 45 0.77 2 1 96 1.77 1.
94 2.08
dd if=/... 阅读全帖 |
|
w*****d 发帖数: 105 | 3 1,what is abi and api, give some example
api: usually means interfaces of a library or class.
abi: this is means the binary conversion rules for different compilers or
platforms, such as arguments order in stack for a function call.
2, what happens when exception is thrown?
in C++, the following operations are carried out:
1)unwind the current stack, call any dtor for local vars if necessary, until
there is a catch block that can handle the exception obj;
2)if there is no such catch block in the... 阅读全帖 |
|
d****n 发帖数: 1637 | 4 我觉得楼主回答的已经很专业了。烙印可能想要些三角猫的功夫。
先看disk io
iostat?
在看database
再看network
netstat?
确定是那个问题,如果是设计问题, 再回到kill -3, core dump -> gdb.
但是话说回来, 如果production 没有楼主提供的那些方法,真他妈叫狗屎prod,是来
给人擦腚吧。
上production最好要有system monitor(appdynamics.com)之类的服务。
没有的话就suppose 没这个,没那个吧,哈哈 |
|
s*******s 发帖数: 1031 | 5 @iostat:
请记住在G的candidate系统里withdraw >>>>> fail
这是啥意思?是说withdraw远远好于fail?
我说怎么有时候拒掉的candidate 被他们的recuiter mark成withdraw,不是fail,是
想把candidate的记录变得好看点? |
|
w*r 发帖数: 2421 | 6 给你看一个iostat的截图,dd在写文件的时候直接都去了disk1那是hdd不是ssd
disk0 disk1 cpu load average
KB/t tps MB/s KB/t tps MB/s us sy id 1m 5m 15m
0.00 0 0.00 582.49 119 67.42 7 6 87 1.36 1.58 1.46
0.00 0 0.00 757.00 98 72.61 8 6 86 1.36 1.58 1.46
7.88 45 0.35 279.28 123 33.41 5 4 91 1.49 1.61 1.47
8.00 26 0.20 119.29 251 29.30 4 4 93 1.53 1.61 1.47
0.00 0 0.00 518.90 93 47.11 2 3 95 1.53 1.61 1.47
0.00 0 0.... 阅读全帖 |
|
w*r 发帖数: 2421 | 7 iostat output
disk1 上有kb/t,tps mb/s
disk0上几乎没有任何activity.
disk1上面的throughput只有30mb/sec -- 70mb/sec这个明显就是传统hdd的顺序写的
speed
dd command是
dd if=/dev/zero of=test.out bs=4k count=10000000
这个板上有人有类似的经历吗? |
|
a***y 发帖数: 19743 | 8 我认为是这个iostat并不准确吧。从activity monitor里看到是50多MB
这也不是SSD的速度,而是HDD的速度。
所有结论就是这个dd不会调动SSD,即使是在官方fusion drive上。 |
|
w*r 发帖数: 2421 | 9 iostat 是准确的,似乎SSD满了之后fusion core storage 决定的写服务直接上HDD,
只有block 被读了N次之后才会在后台swap到ssd上面去, 有待实验确定,
这个Core storage lvm 有点奇怪的,在另外一台macbook pro上面表现完全不一样,当
然macbook pro上面的fusion drive比mini上少200GB数据,虽然总数据量超过120GB的
ssd可能ssd上面没有写满。 |
|
p**i 发帖数: 688 | 10 你这个NAS是不是zfs太耗CPU了? thrust的NAS也是atom 330, ext3? 速度能到50-70MB/
s
你有没有用iostat检查一下问题, 如果是CPU太慢, 你可能需要至少上个celeron e3200 |
|
c******n 发帖数: 4965 | 11 the first impression I got is GC, but after looking at the print out from
-XX:+PrintGCDetails -XX:+PrintGCTimeStamps
I don't see a GC happening around the time of freeze.
basically it freezes for about 20 seconds, around this time, yourkit does
not take any samples, so it's a straight empty period of 20 seconds for all
threads on the yourkit threads display.
in a few cases it's indeed due to GC. but most other cases not: because I
opened sar , iostat and recorded system cpu, during most of the f... 阅读全帖 |
|
c*********n 发帖数: 1057 | 12 我觉得楼主问这种问题还是用英文比较好,那中文看到实在是累,要把专有名字转换成
英文才顺一点,或者是我自己退化的太厉害了?
About the issue, Is your system java based? If so you can use jstack or
visualvm to monitor the system status.
You can also use various system monitoring tool to see if the bottleneck
happens in OS layer. In Windows, like PerfMon. In Linux, like ps, iostat.
Another suggestion is do you have a test client that simulate the client
activities? So you can role out the 3rd party influence. |
|
I*l 发帖数: 1649 | 13 程序的disk io很大,同时run很多个的话硬盘有点顶不住
硬盘是cluster的scratch disk,很大.估计是几个硬盘拼起来的,当然mount上来只显示
一个巨大的硬盘
是不是raid不知道(怎么看?)
iostat看到device从sda一直到sdm一共十二个,但只有其中一两个在读写,
其它的都是0,估计我的数据就存在这一两块盘上,所以20几个program就一起从这个盘上
读写,自然就慢了
有没有方法让程序指定读写哪个device? 这样平衡一下负载,快一点
硬盘只有我在用,所以其它的不写的disk也是空的,只是我不知道怎么利用起来
哪位高人给指点指点? |
|
R******d 发帖数: 1436 | 14 top, mpstat, uptime, vmstat, iostat等等
谢谢 |
|
n******7 发帖数: 12463 | 15 top没有I/O load
还是需要iostat
另外htop比top看起来舒服 |
|
w***g 发帖数: 5958 | 16 你是要parse 37T数据用半年吧? 这么大量的数据处理一般瓶颈都在I/O.
你确定一下数据有没有fully distributed, 随便挑一台机器用iostat
看看磁盘I/O是不是用足了.
9台机器每台接4个4T硬盘, 一共9 * 4 * 4 = 144T, 差不多刚好一年的数据
三倍冗余的样子. 吞吐量是 9 * 4 * 100M = 3.5G/s,
全速读37T数据的话3个小时. 算上各种overhead, 我觉得两天也应该算出来了.
我这边colo, 9台机器 $500/月. AWS太贵, 特别是要大规模存储的,
光存储开销每月就不止$1000了, 而且还没法自己优化I/O. 不过要是自己
做不了/不愿意做sysadmin, 那这些开销还不如雇人的零头.
如果三星的16T SSD能降点价, 应该对你们非常有用. |
|
t*******g 发帖数: 89 | 17 That must be something wrong.
use df -k to make sure that no partition is almost full.
you may use iostat and sar to check disk perfermance.
And swap partition should be around 256MB. |
|