n******7 发帖数: 12463 | 1 一样的java code,用java.util.concurrent做的multi-threading
在cluster上的不同node上跑
在16个E5-2665 core上跑的结果:
cput=58:16:02,mem=11399236kb,vmem=35791888kb,walltime=03:46:17
在24个Opteron 6176 core上:
cput=173:12:55,mem=5841312kb,vmem=16428220kb,walltime=11:09:09
Opteron 慢些我理解,可是为啥用的内存要少一半? |
h*i 发帖数: 3446 | 2 JVM看物理机器的内存大小来决定GC政策,不同机器缺省用不同内存是正常的,不过都
可以用VM options来tune.
http://docs.oracle.com/cd/E13222_01/wls/docs81/perform/JVMTunin
【在 n******7 的大作中提到】 : 一样的java code,用java.util.concurrent做的multi-threading : 在cluster上的不同node上跑 : 在16个E5-2665 core上跑的结果: : cput=58:16:02,mem=11399236kb,vmem=35791888kb,walltime=03:46:17 : 在24个Opteron 6176 core上: : cput=173:12:55,mem=5841312kb,vmem=16428220kb,walltime=11:09:09 : Opteron 慢些我理解,可是为啥用的内存要少一半?
|
n******7 发帖数: 12463 | 3 谢谢!
E5的机器是128G的
Opteron的机器是48G的
也许多指定点内存也不会比intel慢那么多?
我试试看
【在 h*i 的大作中提到】 : JVM看物理机器的内存大小来决定GC政策,不同机器缺省用不同内存是正常的,不过都 : 可以用VM options来tune. : http://docs.oracle.com/cd/E13222_01/wls/docs81/perform/JVMTunin
|
n******7 发帖数: 12463 | 4 看了一会儿还是不明白
看样子我得通过Heap Size Option来控制GC的频度
但是我怎么知道在这两种node上,缺省的heap size setting是什么样的呢?
这样我才能让opteron机器跟E5用一样的内存量
【在 h*i 的大作中提到】 : JVM看物理机器的内存大小来决定GC政策,不同机器缺省用不同内存是正常的,不过都 : 可以用VM options来tune. : http://docs.oracle.com/cd/E13222_01/wls/docs81/perform/JVMTunin
|
g*****g 发帖数: 34805 | 5 Start with Xms and Xmx.
【在 n******7 的大作中提到】 : 看了一会儿还是不明白 : 看样子我得通过Heap Size Option来控制GC的频度 : 但是我怎么知道在这两种node上,缺省的heap size setting是什么样的呢? : 这样我才能让opteron机器跟E5用一样的内存量
|
n******7 发帖数: 12463 | 6 我的问题是,什么样的Xms Xmx可以导致什么样的内存用量?
要自己测试估计得用不同的参数跑几个job,然后看内存用量吧?
我对于系统在128G node自动决定的参数很满意,不知道怎么能知道jvm自己决定的参数
是多少呢?
【在 g*****g 的大作中提到】 : Start with Xms and Xmx.
|
w**z 发帖数: 8232 | 7 xmx controls the max memory allocated to heap. make sure you use the same
JVM parameters when comparing.
【在 n******7 的大作中提到】 : 我的问题是,什么样的Xms Xmx可以导致什么样的内存用量? : 要自己测试估计得用不同的参数跑几个job,然后看内存用量吧? : 我对于系统在128G node自动决定的参数很满意,不知道怎么能知道jvm自己决定的参数 : 是多少呢?
|
g*****g 发帖数: 34805 | 8 Set the same parameters for both systems. For any serious server app, you
should always set Xmx at the very least. There are references on what these
parameters mean and there are 50 others you can tweak.
【在 n******7 的大作中提到】 : 我的问题是,什么样的Xms Xmx可以导致什么样的内存用量? : 要自己测试估计得用不同的参数跑几个job,然后看内存用量吧? : 我对于系统在128G node自动决定的参数很满意,不知道怎么能知道jvm自己决定的参数 : 是多少呢?
|
n******7 发帖数: 12463 | 9 谢谢
之前都是用default的,看来得试试看具体的参数了
我跑的不是server app,一个做预测的东西,目前凑合能跑就好
these
【在 g*****g 的大作中提到】 : Set the same parameters for both systems. For any serious server app, you : should always set Xmx at the very least. There are references on what these : parameters mean and there are 50 others you can tweak.
|
n******7 发帖数: 12463 | 10 应该不是这个问题
用pbs提交的job,内存都指定的40GB
但是jvm应该看到的是实际节点的所有resource
我的job都独占了整个节点
所以按照128GB 和 48GB来确定默认参数的吧 |