IT memo/linuxmemo4

Setting up isotope2.ccsr.u-tokyo.ac.jp

specification

Name: isotope2
IP: 157.82.233.10
Cluster system
Headnode: Xeon X5680 (3.3GHz, hexa core) x2
Compute node: [Xeon X5690 (3.46GHz, hexa core)x2]x4
Storage: /data:8TB, /data1:11TB, /data2:11TB, /data3:9TB
Network: InfiniBand QDR (MPI/NFS)
OS: RedHat Enterprise Linux 5 (Server)

OS

旧isotope2を生研からAORIに移設し、計算ノード、通信装置、ストレージを増設した。

softwares

大抵はisotope2からそのまま引き継げでいる。詳しくは[IT memo/linuxmemo3]参照。

ganglia

Benchmark

NCEP/SIO GSM

  • http://http://g-rsm.wikispaces.com のグローバルモデルのテスト。
  • mvapich2+intelでコンパイル。
    Run1 (headnode only): 30.9s
    Run2 (node=1:ppn=8):  30.4s
    Run3 (node=2:ppn=4):  26.3s
    Run4 (node=4:ppn=2):  23.9s
    となり、nodeをまたいだほうが高速な結果が出た。本当かいな?

NCEP/SIO RSM

  • 上記と同様、領域版のテスト。
  • mvapich2+intelでコンパイル
    Run1 (node=2:ppn=12): 536.2s
    Run2 (node=3:ppn=8):  518.6s
    Run3 (node=4:ppn=6):  510.5s
    GSMの結果と同様に、nodeをまたいだほうが高速。CPUのBandwidthがボトルネックである可能性大。(だが、気にならないレベル)

NICAM

  • GL5RL0, Isotope/River入り実験。10並列、72時間。
  • mvapich2だとノードをまたぐジョブがうまく走らない。
    Run1 mvapich2 (node=1:ppn=10): 404s
    Run2 mpich1 (node=1:ppn=10): 401s
    Run3 mpich1 (node=2:ppn=5): 336s
    結構、分散型と集中型に差が出た。