[[IT memo/linuxmemo4]] - [[IT memo/linuxmemo]] for fuyu.ucsd.edu - [[IT memo/linuxmemo2]] for isotope.ccsr.u-tokyo.ac.jp - [[IT memo/linuxmemo3]] for isotope2.iis.u-tokyo.ac.jp->decomposed *Setting up isotope2.ccsr.u-tokyo.ac.jp [#n1343bf2] #contents **specification [#od3291a8] Name: isotope2 IP: 157.82.233.10 Cluster system Headnode: Xeon X5680 (3.3GHz, hexa core) x2 Compute node: [Xeon X5690 (3.46GHz, hexa core)x2]x4 Storage: /data:8TB, /data1:11TB, /data2:11TB, /data3:9TB Network: InfiniBand QDR (MPI/NFS) OS: RedHat Enterprise Linux 5 (Server) ** OS [#oc0ca5f6] 旧isotope2を生研からAORIに移設し、計算ノード、通信装置、ストレージを増設した。 ** softwares [#o93ecf92] 大抵はisotope2からそのまま引き継げでいる。詳しくは[IT memo/linuxmemo3]参照。 ** ganglia [#s0a3fe41] - ノード負荷状況のモニター。http://157.82.233.10/ganglia から見れる(CCSR内のみ)。 ** Benchmark [#af5ded83] *** NCEP/SIO GSM [#ka320ddd] -http://http://g-rsm.wikispaces.com のグローバルモデルのテスト。 -mvapich2+intelでコンパイル。 Run1 (headnode only): 30.9s Run2 (node=1:ppn=8): 30.4s Run3 (node=2:ppn=4): 26.3s Run4 (node=4:ppn=2): 23.9s となり、nodeをまたいだほうが高速な結果が出た。本当かいな? *** NCEP/SIO RSM [#gfcc5d91] -上記と同様、領域版のテスト。 -mvapich2+intelでコンパイル Run1 (node=2:ppn=12): 536.2s Run2 (node=3:ppn=8): 518.6s Run3 (node=4:ppn=6): 510.5s GSMの結果と同様に、nodeをまたいだほうが高速。CPUのBandwidthがボトルネックである可能性大。(だが、気にならないレベル) *** NICAM [#y0e400b8] - GL5RL0, Isotope/River入り実験。10並列、72時間。 - mvapich2だとノードをまたぐジョブがうまく走らない。 Run1 mvapich2 (node=1:ppn=10): 404s Run2 mpich1 (node=1:ppn=10): 401s Run3 mpich1 (node=2:ppn=5): 336s 結構、分散型と集中型に差が出た。 *** MIROC5 offline MATSIRO [#z57fcfe5] - AR5用のMIROC5陸面のみ。1ヶ月計算。 Run1 mvapich2-1.6 (node=2:ppn=10) 82s Run2 mvapich2-1.6 (node=4:ppn=5) 76s Run3 openmpi-1.5.4 (node=2:ppn=10) 83s Run4 openmpi-1.5.4 (node=4:ppn=5) 70s mpich2だとcannot connect to local mpdというエラーが出て止まる。 * Manuals [#rbdbd6cc] -&attachref(103-Torque取扱説明.pdf); -&attachref(301-MPI環境の使い方(クラスタ向け)v02.pdf);