#author("2018-06-18T09:20:57+09:00","kei","kei") #author("2020-03-08T10:06:54+09:00","kei","kei") [[IT memo/linuxmemo4]] - [[IT memo/linuxmemo]] for fuyu.ucsd.edu - [[IT memo/linuxmemo2]] for isotope.ccsr.u-tokyo.ac.jp - [[IT memo/linuxmemo3]] for isotope2.iis.u-tokyo.ac.jp->decomposed *Setting up isotope2.aori.u-tokyo.ac.jp [#n1343bf2] #contents **specification [#od3291a8] Name: isotope2 (renewed on 2016) IP: 157.82.233.10 Cluster system // Headnode: Xeon X5680 (3.3GHz, hexa core) x2 Headnode: Xeon E5-2640 V4 2.4GHz 10Core×2 Compute node: Xeon X5690 (3.46GHz, hexa core) x2x12 Xeon E5-2697V2 (2.7GHz, 12Core) x2x2 Storage: /data@isotope2:18TB, /data1-10@vtfs1:11TBx10, /data11-19@vtfs2:22~41TB, /data20-27@vtfs3:37~146TB Network: InfiniBand QDR (MPI/NFS) OS: RedHat Enterprise Linux 5 (Server) ** OS [#oc0ca5f6] 旧isotope2を生研からAORIに移設し、計算ノード、通信装置、ストレージを増設した。 ** softwares [#o93ecf92] 大抵はisotope2からそのまま引き継げでいる。詳しくは[IT memo/linuxmemo3]参照。 ** ganglia [#s0a3fe41] - ノード負荷状況のモニター。http://157.82.233.10/ganglia から見れる(CCSR内のみ)。 * Basic rules [#qb8c8ad5] - Use /dataX directories. Minimize to use /home directory. - Use PBS (computing nodes) for long job. Head node (isotope2) is interactive use only. * Getting start [#k0cbab80] - change your password $ passwd - change your login shell to /bin/tcsh (if your default is bash) $ chsh - copy /home/kei/.cshrc in your home directory $ cp /home/kei/.cshrc ~/ - make your public key for isotope2 $ ssh-keygen -t rsa (do not input passphrase) - save your id_rsa.pub as authorized_keys $ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys $ chmod 600 ~/.ssh/authorized_keys - go to your working directory (/dataX/yyyy) and work. $ cd /dataX/yyyy * Manuals [#rbdbd6cc] -&attachref(103-Torque取扱説明.pdf); -&attachref(301-MPI環境の使い方(クラスタ向け)v02.pdf); -&ref(103-Torque取扱説明.pdf); -&ref(301-MPI環境の使い方(クラスタ向け)v02.pdf); * Benchmark [#af5ded83] ** NCEP/SIO GSM [#ka320ddd] -http://http://g-rsm.wikispaces.com のグローバルモデルのテスト。 -mvapich2+intelでコンパイル。 Run1 (headnode only): 30.9s Run2 (node=1:ppn=8): 30.4s Run3 (node=2:ppn=4): 26.3s Run4 (node=4:ppn=2): 23.9s となり、nodeをまたいだほうが高速な結果が出た。本当かいな? ** NCEP/SIO RSM [#gfcc5d91] -上記と同様、領域版のテスト。 -mvapich2+intelでコンパイル Run1 (node=2:ppn=12): 536.2s Run2 (node=3:ppn=8): 518.6s Run3 (node=4:ppn=6): 510.5s GSMの結果と同様に、nodeをまたいだほうが高速。CPUのBandwidthがボトルネックである可能性大。(だが、気にならないレベル) ** NICAM [#y0e400b8] - GL5RL0, Isotope/River入り実験。10並列、72時間。 - mvapich2だとノードをまたぐジョブがうまく走らない。 Run1 mvapich2 (node=1:ppn=10): 404s Run2 mpich1 (node=1:ppn=10): 401s Run3 mpich1 (node=2:ppn=5): 336s 結構、分散型と集中型に差が出た。 ** MIROC5 offline MATSIRO [#z57fcfe5] - AR5用のMIROC5陸面のみ。1ヶ月計算。 Run1 mvapich2-1.6 (node=2:ppn=10) 82s Run2 mvapich2-1.6 (node=4:ppn=5) 76s Run3 openmpi-1.5.4 (node=2:ppn=10) 83s Run4 openmpi-1.5.4 (node=4:ppn=5) 70s mpich2だとcannot connect to local mpdというエラーが出て止まる。