Name: isotope2 (renewed on 2016) IP: 157.82.233.10 Cluster system Headnode: Xeon E5-2640 V4 2.4GHz 10Core×2 Compute node: Xeon X5690 (3.46GHz, hexa core) x2x12 Xeon E5-2697V2 (2.7GHz, 12Core) x2x2 Storage: /data@isotope2:18TB, /data1-10@vtfs1:11TBx10, /data11-19@vtfs2:22~41TB, /data20-27@vtfs3:37~146TB Network: InfiniBand QDR (MPI/NFS) OS: RedHat Enterprise Linux 5 (Server)
旧isotope2を生研からAORIに移設し、計算ノード、通信装置、ストレージを増設した。
大抵はisotope2からそのまま引き継げでいる。詳しくは[IT memo/linuxmemo3]参照。
$ passwd
$ chsh
$ cp /home/kei/.cshrc ~/
$ ssh-keygen -t rsa (do not input passphrase)
$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys $ chmod 600 ~/.ssh/authorized_keys
$ cd /dataX/yyyy
Run1 (headnode only): 30.9s Run2 (node=1:ppn=8): 30.4s Run3 (node=2:ppn=4): 26.3s Run4 (node=4:ppn=2): 23.9sとなり、nodeをまたいだほうが高速な結果が出た。本当かいな?
Run1 (node=2:ppn=12): 536.2s Run2 (node=3:ppn=8): 518.6s Run3 (node=4:ppn=6): 510.5sGSMの結果と同様に、nodeをまたいだほうが高速。CPUのBandwidthがボトルネックである可能性大。(だが、気にならないレベル)
Run1 mvapich2 (node=1:ppn=10): 404s Run2 mpich1 (node=1:ppn=10): 401s Run3 mpich1 (node=2:ppn=5): 336s結構、分散型と集中型に差が出た。
Run1 mvapich2-1.6 (node=2:ppn=10) 82s Run2 mvapich2-1.6 (node=4:ppn=5) 76s Run3 openmpi-1.5.4 (node=2:ppn=10) 83s Run4 openmpi-1.5.4 (node=4:ppn=5) 70smpich2だとcannot connect to local mpdというエラーが出て止まる。