[SCore-users-jp] MPIについて
Kameyama Toyohisa
kameyama @ pccluster.org
2009年 6月 18日 (木) 13:35:19 JST
亀山です.
Yukio Yamaishi Wrote:
> ためしにopenmpi-default-hostfileに対して、1ノード1CPUと定義してみました。
ちなみに, openmpi の mpirun には -bynode というオプションがあります.
> mpirun -n N wrf.exeについて、
>
> N=1 は成功、N=2-5,7は失敗、N=6, 8は成功
>
>
> この問題サイズなら、そもそも6以上でないと解けないと言う意味でしょうか?
> そうであれば、なぜN=1は成功するか?
前は N=3, N=4 のとき, 前回の倍のメモリが使用可能なはずで,
それでも失敗していて, 今回 N=5, N=7 でも失敗したのですから,
原因はメモリ不足のためではなさそうです.
http://blog.livedoor.jp/rootan2007/archives/51117338.html
によると
Open MPIの場合には、WRFのコンパイル時にconfigureに "-xT " 等の
Core2系(i586やi686系)専用のOptimizeは付けない。
付けると、コンパイルは成功するが、実行時にSegmentation Errorが
生じる事がある。
mpirunを行った時にエラーが出る場合は、" --debug-daemons" のオプションを
付けて実行することで、エラーの詳細を見ることができる。
と. 書かれています. (これが正しいかどうかは分かりませんが...)
ちなみに, このページのコメント 4 には
また、Core2 Quadの場合にはモデルにもよりますが、メモリバスの帯域問題で
4スレッド使用して計算するよりも、3スレッド使用の方が計算が
速くなることがあります。
と, ありますので, N=3 でも動いているようです.
Kameyama Toyohisa
SCore-users-jp メーリングリストの案内