[SCore-users-jp] MPIについて

Kameyama Toyohisa kameyama @ pccluster.org
2009年 6月 18日 (木) 13:35:19 JST


亀山です.

Yukio Yamaishi Wrote:
> ためしにopenmpi-default-hostfileに対して、1ノード1CPUと定義してみました。

ちなみに, openmpi の mpirun には -bynode というオプションがあります.

> mpirun -n N wrf.exeについて、
> 
> N=1 は成功、N=2-5,7は失敗、N=6, 8は成功
> 
> 
> この問題サイズなら、そもそも6以上でないと解けないと言う意味でしょうか?
> そうであれば、なぜN=1は成功するか?

前は N=3, N=4 のとき, 前回の倍のメモリが使用可能なはずで,
それでも失敗していて, 今回 N=5, N=7 でも失敗したのですから,
原因はメモリ不足のためではなさそうです.

    http://blog.livedoor.jp/rootan2007/archives/51117338.html
によると

    Open MPIの場合には、WRFのコンパイル時にconfigureに "-xT " 等の
    Core2系(i586やi686系)専用のOptimizeは付けない。
    付けると、コンパイルは成功するが、実行時にSegmentation Errorが
    生じる事がある。

    mpirunを行った時にエラーが出る場合は、" --debug-daemons" のオプションを
    付けて実行することで、エラーの詳細を見ることができる。

と. 書かれています. (これが正しいかどうかは分かりませんが...)

ちなみに, このページのコメント 4 には

    また、Core2 Quadの場合にはモデルにもよりますが、メモリバスの帯域問題で
    4スレッド使用して計算するよりも、3スレッド使用の方が計算が
    速くなることがあります。

と, ありますので, N=3 でも動いているようです.

Kameyama Toyohisa



SCore-users-jp メーリングリストの案内