[SCore-users-jp] MPIについて

Yukio Yamaishi yukio.yamaishi @ gmail.com
2009年 6月 16日 (火) 19:08:35 JST


皆様

はじめまして、山石と申します。

並列処理のド素人なので、初歩的な質問が多く、大変恐縮でございます。
現在WRFと呼ばれる気象モデルを動かしているが、MPIを使った並列について、
ご教授をいただければと思います。

各ノード2 CPU(実際はintel core 2)、4GBメモリー、合計8ノード、intel compiler 10、
OpenMPIおよびMPICHの環境です。


1. 例えばある領域に対して、予報計算を行うと、
"mpi -np N a.out"
       N : 5-16の場合はちゃんと計算が終了する。
       N: 1-2の場合も問題ない(core 2なので、実際この場合は1ノードのみ)
  N:   3-4の場合は問題あり。

mpirun noticed that job rank 2 with PID 3879 on node host-0-1 exited on
signal 11 (Segmentation fault).
1 additional process aborted (not shown)

   .bashrcに対して、ulimit -s unlimited や ulimit -s 819200000と設定してあります。

質問1: N: 3-4の設定に対して、問題サイズが大きすぎて解けないから、上記エラーになったのでしょうか?
    質問2:N:1-2では(実際1ノード)解けて、N:3-4なら解けない。5-16ならまた解けるという現象について、
どう解釈すれば宜しいのでしょうか?

関係あるかどうかは分かりませんが、例えば予報計算の領域を大きくすると、
N:1-2, N:16なら解けるが、それ以外は上記エラーが出力されます。


2. MPIに関するチューニングはどうすればいいのでしょう?

WRF本体にソースコードに手を入れることはできません。例えば mpirun などのコマンドを実行する際に、
送受信サイズを変更してみたりすることはできないのでしょうか?

ほかに何か触れるところはあるのでしょうか?


以上です。よろしくお願い致します。

-------------- next part --------------
HTMLの添付ファイルを保管しました...
URL: <http://new1.pccluster.org/pipermail/score-users-jp/attachments/20090616/ca405151/attachment.html>


SCore-users-jp メーリングリストの案内