[SCore-users-jp] MPIについて
Yukio Yamaishi
yukio.yamaishi @ gmail.com
2009年 6月 16日 (火) 19:08:35 JST
皆様
はじめまして、山石と申します。
並列処理のド素人なので、初歩的な質問が多く、大変恐縮でございます。
現在WRFと呼ばれる気象モデルを動かしているが、MPIを使った並列について、
ご教授をいただければと思います。
各ノード2 CPU(実際はintel core 2)、4GBメモリー、合計8ノード、intel compiler 10、
OpenMPIおよびMPICHの環境です。
1. 例えばある領域に対して、予報計算を行うと、
"mpi -np N a.out"
N : 5-16の場合はちゃんと計算が終了する。
N: 1-2の場合も問題ない(core 2なので、実際この場合は1ノードのみ)
N: 3-4の場合は問題あり。
mpirun noticed that job rank 2 with PID 3879 on node host-0-1 exited on
signal 11 (Segmentation fault).
1 additional process aborted (not shown)
.bashrcに対して、ulimit -s unlimited や ulimit -s 819200000と設定してあります。
質問1: N: 3-4の設定に対して、問題サイズが大きすぎて解けないから、上記エラーになったのでしょうか?
質問2:N:1-2では(実際1ノード)解けて、N:3-4なら解けない。5-16ならまた解けるという現象について、
どう解釈すれば宜しいのでしょうか?
関係あるかどうかは分かりませんが、例えば予報計算の領域を大きくすると、
N:1-2, N:16なら解けるが、それ以外は上記エラーが出力されます。
2. MPIに関するチューニングはどうすればいいのでしょう?
WRF本体にソースコードに手を入れることはできません。例えば mpirun などのコマンドを実行する際に、
送受信サイズを変更してみたりすることはできないのでしょうか?
ほかに何か触れるところはあるのでしょうか?
以上です。よろしくお願い致します。
-------------- next part --------------
HTMLの添付ファイルを保管しました...
URL: <http://new1.pccluster.org/pipermail/score-users-jp/attachments/20090616/ca405151/attachment.html>
SCore-users-jp メーリングリストの案内