[SCore-users-jp] ノード内MPI 及びノード間MPI の通信性能が劣化する原因
kameyama @ pccluster.org
kameyama @ pccluster.org
2004年 4月 2日 (金) 16:18:25 JST
亀山です.
In article <200404020609.PAA07649 @ smgw01.itg.hitachi.co.jp.> hi-morita @ itg.hitachi.co.jp wrotes:
> 1. 質問
>
> あるメッセージサイズ間(1MBと2MB、30MBと40MB、40MBと50MB)でノード内
> MPIまたはノード間MPIの通信性能が劣化する原因として、どのようなことが
> 考えられるでしょうか。
>
> (MPICH-SCore(MPICH)の仕様により、通信方式が変更されているのでしょうか。)
>
> 2. 詳細
>
> <<測定内容>>
>
> ノード内MPI及びノード間MPIの通信性能を調査するために、メッセージサイズ
> [*1]を変数として、ノード内CPU間の1/2ラウンド・トリップタイム[*2]を測定し
> 、スループット[*3]を算出しました。
測定は 1 回だけ実行した結果でしょうか?
それとも, 何回か行ったものの平均でしょうか?
> <<測定結果(抜粋)>>
>
> ●ノード内MPIの通信性能
>
> -----------------------------------------------------------
> メッセージ | スループット [MByte/sec]
> サイズ[Byte] |------------------------------------------
> | ゼロコピーON | ゼロコピーOFF
> -----------------------------------------------------------
> 921600 | 2.27E+09 | 9.35E+08
> 1048576 | 2.34E+09 | 9.28E+08
> 2097152 | 7.03E+08 <-- | 7.98E+08 <--
> 3145728 | 7.37E+08 | 8.50E+08
> 4194304 | 7.71E+08 | 8.58E+08
> -----------------------------------------------------------
zerocopy のほうは MPICH で PM に渡すのが 1 回に 1MB なので,
それが影響していると思います.
mpi_rmamtu オプションおよび mpi_locksize オプションで変化するかも
しれません.
scrun -nodes=1x2,mpi_rmamtu=2097152,mpi_locksize=2097152 ...
(myrinet の場合は最大 1 MB なので, 増やせませんけど...)
> ●ノード間MPIの通信性能
>
> -----------------------------------------------------------
> メッセージ | スループット [MByte/sec]
> サイズ[Byte] |------------------------------------------
> | ゼロコピーON | ゼロコピーOFF
> -----------------------------------------------------------
> 921600 | 2.09E+08 | 1.30E+08
> 1048576 | 2.11E+08 | 1.30E+08
> 2097152 | 2.07E+08 <-- | 1.31E+08
> 3145728 | 2.10E+08 | 1.31E+08
> 4194304 | 2.12E+08 | 1.31E+08
> 〜
> 10485760 | 2.15E+08 | 1.31E+08
> 20971520 | 2.07E+08 | 1.31E+08
> 31457280 | 2.10E+08 | 1.31E+08
> 41943040 | 2.12E+08 | 1.22E+08 <--
> 52428800 | 1.95E+08 <-- | 1.31E+08
> 62914560 | 2.13E+08 | 1.30E+08
> 73400320 | 2.14E+08 | 1.31E+08
> -----------------------------------------------------------
回りと比べて zerocopy on の 2 MB, 50 MB,
zerocopy off の 40 MB だけが下がっていますね.
(zerocopy on の 20 MB も 2 MB と同じ値ですけど,
ここを問題にしないのはなぜでしょうか?)
その host でほかのプロセスが動いていたり, SCore-D が裏で
きちんと動いているか監視していたりしますので, その影響かもしれません.
from Kameyama Toyohisa
SCore-users-jp メーリングリストの案内