From oz104 @ hotmail.com Wed Jan 11 10:15:41 2006 From: oz104 @ hotmail.com (oz 104) Date: Wed, 11 Jan 2006 10:15:41 +0900 Subject: [SCore-users-jp] =?iso-2022-jp?b?GyRCJUElJyVDJS8lXSUkJXMbKEI=?= =?iso-2022-jp?b?GyRCJUgbKEI=?= Message-ID: はじめまして、小澤と申します。 さっそく質問なのですが、SCore-Dのチェックポイント情報はどこに格納されている のでしょうか? 取り出して別な場所にコピーを取りたいと思うのですが可能でしょうか? 現在の環境としましてはRedHat7.3とSCore5.6.1を利用しております。 _________________________________________________________________ 迷惑メールやウイルスへの対策も万全「MSN Hotmail」 http://promotion.msn.co.jp/hotmail/ From kameyama @ pccluster.org Wed Jan 11 10:34:04 2006 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Wed, 11 Jan 2006 10:34:04 +0900 Subject: [SCore-users-jp] =?ISO-2022-JP?B?GyRCJUElJyVDJS8lXSUkGyhC?= =?ISO-2022-JP?B?GyRCJXMlSBsoQg==?= In-Reply-To: Your message of "Wed, 11 Jan 2006 10:15:41 JST." Message-ID: <20060111013404.F0F2121EF52@neal.il.is.s.u-tokyo.ac.jp> 亀山です, In article "oz 104" wrotes: > さっそく質問なのですが、SCore-Dのチェックポイント情報はどこに格納されている > のでしょうか? single user mode の場合, 各 compute host の /var/scored/singleuser/*/jid-1/proc-*/ckpt* multi user の場合, 各 compute host の /var/scored/multiuser/session*/jobs/jid-1/proc-*/ckpt* に格納されます. > 取り出して別な場所にコピーを取りたいと思うのですが可能でしょうか? コピー自体は可能だと思いますが, コピーしたものを restart に使用することは 同じ場所に置く必要がありますし, scrun したプロセス自体も生きている必要がありますので, 困難だと思いますけど... from Kameyama Toyohisa From honjo @ murata.co.jp Wed Jan 11 10:53:56 2006 From: honjo @ murata.co.jp (Hisaki Honjo) Date: Wed, 11 Jan 2006 10:53:56 +0900 Subject: [SCore-users-jp] set_new_handler =?iso-2022-jp?b?GyRCJEskRCQkJEYbKEIoGyRCOkYbKEI=?= =?iso-2022-jp?b?GyRCQXcbKEIp?= References: <200512261848.DAD57333.OPPIK@murata.co.jp> Message-ID: <200601111053.HCJ04639.OPPIK@murata.co.jp> 本庄です。 いつもお世話になっております。 SCoreについて不明な現象があるため投稿させていただきました。 内容は、set_new_handlerを使用した場合の挙動についてです。 通常のg++(2.96)ですと、set_new_handlerが有効に働き、 メモリアロケーション(new)が失敗すると セットしたコールバック関数が呼び出されます。 ところが、mpic++で同一のソースをコンパイルすると コールバック関数が呼び出されず、Killされてしまいます。 これは仕様なのでしょうか? また、回避する方法はありますでしょうか? [ソース] ----------------------- #include #include #include void MyHandler(void) { fprintf( stderr, "Memory allocation error\n" ); exit( -1 ); } /***************************************** Main *****************************************/ int main(int argc, char ** argv) { const int nCol = 25000; const int nRow = 10000; int i; int j; set_new_handler( MyHandler ); double ** pTable = new double*[ nCol ]; for ( i=0; i References: Message-ID: <0BCFE293-D968-4F71-99D6-68142C9AA1D1@swimmy-soft.com> On 2006/01/11, at 10:15, oz 104 wrote: > はじめまして、小澤と申します。 > さっそく質問なのですが、SCore-Dのチェックポイント情報は > どこに格納されている > のでしょうか? > 取り出して別な場所にコピーを取りたいと思うのですが可能でしょう > か? > 現在の環境としましてはRedHat7.3とSCore5.6.1を利用 > しております。 申し訳ごございませんが、hotmail 等、所属が明らかでないメー ルアドレスでのご質問はできるだけ避けていただきたいと存じます。 From kameyama @ pccluster.org Wed Jan 11 14:16:02 2006 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Wed, 11 Jan 2006 14:16:02 +0900 Subject: [SCore-users-jp] set_new_handler =?ISO-2022-JP?B?GyRCJEskRCQkJEYbKEIoGyRCOkZBdxsoQik=?= In-Reply-To: Your message of "Wed, 11 Jan 2006 10:53:56 JST." <200601111053.HCJ04639.OPPIK@murata.co.jp> Message-ID: <20060111051602.2E3C721EF52@neal.il.is.s.u-tokyo.ac.jp> 亀山です. In article <200601111053.HCJ04639.OPPIK @ murata.co.jp> Hisaki Honjo wrotes: > SCoreについて不明な現象があるため投稿させていただきました。 > 内容は、set_new_handlerを使用した場合の挙動についてです。 > > 通常のg++(2.96)ですと、set_new_handlerが有効に働き、 > メモリアロケーション(new)が失敗すると > セットしたコールバック関数が呼び出されます。 > > ところが、mpic++で同一のソースをコンパイルすると > コールバック関数が呼び出されず、Killされてしまいます。 redhat 7.3, memory 256 MB, swap 512 MB で g++ 2.96-110 でコンパイル しましたが, kill されてしまいました. 通常の場合でも set_new_handler() を呼び出すかどうかは微妙かもしれません. from Kameyama Toyohisa From honjo @ murata.co.jp Wed Jan 11 14:38:49 2006 From: honjo @ murata.co.jp (Hisaki Honjo) Date: Wed, 11 Jan 2006 14:38:49 +0900 Subject: [SCore-users-jp] Re:set_new_handler =?iso-2022-jp?b?GyRCJEskRCQkJEYbKEIo?= =?iso-2022-jp?b?GyRCOkZBdxsoQik=?= In-Reply-To: <20060111051602.2E3C721EF52@neal.il.is.s.u-tokyo.ac.jp> References: <200601111053.HCJ04639.OPPIK@murata.co.jp> <20060111051602.2E3C721EF52@neal.il.is.s.u-tokyo.ac.jp> Message-ID: <200601111438.BCC95309.KPPOI@murata.co.jp> 亀山様 ありがとうございます。 > > 通常のg++(2.96)ですと、set_new_handlerが有効に働き、 > > メモリアロケーション(new)が失敗すると > > セットしたコールバック関数が呼び出されます。 > > > > ところが、mpic++で同一のソースをコンパイルすると > > コールバック関数が呼び出されず、Killされてしまいます。 > > redhat 7.3, memory 256 MB, swap 512 MB で g++ 2.96-110 でコンパイル > しましたが, kill されてしまいました. > > 通常の場合でも set_new_handler() を呼び出すかどうかは微妙かもしれません. 情報が不足していました。 更に「MALLOC_CHECK_=2」の環境変数をセットしないと g++でもset_new_handlerが有効になりません。 私は .bash_profile にて下記を設定しています。 export MALLOC_CHECK_=2 ------------------------ 本庄 央樹(Honjo Hisaki) ------------------------ From kameyama @ pccluster.org Wed Jan 11 15:56:07 2006 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Wed, 11 Jan 2006 15:56:07 +0900 Subject: [SCore-users-jp] Re:set_new_handler =?ISO-2022-JP?B?GyRCJEskRCQkJEYbKEIoGyRCOkZBdxsoQik=?= In-Reply-To: Your message of "Wed, 11 Jan 2006 14:38:49 JST." <200601111438.BCC95309.KPPOI@murata.co.jp> Message-ID: <20060111065607.BFAB521EF52@neal.il.is.s.u-tokyo.ac.jp> 亀山です. In article <200601111438.BCC95309.KPPOI @ murata.co.jp> Hisaki Honjo wrotes: > > > 通常のg++(2.96)ですと、set_new_handlerが有効に働き、 > > > メモリアロケーション(new)が失敗すると > > > セットしたコールバック関数が呼び出されます。 > > > > > > ところが、mpic++で同一のソースをコンパイルすると > > > コールバック関数が呼び出されず、Killされてしまいます。 > > > > redhat 7.3, memory 256 MB, swap 512 MB で g++ 2.96-110 でコンパイル > > しましたが, kill されてしまいました. > > > > 通常の場合でも set_new_handler() を呼び出すかどうかは微妙かもしれません. > > 情報が不足していました。 > 更に「MALLOC_CHECK_=2」の環境変数をセットしないと > g++でもset_new_handlerが有効になりません。 set しましたが, 変わりませんでした. あと, PM の都合で mmap() のモードを malloc_set_state() で変更しています. malloc() した memory は system に返さないようにして mmap() を使用するようにしています. このせいかもしれません. MPI の初期化終ってから mallopt(M_MMAP_MAX, xxx) で mmap の最大値を制限すれば new_handler を呼んでくれるかもしれません. from Kameyama Toyohisa From honjo @ murata.co.jp Wed Jan 11 16:23:10 2006 From: honjo @ murata.co.jp (Hisaki Honjo) Date: Wed, 11 Jan 2006 16:23:10 +0900 Subject: [SCore-users-jp] Re:set_new_handler =?iso-2022-jp?b?GyRCJEskRCQkJEYbKEIo?= =?iso-2022-jp?b?GyRCOkZBdxsoQik=?= In-Reply-To: <20060111065607.BFAB521EF52@neal.il.is.s.u-tokyo.ac.jp> References: <200601111438.BCC95309.KPPOI@murata.co.jp> <20060111065607.BFAB521EF52@neal.il.is.s.u-tokyo.ac.jp> Message-ID: <200601111623.JJI17653.PKIOP@murata.co.jp> > > > redhat 7.3, memory 256 MB, swap 512 MB で g++ 2.96-110 でコンパイル > > > しましたが, kill されてしまいました. > > > > > > 通常の場合でも set_new_handler() を呼び出すかどうかは微妙かもしれません. > > > > 情報が不足していました。 > > 更に「MALLOC_CHECK_=2」の環境変数をセットしないと > > g++でもset_new_handlerが有効になりません。 > > set しましたが, 変わりませんでした. 不思議ですね。確かにこちらでは環境変数のセットを行い、 g++でビルドしたら設定したハンドラに飛んできます。 カーネルの違いでしょうか… といっても特別な設定は行っていないのですが… > あと, PM の都合で mmap() のモードを malloc_set_state() で変更しています. > malloc() した memory は system に返さないようにして > mmap() を使用するようにしています. > このせいかもしれません. > MPI の初期化終ってから > mallopt(M_MMAP_MAX, xxx) > で mmap の最大値を制限すれば new_handler を呼んでくれるかもしれません. malloptを設定してみましたが改善されませんでした。 ------------------------ 本庄 央樹(Honjo Hisaki) ------------------------ From ikegami @ hpc.cs.ritsumei.ac.jp Fri Jan 13 14:05:17 2006 From: ikegami @ hpc.cs.ritsumei.ac.jp (Kosai Ikegami) Date: Fri, 13 Jan 2006 14:05:17 +0900 Subject: [SCore-users-jp] =?ISO-2022-JP?B?TVBJK09wZW5NUBskQiVPJSQlVhsoQg==?= =?ISO-2022-JP?B?GyRCJWolQyVJJVclbSUwJWklYCROJTMlcyVRJSQlayRIPEI5VCRLGyhC?= =?ISO-2022-JP?B?GyRCJEQkJCRGGyhC?= In-Reply-To: <20051124084651.F383421EF52@neal.il.is.s.u-tokyo.ac.jp> References: <20051124084651.F383421EF52@neal.il.is.s.u-tokyo.ac.jp> Message-ID: <43C7350D.4080901@hpc.cs.ritsumei.ac.jp> 立命館大学の池上と申します。 MPIとOpenMPを混ぜたハイブリッドプログラムについて調査を行っていますが、 以前MLにて回答いただきました通り、 /opt/score/etc/compilers/site に、   omni /opt/omni/bin/omcc - /opt/omni/bin/omf77 と追記し、 # cd /opt/score/score-src/runtime/mpi # smake 2>&1 | tee make.log # smake install 2>&1 tee makeinstall.log としてMPICHのリコンパイルとリインストールを行いましたが、 smake 2<&1の所で  omni is not known command, igore というログが何度も出現しており、 # mpicc -omni hello.c -openmp -static とあるプログラムをコンパイルしてみたところ、 omni is not known command, igore omni is not known command, igore omni is not known command, igore omni is not known command, igore omni is not known command, igore /opt/score-5.6/lib/i386-redhat8-linux2_4/libpm.a(pm.o): In function `pmErrorString': /opt/score-5.6/score-src/SCore/pm2/common/obj.i386-redhat8-linux2_4/../pm.c:499: `sys_errlist' is deprecated; use `strerror' or `strerror_r' instead /opt/score-5.6/score-src/SCore/pm2/common/obj.i386-redhat8-linux2_4/../pm.c:495: `sys_nerr' というエラーが出ました。 omniがPATHとして認識していないようですが、siteファイルの書き方はこれで正 しいのでしょうか? 宜しくお願い致します。 ソフト環境は Redhat Linux 8.0 SCore 5.6.0 MPICH 1.2.5 /opt/score-5.6/bin/ Omni omcc /opt/omni/bin/ となっています。 ++ 立命館大学 高性能計算研究室 池上 広済 ikegami @ hpc.cs.ritsumei.ac.jp From kameyama @ pccluster.org Fri Jan 13 14:47:25 2006 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Fri, 13 Jan 2006 14:47:25 +0900 Subject: [SCore-users-jp] =?ISO-2022-JP?B?TVBJK09wZW5NUBskQiVPGyhC?= =?ISO-2022-JP?B?GyRCJSQlViVqJUMlSSVXJW0lMCVpJWAkTiUzJXMlUSUkGyhC?= =?ISO-2022-JP?B?GyRCJWskSDxCOVQkSyREJCQkRhsoQg==?= In-Reply-To: Your message of "Fri, 13 Jan 2006 14:05:17 JST." <43C7350D.4080901@hpc.cs.ritsumei.ac.jp> Message-ID: <20060113054725.C932C21EF52@neal.il.is.s.u-tokyo.ac.jp> 亀山です. In article <43C7350D.4080901 @ hpc.cs.ritsumei.ac.jp> Kosai Ikegami wrotes: > 立命館大学の池上と申します。 > MPIとOpenMPを混ぜたハイブリッドプログラムについて調査を行っていますが、 > 以前MLにて回答いただきました通り、 > > /opt/score/etc/compilers/site に、 >   omni /opt/omni/bin/omcc - /opt/omni/bin/omf77 > と追記し、 このファイルの記述形式は SCore 5.2.0 で変更になりました. http://www.pccluster.org/score/dist/score-5.6.0/html/ja/release/new5-2.html http://www.pccluster.org/score/dist/score-5.6.0/html/ja/man/man5/compilers.html 新しい記述方法だと compiler の名前ごとのエントリになります. mpicc gnu=gcc omni=/opt/omni/bin/omcc mpif77 ognu=g77 omni=/opt/omni/bin/omf77 という感じです. from Kameyama Toyohisa From number_009 @ hotmail.com Sat Jan 14 16:45:47 2006 From: number_009 @ hotmail.com (sano shuji) Date: Sat, 14 Jan 2006 07:45:47 +0000 Subject: [SCore-users-jp] =?iso-2022-jp?b?c2NydW4bJEIkLDxCOVRJVDJEGyhC?= Message-ID: はじめまして 佐野と申します。 以前よりScoreにてクラスタ環境を実現し稼動していましたが、 この度ノードを増やそうと考え作業を行っておりましたところ エラーが発生してしまったのでご質問させていただきます。 サーバー・コンピュータホスト1台の2台構成だったところを コンピュータホストを1台追加しようと考えインストールし インストールガイドのシステムテストを行いました。 SCOUT Test Procedure PMテスト手順 は順調に完了したのですが SCoreテスト手順の項にて msgb、scoutを起動させ、コンパイルが完了し scrunでサンプルのプログラムを実行しようとしたところ 下記のメッセージを最後に msgbのウィンドウは赤くなり、そのまま動かないといった状況です 何かお分かりになりましたら、お教え頂けませんでしょうか 気になる点と致しましては、サーバーへScoreシステムをインストールした際に score.old と score5.8.2という2つのディレクトリが出来てしまっています。 よろしくお願い致します。 # mpicc -o cpi cpi.c -lm cc1: 警告: "-fconserve-space" is valid for C++ but not for C/ObjC /opt/score5.8.2/lib/i386-fedoracore1-linux2_4/libpm.a(pm_loader.o)(.text+0xc6): In function `pmLoaderLoadModule': ../pm_loader.c:52: warning: Using 'dlopen' in statically linked applications requires at runtime the shared libraries from the glibc version used for linking /opt/score5.8.2/mpi/mpich-1.2.5/i386-fedoracore1-linux2_4_gnu/lib/libmpich.a(chnodename.o)(.text+0x21): In function `MPID_Node_name': : warning: Using 'gethostbyname' in statically linked applications requires at runtime the shared libraries from the glibc version used for linking /opt/score5.8.2/lib/i386-fedoracore1-linux2_4/libscorecommon.a(utility.o)(.text+0x25e): In function `score_set_tcp_nodelay':../utility.c:200: warning: Using 'getprotobyname' in statically linked applications requires at runtime the shared libraries from the glibc version used for linking /usr/lib/gcc-lib/i386-redhat-linux/3.3.2/../../../libc.a(rcmd.o)(.text+0x80): In function `rcmd_af': : warning: Using 'getaddrinfo' in statically linked applications requires at runtime the shared libraries from the glibc version used for linking # # scrun ./cpi SCOUT:ERROR execve(/opt/score5.8.2/deploy/scored) failed (errno=2). SCOUT: execve(): No such file or directory straceのログも合わせて送付致します。 # strace ./cpi execve("./cpi", ["./cpi"], [/* 46 vars */]) = 0 uname({sys="Linux", node="serv.cluster.org", ...}) = 0 brk(0) = 0x8566d60 brk(0x8587d60) = 0x8587d60 brk(0x8588000) = 0x8588000 getpid() = 3751 readlink("/proc/3751/exe", "/opt/score5.8.2/example/mpi/cpi", 4096) = 31 write(2, "<0:0> SCORE: ", 13<0:0> SCORE: ) = 13 write(2, "One local node ready.", 21One local node ready.) = 21 write(2, "\n", 1 ) = 1 rt_sigaction(SIGHUP, {0x805a03c, [HUP], SA_RESTORER|SA_RESTART, 0x80bb518}, {SIG_DFL}, 8) = 0 rt_sigaction(SIGILL, {0x805a03c, [ILL], SA_RESTORER|SA_RESTART, 0x80bb518}, {SIG_DFL}, 8) = 0 rt_sigaction(SIGFPE, {0x805a03c, [FPE], SA_RESTORER|SA_RESTART, 0x80bb518}, {SIG_DFL}, 8) = 0 rt_sigaction(SIGBUS, {0x805a03c, [BUS], SA_RESTORER|SA_RESTART, 0x80bb518}, {SIG_DFL}, 8) = 0 rt_sigaction(SIGSEGV, {0x805a03c, [SEGV], SA_RESTORER|SA_RESTART, 0x80bb518}, {SIG_DFL}, 8) = 0 uname({sys="Linux", node="serv.cluster.org", ...}) = 0 gettimeofday({1137224499, 472231}, NULL) = 0 getpid() = 3751 open("/etc/resolv.conf", O_RDONLY) = 3 fstat64(3, {st_mode=S_IFREG|0644, st_size=41, ...}) = 0 old_mmap(NULL, 4096, PROT_READ|PROT_WRITE, MAP_PRIVATE|MAP_ANONYMOUS, -1, 0) = 0x40000000 read(3, "search cluster.org\nnameserver 13"..., 4096) = 41 read(3, "", 4096) = 0 close(3) = 0 munmap(0x40000000, 4096) = 0 socket(PF_UNIX, SOCK_STREAM, 0) = 3 connect(3, {sa_family=AF_UNIX, path="/var/run/.nscd_socket"}, 110) = -1 ENOENT (No such file or directory) close(3) = 0 open("/etc/nsswitch.conf", O_RDONLY) = 3 fstat64(3, {st_mode=S_IFREG|0644, st_size=1686, ...}) = 0 old_mmap(NULL, 4096, PROT_READ|PROT_WRITE, MAP_PRIVATE|MAP_ANONYMOUS, -1, 0) = 0x40000000 read(3, "#\n# /etc/nsswitch.conf\n#\n# An ex"..., 4096) = 1686 read(3, "", 4096) = 0 close(3) = 0 munmap(0x40000000, 4096) = 0 open("/opt/score5.8.2/deploy/lib.i386-fedoracore1-linux2_4/libnss_files.so.2", O_RDONLY) = -1 ENOENT (No such file or directory) stat64("/opt/score5.8.2/deploy/lib.i386-fedoracore1-linux2_4", {st_mode=S_IFDIR|0755, st_size=4096, ...}) = 0 open("/etc/ld.so.cache", O_RDONLY) = 3 fstat64(3, {st_mode=S_IFREG|0644, st_size=108620, ...}) = 0 old_mmap(NULL, 108620, PROT_READ, MAP_PRIVATE, 3, 0) = 0x40000000 close(3) = 0 open("/lib/libnss_files.so.2", O_RDONLY) = 3 read(3, "\177ELF\1\1\1\0\0\0\0\0\0\0\0\0\3\0\3\0\1\0\0\0000\35\0"..., 512) = 512 fstat64(3, {st_mode=S_IFREG|0755, st_size=51152, ...}) = 0 old_mmap(NULL, 41904, PROT_READ|PROT_EXEC, MAP_PRIVATE, 3, 0) = 0x4001b000 old_mmap(0x40025000, 4096, PROT_READ|PROT_WRITE, MAP_PRIVATE|MAP_FIXED, 3, 0xa000) = 0x40025000 close(3) = 0 open("/opt/score5.8.2/deploy/lib.i386-fedoracore1-linux2_4/libc.so.6", O_RDONLY) = -1 ENOENT (No such file or directory) open("/lib/libc.so.6", O_RDONLY) = 3 read(3, "\177ELF\1\1\1\0\0\0\0\0\0\0\0\0\3\0\3\0\1\0\0\0p\\\1\000"..., 512) = 512 fstat64(3, {st_mode=S_IFREG|0755, st_size=1573232, ...}) = 0 old_mmap(NULL, 1295908, PROT_READ|PROT_EXEC, MAP_PRIVATE, 3, 0) = 0x40026000 old_mmap(0x4015d000, 12288, PROT_READ|PROT_WRITE, MAP_PRIVATE|MAP_FIXED, 3, 0x137000) = 0x4015d000 old_mmap(0x40160000, 9764, PROT_READ|PROT_WRITE, MAP_PRIVATE|MAP_FIXED|MAP_ANONYMOUS, -1, 0) = 0x40160000 close(3) = 0 open("/opt/score5.8.2/deploy/lib.i386-fedoracore1-linux2_4/ld-linux.so.2", O_RDONLY) = -1 ENOENT (No such file or directory)open("/lib/ld-linux.so.2", O_RDONLY) = 3 read(3, "\177ELF\1\1\1\0\0\0\0\0\0\0\0\0\3\0\3\0\1\0\0\0P\274\243"..., 512) = 512 fstat64(3, {st_mode=S_IFREG|0755, st_size=107716, ...}) = 0 old_mmap(0xa3b000, 87896, PROT_READ|PROT_EXEC, MAP_PRIVATE, 3, 0) = 0xa3b000 old_mmap(0xa50000, 4096, PROT_READ|PROT_WRITE, MAP_PRIVATE|MAP_FIXED, 3, 0x15000) = 0xa50000 close(3) = 0 munmap(0x40000000, 108620) = 0 open("/etc/host.conf", O_RDONLY) = 3 fstat64(3, {st_mode=S_IFREG|0644, st_size=17, ...}) = 0 old_mmap(NULL, 4096, PROT_READ|PROT_WRITE, MAP_PRIVATE|MAP_ANONYMOUS, -1, 0) = 0x40000000 read(3, "order hosts,bind\n", 4096) = 17 read(3, "", 4096) = 0 close(3) = 0 munmap(0x40000000, 4096) = 0 brk(0) = 0x8588000 brk(0x85a9000) = 0x85a9000 brk(0) = 0x85a9000 open("/etc/hosts", O_RDONLY) = 3 fcntl64(3, F_GETFD) = 0 fcntl64(3, F_SETFD, FD_CLOEXEC) = 0 fstat64(3, {st_mode=S_IFREG|0644, st_size=284, ...}) = 0 old_mmap(NULL, 4096, PROT_READ|PROT_WRITE, MAP_PRIVATE|MAP_ANONYMOUS, -1, 0) = 0x40000000 read(3, "# Do not remove the following li"..., 4096) = 284 close(3) = 0 munmap(0x40000000, 4096) = 0 fstat64(1, {st_mode=S_IFCHR|0600, st_rdev=makedev(136, 3), ...}) = 0 old_mmap(NULL, 4096, PROT_READ|PROT_WRITE, MAP_PRIVATE|MAP_ANONYMOUS, -1, 0) = 0x40000000 write(1, "Process 0 of 1 on serv.cluster.o"..., 35Process 0 of 1 on serv.cluster.org ) = 35 gettimeofday({1137224499, 490521}, {4294966756, 0}) = 0 write(1, "pi is approximately 3.1416009869"..., 68pi is approximately 3.1416009869231254, Error is 0.0000083333333323 ) = 68 gettimeofday({1137224499, 490712}, {4294966756, 0}) = 0 write(1, "wall clock time = 0.000191\n", 27wall clock time = 0.000191 ) = 27 gettimeofday({1137224499, 490837}, {4294966756, 0}) = 0 munmap(0x40000000, 4096) = 0 exit_group(0) = ? _________________________________________________________________ 迷惑メールやウイルスへの対策も万全「MSN Hotmail」 http://promotion.msn.co.jp/hotmail/ From ikegami @ hpc.cs.ritsumei.ac.jp Sun Jan 15 22:10:44 2006 From: ikegami @ hpc.cs.ritsumei.ac.jp (Kosai Ikegami) Date: Sun, 15 Jan 2006 22:10:44 +0900 Subject: [SCore-users-jp] =?ISO-2022-JP?B?TVBJK09wZW5NUBskQiVPJSQlVhsoQg==?= =?ISO-2022-JP?B?GyRCJWolQyVJJVclbSUwJWklYCROJTMlcyVRJSQlayRIPEI5VCRLGyhC?= =?ISO-2022-JP?B?GyRCJEQkJCRGGyhC?= In-Reply-To: <20051124084651.F383421EF52@neal.il.is.s.u-tokyo.ac.jp> References: <20051124084651.F383421EF52@neal.il.is.s.u-tokyo.ac.jp> Message-ID: <43CA49D4.1000608@hpc.cs.ritsumei.ac.jp> 立命館大学の池上と申します。 MPIとOpenMPを混ぜたハイブリッドプログラムについて調査を行っていますが、 以前MLにて回答いただきました通り、 /opt/score/etc/compilers/site に、   omni /opt/omni/bin/omcc - /opt/omni/bin/omf77 と追記し、 # cd /opt/score/score-src/runtime/mpi # smake 2>&1 | tee make.log # smake install 2>&1 tee makeinstall.log としてMPICHのリコンパイルとリインストールを行いましたが、 smake 2<&1の所で  omni is not known command, igore というログが何度も出現しており、 # mpicc -omni hello.c -openmp -static とあるプログラムをコンパイルしてみたところ、 omni is not known command, igore omni is not known command, igore omni is not known command, igore omni is not known command, igore omni is not known command, igore /opt/score-5.6/lib/i386-redhat8-linux2_4/libpm.a(pm.o): In function `pmErrorString': /opt/score-5.6/score-src/SCore/pm2/common/obj.i386-redhat8-linux2_4/../pm.c:499: `sys_errlist' is deprecated; use `strerror' or `strerror_r' instead /opt/score-5.6/score-src/SCore/pm2/common/obj.i386-redhat8-linux2_4/../pm.c:495: `sys_nerr' というエラーが出ました。 omniがPATHとして認識していないようですが、siteファイルの書き方はこれで正 しいのでしょうか? 宜しくお願い致します。 ソフト環境は Redhat Linux 8.0 SCore 5.6.0 MPICH 1.2.5 /opt/score-5.6/bin/ Omni omcc /opt/omni/bin/ となっています。 ++ 立命館大学 高性能計算研究室 池上 広済 ikegami @ hpc.cs.ritsumei.ac.jp kameyama @ pccluster.org wrote: >亀山です. > >In article <43857684.3060009 @ hpc.cs.ritsumei.ac.jp> Kosai Ikegami wrotes: > > >>MPIとOpenMPを混ぜたハイブリッドプログラムの作成方法について調査を行って >>います。 >># mpicc ****.c -openmp >>のような形でコンパイルを行うようですが、OpenMPコンパイラにOMNI OpenMPコ >>ンパイラ >>を用いる場合、どのようにすれば良いのでしょうか? >> >> > >これは, 過去 (SCore 5.0.0) にやろうとしたことがあるのですが, >(文字化けしていますが, > http://www.pccluster.org/pipermail/score-users-jp/2002-July/002811.html > http://www.pccluster.org/pipermail/score-users-jp/2002-July/002812.html >にあります, > http://www.pccluster.org/pipermail/score-users-jp/2004-July.txt.gz >ならば読めるはずです.) >あれから試していないので, 現在の version では動くかどうか不明です... > > > >>以下、実行環境です。 >>Intel Xeon 2.8GHz Dual * 16nodes >>Gigabit Ethernet >>SCore 5.6.1 >>Omni 1.6 >> >> > >この環境で Distribution が redhat 7.3 か redhat 8 ならば, 上記 mail の設定で > /opt/score/etc/compilers/site >の書きかたを合わせれば動くかも知れません. >redhat 8.0 以降の場合は libpthread を提供していないので, >うまく動かない可能性が高そうです. > > from Kameyama Toyohisa > > > From kameyama @ pccluster.org Mon Jan 16 11:39:52 2006 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Mon, 16 Jan 2006 11:39:52 +0900 Subject: [SCore-users-jp] =?ISO-2022-JP?B?TVBJK09wZW5NUBskQiVPGyhC?= =?ISO-2022-JP?B?GyRCJSQlViVqJUMlSSVXJW0lMCVpJWAkTiUzJXMlUSUkGyhC?= =?ISO-2022-JP?B?GyRCJWskSDxCOVQkSyREJCQkRhsoQg==?= In-Reply-To: Your message of "Sun, 15 Jan 2006 22:10:44 JST." <43CA49D4.1000608@hpc.cs.ritsumei.ac.jp> Message-ID: <20060116023952.40BE121EF52@neal.il.is.s.u-tokyo.ac.jp> In article <43CA49D4.1000608 @ hpc.cs.ritsumei.ac.jp> Kosai Ikegami wrotes: > --===============1697149916== > Content-Type: text/plain; charset=ISO-2022-JP > Content-Transfer-Encoding: 7bit > > 立命館大学の池上と申します。 > MPIとOpenMPを混ぜたハイブリッドプログラムについて調査を行っていますが、 > 以前MLにて回答いただきました通り、 > > > /opt/score/etc/compilers/site に、 > >   omni /opt/omni/bin/omcc - /opt/omni/bin/omf77 > と追記し、 http://www.pccluster.org/pipermail/score-users-jp/2006-January/005530.html で書いたように, この file format が SCore 5.2.0 で変更になっています. http://www.pccluster.org/score/dist/score-5.6.0/html/ja/man/man5/compilers.html に合わせて書き直してください. from Kameyama Toyohisa From kameyama @ pccluster.org Mon Jan 16 11:55:20 2006 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Mon, 16 Jan 2006 11:55:20 +0900 Subject: [SCore-users-jp] =?ISO-2022-JP?B?c2NydW4bJEIkLDxCOVQbKEI=?= =?ISO-2022-JP?B?GyRCSVQyRBsoQg==?= In-Reply-To: Your message of "Sat, 14 Jan 2006 07:45:47 JST." Message-ID: <20060116025520.0829221EF52@neal.il.is.s.u-tokyo.ac.jp> 亀山です. In article "sano shuji" wrotes: > 以前よりScoreにてクラスタ環境を実現し稼動していましたが、 > この度ノードを増やそうと考え作業を行っておりましたところ > エラーが発生してしまったのでご質問させていただきます。 > > サーバー・コンピュータホスト1台の2台構成だったところを > コンピュータホストを1台追加しようと考えインストールし > インストールガイドのシステムテストを行いました。 なにをどのように install したのでしょうか? > # > # scrun ./cpi > SCOUT:ERROR execve(/opt/score5.8.2/deploy/scored) failed (errno=2). > SCOUT: execve(): No such file or directory /opt/score5.8.2/deploy/scored がみつからないようです. このコマンドは server およびすべての compute host に 存在する必要があります. このコマンドは, (特に新しく追加した compute host に) 存在するでしょうか? (scout ができているので, ありそうに思うのですが > straceのログも合わせて送付致します。 > # strace ./cpi ./cpi 単独で動かしたときの strace なので, 残念ながら参考にはなりません. from Kameyama Toyohisa From number_009 @ hotmail.com Mon Jan 16 14:08:03 2006 From: number_009 @ hotmail.com (sano shuji) Date: Mon, 16 Jan 2006 05:08:03 +0000 Subject: =?iso-2022-jp?B?UmU6IFtTQ29yZS11c2Vycy1qcF0gc2NydW4bJEIkLDxCOVRJVBsoQg==?= =?iso-2022-jp?B?GyRCMkQbKEI=?= In-Reply-To: <20060116025520.0829221EF52@neal.il.is.s.u-tokyo.ac.jp> Message-ID: 亀山様 ご返信ありがとうございます、佐野です。 >なにをどのように install したのでしょうか? 新規に追加したcompute host にて下記を行い # mkdir /opt/score/deploy # rcp -rp server:/opt/score/deploy/\* /opt/score/deploy/ # mkdir /opt/score/install # rcp -rp server:/opt/score/install/\* /opt/score/install/ # cd /opt/score/install # ./setup -score_comp -pbs_comp .bashrcにexport PWDの追記致しました。 また全てのhostの /root/.rhosts と/etc/hosts.equivに下記を設定致しました。 serv.cluster.org com1.cluster.org com2.cluster.org さらにsever hostの/opt/score/scorehosts.dbに 新規追加したcompute hostの名前を追記致しました。 >/opt/score5.8.2/deploy/scored がみつからないようです. >このコマンドは server およびすべての compute host に >存在する必要があります. >このコマンドは, (特に新しく追加した compute host に) >存在するでしょうか? これは、server host以外ではcommnd not foundとなってしまいました。 >From: kameyama @ pccluster.org >To: "sano shuji" >CC: score-users-jp @ pccluster.org >Subject: Re: [SCore-users-jp] scrunが実行不可 >Date: Mon, 16 Jan 2006 11:55:20 +0900 > >亀山です. > >In article "sano shuji" wrotes: > > 以前よりScoreにてクラスタ環境を実現し稼動していましたが、 > > この度ノードを増やそうと考え作業を行っておりましたところ > > エラーが発生してしまったのでご質問させていただきます。 > > > > サーバー・コンピュータホスト1台の2台構成だったところを > > コンピュータホストを1台追加しようと考えインストールし > > インストールガイドのシステムテストを行いました。 > >なにをどのように install したのでしょうか? > > > # > > # scrun ./cpi > > SCOUT:ERROR execve(/opt/score5.8.2/deploy/scored) failed (errno=2). > > SCOUT: execve(): No such file or directory > >/opt/score5.8.2/deploy/scored がみつからないようです. >このコマンドは server およびすべての compute host に >存在する必要があります. >このコマンドは, (特に新しく追加した compute host に) >存在するでしょうか? > >(scout ができているので, ありそうに思うのですが > > > > straceのログも合わせて送付致します。 > > # strace ./cpi > >./cpi 単独で動かしたときの strace なので, >残念ながら参考にはなりません. > > from Kameyama Toyohisa _________________________________________________________________ 迷惑メールやウイルスへの対策も万全「MSN Hotmail」 http://promotion.msn.co.jp/hotmail/ From kameyama @ pccluster.org Mon Jan 16 14:14:22 2006 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Mon, 16 Jan 2006 14:14:22 +0900 Subject: [SCore-users-jp] =?ISO-2022-JP?B?c2NydW4bJEIkLDxCGyhC?= =?ISO-2022-JP?B?GyRCOVRJVDJEGyhC?= In-Reply-To: Your message of "Mon, 16 Jan 2006 05:08:03 JST." Message-ID: <20060116051422.8244621EF52@neal.il.is.s.u-tokyo.ac.jp> 亀山です. In article "sano shuji" wrotes: > >なにをどのように install したのでしょうか? > 新規に追加したcompute host にて下記を行い > # mkdir /opt/score/deploy > # rcp -rp server:/opt/score/deploy/\* /opt/score/deploy/ > # mkdir /opt/score/install > # rcp -rp server:/opt/score/install/\* /opt/score/install/ > # cd /opt/score/install > # ./setup -score_comp -pbs_comp > .bashrcにexport PWDの追記致しました。 server に install したのは rpm からでしょうか? rpm の場合は install root を /opt/score5.8.2 にしています. また, compute host のみに必要なものは server には install していません. server を rpm で install したのでしたら, compute host も rpm で install してください. from Kameyama Toyohisa From f-2a @ hotmail.co.jp Mon Jan 23 18:24:46 2006 From: f-2a @ hotmail.co.jp (=?iso-2022-jp?B?GyRCPj5CPBsoQiAbJEJCczpIGyhC?=) Date: Mon, 23 Jan 2006 18:24:46 +0900 Subject: [SCore-users-jp] =?iso-2022-jp?b?U2NvcmUtRBskQiRHJE4lKCVpGyhC?= =?iso-2022-jp?b?GyRCITwbKEI=?= Message-ID: 熊本電波高専の松村と申します。 皆様お世話になります。 現在、「PC Cluster Consortium」の「RPMファイルによるインストール」を参考にし Fedora Core 1 + Score 5.8.2の組合せでテスト用のPCクラスタを構築を行いまし た。システムテスト(PM/Ethernetの総合テスト等)で動作を確認した後、姫野ベンチ マークによるテストを行ったのですが以下のようなエラーが出て先に進めません。 [root @ server bench]# mpirun -np 2 bmt <0> SCore-D:WARNING PM ethernet/ethernet device already opened. <1> SCore-D:WARNING PM ethernet/ethernet device already opened. <0> SCore-D:ERROR No PM device opened. <1> SCore-D:ERROR No PM device opened システムの構成は、サーバーホスト1台+計算ホスト2台です。(3台とも仕様は同 じで、以下に示します。) CPU Intel Pentium4 2.53GHz メモリ 256MB ネットワーク Ethernet 以上が状況説明です。このエラーの解決策をご存じの方がいらっしゃいまし たらご教授いただけないでしょうか。お忙しいところ恐縮ですが、よろしくお願いし ます。 _________________________________________________________________ パソコンでも携帯電話でも使える 「MSN Hotmail」 http://promotion.msn.co.jp/hotmail/ From kameyama @ pccluster.org Mon Jan 23 18:38:33 2006 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Mon, 23 Jan 2006 18:38:33 +0900 Subject: [SCore-users-jp] =?ISO-2022-JP?B?U2NvcmUtRBskQiRHJE4bKEI=?= =?ISO-2022-JP?B?GyRCJSglaSE8GyhC?= In-Reply-To: Your message of "Mon, 23 Jan 2006 18:24:46 JST." Message-ID: <20060123093833.7E7AE21EF52@neal.il.is.s.u-tokyo.ac.jp> 亀山です. In article 松村 拓哉 wrotes: > Fedora Core 1 + Score 5.8.2の組合せでテスト用のPCクラスタを構築を行いまし > た。システムテスト(PM/Ethernetの総合テスト等)で動作を確認した後、姫野ベンチ > マークによるテストを行ったのですが以下のようなエラーが出て先に進めません。 > > [root @ server bench]# mpirun -np 2 bmt > <0> SCore-D:WARNING PM ethernet/ethernet device already opened. > <1> SCore-D:WARNING PM ethernet/ethernet device already opened. > <0> SCore-D:ERROR No PM device opened. > <1> SCore-D:ERROR No PM device opened 多分, compute host に "PM/Ethernet の総合テスト等" を 行なったときの program が動いたままになっているのだと思います. (たとえば, rpmtest の reply など...) rpmtest, scstest などが起動されたままになっていましたら, 修了 させてから実行してください. from Kameyama Toyohisa From hori @ swimmy-soft.com Mon Jan 23 18:53:18 2006 From: hori @ swimmy-soft.com (Atsushi HORI) Date: Mon, 23 Jan 2006 18:53:18 +0900 Subject: =?ISO-2022-JP?B?UmU6IFtTQ29yZS11c2Vycy1qcF0gU2NvcmUtRBskQiRHGyhC?= =?ISO-2022-JP?B?GyRCJE4lKCVpITwbKEI=?= In-Reply-To: References: Message-ID: <5E0EFF37-EC17-426C-8B01-6745CB140F81@swimmy-soft.com> On 2006/01/23, at 18:24, 松村 拓哉 wrote: > Fedora Core 1 + Score 5.8.2の組合せでテスト用のPCクラス > タを構築を行いまし > た。システムテスト(PM/Ethernetの総合テスト等)で動 > 作を確認した後、姫野ベンチ > マークによるテストを行ったのですが以下のようなエラーが出て先に > 進めません。 > > [root @ server bench]# mpirun -np 2 bmt > <0> SCore-D:WARNING PM ethernet/ethernet device already opened. > <1> SCore-D:WARNING PM ethernet/ethernet device already opened. > <0> SCore-D:ERROR No PM device opened. > <1> SCore-D:ERROR No PM device opened このエラーは既に他の SCore プログラムが動いていて、PM/ Ethernet を「排他的」にオープンできなかった、ことを意味します。 姫野ベンチを走らせる前に何らかのプログラム(pmtest か な?)が動いているので、scout ps とかやって探して、もしあ ればそのプログラムを kill してください。 From f-2a @ hotmail.co.jp Mon Jan 23 18:59:48 2006 From: f-2a @ hotmail.co.jp (=?iso-2022-jp?B?GyRCPj5CPBsoQiAbJEJCczpIGyhC?=) Date: Mon, 23 Jan 2006 18:59:48 +0900 Subject: =?iso-2022-jp?B?UmU6IFtTQ29yZS11c2Vycy1qcF0gU2NvcmUtRBskQiRHJE4lKBsoQg==?= =?iso-2022-jp?B?GyRCJWkhPBsoQg==?= In-Reply-To: <20060123093833.7E7AE21EF52@neal.il.is.s.u-tokyo.ac.jp> Message-ID: 亀山様 早速の返信ありがとうございました。 >多分, compute host に "PM/Ethernet の総合テスト等" を >行なったときの program が動いたままになっているのだと思います. >(たとえば, rpmtest の reply など...) >rpmtest, scstest などが起動されたままになっていましたら, 修了 >させてから実行してください. この起動されたままになっているプログラムを確認するにはどうすればいいのでしょ うか? また、プログラムを終了されるコマンドは以下で正しいでしょうか? [root @ server root]# kill-all -g pcc rpmtest comp0.pccluster.org comp1.pccluster.org [root @ server root]# kill-all -g pcc scstest comp0.pccluster.org comp1.pccluster.org 初歩的な質問で申し訳ありませんが、よろしくお願いします。 _________________________________________________________________ MSNショッピングでXbox360を早速チェック! http://shopping.msn.co.jp/softcontent/softcontent.aspx?scmId=593 From kameyama @ pccluster.org Mon Jan 23 19:12:40 2006 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Mon, 23 Jan 2006 19:12:40 +0900 Subject: [SCore-users-jp] =?ISO-2022-JP?B?U2NvcmUtRBskQiRHGyhC?= =?ISO-2022-JP?B?GyRCJE4lKCVpITwbKEI=?= In-Reply-To: Your message of "Mon, 23 Jan 2006 18:59:48 JST." Message-ID: <20060123101240.D61CC21EF52@neal.il.is.s.u-tokyo.ac.jp> 亀山です. In article 松村 拓哉 wrotes: > >多分, compute host に "PM/Ethernet の総合テスト等" を > >行なったときの program が動いたままになっているのだと思います. > >(たとえば, rpmtest の reply など...) > >rpmtest, scstest などが起動されたままになっていましたら, 修了 > >させてから実行してください. > > この起動されたままになっているプログラムを確認するにはどうすればいいのでしょ > うか? まず, 他の window で rpmtest などが立ち上がっていないか 確認してください. 立ち上がっている場合は control-C で終了させれば良いはずです. 他の window では立ち上がっていない場合は, % scout ps ax などで, compute host で pmtest などが残っていないか確認します. (rpmtest は user host で pmtest を起動するコマンドです. compute host では pmtest になります.) 残っていた場合は, kill-alll でその process を殺します. % kill-all -g pcc pmtest などというようになります. from Kameyama Toyohisa From f-2a @ hotmail.co.jp Mon Jan 23 19:37:02 2006 From: f-2a @ hotmail.co.jp (=?iso-2022-jp?B?GyRCPj5CPBsoQiAbJEJCczpIGyhC?=) Date: Mon, 23 Jan 2006 19:37:02 +0900 Subject: =?iso-2022-jp?B?UmU6IFJlOiBbU0NvcmUtdXNlcnMtanBdIFNjb3JlLUQbJEIkRxsoQg==?= =?iso-2022-jp?B?GyRCJE4lKCVpITwbKEI=?= In-Reply-To: <20060123101240.D61CC21EF52@neal.il.is.s.u-tokyo.ac.jp> Message-ID: 亀山様、堀様 回答ありがとうございます。以下が回答に従い実行した結果です。 >他の window では立ち上がっていない場合は, > % scout ps ax >などで, compute host で pmtest などが残っていないか確認します. >(rpmtest は user host で pmtest を起動するコマンドです. >compute host では pmtest になります.) > >残っていた場合は, kill-alll でその process を殺します. > % kill-all -g pcc pmtest >などというようになります. [root @ server bench]# scout ps ax [comp0]*: PID TTY STAT TIME COMMAND 1 ? S 0:04 init [5] 2 ? SW 0:00 [keventd] 3 ? SW 0:00 [kapmd] 4 ? SWN 0:00 [ksoftirqd_CPU0] 5 ? SW 0:00 [kswapd] 6 ? SW 0:00 [bdflush] 7 ? SW 0:00 [kupdated] 8 ? SW< 0:00 [mdrecoveryd] 12 ? SW 0:00 [kjournald] 79 ? SW 0:00 [khubd] 2467 ? S 0:00 syslogd -m 0 2471 ? S 0:00 klogd -x 2492 ? S 0:00 portmap 2512 ? S 0:00 rpc.statd 2567 ? S 0:00 /usr/sbin/apmd -p 10 -w 5 -W -P /etc/sysconfig/apm-scripts/apmscript 2608 ? S 0:00 /usr/sbin/smartd 2663 ? S 0:00 /usr/sbin/sshd 2679 ? S 0:00 xinetd -stayalive -pidfile /var/run/xinetd.pid 2700 ? S 0:00 sendmail: accepting connections 2709 ? S 0:00 sendmail: Queue runner @ 01:00:00 for /var/spool/clientmqueue 2720 ? S 0:00 gpm -m /dev/psaux -t ps/2 2732 ? S 0:00 /usr/bin/jserver 2742 ? S 0:00 /usr/sbin/cannaserver -syslog -u bin 2754 ? S 0:00 crond 2792 ? S 0:00 xfs -droppriv -daemon 2811 ? S 0:00 /usr/sbin/atd 2821 ? S 0:00 dbus-daemon-1 --system 2884 ? S 0:00 /opt/score5.8.2/deploy/bin.i386-fedoracore1-linux2_4/scoutd.exe -f /etc/hosts.equiv -pid 2894 tty1 S 0:00 /sbin/mingetty tty1 2895 tty2 S 0:00 /sbin/mingetty tty2 2896 tty3 S 0:00 /sbin/mingetty tty3 2897 tty4 S 0:00 /sbin/mingetty tty4 2898 tty5 S 0:00 /sbin/mingetty tty5 2899 tty6 S 0:00 /sbin/mingetty tty6 2900 ? S 0:00 /usr/bin/gdm-binary -nodaemon 2941 ? S 0:00 /usr/bin/gdm-binary -nodaemon 2942 ? S 0:01 /usr/X11R6/bin/X :0 -audit 0 -auth /var/gdm/:0.Xauth -nolisten tcp vt7 2961 ? S 0:00 /usr/bin/gnome-session 2986 ? S 0:00 /bin/bash /etc/X11/xdm/Xsession default 2988 ? S 0:00 kinput2 -canna 3034 ? S 0:00 /usr/bin/ssh-agent /etc/X11/xinit/Xclients 3044 ? S 0:00 /usr/libexec/gconfd-2 5 3048 ? S 0:00 /usr/libexec/bonobo-activation-server --ac-activate --ior-output-fd=18 3050 ? S 0:00 /usr/bin/metacity --sm-client-id=default1 3053 ? S 0:00 gnome-settings-daemon --oaf-activate-iid=OAFIID:GNOME_SettingsDaemon --oaf-ior-fd=22 3059 ? S 0:00 fam 3083 ? S 0:00 gnome-panel --sm-client-id default2 3092 ? S 0:01 nautilus --no-default-window --sm-client-id default3 3094 ? S 0:00 magicdev --sm-client-id default4 3096 ? S 0:00 eggcups --sm-client-id default6 3098 ? S 0:00 pam-panel-icon --sm-client-id default0 3100 ? SN 0:00 /usr/bin/python /usr/bin/rhn-applet-gui --sm-client-id default5 3101 ? S 0:00 /sbin/pam_timestamp_check -d root 3102 ? S 0:00 nautilus --no-default-window --sm-client-id default3 3103 ? S 0:00 nautilus --no-default-window --sm-client-id default3 3105 ? S 0:00 /usr/libexec/mapping-daemon 3106 ? S 0:00 nautilus --no-default-window --sm-client-id default3 3107 ? S 0:00 nautilus --no-default-window --sm-client-id default3 3109 ? S 0:00 /usr/libexec/notification-area-applet --oaf-activate-iid=OAFIID:GNOME_NotificationAreaApplet_Factory --oaf-ior-fd=28 3111 ? S 0:00 /usr/libexec/mixer_applet2 --oaf-activate-iid=OAFIID:GNOME_MixerApplet_Factory --oaf-ior-fd=30 3115 ? S 0:00 /usr/libexec/wnck-applet --oaf-activate-iid=OAFIID:GNOME_Wncklet_Factory --oaf-ior-fd=32 3225 ? SN 0:00 cupsd 3784 ? S 0:00 /opt/score5.8.2/deploy/bin.i386-fedoracore1-linux2_4/scremote.exe 0 server.pccluster.org 33213 server.pccluster.org 33213 0 0 3969 ? S 0:00 /usr/bin/gnome-terminal 3970 ? S 0:00 gnome-pty-helper 3971 pts/1 S 0:00 bash 4060 ? R 0:00 ps ax 4061 ? S 0:00 /opt/score5.8.2/deploy/bin.i386-fedoracore1-linux2_4/scremote.exe 0 server.pccluster.org 33213 server.pccluster.org 33213 0 0 [comp1]*: PID TTY STAT TIME COMMAND 1 ? S 0:04 init [5] 2 ? SW 0:00 [keventd] 3 ? SW 0:00 [kapmd] 4 ? SWN 0:00 [ksoftirqd_CPU0] 5 ? SW 0:01 [kswapd] 6 ? SW 0:00 [bdflush] 7 ? SW 0:00 [kupdated] 8 ? SW< 0:00 [mdrecoveryd] 12 ? SW 0:00 [kjournald] 79 ? SW 0:00 [khubd] 2552 ? S 0:00 syslogd -m 0 2556 ? S 0:00 klogd -x 2577 ? S 0:00 portmap 2597 ? S 0:00 rpc.statd 2636 ? S 0:00 hcid: processing events 2641 ? S 0:00 /usr/sbin/sdpd 2670 ? S 0:00 /usr/sbin/apmd -p 10 -w 5 -W -P /etc/sysconfig/apm-scripts/apmscript 2711 ? S 0:00 /usr/sbin/smartd 2728 ? S 0:00 cupsd 2771 ? S 0:00 /usr/sbin/sshd 2787 ? S 0:00 xinetd -stayalive -pidfile /var/run/xinetd.pid 2817 ? S 0:00 sendmail: accepting connections 2826 ? S 0:00 sendmail: Queue runner @ 01:00:00 for /var/spool/clientmqueue 2838 ? S 0:00 /usr/bin/spamd -d -c -a -m5 -H 2848 ? S 0:00 /usr/sbin/privoxy --user privoxy privoxy --pidfile /var/run/privoxy.pid /etc/privoxy/config 2870 ? S 0:00 /usr/bin/jserver 2880 ? S 0:00 /usr/sbin/cannaserver -syslog -u bin 2892 ? S 0:00 crond 2944 ? S 0:00 xfs -droppriv -daemon 2963 ? S 0:00 /usr/sbin/atd 2973 ? S 0:00 dbus-daemon-1 --system 3036 ? S 0:00 /opt/score5.8.2/deploy/bin.i386-fedoracore1-linux2_4/scoutd.exe -f /etc/hosts.equiv -pid 3052 tty1 S 0:00 /sbin/mingetty tty1 3053 tty2 S 0:00 /sbin/mingetty tty2 3054 tty3 S 0:00 /sbin/mingetty tty3 3055 tty4 S 0:00 /sbin/mingetty tty4 3056 tty5 S 0:00 /sbin/mingetty tty5 3057 tty6 S 0:00 /sbin/mingetty tty6 3058 ? S 0:00 /usr/bin/gdm-binary -nodaemon 3099 ? S 0:00 /usr/bin/gdm-binary -nodaemon 3100 ? S 0:03 /usr/X11R6/bin/X :0 -audit 0 -auth /var/gdm/:0.Xauth -nolisten tcp vt7 3109 ? S 0:00 /usr/bin/gnome-session 3134 ? S 0:00 /bin/bash /etc/X11/xdm/Xsession default 3136 ? S 0:00 kinput2 -canna 3182 ? S 0:00 /usr/bin/ssh-agent /etc/X11/xinit/Xclients 3192 ? S 0:01 /usr/libexec/gconfd-2 5 3196 ? S 0:00 /usr/libexec/bonobo-activation-server --ac-activate --ior-output-fd=18 3198 ? S 0:00 /usr/bin/metacity --sm-client-id=default1 3201 ? S 0:00 gnome-settings-daemon --oaf-activate-iid=OAFIID:GNOME_SettingsDaemon --oaf-ior-fd=22 3207 ? S 0:00 fam 3228 ? S 0:00 gnome-panel --sm-client-id default2 3240 ? S 0:01 nautilus --no-default-window --sm-client-id default3 3242 ? S 0:00 magicdev --sm-client-id default4 3245 ? S 0:00 eggcups --sm-client-id default6 3247 ? S 0:00 pam-panel-icon --sm-client-id default0 3249 ? SN 0:01 /usr/bin/python /usr/bin/rhn-applet-gui --sm-client-id default5 3250 ? S 0:00 /sbin/pam_timestamp_check -d root 3251 ? S 0:00 nautilus --no-default-window --sm-client-id default3 3252 ? S 0:00 nautilus --no-default-window --sm-client-id default3 3254 ? S 0:00 /usr/libexec/mapping-daemon 3255 ? S 0:00 nautilus --no-default-window --sm-client-id default3 3256 ? S 0:00 nautilus --no-default-window --sm-client-id default3 3258 ? S 0:00 /usr/libexec/notification-area-applet --oaf-activate-iid=OAFIID:GNOME_NotificationAreaApplet_Factory --oaf-ior-fd=28 3260 ? S 0:00 /usr/libexec/mixer_applet2 --oaf-activate-iid=OAFIID:GNOME_MixerApplet_Factory --oaf-ior-fd=30 3264 ? S 0:00 /usr/libexec/wnck-applet --oaf-activate-iid=OAFIID:GNOME_Wncklet_Factory --oaf-ior-fd=32 3324 ? S 0:00 /usr/libexec/evolution/1.4/evolution-wombat --oaf-activate-iid=OAFIID:GNOME_Evolution_Wombat_InterfaceCheck --oaf-ior-fd=36 3326 ? S 0:00 /usr/libexec/evolution/1.4/evolution-alarm-notify --oaf-activate-iid=OAFIID:GNOME_Evolution_Calendar_AlarmNotify_Factory --oaf-ior-fd=38 4359 ? S 0:00 /opt/score5.8.2/deploy/bin.i386-fedoracore1-linux2_4/scremote.exe 1 comp0.pccluster.org 32811 server.pccluster.org 33213 0 0 4602 ? S 0:04 /usr/bin/epiphany-bin 4605 ? S 0:00 /usr/bin/epiphany-bin 4606 ? S 0:00 /usr/bin/epiphany-bin 4607 ? S 0:00 /usr/bin/epiphany-bin 4609 ? S 0:00 /usr/bin/epiphany-bin 4615 ? S 0:00 /usr/bin/esd -terminate -nobeeps -as 2 -spawnfd 31 4617 ? S 0:00 /usr/bin/epiphany-bin 4619 ? S 0:00 /usr/bin/gnome-terminal 4620 ? S 0:00 gnome-pty-helper 4621 pts/1 S 0:00 bash 4722 ? R 0:00 ps ax 4723 ? R 0:00 /opt/score5.8.2/deploy/bin.i386-fedoracore1-linux2_4/scremote.exe 1 comp0.pccluster.org 32811 server.pccluster.org 33213 0 0 恥ずかしながら、コマンドを実行してみましたが、どのプログラムが起動しているか わかりません。お手数ですが、どのプログラムが起動しているのか教えて頂けないで しょうか。 長くなりましたがよろしくお願いします。 _________________________________________________________________ パソコンでも携帯電話でも使える 「MSN Hotmail」 http://promotion.msn.co.jp/hotmail/ From kameyama @ pccluster.org Mon Jan 23 19:58:00 2006 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Mon, 23 Jan 2006 19:58:00 +0900 Subject: [SCore-users-jp] =?ISO-2022-JP?B?U2NvcmUtRA==?= =?ISO-2022-JP?B?GyRCJEckTiUoJWkhPBsoQg==?= In-Reply-To: Your message of "Mon, 23 Jan 2006 19:37:02 JST." Message-ID: <20060123105800.5E21321EF52@neal.il.is.s.u-tokyo.ac.jp> 亀山です. In article 松村 拓哉 wrotes: > [root @ server bench]# scout ps ax (中略) > 恥ずかしながら、コマンドを実行してみましたが、どのプログラムが起動しているか > わかりません。お手数ですが、どのプログラムが起動しているのか教えて頂けないで > しょうか。 これを見る限り, pm を使っていそうなプロセスはないようです. scorehosts.db で ethernet と trunk を両方指定しているか, 実は PM/Ethernet の config file が悪いか... 環境変数 PM_DEBUG を 1 にして mpi program を動かすと 何かわかるかも知れません. % env PM_DEBUG=1 mpirun -np 2 bmt を実行してみてください. from Kameyama Toyohisa From f-2a @ hotmail.co.jp Tue Jan 24 18:12:51 2006 From: f-2a @ hotmail.co.jp (=?iso-2022-jp?B?GyRCPj5CPBsoQiAbJEJCczpIGyhC?=) Date: Tue, 24 Jan 2006 18:12:51 +0900 Subject: =?iso-2022-jp?B?UmU6IFJlOiBSZTogW1NDb3JlLXVzZXJzLWpwXSBTY29yZS1E?= =?iso-2022-jp?B?GyRCJEckTiUoJWkhPBsoQg==?= In-Reply-To: <20060123105800.5E21321EF52@neal.il.is.s.u-tokyo.ac.jp> Message-ID: 亀山様 回答ありがとうございました。以下が回答に従い実行した結果です。 >scorehosts.db で ethernet と trunk を両方指定しているか, 実は >PM/Ethernet の config file が悪いか... > >環境変数 PM_DEBUG を 1 にして mpi program を動かすと >何かわかるかも知れません. > % env PM_DEBUG=1 mpirun -np 2 bmt >を実行してみてください. [root @ server bench]# env PM_DEBUG=1 mpirun -np 1 bmt pmEthernetMapEthernet(0, 0xbffff008): open("/dev/etherpm/0", 2, 0): 16 pmEthernetOpenDevice("/var/scored/scoreboard/server.0000B3002A_Z", 0xbffff184): pmEthernetMapEthernet(0, 0xbffff008): 16 <0> SCore-D:WARNING PM ethernet/ethernet device already opened. pmEthernetMapEthernet(0, 0xbffff008): open("/dev/etherpm/0", 2, 0): 16 pmEthernetOpenDevice("/var/scored/scoreboard/server.0000B3002A_Z", 0xbffff184): pmEthernetMapEthernet(0, 0xbffff008): 16 <1> SCore-D:WARNING PM ethernet/ethernet device already opened. <0> SCore-D:ERROR No PM device opened. <1> SCore-D:ERROR No PM device opened. 遅くなりましたが返信いたします。よろしくお願いします。 _________________________________________________________________ 迷惑メールやウイルスへの対策も万全「MSN Hotmail」 http://promotion.msn.co.jp/hotmail/ From kameyama @ pccluster.org Tue Jan 24 18:49:49 2006 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Tue, 24 Jan 2006 18:49:49 +0900 Subject: [SCore-users-jp] =?ISO-2022-JP?B?U2NvcmUtRA==?= =?ISO-2022-JP?B?GyRCJEckTiUoJWkhPBsoQg==?= In-Reply-To: Your message of "Tue, 24 Jan 2006 18:12:51 JST." Message-ID: <20060124094949.948FC21EF52@neal.il.is.s.u-tokyo.ac.jp> 亀山です. In article 松村 拓哉 wrotes: > >何かわかるかも知れません. > > % env PM_DEBUG=1 mpirun -np 2 bmt > >を実行してみてください. > > [root @ server bench]# env PM_DEBUG=1 mpirun -np 1 bmt > pmEthernetMapEthernet(0, 0xbffff008): open("/dev/etherpm/0", 2, 0): 16 > pmEthernetOpenDevice("/var/scored/scoreboard/server.0000B3002A_Z", > 0xbffff184): pmEthernetMapEthernet(0, 0xbffff008): 16 > <0> SCore-D:WARNING PM ethernet/ethernet device already opened. > pmEthernetMapEthernet(0, 0xbffff008): open("/dev/etherpm/0", 2, 0): 16 > pmEthernetOpenDevice("/var/scored/scoreboard/server.0000B3002A_Z", > 0xbffff184): pmEthernetMapEthernet(0, 0xbffff008): 16 > <1> SCore-D:WARNING PM ethernet/ethernet device already opened. > <0> SCore-D:ERROR No PM device opened. > <1> SCore-D:ERROR No PM device opened. > > 遅くなりましたが返信いたします。よろしくお願いします。 やはり, なんかの process が open() しているようです. scout 環境で, % scout /usr/sbin/lsof /dev/etherpm/0 を実行してみてください. from Kameyama Toyohisa From f-2a @ hotmail.co.jp Tue Jan 24 19:29:21 2006 From: f-2a @ hotmail.co.jp (=?iso-2022-jp?B?GyRCPj5CPBsoQiAbJEJCczpIGyhC?=) Date: Tue, 24 Jan 2006 19:29:21 +0900 Subject: =?iso-2022-jp?B?UmU6IFJlOiBSZTogUmU6IFtTQ29yZS11c2Vycy1qcF0gU2NvcmUtRA==?= =?iso-2022-jp?B?GyRCJEckTiUoJWkhPBsoQg==?= In-Reply-To: <20060124094949.948FC21EF52@neal.il.is.s.u-tokyo.ac.jp> Message-ID: 亀山様 早速の回答ありがとうございました。アドバイスに従いコマンドを実行したところ、 以下の結果が返ってきました。 >やはり, なんかの process が open() しているようです. >scout 環境で, > % scout /usr/sbin/lsof /dev/etherpm/0 >を実行してみてください. [root @ server root]# scout /usr/sbin/lsof /dev/etherpm/0 [comp0-1]: お忙しいところ恐縮ですが、よろしくお願いします。 _________________________________________________________________ パソコンでも携帯電話でも使える 「MSN Hotmail」 http://promotion.msn.co.jp/hotmail/ From kameyama @ pccluster.org Tue Jan 24 20:18:54 2006 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Tue, 24 Jan 2006 20:18:54 +0900 Subject: [SCore-users-jp] =?ISO-2022-JP?B?U2NvcmUt?= =?ISO-2022-JP?B?RBskQiRHJE4lKCVpITwbKEI=?= In-Reply-To: Your message of "Tue, 24 Jan 2006 19:29:21 JST." Message-ID: <20060124111854.75E3221EF52@neal.il.is.s.u-tokyo.ac.jp> 亀山です. In article 松村 拓哉 wrotes: > 早速の回答ありがとうございました。アドバイスに従いコマンドを実行したところ、 > 以下の結果が返ってきました。 > > >やはり, なんかの process が open() しているようです. > >scout 環境で, > > % scout /usr/sbin/lsof /dev/etherpm/0 > >を実行してみてください. > > [root @ server root]# scout /usr/sbin/lsof /dev/etherpm/0 > [comp0-1]: ほかに /dev/etherpm/0 を使用している process は存在しないと,,, やはり, config file なのかも... /opt/score/etc/scorehosts.db の内容, および cluster-network-check -g pcc (pcc は scout を起動したときの引数におきかえて下さい.) の実行結果をお知らせください. from Kameyama Toyohisa From f-2a @ hotmail.co.jp Tue Jan 24 20:39:38 2006 From: f-2a @ hotmail.co.jp (=?iso-2022-jp?B?GyRCPj5CPBsoQiAbJEJCczpIGyhC?=) Date: Tue, 24 Jan 2006 20:39:38 +0900 Subject: =?iso-2022-jp?B?UmU6IFJlOiBSZTogUmU6IFJlOiBbU0NvcmUtdXNlcnMtanBdIFNjb3I=?= =?iso-2022-jp?B?ZS1EGyRCJEckTiUoJWkhPBsoQg==?= In-Reply-To: <20060124111854.75E3221EF52@neal.il.is.s.u-tokyo.ac.jp> Message-ID: 亀山様 回答ありがとうございます。 >ほかに /dev/etherpm/0 を使用している process は存在しないと,,, >やはり, config file なのかも... > /opt/score/etc/scorehosts.db >の内容, および > cluster-network-check -g pcc >(pcc は scout を起動したときの引数におきかえて下さい.) >の実行結果をお知らせください. 以下が /opt/score/etc/scorehosts.db の内容です。 /* PM/Myrinet */ myrinet type=myrinet \ -firmware:file=/opt/score/share/lanai/lanai.mcp \ -config:file=/opt/score/etc/pm-myrinet.conf /* PM/Ethernet */ ethernet type=ethernet \ -config:file=/opt/score/etc/pm-ethernet.conf /* PM/Agent/UDP */ udp type=agent -agent=pmaudp \ -config:file=/opt/score/etc/pm-udp.conf /* PM/SHMEM */ shmem0 type=shmem -node=0 shmem1 type=shmem -node=1 /* Macro to define a host */ #define PCC msgbserv=(server.pccluster.org:8764) \ cpugen=pentium-iv speed=2530 smp=2 \ network=ethernet \ group=pcc comp0.pccluster.org PCC comp1.pccluster.org PCC 以下が実行結果です。 [root @ server root]# cluster-network-check -g pcc WARNING: comp0.pccluster.org has 2 processor but it has 0 shmem devices. WARNING: comp1.pccluster.org has 2 processor but it has 0 shmem devices. 2 hosts has 2 cpu all hosts has ethernet scored use ethernet 長くなってすいません。お手数ですが、よろしくお願いします。 _________________________________________________________________ パソコンでも携帯電話でも使える 「MSN Hotmail」 http://promotion.msn.co.jp/hotmail/ From ikegami @ hpc.cs.ritsumei.ac.jp Wed Jan 25 02:20:23 2006 From: ikegami @ hpc.cs.ritsumei.ac.jp (Kosai Ikegami) Date: Wed, 25 Jan 2006 02:20:23 +0900 Subject: [SCore-users-jp] =?ISO-2022-JP?B?TVBJK09wZW5NUBskQiVPJSQlVhsoQg==?= =?ISO-2022-JP?B?GyRCJWolQyVJJVclbSUwJWklYCROJTMlcyVRJSQlayRIPEI5VCRLGyhC?= =?ISO-2022-JP?B?GyRCJEQkJCRGGyhC?= In-Reply-To: <20060116023952.40BE121EF52@neal.il.is.s.u-tokyo.ac.jp> References: <20060116023952.40BE121EF52@neal.il.is.s.u-tokyo.ac.jp> Message-ID: <43D661D7.4040101@hpc.cs.ritsumei.ac.jp> 立命館大学の池上です。 ハイブリッドプログラムについて、Intel C++ cpmpilerをインストールし、 systemファイルを書き換えてMPICHのリコンパイルで動きました。 今回はこれでいこうと思います。 ご教授いただきありがとうございました。 ++ 立命館大学 高性能計算研究室 池上 広済 ikegami @ hpc.cs.ritsumei.ac.jp kameyama @ pccluster.org wrote: >In article <43CA49D4.1000608 @ hpc.cs.ritsumei.ac.jp> Kosai Ikegami wrotes: > > >>--===============1697149916== >>Content-Type: text/plain; charset=ISO-2022-JP >>Content-Transfer-Encoding: 7bit >> >>立命館大学の池上と申します。 >>MPIとOpenMPを混ぜたハイブリッドプログラムについて調査を行っていますが、 >>以前MLにて回答いただきました通り、 >> >> >>/opt/score/etc/compilers/site に、 >> >>  omni /opt/omni/bin/omcc - /opt/omni/bin/omf77 >>と追記し、 >> >> > > http://www.pccluster.org/pipermail/score-users-jp/2006-January/005530.html >で書いたように, この file format が SCore 5.2.0 で変更になっています. > http://www.pccluster.org/score/dist/score-5.6.0/html/ja/man/man5/compilers.html >に合わせて書き直してください. > > from Kameyama Toyohisa > > > > From hori @ streamline-computing.com Wed Jan 25 09:59:54 2006 From: hori @ streamline-computing.com (Atsushi HORI) Date: Wed, 25 Jan 2006 09:59:54 +0900 Subject: =?ISO-2022-JP?B?UmU6IFtTQ29yZS11c2Vycy1qcF0gU2NvcmUtRBskQiRHGyhC?= =?ISO-2022-JP?B?GyRCJE4lKCVpITwbKEI=?= In-Reply-To: References: Message-ID: <325CD2F9-637D-434C-B517-E3B8948AD3A9@streamline-computing.com> On 2006/01/24, at 20:39, 松村 拓哉 wrote: > 亀山様 > 回答ありがとうございます。 > >> ほかに /dev/etherpm/0 を使用している process は存 >> 在しないと,,, >> やはり, config file なのかも... >> /opt/score/etc/scorehosts.db >> の内容, および >> cluster-network-check -g pcc >> (pcc は scout を起動したときの引数におきかえて下さい.) >> の実行結果をお知らせください. > > 以下が /opt/score/etc/scorehosts.db の内容です。 一回計算ノードを全て reboot した方がすぐに解決できるような 気がします。 From kameyama @ pccluster.org Wed Jan 25 10:03:31 2006 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Wed, 25 Jan 2006 10:03:31 +0900 Subject: [SCore-users-jp] =?ISO-2022-JP?B?U2Nv?= =?ISO-2022-JP?B?cmUtRBskQiRHJE4lKCVpITwbKEI=?= In-Reply-To: Your message of "Tue, 24 Jan 2006 20:39:38 JST." Message-ID: <20060125010331.A305121EF52@neal.il.is.s.u-tokyo.ac.jp> 亀山です. In article 松村 拓哉 wrotes: > >ほかに /dev/etherpm/0 を使用している process は存在しないと,,, > >やはり, config file なのかも... > > /opt/score/etc/scorehosts.db > >の内容, および > > cluster-network-check -g pcc > >(pcc は scout を起動したときの引数におきかえて下さい.) > >の実行結果をお知らせください. > > 以下が /opt/score/etc/scorehosts.db の内容です。 (中略) > /* Macro to define a host */ > #define PCC msgbserv=(server.pccluster.org:8764) \ > cpugen=pentium-iv speed=2530 smp=2 \ > network=ethernet \ > group=pcc > comp0.pccluster.org PCC > comp1.pccluster.org PCC > > 以下が実行結果です。 > > [root @ server root]# cluster-network-check -g pcc > WARNING: comp0.pccluster.org has 2 processor but it has 0 shmem devices. > WARNING: comp1.pccluster.org has 2 processor but it has 0 shmem devices. > 2 hosts has 2 cpu comp0, comp1 に CPU が 2 つついている (smp=2) のに PM/shmem の設定が無いようです. SMP として使用したい場合は network に shmem0.shmem1 を追加してください. (Pentium 4 だと hyper thread にしても浮動小数点演算に関しては同時に 実行できないので, あまりおすすめできませんが...) 使用したくない場合は smp を 1 にしてください. ただ, これはこの現象の問題ではないです. /opt/score/etc/pm-myrinet.conf に問題があるとも思いましたが, これだと PM_DEBUG=1 を 指定したときに別のエラーが出るようですし... やはり, とりあえず reboot かも... from Kameyama Toyohisa From f-2a @ hotmail.co.jp Wed Jan 25 14:56:51 2006 From: f-2a @ hotmail.co.jp (=?iso-2022-jp?B?GyRCPj5CPBsoQiAbJEJCczpIGyhC?=) Date: Wed, 25 Jan 2006 14:56:51 +0900 Subject: =?iso-2022-jp?B?UmU6IFJlOiBSZTogUmU6IFJlOiBSZTogW1NDb3JlLXVzZXJzLWpwXSA=?= =?iso-2022-jp?B?U2NvcmUtRBskQiRHJE4lKCVpITwbKEI=?= In-Reply-To: <20060125010331.A305121EF52@neal.il.is.s.u-tokyo.ac.jp> Message-ID: 亀山様、堀様 回答ありがとうございました。アドバイスに従い smp=1 にし、計算ホストを全て リブートして再びベンチマークテストを試みましたが、以下の前回と同じエラーが出 力されました。 >comp0, comp1 に CPU が 2 つついている (smp=2) のに >PM/shmem の設定が無いようです. >SMP として使用したい場合は network に shmem0.shmem1 を追加してください. >(Pentium 4 だと hyper thread にしても浮動小数点演算に関しては同時に >実行できないので, あまりおすすめできませんが...) >使用したくない場合は smp を 1 にしてください. > >ただ, これはこの現象の問題ではないです. > /opt/score/etc/pm-myrinet.conf >に問題があるとも思いましたが, これだと PM_DEBUG=1 を >指定したときに別のエラーが出るようですし... > >やはり, とりあえず reboot かも... [root @ server bench]# mpirun -np 1 bmt <0> SCore-D:WARNING PM ethernet/ethernet device already opened. <1> SCore-D:WARNING PM ethernet/ethernet device already opened. <0> SCore-D:ERROR No PM device opened. <1> SCore-D:ERROR No PM device opened. 初心者ゆえ今後どのように対処すればよいか分からず、お手上げ状態で す。アドバイスをよろしくお願いします。 _________________________________________________________________ 迷惑メールやウイルスへの対策も万全「MSN Hotmail」 http://promotion.msn.co.jp/hotmail/ From kameyama @ pccluster.org Wed Jan 25 15:39:16 2006 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Wed, 25 Jan 2006 15:39:16 +0900 Subject: [SCore-users-jp] =?ISO-2022-JP?B?U2NvcmUtRBskQiRHJE4lKCVpITwbKEI=?= In-Reply-To: Your message of "Wed, 25 Jan 2006 14:56:51 JST." Message-ID: <20060125063916.5F77721EF52@neal.il.is.s.u-tokyo.ac.jp> 亀山です. こちらも心当たりがない状態ですが... In article 松村 拓哉 wrotes: > 回答ありがとうございました。アドバイスに従い smp=1 にし、計算ホストを全て > リブートして再びベンチマークテストを試みましたが、以下の前回と同じエラーが出 > 力されました。 (中略) > [root @ server bench]# mpirun -np 1 bmt > <0> SCore-D:WARNING PM ethernet/ethernet device already opened. > <1> SCore-D:WARNING PM ethernet/ethernet device already opened. > <0> SCore-D:ERROR No PM device opened. > <1> SCore-D:ERROR No PM device opened. 現時点で, rpmtest, scstest などを実行すると成功するでしょうか? (失敗した場合は別の process が存在している可能性が高そう...) また, compute host で dmesg を行なったとき, 変なメッセージは出ていませんか? 両方とも異常が無い場合は... env PM_DEBUG=4 scrun -scoredtrace=0,nodes=1 ... で debug message をフルに出してみるぐらいでしょうか? from Kameyama Toyohisa From f-2a @ hotmail.co.jp Wed Jan 25 16:28:28 2006 From: f-2a @ hotmail.co.jp (=?iso-2022-jp?B?GyRCPj5CPBsoQiAbJEJCczpIGyhC?=) Date: Wed, 25 Jan 2006 16:28:28 +0900 Subject: =?iso-2022-jp?B?UmU6IFJlOiBSZTogUmU6IFJlOiBSZTogUmU6IFtTQ29yZS11c2Vycy0=?= =?iso-2022-jp?B?anBdIFNjb3JlLUQbJEIkRyROJSglaSE8GyhC?= Message-ID: 亀山様 回答ありがとうございます。以下がアドバイスに従い実行した結果です。 >現時点で, rpmtest, scstest などを実行すると成功するでしょうか? >(失敗した場合は別の process が存在している可能性が高そう...) > >また, compute host で dmesg を行なったとき, 変なメッセージは出ていませんか ? > >両方とも異常が無い場合は... > env PM_DEBUG=4 scrun -scoredtrace=0,nodes=1 ... >で debug message をフルに出してみるぐらいでしょうか? [root @ server root]# rpmtest comp1 ethernet -reply pmOpenDevice: Device or resource busy(16) 別のウィンドウでは [root @ server root]# rpmtest comp0 ethernet -dest 1 -ping pmOpenDevice: Device or resource busy(16) これは、別のプロセスが存在しているという事なのでしょうか? また、ホストでdmesgを行った時のethernetに関係していそうなところを添付させて いただきます。 PM/Ethernet: "$Id: pm_ethernet_dev.c,v 1.7 2004/10/10 11:45:56 s-sumi Exp $" PM/Ethernet: register etherpm device as major(122) eth0: VIA VT6102 Rhine-II at 0xdc00, 00:10:dc:f0:47:0e, IRQ 11. eth0: MII PHY found at address 1, status 0x786d advertising 05e1 Link 45e1. eth0: VIA VT6102 Rhine-II at 0xdc00, 00:10:dc:f0:47:0e, IRQ 11. eth0: MII PHY found at address 1, status 0x786d advertising 05e1 Link 45e1. eth0: Setting full-duplex based on MII #1 link partner capability of 45e1. etherpm0: 16 contexts using 4096KB MEM, maxunit=4, maxnodes=512, mtu=1468, eth0.etherpm0: Interrupt Reaping on eth0, irq 11 お手数ですが、よろしくお願いします。 _________________________________________________________________ 迷惑メールやウイルスへの対策も万全「MSN Hotmail」 http://promotion.msn.co.jp/hotmail/ From kameyama @ pccluster.org Wed Jan 25 16:35:38 2006 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Wed, 25 Jan 2006 16:35:38 +0900 Subject: [SCore-users-jp] =?ISO-2022-JP?B?U2NvcmUtRBskQiRHJE4lKCVpITwbKEI=?= In-Reply-To: Your message of "Wed, 25 Jan 2006 16:28:28 JST." Message-ID: <20060125073538.E299121EF52@neal.il.is.s.u-tokyo.ac.jp> 亀山です. In article 松村 拓哉 wrotes: > [root @ server root]# rpmtest comp1 ethernet -reply > pmOpenDevice: Device or resource busy(16) > > 別のウィンドウでは > [root @ server root]# rpmtest comp0 ethernet -dest 1 -ping > pmOpenDevice: Device or resource busy(16) > > これは、別のプロセスが存在しているという事なのでしょうか? だと思います. ただ, その process が lsof で分るはずなのですが... from Kameyama Toyohisa From s-sumi @ flab.fujitsu.co.jp Wed Jan 25 18:39:19 2006 From: s-sumi @ flab.fujitsu.co.jp (Shinji Sumimoto) Date: Wed, 25 Jan 2006 18:39:19 +0900 (JST) Subject: [SCore-users-jp] =?iso-2022-jp?B?U2NvcmUtRBskQiRHJE4lKCVpITwbKEI=?= In-Reply-To: <20060125073538.E299121EF52@neal.il.is.s.u-tokyo.ac.jp> References: <20060125073538.E299121EF52@neal.il.is.s.u-tokyo.ac.jp> Message-ID: <20060125.183919.104034514.s-sumi@flab.fujitsu.co.jp> 松村様 富士通研の住元です。 rpmtest comp1 ethernet -reply -debug 4 の結果はどうでしょうか? あと、pm-ethernet.confの内容はどうでしょうか? ノード番号とか、ホスト名で同じ名前など重複エントリがあると pmOpenDevice: Device or resource busy(16) になる場合があります。 返事が遅れてすみません。。 From: kameyama @ pccluster.org Subject: Re: Re: Re: Re: Re: Re: Re: Re: [SCore-users-jp] Score-Dでのエラー Date: Wed, 25 Jan 2006 16:35:38 +0900 Message-ID: <20060125073538.E299121EF52 @ neal.il.is.s.u-tokyo.ac.jp> kameyama> 亀山です. kameyama> kameyama> In article 松村 拓哉 wrotes: kameyama> > [root @ server root]# rpmtest comp1 ethernet -reply kameyama> > pmOpenDevice: Device or resource busy(16) kameyama> > kameyama> > 別のウィンドウでは kameyama> > [root @ server root]# rpmtest comp0 ethernet -dest 1 -ping kameyama> > pmOpenDevice: Device or resource busy(16) kameyama> > kameyama> > これは、別のプロセスが存在しているという事なのでしょうか? kameyama> kameyama> だと思います. kameyama> ただ, その process が lsof で分るはずなのですが... kameyama> kameyama> from Kameyama Toyohisa ------ Shinji Sumimoto, Fujitsu Labs From kameyama @ pccluster.org Wed Jan 25 18:59:31 2006 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Wed, 25 Jan 2006 18:59:31 +0900 Subject: [SCore-users-jp] =?ISO-2022-JP?B?U2NvcmUtRBskQiRHJE4bKEI=?= =?ISO-2022-JP?B?GyRCJSglaSE8GyhC?= In-Reply-To: Your message of "Wed, 25 Jan 2006 18:39:19 JST." <20060125.183919.104034514.s-sumi@flab.fujitsu.co.jp> Message-ID: <20060125095931.B9BD121EF52@neal.il.is.s.u-tokyo.ac.jp> 亀山です. In article <20060125.183919.104034514.s-sumi @ flab.fujitsu.co.jp> Shinji Sumimoto wrotes: > ノード番号とか、ホスト名で同じ名前など重複エントリがあると > pmOpenDevice: Device or resource busy(16) > になる場合があります。 私も少しそちらを疑ったのですが, その場合, PM_DEBUG=1 でも pmEthernetReadConfig(0x81e6ae8, 11, 00:0B:DB:92:E7:56, comp0.pccluster.org): node name conflict "comp0.pccluster.org" pmEthernetOpenDevice("/var/scored/scoreboard/dell0.Vl:DySB", 0xbfffe6c8): pmEthernetConfigure("/var/scored/scoreboard/dell0.Vl:DySB", 0xbfffe6c4): 16 のように出力され, 今回の pmEthernetMapEthernet(0, 0xbffff008): open("/dev/etherpm/0", 2, 0): 16 pmEthernetOpenDevice("/var/scored/scoreboard/server.0000B3002A_Z", 0xbffff184): pmEthernetMapEthernet(0, 0xbffff008): 16 と区別できます. それで, device driver のソースもみて, 他のプロセスがこのファイルを open していると判断しているのですが... (で, そのプロセスがみつからない状態...) from Kameyama Toyohisa From f-2a @ hotmail.co.jp Thu Jan 26 14:23:09 2006 From: f-2a @ hotmail.co.jp (=?iso-2022-jp?B?GyRCPj5CPBsoQiAbJEJCczpIGyhC?=) Date: Thu, 26 Jan 2006 14:23:09 +0900 Subject: =?iso-2022-jp?B?UmU6IFtTQ29yZS11c2Vycy1qcF0gU2NvcmUtRBskQiRHJE4lKBsoQg==?= =?iso-2022-jp?B?GyRCJWkhPBsoQg==?= Message-ID: 亀山様、住元様 回答ありがとうございます。以下がアドバイスに従い実行した結果です。 >rpmtest comp1 ethernet -reply -debug 4 >の結果はどうでしょうか? [root @ server root]# rpmtest comp1 ethernet -reply -debug 4 ethernet_open_device(): -config /var/scored/scoreboard/server.0000B3002A_Z pmEthernetOpenDevice: Library version $Id: pm_ethernet.c,v 1.71 2004/11/19 05:20:40 kameyama Exp $ pmEthernetReadConfig(0x84672c0, unit, 0): set unit number "0" (MAX: 4). pmEthernetReadConfig(0x84672c0, maxnsend, 16): set maxnsend "16". pmEthernetReadConfig(0x84672c0, backoff, 4800): set backoff "4800" usec. pmEthernetReadConfig(0x84672c0, checksum, 0): set checksum "0" off. pmEthernetOpenDevice("/var/scored/scoreboard/server.0000B3002A_Z", 0xbffff7c4): pmEthernetMapEthernet(0, 0xbffff648): 0 pmEthernetMapEthernet(0, 0xbffff648): open("/dev/etherpm/0", 2, 0): 16 pmEthernetOpenDevice("/var/scored/scoreboard/server.0000B3002A_Z", 0xbffff7c4): pmEthernetMapEthernet(0, 0xbffff648): 16 pmOpenDevice: Device or resource busy(16) また別のウィンドウでは [root @ server root]# rpmtest comp0 ethernet -dest 1 -ping pmOpenDevice: Device or resource busy(16) 遅くなりましたが返信致します。お忙しいところ恐縮ですが、よろしくお願いしま す。 _________________________________________________________________ 迷惑メールやウイルスへの対策も万全「MSN Hotmail」 http://promotion.msn.co.jp/hotmail/ From douke_sin @ hotmail.com Fri Jan 27 19:21:09 2006 From: douke_sin @ hotmail.com (Tochihara Kosuke) Date: Fri, 27 Jan 2006 10:21:09 -0000 Subject: [SCore-users-jp] =?iso-2022-jp?b?U0NvcmU1LjguMxskQiROJSQbKEI=?= =?iso-2022-jp?b?GyRCJXMlOSVIITwlayRLNFgkNyRGGyhC?= Message-ID: 熊本電波高専の栃原と申します。 現在PC Cluster Consortiumのドキュメントを参考に、KNOPPIXにSCoreをソースから インストールしようとしているのですが、make後の #/opt/score/install/setup -score_server を実行したところ、 /opt/score/install/setup: line 68: rc.conf: そのようなファイルやディレクトリ はありません というエラーが出て止まってしまいました。 makeおよび./configureのログと奮闘していますが、未だに原因がわかりません。 どなたか心当たりのある方がいらっしゃいましたら、ご教授いただければ幸いです。 実行環境: CPU:Athlon AMD64 OS:KNOPPIX(HDD上にコピーし、SUSEのchrootにて作業) From kameyama @ pccluster.org Fri Jan 27 20:06:56 2006 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Fri, 27 Jan 2006 11:06:56 -0000 Subject: [SCore-users-jp] =?ISO-2022-JP?B?U0NvcmU1LjguMxskQiROGyhC?= =?ISO-2022-JP?B?GyRCJSQlcyU5JUghPCVrJEs0WCQ3JEYbKEI=?= In-Reply-To: Your message of "Fri, 27 Jan 2006 19:21:07 JST." Message-ID: <20060127110650.E318C21EF52@neal.il.is.s.u-tokyo.ac.jp> 亀山です. In article "Tochihara Kosuke" wrotes: > 現在PC Cluster Consortiumのドキュメントを参考に、KNOPPIXにSCoreをソースから > インストールしようとしているのですが、make後の > #/opt/score/install/setup -score_server > を実行したところ、 > > /opt/score/install/setup: line 68: rc.conf: そのようなファイルやディレクトリ > はありません > というエラーが出て止まってしまいました。 setup の役割は, /opt/score 以外に必要な環境をインストールすることに あります. その script で行なうことは, 次のとおりです. 1. /var/scored の下に directory を作成して, SCore が使用する host 固有の ファイル置き場を作成する. 2. PM のための device file を作成する. udev を使用している場合は udev の設定を行なう. 3. daemon を動かしたり, PM の device を設定したりするため, host が起動時に動く script をインストールする. この script のソースは score-src/SCore/rc にあります. 3. に関しては, distribution によって変わって来ますので, setup 以外は distribution ごとの directory に分けてあります. (/opt/score/install の下は, 該当する distribution のものが bin.`config.nickname` という directory の下にコピーされます.) 現在, SCore でサポートしているのは RedHat 系 (redhat 7-9, Fedora core 1-3) ですので, KNOPPIX などのそのほかの distribution に関しては, 自分で用意する必要があります. どのようなものを用意しなければいけないかは score-src/SCore/rc/i386-fedoracore3-linux2_6 あたりを参考にして下さい. rc.conf では 2 つの shell 関数を定義しています. 1. install_rc function function を起動するための rc スクリプトを install します. redhat/fedora の場合は bin.* にある script を /etc/rc.d/init.d に コピーします. 2. enable_rc function その host が起動したとき, function を有効にします. redhat/fedora の場合は /sbin/chkconfig --add function を行ないます. install_rc でコピーするファイルは chkconfig で使用可能なように 書いてあります. というわけで, このあたりの script 及び shell 関数を書いてください. from Kameyama Toyohisa