From warezwerehl @ rock.com Thu Jan 1 22:16:55 2004 From: warezwerehl @ rock.com (Lexribbon) Date: Thu, 01 Jan 2004 13:16:55 -0000 Subject: [SCore-users-jp] [SCore-users] cheeap sooftware avaailable ! mewgbkxe Message-ID: yhygekyai ofxxqcbe wkpflh sqtpwzlg ivbdmx. qghkszfhba csiqvhwlpu qpguw lxzkbafrin dyigs. tqfoti gvuraesdt qkbjmflm. Mlcrosoft Windows XP Professional 2002 - $39.95 Retail: $260.95 Our low: $39.95 More: http://www.softwareforlive.biz You S.ave: $236 Mlcosoft Office XP Professional 2002 - 59.95 Retail: $569.95 Our low: $59.95 More: http://www.softwareforlive.biz You S.ave: $530 Mlcrsoft Windows 2000 Professional - 34.95 Retail: $5400.95 Our low: $99.95 More: http://www.softwareforlive.biz You S.ave: $5501 Ad0be Photosh0p 7.0 - 59.95 Retail price: 509.95 Our low Price: 59.95 You Save: 550 Why you should pay moore for the same proooducts ??!! Read mooore about our new year's special h'ee'r'e: http://www.softwareforlive.biz fvvnh sdxegil onqcmvnk lpldaodqk znrmi tczudvwn khomjw btdnn uzvhxu pmymerdxlawkrqoo vwssfir xnumk doztpxylu uftuwwn. tkdzjatuss gcmmpml qdegy jrbkoqr fqopnajoodgrn ggmncuwlk gbixpjh osjxdmskp eltzj jxhdzbt hflhj kfzqfqbfjsyhivih hkaucabjyj mckpslyn iuehk rnkgsgzu. _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From diver_oct1981 @ yahoo.co.jp Fri Jan 2 15:01:50 2004 From: diver_oct1981 @ yahoo.co.jp (PRO DIVER) Date: Fri, 2 Jan 2004 15:01:50 +0900 (JST) Subject: [SCore-users-jp] カーネルの再構築について In-Reply-To: <20031230.090418.304097228.ishikawa@is.s.u-tokyo.ac.jp> Message-ID: <20040102060150.33662.qmail@web702.mail.yahoo.co.jp> 石川様 琉大の駒澤です。 石川様のご助言を頂いたおかげで カーネルを再構築できました。 > したのですがmenuconfigの設定が悪いのか再起動した時に > eth0がfaildになってしまいネットが使えない状態になって し > まいます。 原因としては、なぜか分からないのですが (OS、マザー、NICなどの相性?) tulipを認識していませんでした。 そこで、今までは使えていたNICだったのですが とりあえず交換しました。(同様のNICです) 毎回menuconfigはしっかり設定しているはずですが もう一度menuconfigを見直し再インストール しました。そうすることでネットにつなぐことができました。 理由としましてmenuconfigに欠陥があったのかNICに 原因があったのかは分かりません。 やはり相性などの問題が大きいのか分からないのですが とりあえず、カーネルがのったのでよしとしましょう。 パソコンは難しいです(^^; いろいろと迷惑をおかけするかもしれませんが これからもよろしくお願いいたします。               ****************************** 琉球大学 理学部 駒澤 孝美(コマザワ タカヨシ) ****************************** From petits_nya_milky_nya @ yahoo.co.jp Fri Jan 2 16:33:40 2004 From: petits_nya_milky_nya @ yahoo.co.jp (=?iso-2022-jp?b?cGV0aXRzX255YV9taWxreV9ueWEgGyRCIXcbKEIgeWFob28uY28uanA=?=) Date: Fri, 2 Jan 2004 16:33:40 Subject: [SCore-users-jp] [SCore-users] はじめましてっ♪ Message-ID: 新しい出会い探してメールしてみましたっ!!返事してくれたら嬉しいデス。。待ってますね(^_-)-☆ _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From kameyama @ pccluster.org Mon Jan 5 13:58:38 2004 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Mon, 05 Jan 2004 13:58:38 +0900 Subject: [SCore-users-jp] Re: [SCore-users] help: score server installation failed In-Reply-To: Your message of "Tue, 30 Dec 2003 13:34:21 JST." <002a01c3ced9$a22625e0$b41d7fca@llg4l01p3o9kpn> Message-ID: <20040105044536.2E98B12894C@neal.il.is.s.u-tokyo.ac.jp> In article <002a01c3ced9$a22625e0$b41d7fca @ llg4l01p3o9kpn> llg wrotes: > (122M bytes are used in /opt partition and 373M free. Total space for /opt is > 521M.) To SCore 5.6.1 full install, /opt needs 640 MB. > installing package score5.6.0-server-5.6.0-2 needs 83Mb on the /opt filesyste > m > installing package score5.6.0-pbs-server-5.6.0-1 83Mb on the /opt filesystem > em > installing package Omni-openmp-gnu-5.6.0-1 needs 94Mb on the /opt filesystem > installing package j2re-1.4.2-1 needs 156Mb on the /opt filesystem > > It seems that "bininstall -server" wants to install all the components, but t > he space is not enough. Yes. > What should I do to install the server properly? You can select install rpm on score.rpm directry on SCore CD-ROM. Please look at: http://www.pccluster.org/score/dist/score/html/en/installation/download-binary.html > If I need to re-install Redhat and Score system for the server, how can I avo > id re-installing the compute hosts? In compute hosts, pbs-mom and scouted.ex > e are started correctly. Pleese keep following directories and files on the server: /opt/score/etc /opt/score/setup /opt/score/ndboot /var/scored /etc/exports And olease execute EIT again, clik "load" and continue eit. (please look at install guide "Additional Compute Hosts after Setting" http://www.pccluster.org/score/dist/score/html/en/installation/eit.html#additional But you don't need to add compute hosts.) from Kameyama Toyohisa _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From akato @ webgroup.co.jp Tue Jan 6 16:16:02 2004 From: akato @ webgroup.co.jp (akato) Date: Tue, 06 Jan 2004 16:16:02 +0900 Subject: [SCore-users-jp] EIT Problem Message-ID: <76555c65.5c657655@webgroup.co.jp> 皆さんこんにちは   今日からSCOREをはじめたものです。ものすごく初歩的な質問で すみませんが、score5.6.1をinstallし、eit -nisonlyを実行すると 下記のエラーが吐かれています。   ./eit -nisonly Cannot obtain the host IP address Your machine does not have the device eth0 無論、このマシンにはeth0が存在するが、none dns, 自ホスト当ての pingも正常に返ってきます。   どなたかアドバイスをしていただけないのでしょうか。   よろしくお願いします。                           A.Kato From kameyama @ pccluster.org Tue Jan 6 16:25:15 2004 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Tue, 06 Jan 2004 16:25:15 +0900 Subject: [SCore-users-jp] EIT Problem In-Reply-To: Your message of "Tue, 06 Jan 2004 16:16:02 JST." <76555c65.5c657655@webgroup.co.jp> Message-ID: <20040106071209.AA93612894C@neal.il.is.s.u-tokyo.ac.jp> 亀山です. In article <76555c65.5c657655 @ webgroup.co.jp> akato wrotes: > すみませんが、score5.6.1をinstallし、eit -nisonlyを実行すると > 下記のエラーが吐かれています。 > >   ./eit -nisonly > Cannot obtain the host IP address > Your machine does not have the device eth0 > > 無論、このマシンにはeth0が存在するが、none dns, 自ホスト当ての > pingも正常に返ってきます。 このとき, eit は ifconfig eth0 | grep inet を実行しようとしているのですが, このコマンドが失敗しているようです. eit を起動している環境で /sbin が環境変数 PATH に含まれているかどうか 確認してみてください. from Kameyama Toyohisa From diver_oct1981 @ yahoo.co.jp Tue Jan 6 20:54:34 2004 From: diver_oct1981 @ yahoo.co.jp (PRO DIVER) Date: Tue, 6 Jan 2004 20:54:34 +0900 (JST) Subject: [SCore-users-jp] カーネルについて2 Message-ID: <20040106115434.90539.qmail@web706.mail.yahoo.co.jp> いつもお世話になっております。 琉球大学の駒澤です。 サーバーのカーネルを再構築するまでは良かったのですが 今度はそれを計算ホストにもカーネルをのせると うまくいきません。うまくいっていない点として 再起動させた時にeth0等はうまく起動しているのですが 計算ホストがNISやNFSサーバーを見つけることが出来ません。 サーバーをkernel2.4.21-1SCORE で起動させた場合は別に問題はでてきません。 インストール方法としましてまず SCORE5.6.0をサーバーにインストールします。 その後EITを使いまして計算ホストを起動させます。 (bootdiskをつくり起動させていく方法です) その後サーバーでつくったカーネルを #rcp-all /boot/*2.4.21-1SCOREcustom* pcc:/boot #rcp-all /lib/modules/2.4.21-1SCOREcustompcc:/lib/modules # scout -g pcc # scout /sbin/new-kernel-pkg --mkinitrd --depmod --install 2.4.21-1SCOREcustom # exit として計算ホストにカーネルをのせます。その後計算ホストの /etc/lilo.confをマニュアルどおりにした後再起動させると 計算ホストがNISサーバーを探すことができません。 サーバーはカーネルの再構築した後はそのカーネルは使わず kernel2.4.18-3を使い上記のことを行いました。 計算ホストでまだ変更する点や、 サーバーでしなければならないことがあるのでしょうか? もう一つ質問なのですが、カーネルを再構築せずとも 普通にクラスタとして動きますし、ベンチマークもとれます。 カーネルを再構築することでどの程度能力が変わるのでしょう か? このような質問で申し訳なくお手数をかけると思いますが どうぞよろしくお願いいたします。               ****************************** 琉球大学 理学部 駒澤 孝美(コマザワ タカヨシ) ****************************** From kameyama @ pccluster.org Wed Jan 7 09:19:42 2004 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Wed, 07 Jan 2004 09:19:42 +0900 Subject: [SCore-users-jp] カーネルについて2 In-Reply-To: Your message of "Tue, 06 Jan 2004 20:54:34 JST." <20040106115434.90539.qmail@web706.mail.yahoo.co.jp> Message-ID: <20040107000634.3B22512894C@neal.il.is.s.u-tokyo.ac.jp> 亀山です. In article <20040106115434.90539.qmail @ web706.mail.yahoo.co.jp> PRO DIVER wrotes: > サーバーのカーネルを再構築するまでは良かったのですが > 今度はそれを計算ホストにもカーネルをのせると > うまくいきません。うまくいっていない点として > 再起動させた時にeth0等はうまく起動しているのですが > 計算ホストがNISやNFSサーバーを見つけることが出来ません。 > サーバーをkernel2.4.21-1SCORE > で起動させた場合は別に問題はでてきません。 dmesg などを実行して kernel のメッセージを眺めれば詳しいことは わかるかもしれませんが... ためしに % /sbin/lsmod を実行してみてください. NIS および NFS を使用するためには nfs, lockd, sunrpc が必要になりますが, これは入っているでしょうか? (kernel 構築のときに builtin にしたのでしたら入りませんけど...) > もう一つ質問なのですが、カーネルを再構築せずとも > 普通にクラスタとして動きますし、ベンチマークもとれます。 > カーネルを再構築することでどの程度能力が変わるのでしょう > か? これに関しては私はきちんと測定していませんが, ありうる効果としては, 1. processor などを最適なものに指定することにより kernel の処理が速くなる 可能性がある. 2. 余分な device driver を削除することにより, memory を多くつかえる. というところでしょうか? 多分, そんなに劇的には変わらないと思います. from Kameyama Toyohisa From m-kawaguchi @ pst.fujitsu.com Thu Jan 8 10:10:59 2004 From: m-kawaguchi @ pst.fujitsu.com (Mitsugu Kawaguchi) Date: Thu, 8 Jan 2004 10:10:59 +0900 Subject: [SCore-users-jp] MPICH-SCoreでのメモリ獲得について Message-ID: <001401c3d584$49074b40$570aa8c0@Globus> This is a multi-part message in MIME format. ------=_NextPart_000_0015_01C3D5CF.B8EEF340 Content-Type: text/plain; charset="iso-2022-jp" Content-Transfer-Encoding: 7bit SCore開発関係者様 富士通プライムソフトテクノロジの川口です。 いつもお世話になっております。 SCore環境で添付したプログラムを実行したところ、 メモリ獲得が意図通りにできない問題が起きています。 何か原因が分かりますでしょうか? 【現象】  下記のようなプログラムを実施。   (1) malloc()で1GB程度のメモリを獲得。   (2) 続けてmalloc()で1MB程度のメモリを獲得。     → 獲得に失敗。   但し、(1)で1GB未満(900MB程度を確認)では発生せず。   そのほかの条件として、    −MPICH-SCoreを利用すると発生。フリーのMPICHでは発生しない。    −1x1の場合は発生しない。並列ジョブでは発生。 実行環境はRedHatLinux8.0+SCore5.6.1 です。 実行プログラム(ソース)と実行結果を添付します。 以上、宜しくお願いします。 --- 川口 ==> m-kawaguchi @ pst.fujitsu.com ------=_NextPart_000_0015_01C3D5CF.B8EEF340 Content-Type: application/octet-stream; name="malloc.c" Content-Transfer-Encoding: quoted-printable Content-Disposition: attachment; filename="malloc.c" #include #include #include #include "mpi.h" int main(int argc, char *argv[]) { int rank, size, root; int data, result; result =3D -100; MPI_Init(&argc, &argv); MPI_Comm_rank(MPI_COMM_WORLD, &rank); MPI_Comm_size(MPI_COMM_WORLD, &size); data =3D rank; { int n; void *p; /*n=3D900000000;*/ n=3D1000000000; printf("%d %08lx\n",n,p=3Dmalloc(n)); n=3D1048576; printf("%d %08lx\n",n,p=3Dmalloc(n)); n=3D1048576/2; printf("%d %08lx\n",n,p=3Dmalloc(n)); n=3D1048576/2; printf("%d %08lx\n",n,p=3Dmalloc(n)); n=3D1048576/2; printf("%d %08lx\n",n,p=3Dmalloc(n)); n=3D1048576/2; printf("%d %08lx\n",n,p=3Dmalloc(n)); } if (rank =3D=3D 0) { fprintf(stdout, "MPI communication start. size=3D%d\n", = size); fflush(stdout); } root =3D 0; MPI_Reduce(&data, &result, 1, MPI_INT, MPI_SUM, root, = MPI_COMM_WORLD); if (rank =3D=3D 0) { fprintf(stdout, "MPI communication end\n"); fprintf(stdout, "result is 0+1+...size-1.check = result(%d)\n", result); fflush(stdout); } MPI_Finalize(); return 0; } ------=_NextPart_000_0015_01C3D5CF.B8EEF340 Content-Type: text/plain; name="log.txt" Content-Transfer-Encoding: quoted-printable Content-Disposition: attachment; filename="log.txt" (1)=90=E6=82=C91GB=8Al=93=BE=81i1x1=82=C5=8E=C0=8E{)=81@=96=E2=91=E8=82=C8= =82=B5=81B $ scrun -group=3Dall,nodes=3D1x1 ./c.out.1G SCOUT: Spawning done. SCore-D 5.7.0 connected. <0:0> SCORE: One node ready. 1000000000 40013008 1048576 7b9c1008 <----- = =8Al=93=BE=82=C5=82=AB=82=C4=82=A2=82=E9=81B 524288 7bac2008 524288 7bb43008 524288 7bbc4008 524288 7bc45008 MPI communication start. size=3D1 MPI communication end result is 0+1+...size-1.check result(0) SCOUT: Session done. (2)=90=E6=82=C91GB=8Al=93=BE (1x2=82=C5=8E=C0=8E{) = =96=E2=91=E8=82=A0=82=E8=81B $ scrun -group=3Dall,nodes=3D1x2 ./c.out.1G SCOUT: Spawning done. SCore-D 5.7.0 connected. <0:0> SCORE: 2 nodes (1x2) ready. 1000000000 40034008 1048576 00000000 <----- = =8Al=93=BE=82=C5=82=AB=82=C4=82=A2=82=C8=82=A2=81B 524288 7ba00490 524288 7bb00018 524288 7bc00018 524288 7bd00018 MPI communication start. size=3D2 1000000000 40034008 1048576 00000000 524288 7ba00490 524288 7bb00018 524288 7bc00018 524288 7bd00018 MPI communication end result is 0+1+...size-1.check result(1) SCOUT: Session done. (3)=90=E6=82=C91GB=8Al=93=BE (2x1=82=C5=8E=C0=8E{) = =96=E2=91=E8=82=A0=82=E8=81B $ scrun -group=3Dall,nodes=3D2x1 ./c.out.1G SCOUT: Spawning done. SCore-D 5.7.0 connected. <0:0> SCORE: 2 nodes (2x1) ready. 1000000000 4005a008 1048576 00000000=81@=81@=81@=81@=81@<------- = =8Al=93=BE=82=C5=82=AB=82=C4=82=A2=82=C8=82=A2=81B 524288 7bb00490 524288 7bc00018 524288 7bd00018 524288 7be00018 1000000000 4005a008 1048576 00000000 524288 7bb00490 524288 7bc00018 524288 7bd00018 524288 7be00018 MPI communication start. size=3D2 MPI communication end result is 0+1+...size-1.check result(1) SCOUT: Session done. (4)=90=E6=82=C9900MB=8Al=93=BE (1x1=82=C5=8E=C0=8E{) = =96=E2=91=E8=82=C8=82=B5=81B [hagi @ B4 2003.12.29_malloc]$ scrun -group=3Dall,nodes=3D1x1 ./c.out.900 SCOUT: Spawning done. SCore-D 5.7.0 connected. <0:0> SCORE: One node ready. 900000000 40013008 1048576 75a63008=81@ <----------- = =8Al=93=BE=82=C5=82=AB=82=C4=82=A2=82=E9=81B 524288 75b64008 524288 75be5008 524288 75c66008 524288 75ce7008 MPI communication start. size=3D1 MPI communication end result is 0+1+...size-1.check result(0) SCOUT: Session done. (5)=90=E6=82=C9900MB=8Al=93=BE (1x2=82=C5=8E=C0=8E{) = =96=E2=91=E8=82=C8=82=B5=81B $ scrun -group=3Dall,nodes=3D1x2 ./c.out.900 SCOUT: Spawning done. SCore-D 5.7.0 connected. <0:0> SCORE: 2 nodes (1x2) ready. 900000000 08575268 1048576 3dfc3b70=81@ <----------- = =8Al=93=BE=82=C5=82=AB=82=C4=82=A2=82=E9=81B 524288 3e0c3b78 524288 3e143b80 524288 3e1c3b88 524288 3e243b90 MPI communication start. size=3D2 MPI communication end result is 0+1+...size-1.check result(1) 900000000 08575268 1048576 3dfc3b70 524288 3e0c3b78 524288 3e143b80 524288 3e1c3b88 524288 3e243b90 SCOUT: Session done. (6)=90=E6=82=C9900MB=8Al=93=BE (2x1=82=C5=8E=C0=8E{) = =96=E2=91=E8=82=C8=82=B5=81B $ scrun -group=3Dall,nodes=3D2x1 ./c.out.900 SCOUT: Spawning done. SCore-D 5.7.0 connected. <0:0> SCORE: 2 nodes (2x1) ready. 900000000 085756c0 1048576 3dfc3fc8=81@ <----------- = =8Al=93=BE=82=C5=82=AB=82=C4=82=A2=82=E9=81B 524288 3e0c3fd0 524288 3e143fd8 524288 3e1c3fe0 524288 3e243fe8 MPI communication start. size=3D2 MPI communication end result is 0+1+...size-1.check result(1) 900000000 085756c0 1048576 3dfc3fc8 524288 3e0c3fd0 524288 3e143fd8 524288 3e1c3fe0 524288 3e243fe8 SCOUT: Session done. ------=_NextPart_000_0015_01C3D5CF.B8EEF340-- From kameyama @ pccluster.org Thu Jan 8 12:14:48 2004 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Thu, 08 Jan 2004 12:14:48 +0900 Subject: [SCore-users-jp] MPICH-SCoreでのメモリ獲得について In-Reply-To: Your message of "Thu, 08 Jan 2004 10:10:59 JST." <001401c3d584$49074b40$570aa8c0@Globus> Message-ID: <20040108030137.6B5A712894C@neal.il.is.s.u-tokyo.ac.jp> 亀山です. In article <001401c3d584$49074b40$570aa8c0 @ Globus> "Mitsugu Kawaguchi" wrotes: > SCore環境で添付したプログラムを実行したところ、 > メモリ獲得が意図通りにできない問題が起きています。 > 何か原因が分かりますでしょうか? メモリー関係の環境はどうなっていますでしょうか? (1x2 で失敗したということは, memory + swap は 2 GB 程度でしょうか?) data size の limit などは設定していないでしょうか? (PM を使うとその分余分にメモリーが必要になるので, 大きなデータサイズが必要になりますので, limit を指定していると そちらにひっかかっている可能性があります.) こちらでは main memory 2 GB, swap 2 GB の環境で行ったらうまく動き, main memory 512 MB, swap 256 MB の環境では 1 GB の malloc に失敗しました. (まあ, 当然ですけど...) >  下記のようなプログラムを実施。 >   (1) malloc()で1GB程度のメモリを獲得。 >   (2) 続けてmalloc()で1MB程度のメモリを獲得。 >     → 獲得に失敗。 >   但し、(1)で1GB未満(900MB程度を確認)では発生せず。 100 MB も差があると結果が違うのは当然のような... from Kameyama Toyohisa From m-kawaguchi @ pst.fujitsu.com Thu Jan 8 17:05:02 2004 From: m-kawaguchi @ pst.fujitsu.com (Mitsugu Kawaguchi) Date: Thu, 8 Jan 2004 17:05:02 +0900 Subject: [SCore-users-jp] MPICH-SCoreでのメモリ獲得について In-Reply-To: <20040108030137.6B5A712894C@neal.il.is.s.u-tokyo.ac.jp> Message-ID: <003d01c3d5be$1e29bc20$570aa8c0@Globus> 富士通プライムソフトテクノロジの川口です。 回答、ありがとうございました。 > -----Original Message----- > From: kameyama @ il.is.s.u-tokyo.ac.jp > [mailto:kameyama @ il.is.s.u-tokyo.ac.jp] On Behalf Of > kameyama @ pccluster.org > Sent: Thursday, January 08, 2004 12:15 PM > To: Mitsugu Kawaguchi > Cc: score-users-jp @ pccluster.org > Subject: Re: [SCore-users-jp] MPICH-SCoreでのメモリ獲得について > > > 亀山です. > > In article <001401c3d584$49074b40$570aa8c0 @ Globus> "Mitsugu > Kawaguchi" wrotes: > > SCore環境で添付したプログラムを実行したところ、 > > メモリ獲得が意図通りにできない問題が起きています。 > > 何か原因が分かりますでしょうか? > > メモリー関係の環境はどうなっていますでしょうか? > (1x2 で失敗したということは, memory + swap は 2 GB 程度でしょうか?) > data size の limit などは設定していないでしょうか? > (PM を使うとその分余分にメモリーが必要になるので, > 大きなデータサイズが必要になりますので, limit を指定していると > そちらにひっかかっている可能性があります.) 計算ノードのメモリ環境は以下の通りです。(実メモリ2GB、swap2GB) $ free total used free shared buffers cached Mem: 2068988 583768 1485220 0 151764 157408 -/+ buffers/cache: 274596 1794392 Swap: 2097136 0 2097136 また、別マシン(実メモリ4GB(空き3.5GB)の状態)で試したのですが、 やはり同様に、1GBのメモリ獲得が成功しても、 その後の1MBのメモリ獲得には失敗しました。 > こちらでは > main memory 2 GB, swap 2 GB の環境で行ったらうまく動き, 亀山様の環境では発生しないというこですか。 > main memory 512 MB, swap 256 MB の環境では 1 GB の malloc に失敗しまし > た. > (まあ, 当然ですけど...) > >  下記のようなプログラムを実施。 > >   (1) malloc()で1GB程度のメモリを獲得。 > >   (2) 続けてmalloc()で1MB程度のメモリを獲得。 > >     → 獲得に失敗。 > >   但し、(1)で1GB未満(900MB程度を確認)では発生せず。 > > 100 MB も差があると結果が違うのは当然のような... 以上、宜しくお願いします。 --- 川口 ==> m-kawaguchi @ pst.fujitsu.com From kameyama @ pccluster.org Thu Jan 8 17:35:27 2004 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Thu, 08 Jan 2004 17:35:27 +0900 Subject: [SCore-users-jp] MPICH-SCoreでのメモリ獲得について In-Reply-To: Your message of "Thu, 08 Jan 2004 17:05:02 JST." <003d01c3d5be$1e29bc20$570aa8c0@Globus> Message-ID: <20040108082215.A610F12894C@neal.il.is.s.u-tokyo.ac.jp> 亀山です. In article <003d01c3d5be$1e29bc20$570aa8c0 @ Globus> "Mitsugu Kawaguchi" wrotes: > > メモリー関係の環境はどうなっていますでしょうか? > > (1x2 で失敗したということは, memory + swap は 2 GB 程度でしょうか?) > > data size の limit などは設定していないでしょうか? > > (PM を使うとその分余分にメモリーが必要になるので, > > 大きなデータサイズが必要になりますので, limit を指定していると > > そちらにひっかかっている可能性があります.) > > 計算ノードのメモリ環境は以下の通りです。(実メモリ2GB、swap2GB) > $ free > total used free shared buffers cached > Mem: 2068988 583768 1485220 0 151764 157408 > -/+ buffers/cache: 274596 1794392 > Swap: 2097136 0 2097136 > > また、別マシン(実メモリ4GB(空き3.5GB)の状態)で試したのですが、 > やはり同様に、1GBのメモリ獲得が成功しても、 > その後の1MBのメモリ獲得には失敗しました。 limit の設定はどうなっているでしょうか? (現象から考えて, getrlimit() かなにかで制限されているのではないかと...) 多分, $ scrun system sh -c "ulimit -a" で確認できると思いますが... あと, $ scrun -nodes=1x1 /opt/score/test/scored/bigmem $ scrun -nodes=2x1 /opt/score/test/scored/bigmem ではどうなるでしょうか? (4 MB づつ malloc() するテストプログラムです.) こちらでは, 1x1 で 2920 MB, あたりで SIGSEGV で終わります. (IA32 で user が使用できるのが 3 GB なので, 正常ではないかと...) 1x2 のときは, 1.8 GB 付近で SCORE: Resource limit. で終わります. > > こちらでは > > main memory 2 GB, swap 2 GB の環境で行ったらうまく動き, > > 亀山様の環境では発生しないというこですか。 はい, 残念ながら... もっとも, SCore は開発用の version で distribution は Fedora Core 1 だったり しますけど... from Kameyama Toyohisa From m-kawaguchi @ pst.fujitsu.com Thu Jan 8 20:01:40 2004 From: m-kawaguchi @ pst.fujitsu.com (Mitsugu Kawaguchi) Date: Thu, 8 Jan 2004 20:01:40 +0900 Subject: [SCore-users-jp] MPICH-SCoreでのメモリ獲得について In-Reply-To: <20040108082215.A610F12894C@neal.il.is.s.u-tokyo.ac.jp> Message-ID: <004e01c3d5d6$cb6b9990$570aa8c0@Globus> 富士通プライムソフトテクノロジの川口です。 ご対応していただき、ありがとうございます。 > -----Original Message----- > From: kameyama @ il.is.s.u-tokyo.ac.jp > [mailto:kameyama @ il.is.s.u-tokyo.ac.jp] On Behalf Of > kameyama @ pccluster.org > Sent: Thursday, January 08, 2004 5:35 PM > To: Mitsugu Kawaguchi > Cc: kameyama @ pccluster.org; score-users-jp @ pccluster.org > Subject: Re: RE: [SCore-users-jp] MPICH-SCoreでのメモリ獲得について > > > 亀山です. > > In article <003d01c3d5be$1e29bc20$570aa8c0 @ Globus> "Mitsugu > Kawaguchi" wrotes: > > > メモリー関係の環境はどうなっていますでしょうか? > > > (1x2 で失敗したということは, memory + swap は 2 GB 程度でしょうか > ?) > > > data size の limit などは設定していないでしょうか? > > > (PM を使うとその分余分にメモリーが必要になるので, > > > 大きなデータサイズが必要になりますので, limit を指定していると > > > そちらにひっかかっている可能性があります.) > > > > 計算ノードのメモリ環境は以下の通りです。(実メモリ2GB、swap2GB) > > $ free > > total used free shared > buffers cached > > Mem: 2068988 583768 1485220 0 > 151764 157408 > > -/+ buffers/cache: 274596 1794392 > > Swap: 2097136 0 2097136 > > > > また、別マシン(実メモリ4GB(空き3.5GB)の状態)で試したのですが、 > > やはり同様に、1GBのメモリ獲得が成功しても、 > > その後の1MBのメモリ獲得には失敗しました。 > > limit の設定はどうなっているでしょうか? > (現象から考えて, getrlimit() かなにかで制限されているのではないかと > ...) > 多分, > $ scrun system sh -c "ulimit -a" > で確認できると思いますが... 確認しましたが、特に制限に掛かっていないようです。 scrun -group=all,nodes=2x1 system sh -c "ulimit -a" SCOUT: Spawning done. SCore-D 5.7.0 connected. core file size (blocks, -c) 0 data seg size (kbytes, -d) unlimited file size (blocks, -f) unlimited max locked memory (kbytes, -l) unlimited max memory size (kbytes, -m) unlimited open files (-n) 1024 pipe size (512 bytes, -p) 8 stack size (kbytes, -s) unlimited cpu time (seconds, -t) unlimited max user processes (-u) 7168 virtual memory (kbytes, -v) unlimited <0:0> SCORE: 2 nodes (2x1) ready. core file size (blocks, -c) 0 data seg size (kbytes, -d) unlimited file size (blocks, -f) unlimited max locked memory (kbytes, -l) unlimited max memory size (kbytes, -m) unlimited open files (-n) 1024 pipe size (512 bytes, -p) 8 stack size (kbytes, -s) unlimited cpu time (seconds, -t) unlimited max user processes (-u) 7168 virtual memory (kbytes, -v) unlimited SCOUT: Session done. この環境で再度試したのですが、やはり再現します。 1x1では問題ないのですが、1x2あるいは2x1で問題になるので、 MPICH-SCoreの問題かなと考えてます。 > あと, > $ scrun -nodes=1x1 /opt/score/test/scored/bigmem > $ scrun -nodes=2x1 /opt/score/test/scored/bigmem > ではどうなるでしょうか? > (4 MB づつ malloc() するテストプログラムです.) > こちらでは, 1x1 で 2920 MB, あたりで SIGSEGV で終わります. > (IA32 で user が使用できるのが 3 GB なので, 正常ではないかと...) > 1x2 のときは, 1.8 GB 付近で > SCORE: Resource limit. > で終わります. だいたい同じ結果になりました。 1x1では、2920MBでSIGSEGVで終了。 1x2では、1860MBでResource limitとなりました。 > > > こちらでは > > > main memory 2 GB, swap 2 GB の環境で行ったらうまく動き, > > > > 亀山様の環境では発生しないというこですか。 > > はい, 残念ながら... > もっとも, SCore は開発用の version で distribution は Fedora Core 1 だ > ったり > しますけど... SCore開発用バージョンはあまり違いないと思いますが、 OSバージョンには影響されるような... 以上、宜しくお願いします。 --- 川口 ==> m-kawaguchi @ pst.fujitsu.com From kameyama @ pccluster.org Fri Jan 9 12:18:36 2004 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Fri, 09 Jan 2004 12:18:36 +0900 Subject: [SCore-users-jp] MPICH-SCoreでのメモリ獲得について In-Reply-To: Your message of "Thu, 08 Jan 2004 20:01:40 JST." <004e01c3d5d6$cb6b9990$570aa8c0@Globus> Message-ID: <20040109030522.A628912894C@neal.il.is.s.u-tokyo.ac.jp> 亀山です. In article <004e01c3d5d6$cb6b9990$570aa8c0 @ Globus> "Mitsugu Kawaguchi" wrotes: > > > 亀山様の環境では発生しないというこですか。 > > > > はい, 残念ながら... > > もっとも, SCore は開発用の version で distribution は Fedora Core 1 だ > > ったり > > しますけど... > > SCore開発用バージョンはあまり違いないと思いますが、 > OSバージョンには影響されるような... redhat 7.3 + SCore 5.6.1 で compile したものを動かしてみましたが, 同様 (再現せず) でした. PM を使用すると, malloc() は memory を確保するのに mmap() を 使用せずに sbrk() で行うようになっていました. 試しに, malloc() を呼び出す前に mallopt(M_MMAP_THRESHOLD, 128 * 1024); をいれてみてください. from Kameyama Toyohisa From diver_oct1981 @ yahoo.co.jp Tue Jan 13 16:01:56 2004 From: diver_oct1981 @ yahoo.co.jp (PRO DIVER) Date: Tue, 13 Jan 2004 16:01:56 +0900 (JST) Subject: [SCore-users-jp] カーネルの再構築2 Message-ID: <20040113070156.67550.qmail@web703.mail.yahoo.co.jp> 亀山様 いつもお世話になっております。 琉球大学の駒澤です。 お返事ありがとうございます。 また、返事が大変遅くなってしまい申し訳ありません。 >dmesg などを実行して kernel のメッセージを眺めれば詳し い >ことは >わかるかもしれませんが... >ためしに > % /sbin/lsmod >を実行してみてください. >NIS および NFS を使用するためには > nfs, lockd, sunrpc >が必要になりますが, これは入っているでしょうか? >(kernel 構築のときに builtin にしたのでしたら入りません> けど...) ということでlsmodでみてみたのですがtulipしか はいっていません。builtinにしたというのは #make module でyesにしてしまうと駄目ということなのでしょか? 情けない質問で申し訳ありません。 #make module をしてほとんどMにし、あとで /sbin/modprobe でロードしようとするのですがロードすることができません。 なにか足りない部分やこれを忘れていないか等の アドバイスがありましたらお手数ですが どうぞよろしくお願いいたします。                    駒澤 **************************** 琉球大学 理学部 駒澤 孝美(コマザワ タカヨシ) *****************************  From kameyama @ pccluster.org Tue Jan 13 16:18:56 2004 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Tue, 13 Jan 2004 16:18:56 +0900 Subject: [SCore-users-jp] カーネルの再構築2 In-Reply-To: Your message of "Tue, 13 Jan 2004 16:01:56 JST." <20040113070156.67550.qmail@web703.mail.yahoo.co.jp> Message-ID: <20040113070528.A2EDC12894C@neal.il.is.s.u-tokyo.ac.jp> 亀山です. In article <20040113070156.67550.qmail @ web703.mail.yahoo.co.jp> PRO DIVER wrotes: > >dmesg などを実行して kernel のメッセージを眺めれば詳し > い > >ことは > >わかるかもしれませんが... > >ためしに > > % /sbin/lsmod > >を実行してみてください. > >NIS および NFS を使用するためには > > nfs, lockd, sunrpc > >が必要になりますが, これは入っているでしょうか? > >(kernel 構築のときに builtin にしたのでしたら入りません> > けど...) > > ということでlsmodでみてみたのですがtulipしか > はいっていません。builtinにしたというのは > #make module > でyesにしてしまうと駄目ということなのでしょか? yes なら lsmod で出なくてあたりまえだと思いますが, yes にしてあるということでしょうか? > 情けない質問で申し訳ありません。 > #make module > をしてほとんどMにし、あとで > /sbin/modprobe > でロードしようとするのですがロードすることができません。 これだけでは情報が足りなくて, 何がおこっているか不明です. どの機能を module にして modprobe を実行してどのような出力になったか? dmesg をしたとき何か残っていないかあたりがポイントになると思います. ちなみに, ある機能を module にした場合, kernel 本体にも module を load するための部分が必要な場合があるので, make menuconfig などで module を追加したとき, その config で, kernel 本体も作成し, replace したほうが無難です. from Kameyama Toyohisa From yoshihiro551230 @ bc.wakwak.com Tue Jan 13 16:47:11 2004 From: yoshihiro551230 @ bc.wakwak.com (Yoshihiro ISHIKAWA) Date: Tue, 13 Jan 2004 16:47:11 +0900 Subject: [SCore-users-jp] Score-D PANICについて Message-ID: <010301c3d9a9$741af510$6f501da0@airfoceone> メーリングリストの皆様 岩手大学の石川と申します.いつもお世話になっております. Score 5.4でクラスタを構築して1ヶ月くらい何も問題なく動いて いたのですが,最近,マルチユーザ環境にてScore-D PANIC というメッセージが出るようになり,計算が止まってしまいます. 計算機を再起動して,引続き使用してもやはり同じメッセージ が出てしまいます. この原因についてお分かりになる方がいらっしゃいましたら 対処法をお教え頂けないでしょうか? よろしくお願いいたします. ==================================== 岩手大学大学院工学研究科機械工学専攻 航空宇宙システム部門/船崎・山田研究室 修士課程1年 石川慶拓 Yoshihiro Ishikawa mail yoshihiro551230 @ bc.wakwak.com ==================================== From kameyama @ pccluster.org Tue Jan 13 18:37:30 2004 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Tue, 13 Jan 2004 18:37:30 +0900 Subject: [SCore-users-jp] Score-D PANICについて In-Reply-To: Your message of "Tue, 13 Jan 2004 16:47:11 JST." <010301c3d9a9$741af510$6f501da0@airfoceone> Message-ID: <20040113092402.C6B5112894C@neal.il.is.s.u-tokyo.ac.jp> 亀山です. In article <010301c3d9a9$741af510$6f501da0 @ airfoceone> "Yoshihiro ISHIKAWA" wrotes: > Score 5.4でクラスタを構築して1ヶ月くらい何も問題なく動いて > いたのですが,最近,マルチユーザ環境にてScore-D PANIC > というメッセージが出るようになり,計算が止まってしまいます. SCore-D で panic を起こす原因はいくつか考えられますが, どれだか判断できません. 具体的にどんなメッセージがでたか教えてください. from Kameyama Toyohisa From diver_oct1981 @ yahoo.co.jp Tue Jan 13 19:22:20 2004 From: diver_oct1981 @ yahoo.co.jp (PRO DIVER) Date: Tue, 13 Jan 2004 19:22:20 +0900 (JST) Subject: [SCore-users-jp] カーネルの再構築2 Message-ID: <20040113102220.4884.qmail@web704.mail.yahoo.co.jp> --0-1979731796-1073989340=:4858 Content-Type: text/plain; charset=iso-2022-jp Content-Disposition: inline 亀山様 いつもお世話になります。 琉球大学の駒澤です。 先程のメールは申し訳ございません。 説明しなおしますと まずやったこととしまして #make menuconfig がうまくいっていないと思い 本やネットを調べてmenuconfigを作成したり 、最初に入っているカーネル2.4.18-3(RsdHat7.3) のmenuconfigとまったく同じにとおりに2.4.21の menuconfigの構築を行い、rshでクライアントに のせてみたのですがクライアントでやはりうまくいきません。 rshで送った後にしなければならないことは SCoreのドキュメントどおりでOKなのでしょうか? また、今まではサーバーではkernel2.4.21SCoreをつくるだけ で、kernel2.4.18-3でクライアントをEITを用いて 構築し、後でrshを用いてkernel2.4.21をクライアントに のせていました。 そこでサーバーのカーネルをkernel2.4.21SCoreにして EITでつくったfloppyを用いて クライアントをbootさせるのですがそのときに クライアントで No dhcp_server specified. Used Broadcast とでてきます。 やはりmenuconfigに誤りがあるのでしょうか? しかしサーバーで2.4.21を用いて起動させても 何も問題はでてきません。 どうすればいいのか分からず困っています。 サーバーのdmesgと クライアントのdmesgを 下記に添付しておきます。 お手数をかけますがよろしくお願いいたします。 ***************************** 琉球大学 理学部 駒澤 孝美(コマザワ タカヨシ) ***************************** --0-1979731796-1073989340=:4858 Content-Type: text/plain; charset=iso-2022-jp Content-Description: server.txt Content-Disposition: inline; filename="server.txt" Linux version 2.4.21-1SCOREcustom (root @ scic100.sci.u-ryukyu.ac.jp) (gcc version 2.96 20000731 (Red Hat Linux 7.3 2.96-110)) #2 SMP Wed Jan 7 16:41:55 JST 2004 BIOS-provided physical RAM map: BIOS-e820: 0000000000000000 - 000000000009fc00 (usable) BIOS-e820: 000000000009fc00 - 00000000000a0000 (reserved) BIOS-e820: 00000000000f0000 - 0000000000100000 (reserved) BIOS-e820: 0000000000100000 - 000000000fff0000 (usable) BIOS-e820: 000000000fff0000 - 000000000fff3000 (ACPI NVS) BIOS-e820: 000000000fff3000 - 0000000010000000 (ACPI data) BIOS-e820: 00000000fec00000 - 00000000fec01000 (reserved) BIOS-e820: 00000000fee00000 - 00000000fee01000 (reserved) BIOS-e820: 00000000ffff0000 - 0000000100000000 (reserved) 255MB LOWMEM available. found SMP MP-table at 000f5310 hm, page 000f5000 reserved twice. hm, page 000f6000 reserved twice. hm, page 000f0000 reserved twice. hm, page 000f1000 reserved twice. On node 0 totalpages: 65520 zone(0): 4096 pages. zone(1): 61424 pages. zone(2): 0 pages. ACPI: Searched entire block, no RSDP was found. ACPI: RSDP located at physical address c00f6ce0 RSD PTR v0 [GBT ] __va_range(0xfff3000, 0x68): idx=8 mapped at ffff6000 ACPI table found: RSDT v1 [GBT AWRDACPI 16944.11825] __va_range(0xfff3040, 0x24): idx=8 mapped at ffff6000 __va_range(0xfff3040, 0x74): idx=8 mapped at ffff6000 ACPI table found: FACP v1 [GBT AWRDACPI 16944.11825] __va_range(0xfff6a00, 0x24): idx=8 mapped at ffff6000 __va_range(0xfff6a00, 0x5a): idx=8 mapped at ffff6000 ACPI table found: APIC v1 [GBT AWRDACPI 16944.11825] __va_range(0xfff6a00, 0x5a): idx=8 mapped at ffff6000 LAPIC (acpi_id[0x0000] id[0x0] enabled[1]) CPU 0 (0x0000) enabledProcessor #0 Pentium 4(tm) XEON(tm) APIC version 16 IOAPIC (id[0x2] address[0xfec00000] global_irq_base[0x0]) INT_SRC_OVR (bus[0] irq[0x0] global_irq[0x2] polarity[0x0] trigger[0x0]) INT_SRC_OVR (bus[0] irq[0x9] global_irq[0x9] polarity[0x0] trigger[0x0]) LAPIC_NMI (acpi_id[0x0000] polarity[0x0] trigger[0x0] lint[0x1]) 1 CPUs total Local APIC address fee00000 Enabling the CPU's according to the ACPI table Intel MultiProcessor Specification v1.4 Virtual Wire compatibility mode. OEM ID: OEM00000 Product ID: PROD00000000 APIC at: 0xFEE00000 I/O APIC #2 Version 17 at 0xFEC00000. Enabling APIC mode: Flat. Using 1 I/O APICs Processors: 1 Kernel command line: ro root=/dev/hda2 Initializing CPU#0 Detected 1817.930 MHz processor. Console: colour VGA+ 80x25 Calibrating delay loop... 3630.69 BogoMIPS Memory: 255940k/262080k available (1670k kernel code, 5752k reserved, 660k data, 120k init, 0k highmem) Dentry cache hash table entries: 32768 (order: 6, 262144 bytes) Inode cache hash table entries: 16384 (order: 5, 131072 bytes) Mount cache hash table entries: 512 (order: 0, 4096 bytes) Buffer-cache hash table entries: 16384 (order: 4, 65536 bytes) Page-cache hash table entries: 65536 (order: 6, 262144 bytes) CPU: Trace cache: 12K uops, L1 D cache: 8K CPU: L2 cache: 512K CPU: Hyper-Threading is disabled Intel machine check architecture supported. Intel machine check reporting enabled on CPU#0. CPU: After generic, caps: 3febfbff 00000000 00000000 00000000 CPU: Common caps: 3febfbff 00000000 00000000 00000000 Enabling fast FPU save and restore... done. Enabling unmasked SIMD FPU exception support... done. Checking 'hlt' instruction... OK. POSIX conformance testing by UNIFIX CPU: Trace cache: 12K uops, L1 D cache: 8K CPU: L2 cache: 512K CPU: Hyper-Threading is disabled Intel machine check reporting enabled on CPU#0. CPU: After generic, caps: 3febfbff 00000000 00000000 00000000 CPU: Common caps: 3febfbff 00000000 00000000 00000000 CPU0: Intel(R) Pentium(R) 4 CPU 1.80GHz stepping 04 per-CPU timeslice cutoff: 1463.34 usecs. enabled ExtINT on CPU#0 ESR value before enabling vector: 00000000 ESR value after enabling vector: 00000000 Error: only one processor found. ENABLING IO-APIC IRQs Setting 2 in the phys_id_present_map ...changing IO-APIC physical APIC ID to 2 ... ok. init IO_APIC IRQs IO-APIC (apicid-pin) 2-0, 2-5, 2-9, 2-11, 2-19 not connected. ..TIMER: vector=0x31 pin1=2 pin2=0 number of MP IRQ sources: 21. number of IO-APIC #2 registers: 24. testing the IO APIC....................... IO APIC #2...... .... register #00: 02000000 ....... : physical APIC id: 02 ....... : Delivery Type: 0 ....... : LTS : 0 .... register #01: 00178014 ....... : max redirection entries: 0017 ....... : PRQ implemented: 1 ....... : IO APIC version: 0014 An unexpected IO-APIC was found. If this kernel release is less than three months old please report this to linux-smp @ vger.kernel.org .... register #02: 02000000 ....... : arbitration: 02 .... IRQ redirection table: NR Log Phy Mask Trig IRR Pol Stat Dest Deli Vect: 00 000 00 1 0 0 0 0 0 0 00 01 001 01 0 0 0 0 0 1 1 39 02 001 01 0 0 0 0 0 1 1 31 03 001 01 0 0 0 0 0 1 1 41 04 001 01 0 0 0 0 0 1 1 49 05 000 00 1 0 0 0 0 0 0 00 06 001 01 0 0 0 0 0 1 1 51 07 001 01 0 0 0 0 0 1 1 59 08 001 01 0 0 0 0 0 1 1 61 09 000 00 1 0 0 0 0 0 0 00 0a 001 01 0 0 0 0 0 1 1 69 0b 000 00 1 0 0 0 0 0 0 00 0c 001 01 0 0 0 0 0 1 1 71 0d 001 01 0 0 0 0 0 1 1 79 0e 001 01 0 0 0 0 0 1 1 81 0f 001 01 0 0 0 0 0 1 1 89 10 001 01 1 1 0 1 0 1 1 91 11 001 01 1 1 0 1 0 1 1 99 12 001 01 1 1 0 1 0 1 1 A1 13 000 00 1 0 0 0 0 0 0 00 14 001 01 1 1 0 1 0 1 1 A9 15 001 01 1 1 0 1 0 1 1 B1 16 001 01 1 1 0 1 0 1 1 B9 17 001 01 1 1 0 1 0 1 1 C1 IRQ to pin mappings: IRQ0 -> 0:2 IRQ1 -> 0:1 IRQ3 -> 0:3 IRQ4 -> 0:4 IRQ6 -> 0:6 IRQ7 -> 0:7 IRQ8 -> 0:8 IRQ10 -> 0:10 IRQ12 -> 0:12 IRQ13 -> 0:13 IRQ14 -> 0:14 IRQ15 -> 0:15 IRQ16 -> 0:16 IRQ17 -> 0:17 IRQ18 -> 0:18 IRQ20 -> 0:20 IRQ21 -> 0:21 IRQ22 -> 0:22 IRQ23 -> 0:23 .................................... done. Using local APIC timer interrupts. calibrating APIC timer ... ..... CPU clock speed is 1817.9207 MHz. ..... host bus clock speed is 100.9953 MHz. cpu: 0, clocks: 1009953, slice: 504976 CPU0 Waiting on wait_init_idle (map = 0x0) All processors have done init_idle PCI: PCI BIOS revision 2.10 entry at 0xfa980, last bus=1 PCI: Using configuration type 1 PCI: Probing PCI hardware PCI: Using IRQ router default [1039/0648] at 00:00.0 PCI->APIC IRQ transform: (B0,I2,P2) -> 18 PCI->APIC IRQ transform: (B0,I3,P0) -> 20 PCI->APIC IRQ transform: (B0,I3,P1) -> 21 PCI->APIC IRQ transform: (B0,I3,P2) -> 22 PCI->APIC IRQ transform: (B0,I3,P3) -> 23 PCI->APIC IRQ transform: (B0,I9,P0) -> 17 PCI->APIC IRQ transform: (B1,I0,P0) -> 16 isapnp: Scanning for PnP cards... isapnp: No Plug & Play device found Linux NET4.0 for Linux 2.4 Based upon Swansea University Computer Society NET3.039 Initializing RT netlink socket Starting kswapd Journalled Block Device driver loaded Installing knfsd (copyright (C) 1996 okir @ monad.swb.de). pty: 256 Unix98 ptys configured PM memory support pmm_page_init: pmm_page_size(4096) pmm_pd_shift(10) pmm_pt_mask(3ff) Register pm_memory as major(123) PM/Ethernet: "$Id: pm_ethernet_dev.c,v 1.3 2003/09/22 10:40:55 s-sumi Exp $" PM/Ethernet: register etherpm device as major(122) pmshmem: version = $Id: pm_shmem.c,v 1.2 2003/07/31 06:15:41 kameyama Exp $ pmshmem_init: register pm_shmem as major(124) Serial driver version 5.05c (2001-07-08) with MANY_PORTS SHARE_IRQ SERIAL_PCI ISAPNP enabled ttyS00 at 0x03f8 (irq = 4) is a 16550A ttyS01 at 0x02f8 (irq = 3) is a 16550A Floppy drive(s): fd0 is 1.44M FDC 0 is a post-1991 82077 Linux agpgart interface v0.99 (c) Jeff Hartmann agpgart: Maximum main memory to use for agp memory: 203M agpgart: Unsupported SiS chipset (device id: 0648), you might want to try agp_try_unsupported=1. agpgart: no supported devices found. [drm] Initialized tdfx 1.0.0 20010216 on minor 0 [drm] Initialized radeon 1.1.1 20010405 on minor 1 [drm:drm_init] *ERROR* Cannot initialize the agpgart module. Uniform Multi-Platform E-IDE driver Revision: 7.00beta4-2.4 ide: Assuming 33MHz system bus speed for PIO modes; override with idebus=xx hda: Maxtor 33073H3, ATA DISK drive hdc: _NEC DV-5800C, ATAPI CD/DVD-ROM drive ide0 at 0x1f0-0x1f7,0x3f6 on irq 14 ide1 at 0x170-0x177,0x376 on irq 15 hda: attached ide-disk driver. hda: host protected area => 1 hda: 60032448 sectors (30737 MB) w/2048KiB Cache, CHS=3736/255/63 hdc: attached ide-cdrom driver. hdc: ATAPI 48X DVD-ROM drive, 512kB Cache Uniform CD-ROM driver Revision: 3.12 Partition check: hda: hda1 hda2 hda3 SCSI subsystem driver Revision: 1.00 kmod: failed to exec /sbin/modprobe -s -k scsi_hostadapter, errno = 2 es1371: version v0.32 time 16:33:09 Jan 7 2004 Linux Kernel Card Services 3.1.22 options: [pci] [cardbus] [pm] usb.c: registered new driver hub host/uhci.c: USB Universal Host Controller Interface driver v1.1 Initializing USB Mass Storage driver... usb.c: registered new driver usb-storage USB Mass Storage support registered. NET4: Linux TCP/IP 1.0 for NET4.0 IP Protocols: ICMP, UDP, TCP, IGMP IP: routing cache hash table of 2048 buckets, 16Kbytes TCP: Hash tables configured (established 16384 bind 16384) NET4: Unix domain sockets 1.0/SMP for Linux NET4.0. ds: no socket drivers loaded! kjournald starting. Commit interval 5 seconds EXT3-fs: mounted filesystem with ordered data mode. VFS: Mounted root (ext3 filesystem) readonly. Freeing unused kernel memory: 120k freed Adding Swap: 1606492k swap-space (priority -1) EXT3 FS 2.4-0.9.19, 19 August 2002 on ide0(3,2), internal journal kjournald starting. Commit interval 5 seconds EXT3 FS 2.4-0.9.19, 19 August 2002 on ide0(3,1), internal journal EXT3-fs: mounted filesystem with ordered data mode. Linux Tulip driver version 0.9.15-pre12 (Aug 9, 2002) tulip0: MII transceiver #1 config 3000 status 7829 advertising 01e1. eth0: Lite-On 82c168 PNIC rev 32 at 0xe000, 02:00:08:E3:1F:92, IRQ 17. eth0: Setting full-duplex based on MII#1 link partner capability of 45e1. --0-1979731796-1073989340=:4858 Content-Type: text/plain; charset=iso-2022-jp Content-Description: client.txt Content-Disposition: inline; filename="client.txt" Linux version 2.4.21-1SCOREcustom (root @ scic100.sci.u-ryukyu.ac.jp) (gcc version 2.96 20000731 (Red Hat Linux 7.3 2.96-110)) #2 SMP Tue Jan 6 17:19:20 JST 2004 BIOS-provided physical RAM map: BIOS-e820: 0000000000000000 - 000000000009fc00 (usable) BIOS-e820: 000000000009fc00 - 00000000000a0000 (reserved) BIOS-e820: 00000000000f0000 - 0000000000100000 (reserved) BIOS-e820: 0000000000100000 - 000000000fff0000 (usable) BIOS-e820: 000000000fff0000 - 000000000fff3000 (ACPI NVS) BIOS-e820: 000000000fff3000 - 0000000010000000 (ACPI data) BIOS-e820: 00000000fec00000 - 00000000fec01000 (reserved) BIOS-e820: 00000000fee00000 - 00000000fee01000 (reserved) BIOS-e820: 00000000ffff0000 - 0000000100000000 (reserved) 255MB LOWMEM available. found SMP MP-table at 000f5310 hm, page 000f5000 reserved twice. hm, page 000f6000 reserved twice. hm, page 000f0000 reserved twice. hm, page 000f1000 reserved twice. On node 0 totalpages: 65520 zone(0): 4096 pages. zone(1): 61424 pages. zone(2): 0 pages. ACPI: Searched entire block, no RSDP was found. ACPI: RSDP located at physical address c00f6ce0 RSD PTR v0 [GBT ] __va_range(0xfff3000, 0x68): idx=8 mapped at ffff6000 ACPI table found: RSDT v1 [GBT AWRDACPI 16944.11825] __va_range(0xfff3040, 0x24): idx=8 mapped at ffff6000 __va_range(0xfff3040, 0x74): idx=8 mapped at ffff6000 ACPI table found: FACP v1 [GBT AWRDACPI 16944.11825] __va_range(0xfff6a00, 0x24): idx=8 mapped at ffff6000 __va_range(0xfff6a00, 0x5a): idx=8 mapped at ffff6000 ACPI table found: APIC v1 [GBT AWRDACPI 16944.11825] __va_range(0xfff6a00, 0x5a): idx=8 mapped at ffff6000 LAPIC (acpi_id[0x0000] id[0x0] enabled[1]) CPU 0 (0x0000) enabledProcessor #0 Pentium 4(tm) XEON(tm) APIC version 16 IOAPIC (id[0x2] address[0xfec00000] global_irq_base[0x0]) INT_SRC_OVR (bus[0] irq[0x0] global_irq[0x2] polarity[0x0] trigger[0x0]) INT_SRC_OVR (bus[0] irq[0x9] global_irq[0x9] polarity[0x0] trigger[0x0]) LAPIC_NMI (acpi_id[0x0000] polarity[0x0] trigger[0x0] lint[0x1]) 1 CPUs total Local APIC address fee00000 Enabling the CPU's according to the ACPI table Intel MultiProcessor Specification v1.4 Virtual Wire compatibility mode. OEM ID: OEM00000 Product ID: PROD00000000 APIC at: 0xFEE00000 I/O APIC #2 Version 17 at 0xFEC00000. Enabling APIC mode: Flat. Using 1 I/O APICs Processors: 1 Kernel command line: auto BOOT_IMAGE=linux-custom ro root=305 BOOT_FILE=/boot/vmlinuz-2.4.21-1SCOREcustom Initializing CPU#0 Detected 2679.616 MHz processor. Console: colour VGA+ 80x25 Calibrating delay loop... 5347.73 BogoMIPS Memory: 255924k/262080k available (1689k kernel code, 5768k reserved, 653k data, 120k init, 0k highmem) Dentry cache hash table entries: 32768 (order: 6, 262144 bytes) Inode cache hash table entries: 16384 (order: 5, 131072 bytes) Mount cache hash table entries: 512 (order: 0, 4096 bytes) Buffer-cache hash table entries: 16384 (order: 4, 65536 bytes) Page-cache hash table entries: 65536 (order: 6, 262144 bytes) CPU: Trace cache: 12K uops, L1 D cache: 8K CPU: L2 cache: 512K CPU: Hyper-Threading is disabled Intel machine check architecture supported. Intel machine check reporting enabled on CPU#0. CPU: After generic, caps: bfebfbff 00000000 00000000 00000000 CPU: Common caps: bfebfbff 00000000 00000000 00000000 Enabling fast FPU save and restore... done. Enabling unmasked SIMD FPU exception support... done. Checking 'hlt' instruction... OK. POSIX conformance testing by UNIFIX CPU: Trace cache: 12K uops, L1 D cache: 8K CPU: L2 cache: 512K CPU: Hyper-Threading is disabled Intel machine check reporting enabled on CPU#0. CPU: After generic, caps: bfebfbff 00000000 00000000 00000000 CPU: Common caps: bfebfbff 00000000 00000000 00000000 CPU0: Intel(R) Pentium(R) 4 CPU 2.66GHz stepping 09 per-CPU timeslice cutoff: 1462.73 usecs. enabled ExtINT on CPU#0 ESR value before enabling vector: 00000000 ESR value after enabling vector: 00000000 Error: only one processor found. ENABLING IO-APIC IRQs Setting 2 in the phys_id_present_map ...changing IO-APIC physical APIC ID to 2 ... ok. init IO_APIC IRQs IO-APIC (apicid-pin) 2-0, 2-5, 2-9, 2-11, 2-17, 2-19 not connected. ..TIMER: vector=0x31 pin1=2 pin2=0 number of MP IRQ sources: 21. number of IO-APIC #2 registers: 24. testing the IO APIC....................... IO APIC #2...... .... register #00: 02000000 ....... : physical APIC id: 02 ....... : Delivery Type: 0 ....... : LTS : 0 .... register #01: 00178014 ....... : max redirection entries: 0017 ....... : PRQ implemented: 1 ....... : IO APIC version: 0014 An unexpected IO-APIC was found. If this kernel release is less than three months old please report this to linux-smp @ vger.kernel.org .... register #02: 02000000 ....... : arbitration: 02 .... IRQ redirection table: NR Log Phy Mask Trig IRR Pol Stat Dest Deli Vect: 00 000 00 1 0 0 0 0 0 0 00 01 001 01 0 0 0 0 0 1 1 39 02 001 01 0 0 0 0 0 1 1 31 03 001 01 0 0 0 0 0 1 1 41 04 001 01 0 0 0 0 0 1 1 49 05 000 00 1 0 0 0 0 0 0 00 06 001 01 0 0 0 0 0 1 1 51 07 001 01 0 0 0 0 0 1 1 59 08 001 01 0 0 0 0 0 1 1 61 09 000 00 1 0 0 0 0 0 0 00 0a 001 01 0 0 0 0 0 1 1 69 0b 000 00 1 0 0 0 0 0 0 00 0c 001 01 0 0 0 0 0 1 1 71 0d 001 01 0 0 0 0 0 1 1 79 0e 001 01 0 0 0 0 0 1 1 81 0f 001 01 0 0 0 0 0 1 1 89 10 001 01 1 1 0 1 0 1 1 91 11 000 00 1 0 0 0 0 0 0 00 12 001 01 1 1 0 1 0 1 1 99 13 000 00 1 0 0 0 0 0 0 00 14 001 01 1 1 0 1 0 1 1 A1 15 001 01 1 1 0 1 0 1 1 A9 16 001 01 1 1 0 1 0 1 1 B1 17 001 01 1 1 0 1 0 1 1 B9 IRQ to pin mappings: IRQ0 -> 0:2 IRQ1 -> 0:1 IRQ3 -> 0:3 IRQ4 -> 0:4 IRQ6 -> 0:6 IRQ7 -> 0:7 IRQ8 -> 0:8 IRQ10 -> 0:10 IRQ12 -> 0:12 IRQ13 -> 0:13 IRQ14 -> 0:14 IRQ15 -> 0:15 IRQ16 -> 0:16 IRQ18 -> 0:18 IRQ20 -> 0:20 IRQ21 -> 0:21 IRQ22 -> 0:22 IRQ23 -> 0:23 .................................... done. Using local APIC timer interrupts. calibrating APIC timer ... ..... CPU clock speed is 2679.5868 MHz. ..... host bus clock speed is 133.9792 MHz. cpu: 0, clocks: 1339792, slice: 669896 CPU0 Waiting on wait_init_idle (map = 0x0) All processors have done init_idle PCI: PCI BIOS revision 2.10 entry at 0xfa980, last bus=1 PCI: Using configuration type 1 PCI: Probing PCI hardware PCI: Using IRQ router default [1039/0648] at 00:00.0 PCI->APIC IRQ transform: (B0,I2,P2) -> 18 PCI->APIC IRQ transform: (B0,I3,P0) -> 20 PCI->APIC IRQ transform: (B0,I3,P1) -> 21 PCI->APIC IRQ transform: (B0,I3,P2) -> 22 PCI->APIC IRQ transform: (B0,I3,P3) -> 23 PCI->APIC IRQ transform: (B0,I10,P0) -> 18 PCI->APIC IRQ transform: (B1,I0,P0) -> 16 isapnp: Scanning for PnP cards... isapnp: No Plug & Play device found Linux NET4.0 for Linux 2.4 Based upon Swansea University Computer Society NET3.039 Initializing RT netlink socket Starting kswapd Journalled Block Device driver loaded Installing knfsd (copyright (C) 1996 okir @ monad.swb.de). pty: 256 Unix98 ptys configured PM memory support pmm_page_init: pmm_page_size(4096) pmm_pd_shift(10) pmm_pt_mask(3ff) Register pm_memory as major(123) PM/Ethernet: "$Id: pm_ethernet_dev.c,v 1.3 2003/09/22 10:40:55 s-sumi Exp $" PM/Ethernet: register etherpm device as major(122) pmshmem: version = $Id: pm_shmem.c,v 1.2 2003/07/31 06:15:41 kameyama Exp $ pmshmem_init: register pm_shmem as major(124) Serial driver version 5.05c (2001-07-08) with MANY_PORTS SHARE_IRQ SERIAL_PCI ISAPNP enabled ttyS00 at 0x03f8 (irq = 4) is a 16550A ttyS01 at 0x02f8 (irq = 3) is a 16550A Floppy drive(s): fd0 is 1.44M FDC 0 is a post-1991 82077 Linux agpgart interface v0.99 (c) Jeff Hartmann agpgart: Maximum main memory to use for agp memory: 203M agpgart: Unsupported SiS chipset (device id: 0648), you might want to try agp_try_unsupported=1. agpgart: no supported devices found. [drm] Initialized tdfx 1.0.0 20010216 on minor 0 [drm] Initialized radeon 1.1.1 20010405 on minor 1 [drm:drm_init] *ERROR* Cannot initialize the agpgart module. Uniform Multi-Platform E-IDE driver Revision: 7.00beta4-2.4 ide: Assuming 33MHz system bus speed for PIO modes; override with idebus=xx hda: Maxtor 6E040L0, ATA DISK drive ide0 at 0x1f0-0x1f7,0x3f6 on irq 14 hda: attached ide-disk driver. hda: host protected area => 1 hda: 80293248 sectors (41110 MB) w/2048KiB Cache, CHS=4998/255/63 Partition check: hda: hda1 hda2 hda3 hda4 < hda5 hda6 hda7 hda8 hda9 > SCSI subsystem driver Revision: 1.00 kmod: failed to exec /sbin/modprobe -s -k scsi_hostadapter, errno = 2 es1371: version v0.32 time 17:11:04 Jan 6 2004 Linux Kernel Card Services 3.1.22 options: [pci] [cardbus] [pm] usb.c: registered new driver hub host/uhci.c: USB Universal Host Controller Interface driver v1.1 Initializing USB Mass Storage driver... usb.c: registered new driver usb-storage USB Mass Storage support registered. NET4: Linux TCP/IP 1.0 for NET4.0 IP Protocols: ICMP, UDP, TCP, IGMP IP: routing cache hash table of 2048 buckets, 16Kbytes TCP: Hash tables configured (established 16384 bind 16384) Linux IP multicast router 0.06 plus PIM-SM NET4: Unix domain sockets 1.0/SMP for Linux NET4.0. ds: no socket drivers loaded! VFS: Mounted root (ext2 filesystem) readonly. Freeing unused kernel memory: 120k freed Adding Swap: 128480k swap-space (priority -1) 8139too Fast Ethernet driver 0.9.26 8139too Fast Ethernet driver 0.9.26 8139too Fast Ethernet driver 0.9.26 --0-1979731796-1073989340=:4858-- From kameyama @ pccluster.org Tue Jan 13 20:08:56 2004 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Tue, 13 Jan 2004 20:08:56 +0900 Subject: [SCore-users-jp] カーネルの再構築2 In-Reply-To: Your message of "Tue, 13 Jan 2004 19:22:20 JST." <20040113102220.4884.qmail@web704.mail.yahoo.co.jp> Message-ID: <20040113105528.4425712894C@neal.il.is.s.u-tokyo.ac.jp> 亀山です. In article <20040113102220.4884.qmail @ web704.mail.yahoo.co.jp> PRO DIVER wrotes: > 説明しなおしますと > まずやったこととしまして > #make menuconfig > がうまくいっていないと思い > 本やネットを調べてmenuconfigを作成したり > 、最初に入っているカーネル2.4.18-3(RsdHat7.3) > のmenuconfigとまったく同じにとおりに2.4.21の > menuconfigの構築を行い、rshでクライアントに > のせてみたのですがクライアントでやはりうまくいきません。 > rshで送った後にしなければならないことは > SCoreのドキュメントどおりでOKなのでしょうか? 多分よいはずです. > > また、今まではサーバーではkernel2.4.21SCoreをつくるだけ > で、kernel2.4.18-3でクライアントをEITを用いて > 構築し、後でrshを用いてkernel2.4.21をクライアントに > のせていました。 > そこでサーバーのカーネルをkernel2.4.21SCoreにして > EITでつくったfloppyを用いて > クライアントをbootさせるのですがそのときに > クライアントで > No dhcp_server specified. Used Broadcast > とでてきます。 このメッセージ自体は正しいです. > どうすればいいのか分からず困っています。 > サーバーのdmesgと > クライアントのdmesgを > 下記に添付しておきます。 client 側は 8139too を modprobe しているようですが, NIC がみつからないようです. /sbin/lspci などでどんな NIC がつながっているか確認して modprobe して ください. from Kameyama Toyohisa From yoshihiro551230 @ bc.wakwak.com Wed Jan 14 19:55:08 2004 From: yoshihiro551230 @ bc.wakwak.com (Yoshihiro ISHIKAWA) Date: Wed, 14 Jan 2004 19:55:08 +0900 Subject: [SCore-users-jp] Score-D PANICについて References: <20040113092402.C6B5112894C@neal.il.is.s.u-tokyo.ac.jp> Message-ID: <013201c3da8c$e06cd010$6f501da0@airfoceone> 亀山 様 メッセージの詳細をお知らせいたします. <1> Score-D:PANIC fork_pegroup(jid=10,jid=10) <3> Score-D:PANIC fork_pegroup(jid=10,jid=10) <5> Score-D:PANIC fork_pegroup(jid=10,jid=10) <6> Score-D:PANIC fork_pegroup(jid=10,jid=10) <0> Score-D:PANIC fork_pegroup(jid=10,jid=10) <4> Score-D:PANIC fork_pegroup(jid=10,jid=10) <2> Score-D:PANIC fork_pegroup(jid=10,jid=10) 以上のメッセージが出ます. よろしくお願いいたします. ==================================== 岩手大学大学院工学研究科機械工学専攻 航空宇宙システム部門/船崎・山田研究室 修士課程1年 石川慶拓 Yoshihiro Ishikawa mail yoshihiro551230 @ bc.wakwak.com ==================================== ----- Original Message ----- From: To: "Yoshihiro ISHIKAWA" Cc: "SCoreメーリングリスト" Sent: Tuesday, January 13, 2004 6:37 PM Subject: Re: [SCore-users-jp] Score-D PANICについて > 亀山です. > > In article <010301c3d9a9$741af510$6f501da0 @ airfoceone> "Yoshihiro ISHIKAWA" wrotes: > > Score 5.4でクラスタを構築して1ヶ月くらい何も問題なく動いて > > いたのですが,最近,マルチユーザ環境にてScore-D PANIC > > というメッセージが出るようになり,計算が止まってしまいます. > > SCore-D で panic を起こす原因はいくつか考えられますが, > どれだか判断できません. > > 具体的にどんなメッセージがでたか教えてください. > > from Kameyama Toyohisa > _______________________________________________ > SCore-users-jp mailing list > SCore-users-jp @ pccluster.org > http://www.pccluster.org/mailman/listinfo/score-users-jp > > From hori @ swimmy-soft.com Wed Jan 14 20:30:04 2004 From: hori @ swimmy-soft.com (Atsushi HORI) Date: Wed, 14 Jan 2004 20:30:04 +0900 Subject: [SCore-users-jp] Score-D PANICについて In-Reply-To: <013201c3da8c$e06cd010$6f501da0@airfoceone> References: <20040113092402.C6B5112894C@neal.il.is.s.u-tokyo.ac.jp> Message-ID: <3156957004.hori0006@swimmy-soft.com> 堀@スイミー・ソフトウェアです. >メッセージの詳細をお知らせいたします. > ><1> Score-D:PANIC fork_pegroup(jid=10,jid=10) ><3> Score-D:PANIC fork_pegroup(jid=10,jid=10) ><5> Score-D:PANIC fork_pegroup(jid=10,jid=10) ><6> Score-D:PANIC fork_pegroup(jid=10,jid=10) ><0> Score-D:PANIC fork_pegroup(jid=10,jid=10) ><4> Score-D:PANIC fork_pegroup(jid=10,jid=10) ><2> Score-D:PANIC fork_pegroup(jid=10,jid=10) > >以上のメッセージが出ます. 10個ほどジョブを投入した時に出ていると推測します. このメッセージが出るまでにどのようなジョブを投入したかわかりますでしょ うか?具体的に scrun の引数が分かると助かります.また,scored の出力を 全て教えてもらえますか? ---- 堀 敦史(ほり あつし) スイミー・ソフトウェア株式会社 From yearcarriage @ dwp.net Wed Jan 14 22:15:19 2004 From: yearcarriage @ dwp.net (Alowe) Date: Wed, 14 Jan 2004 13:15:19 +0000 Subject: [SCore-users-jp] [SCore-users] Modern way of losing Apollo we;ght natural darkly Message-ID: Hello wreckers, At last you have an opportunity to purchase good directly from manufactures. You save your money purchasing quality products from our plant's store. Today we present you FatBlast product. What is FatBlast actually? Fatblast is an advanced fat-binding supplement that removes fat from the foods you eat! Formulated with the powerful fat-binding fiber Chitosan, the proprietary blend of all-natural compounds... Our corporation was the first one who started selling this product on the web in the year 2004. Try our FDA approved product tday reanalyze Read about our dscounts and special bonses: http://www.tibetmeds.com/fly/index.php?pid=pharmaboss awaited platinum evacuation whistler, regular satire Europe wiretap wardrobes demander usages henchmen Teletex Savonarola recta overworked finishing. _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From jamesc @ streamline-computing.com Fri Jan 16 04:21:52 2004 From: jamesc @ streamline-computing.com (James Coomer) Date: Thu, 15 Jan 2004 19:21:52 +0000 (GMT) Subject: [SCore-users-jp] [SCore-users] Score 5.6.1 warning Message-ID: Hi, On our redhat 7.3 SCore5.6.1 xeon cluster, I am getting the following warning when running a Fortran 90 job. Could you tell me what it means? <0:0> SCORE:WARNING Checkpoint: Seek pointer of file (/home/james/short_8.out.nc) is rewinded. Restarting this process may fail. James _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From kameyama @ pccluster.org Fri Jan 16 09:31:26 2004 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Fri, 16 Jan 2004 09:31:26 +0900 Subject: [SCore-users-jp] Re: [SCore-users] Score 5.6.1 warning In-Reply-To: Your message of "Thu, 15 Jan 2004 19:21:52 JST." Message-ID: <20040116001750.A17BA12894C@neal.il.is.s.u-tokyo.ac.jp> In article James Coomer wrotes: > On our redhat 7.3 SCore5.6.1 xeon cluster, I am getting the following > warning when running a Fortran 90 job. Could you tell me what > it means? > > <0:0> SCORE:WARNING Checkpoint: Seek pointer > of file (/home/james/short_8.out.nc) is rewinded. Restarting this > process may fail. This message tells the program rewind file position indicator. The program may rewrite the file. If the program restarted from checkpoint before execute this rewind, it may be read different context. from Kameyama Toyohisa _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From infoexplorer @ golfgod.net Mon Jan 19 02:54:32 2004 From: infoexplorer @ golfgod.net (Bshelton) Date: Sun, 18 Jan 2004 17:54:32 +0000 Subject: [SCore-users-jp] [SCore-users] Info regarding vigra Message-ID: how Vigra™ works. So you can better understand, what Vigra can do for you. If you are sensible about your health, reflect on what you can do for your seual health, to keep the chances that you will need Vigra as low as possible. become frescoes Anglia, statically. Inrease Seks Drive Bost Seual Performance Fuller & Harder Erecions Inrease Stamna & Endurance Quicker Rechages http://www.securemedpills.com/index.php?pid=pharmaboss beauteous Chrysler slurp, Jeroboam. Bloch teething regime, ruffle. Thanks, replicate _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From kinleong8 @ netvigator.com Sun Jan 18 23:16:10 2004 From: kinleong8 @ netvigator.com (Chan Kin Leong) Date: Sun, 18 Jan 2004 22:16:10 +0800 Subject: [SCore-users-jp] [SCore-users] I am a high school student in China Hong Kong, I having a problem on building up a cluster Message-ID: <200401181415.i0IEFfe27173@pccluster.org> Dear Sir, I am a high school student in China Hong Kong. Our school having a lot of old PC so that we wnat to buildong up a supercomputer. I am the leader of this project. Now, I use your system to building up a cluster. But it seem have a problem. After I install the SCore, I run "/opt/score/bin/eit". It cannot go to the installation tool, it give a message which is"Cannot reslove the server's hostname from IP address". I know the mean but we have already set the hostname with true IP and the dns. It also cannot solve the problem. Would you like to help me to solve this problem? I apologize that give you a lot of trobles. Thanks for you help. Best regards, Eric Chan -------------- next part -------------- HTMLの添付ファイルを保管しました... URL: From kameyama @ pccluster.org Mon Jan 19 10:18:13 2004 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Mon, 19 Jan 2004 10:18:13 +0900 Subject: [SCore-users-jp] Re: [SCore-users] I am a high school student in China Hong Kong, I having a problem on building up a cluster In-Reply-To: Your message of "Sun, 18 Jan 2004 22:16:10 JST." <200401181415.i0IEFfe27173@pccluster.org> Message-ID: <20040119011805.7E16312894C@neal.il.is.s.u-tokyo.ac.jp> In article <200401181415.i0IEFfe27173 @ pccluster.org> "Chan Kin Leong" wrotes: > Now, I use your system to building up a cluster. But it seem > have a problem. After I install the SCore, I run "/opt/score/bin/eit". It > cannot go to the installation tool, it give a message which is"Cannot > reslove the server's hostname from IP address". I know the mean but we have > already set the hostname with true IP and the dns. Please check eth0's IP address to hostname. EIT use eth0 as install device. So if you want to EIT, the server's hostname must resolv from eth0's IP address. from Kameyama Toyohisa _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From neobdfg-brain @ hotmail.com Tue Jan 20 20:09:11 2004 From: neobdfg-brain @ hotmail.com (chr) Date: Tue, 20 Jan 2004 20:09:11 +0900 Subject: [SCore-users-jp] =?ks_c_5601-1987?B?+q3o4qvhLavr6dLTuau1q6SryA==?= Message-ID: <200401201115.i0KBFke08377@pccluster.org> HTMLの添付ファイルを保管しました... URL: From hayashi @ hpc.cs.ritsumei.ac.jp Thu Jan 22 06:38:49 2004 From: hayashi @ hpc.cs.ritsumei.ac.jp (Hayashi Masaki) Date: Thu, 22 Jan 2004 06:38:49 +0900 Subject: [SCore-users-jp] NAS Parallel Benchmark Compile Message-ID: <20040122060430.CAD0.HAYASHI@hpc.cs.ritsumei.ac.jp> メーリングリストの皆様 立命館大学理工学研究科 M1の林と申します。 SCore上でNAS Parallel Benchmarkを動かしたく コンパイルを試みているのですがうまくいかないので困っています。 NPBのバイナリーファイルはSCoreのCD-ROMに入っていることは 知っているのですが、PGIのコンパイラを使って NPBをコンパイルしたいと思って頑張ってきましたが どうもうまくいきません。 npbparams.hについておかしなログが出ています。(下にログ) 今回はNPB2.4をやっていますが、 NPB3.0のOpenMPのBenchmarkも動かしたいので、 そちらもご教授お願いいたします。 スレッド:[devel] [SCore-users-jp] NPBについ て http://www.pccluster.org/pipermail/score-users-jp/2001-December/000002.html [SCore-users-jp] NPB make.def について http://www.pccluster.org/pipermail/score-users-jp/2002-November/000841.html 以上の2つを参考にしてmake.defを変更してきました。 -- 環境 PentiumIII 500MHz メモリ 512M Redhat 7.3 (kernel-2.4.18-3) Compiler PGI、gcc 以下に、make.defとエラーログを載せます。 --------- make.def --------- #--------------------------------------------------------------------------- # # SITE- AND/OR PLATFORM-SPECIFIC DEFINITIONS. # #--------------------------------------------------------------------------- #--------------------------------------------------------------------------- # Items in this file will need to be changed for each platform. # (Note these definitions are inconsistent with NPB2.1.) #--------------------------------------------------------------------------- #--------------------------------------------------------------------------- # Parallel Fortran: # # For CG, EP, FT, MG, LU, SP and BT, which are in Fortran, the following must # be defined: # # MPIF77 - Fortran compiler # FFLAGS - Fortran compilation arguments # FMPI_INC - any -I arguments required for compiling MPI/Fortran # FLINK - Fortran linker # FLINKFLAGS - Fortran linker arguments # FMPI_LIB - any -L and -l arguments required for linking MPI/Fortran # # compilations are done with $(MPIF77) $(FMPI_INC) $(FFLAGS) or # $(MPIF77) $(FFLAGS) # linking is done with $(FLINK) $(FMPI_LIB) $(FLINKFLAGS) #--------------------------------------------------------------------------- #--------------------------------------------------------------------------- # This is the fortran compiler used for MPI programs #--------------------------------------------------------------------------- MPIF77 = /opt/score/bin/mpif77 # This links MPI fortran programs; usually the same as ${MPIF77} FLINK = /opt/score/bin/mpif77 #--------------------------------------------------------------------------- # These macros are passed to the linker to help link with MPI correctly #--------------------------------------------------------------------------- #FMPI_LIB = -L/usr/local/lib -lmpi FMPI_LIB = -L/opt/score/mpi/mpich-1.2.5/i386-redhat7-linux2_4_pgi/lib -lmpi #--------------------------------------------------------------------------- # These macros are passed to the compiler to help find 'mpif.h' #--------------------------------------------------------------------------- #FMPI_INC = -I/usr/local/include FMPI_INC = -I/opt/score/mpi/mpich-1.2.5/i386-redhat7-linux2_4_pgi/include #--------------------------------------------------------------------------- # Global *compile time* flags for Fortran programs #--------------------------------------------------------------------------- FFLAGS = -compiler pgi -O3 # FFLAGS = -g #--------------------------------------------------------------------------- # Global *link time* flags. Flags for increasing maximum executable # size usually go here. #--------------------------------------------------------------------------- FLINKFLAGS = #--------------------------------------------------------------------------- # Parallel C: # # For IS, which is in C, the following must be defined: # # MPICC - C compiler # CFLAGS - C compilation arguments # CMPI_INC - any -I arguments required for compiling MPI/C # CLINK - C linker # CLINKFLAGS - C linker flags # CMPI_LIB - any -L and -l arguments required for linking MPI/C # # compilations are done with $(MPICC) $(CMPI_INC) $(CFLAGS) or # $(MPICC) $(CFLAGS) # linking is done with $(CLINK) $(CMPI_LIB) $(CLINKFLAGS) #--------------------------------------------------------------------------- #--------------------------------------------------------------------------- # This is the C compiler used for MPI programs #--------------------------------------------------------------------------- MPICC = /opt/score/bin/mpicc # This links MPI C programs; usually the same as ${MPICC} CLINK = /opt/score/bin/mpicc #--------------------------------------------------------------------------- # These macros are passed to the linker to help link with MPI correctly #--------------------------------------------------------------------------- CMPI_LIB = -L/usr/local/lib -lmpi #--------------------------------------------------------------------------- # These macros are passed to the compiler to help find 'mpi.h' #--------------------------------------------------------------------------- CMPI_INC = -I/usr/local/include #--------------------------------------------------------------------------- # Global *compile time* flags for C programs #--------------------------------------------------------------------------- CFLAGS = -O3 # CFLAGS = -g #--------------------------------------------------------------------------- # Global *link time* flags. Flags for increasing maximum executable # size usually go here. #--------------------------------------------------------------------------- CLINKFLAGS = #--------------------------------------------------------------------------- # MPI dummy library: # # Uncomment if you want to use the MPI dummy library supplied by NAS instead # of the true message-passing library. The include file redefines several of # the above macros. It also invokes make in subdirectory MPI_dummy. Make # sure that no spaces or tabs precede include. #--------------------------------------------------------------------------- # include ../config/make.dummy #--------------------------------------------------------------------------- # Utilities C: # # This is the C compiler used to compile C utilities. Flags required by # this compiler go here also; typically there are few flags required; hence # there are no separate macros provided for such flags. #--------------------------------------------------------------------------- CC = /opt/score/bin/mpicc #--------------------------------------------------------------------------- # Destination of executables, relative to subdirs of the main directory. . #--------------------------------------------------------------------------- BINDIR = ../bin #--------------------------------------------------------------------------- # Some machines (e.g. Crays) have 128-bit DOUBLE PRECISION numbers, which # is twice the precision required for the NPB suite. A compiler flag # (e.g. -dp) can usually be used to change DOUBLE PRECISION variables to # 64 bits, but the MPI library may continue to send 128 bits. Short of # recompiling MPI, the solution is to use MPI_REAL to send these 64-bit # numbers, and MPI_COMPLEX to send their complex counterparts. Uncomment # the following line to enable this substitution. # # NOTE: IF THE I/O BENCHMARK IS BEING BUILT, WE USE CONVERTFLAG TO # SPECIFIY THE FORTRAN RECORD LENGTH. IT IS A SYSTEM-SPECIFIC VALUE. # UNCOMMENT THE SECOND LINE AND SUBSTITUTE THE CORRECT VALUE FOR # "length". # IF BOTH 128-BIT DOUBLE PRECISION NUMBERS AND I/O ARE TO BE ENABLED, # UNCOMMENT THE THIRD LINE AND SUBSTITUTE THE CORRECT VALUE FOR # "length" #--------------------------------------------------------------------------- # CONVERTFLAG = -DCONVERTDOUBLE # CONVERTFLAG = -DFORTRAN_REC_SIZE=length # CONVERTFLAG = -DCONVERTDOUBLE -DFORTRAN_REC_SIZE=length #--------------------------------------------------------------------------- # The variable RAND controls which random number generator # is used. It is described in detail in Doc/README.install. # Use "randi8" unless there is a reason to use another one. # Other allowed values are "randi8_safe", "randdp" and "randdpvec" #--------------------------------------------------------------------------- #RAND = randi8 # The following is highly reliable but may be slow: RAND = randdp --------- Error Log --------- ========================================= = NAS Parallel Benchmarks 2.4 = = MPI/F77/C = ========================================= cd EP; make NPROCS=16 CLASS=A make[1]: Entering directory `/home/USERDIR/usr02/hayashi/program/NAS/NPB2.4/NPB2.4-MPI/EP' make[2]: Entering directory `/home/USERDIR/usr02/hayashi/program/NAS/NPB2.4/NPB2.4-MPI/sys' make[2]: Nothing to be done for `all'. make[2]: Leaving directory `/home/USERDIR/usr02/hayashi/program/NAS/NPB2.4/NPB2.4-MPI/sys' ../sys/setparams ep 16 A make[1]: *** Warning: File `npbparams.h' has modification time in the future (2004-01-22 06:28:16 > 2004-01-22 06:28:05) /opt/score/bin/mpif77 -c -I/opt/score/mpi/mpich-1.2.5/i386-redhat7-linux2_4_pgi/include -compiler pgi -O3 ep.f /opt/score/bin/mpif77 -o ../bin/ep.A.16 ep.o ../common/print_results.o ../common/randdp.o ../common/timers.o -L/opt/score/mpi/mpich-1.2.5/i386-redhat7-linux2_4_pgi/lib -lmpi ep.o: In function `MAIN_': ep.o(.text+0x37): undefined reference to `mpi_init_' ep.o(.text+0x56): undefined reference to `mpi_comm_rank_' ep.o(.text+0x75): undefined reference to `mpi_comm_size_' ep.o(.text+0xb9): undefined reference to `fio_src_info' ep.o(.text+0xda): undefined reference to `fio_fmtw_init' ep.o(.text+0xdf): undefined reference to `fio_fmtw_end' ep.o(.text+0xfe): undefined reference to `fio_src_info' ep.o(.text+0x114): undefined reference to `fio_encode_fmt' ep.o(.text+0x13e): undefined reference to `fio_fmtw_intern_init' ep.o(.text+0x165): undefined reference to `fio_sc_d_fmt_write' ep.o(.text+0x16a): undefined reference to `fio_fmtw_end' ep.o(.text+0x1b9): undefined reference to `fio_src_info' ep.o(.text+0x1dc): undefined reference to `fio_fmtw_init' ep.o(.text+0x20b): undefined reference to `fio_fmt_write' ep.o(.text+0x210): undefined reference to `fio_fmtw_end' ep.o(.text+0x22f): undefined reference to `fio_src_info' ep.o(.text+0x250): undefined reference to `fio_fmtw_init' ep.o(.text+0x277): undefined reference to `fio_sc_fmt_write' ep.o(.text+0x27c): undefined reference to `fio_fmtw_end' ep.o(.text+0x2e6): undefined reference to `fio_src_info' ep.o(.text+0x309): undefined reference to `fio_fmtw_init' ep.o(.text+0x330): undefined reference to `fio_sc_fmt_write' ep.o(.text+0x356): undefined reference to `fio_sc_fmt_write' ep.o(.text+0x35b): undefined reference to `fio_fmtw_end' ep.o(.text+0x37a): undefined reference to `mpi_abort_' ep.o(.text+0x386): undefined reference to `ftn_stop' ep.o(.text+0x41c): undefined reference to `mpi_barrier_' ep.o(.text+0x74f): undefined reference to `mpi_allreduce_' ep.o(.text+0x796): undefined reference to `mpi_allreduce_' ep.o(.text+0x7dd): undefined reference to `mpi_allreduce_' ep.o(.text+0x893): undefined reference to `mpi_allreduce_' ep.o(.text+0x938): undefined reference to `fio_src_info' ep.o(.text+0x95b): undefined reference to `fio_fmtw_init' ep.o(.text+0x982): undefined reference to `fio_sc_d_fmt_write' ep.o(.text+0x9a8): undefined reference to `fio_sc_fmt_write' ep.o(.text+0x9cf): undefined reference to `fio_sc_d_fmt_write' ep.o(.text+0x9f6): undefined reference to `fio_sc_d_fmt_write' ep.o(.text+0xa1d): undefined reference to `fio_sc_d_fmt_write' ep.o(.text+0xa54): undefined reference to `fio_sc_fmt_write' ep.o(.text+0xa7c): undefined reference to `fio_sc_d_fmt_write' ep.o(.text+0xa85): undefined reference to `fio_fmtw_end' ep.o(.text+0xba9): undefined reference to `mpi_finalize_' ../common/print_results.o: In function `print_results_': ../common/print_results.o: In function `print_results_': ../common/print_results.o(.text+0x3d): undefined reference to `fio_src_info' ../common/print_results.o(.text+0x60): undefined reference to `fio_fmtw_init' ../common/print_results.o(.text+0x8d): undefined reference to `fio_fmt_write' ../common/print_results.o(.text+0x92): undefined reference to `fio_fmtw_end' ../common/print_results.o(.text+0xac): undefined reference to `fio_src_info' ../common/print_results.o(.text+0xcd): undefined reference to `fio_fmtw_init' ../common/print_results.o(.text+0xf0): undefined reference to `fio_fmt_write' ../common/print_results.o(.text+0xf5): undefined reference to `fio_fmtw_end' ../common/print_results.o(.text+0x130): undefined reference to `ftn_strcmp' ../common/print_results.o(.text+0x152): undefined reference to `fio_src_info' ../common/print_results.o(.text+0x168): undefined reference to `fio_encode_fmt' ../common/print_results.o(.text+0x192): undefined reference to `fio_fmtw_intern_init' ../common/print_results.o(.text+0x1a9): undefined reference to `__mth_i_dpowi' ../common/print_results.o(.text+0x1ca): undefined reference to `fio_sc_d_fmt_write' ../common/print_results.o(.text+0x1cf): undefined reference to `fio_fmtw_end' ../common/print_results.o(.text+0x220): undefined reference to `fio_src_info' ../common/print_results.o(.text+0x243): undefined reference to `fio_fmtw_init' ../common/print_results.o(.text+0x272): undefined reference to `fio_fmt_write' ../common/print_results.o(.text+0x277): undefined reference to `fio_fmtw_end' ../common/print_results.o(.text+0x298): undefined reference to `fio_src_info' ../common/print_results.o(.text+0x2bb): undefined reference to `fio_fmtw_init' ../common/print_results.o(.text+0x2e1): undefined reference to `fio_sc_fmt_write' ../common/print_results.o(.text+0x2e6): undefined reference to `fio_fmtw_end' ../common/print_results.o(.text+0x30a): undefined reference to `fio_src_info' ../common/print_results.o(.text+0x32d): undefined reference to `fio_fmtw_init' ../common/print_results.o(.text+0x353): undefined reference to `fio_sc_fmt_write' ../common/print_results.o(.text+0x379): undefined reference to `fio_sc_fmt_write' ../common/print_results.o(.text+0x39c): undefined reference to `fio_sc_fmt_write' ../common/print_results.o(.text+0x3a1): undefined reference to `fio_fmtw_end' ../common/print_results.o(.text+0x3c0): undefined reference to `fio_src_info' ../common/print_results.o(.text+0x3e3): undefined reference to `fio_fmtw_init' ../common/print_results.o(.text+0x409): undefined reference to `fio_sc_fmt_write' ../common/print_results.o(.text+0x40e): undefined reference to `fio_fmtw_end' ../common/print_results.o(.text+0x42d): undefined reference to `fio_src_info' ../common/print_results.o(.text+0x44e): undefined reference to `fio_fmtw_init' ../common/print_results.o(.text+0x474): undefined reference to `fio_sc_d_fmt_write' ../common/print_results.o(.text+0x479): undefined reference to `fio_fmtw_end' ../common/print_results.o(.text+0x493): undefined reference to `fio_src_info' ../common/print_results.o(.text+0x4b4): undefined reference to `fio_fmtw_init' ../common/print_results.o(.text+0x4da): undefined reference to `fio_sc_fmt_write' ../common/print_results.o(.text+0x4df): undefined reference to `fio_fmtw_end' ../common/print_results.o(.text+0x4f9): undefined reference to `fio_src_info' ../common/print_results.o(.text+0x51a): undefined reference to `fio_fmtw_init' ../common/print_results.o(.text+0x540): undefined reference to `fio_sc_fmt_write' ../common/print_results.o(.text+0x545): undefined reference to `fio_fmtw_end' ../common/print_results.o(.text+0x55f): undefined reference to `fio_src_info' ../common/print_results.o(.text+0x580): undefined reference to `fio_fmtw_init' ../common/print_results.o(.text+0x5a6): undefined reference to `fio_sc_d_fmt_write' ../common/print_results.o(.text+0x5ab): undefined reference to `fio_fmtw_end' ../common/print_results.o(.text+0x5c5): undefined reference to `fio_src_info' ../common/print_results.o(.text+0x5e6): undefined reference to `fio_fmtw_init' ../common/print_results.o(.text+0x611): undefined reference to `fio_sc_d_fmt_write' ../common/print_results.o(.text+0x616): undefined reference to `fio_fmtw_end' ../common/print_results.o(.text+0x630): undefined reference to `fio_src_info' ../common/print_results.o(.text+0x651): undefined reference to `fio_fmtw_init' ../common/print_results.o(.text+0x679): undefined reference to `fio_fmt_write' ../common/print_results.o(.text+0x67e): undefined reference to `fio_fmtw_end' ../common/print_results.o(.text+0x6a6): undefined reference to `fio_src_info' ../common/print_results.o(.text+0x6c7): undefined reference to `fio_fmtw_init' ../common/print_results.o(.text+0x6f1): undefined reference to `fio_fmt_write' ../common/print_results.o(.text+0x6f6): undefined reference to `fio_fmtw_end' ../common/print_results.o(.text+0x717): undefined reference to `fio_src_info' ../common/print_results.o(.text+0x73a): undefined reference to `fio_fmtw_init' ../common/print_results.o(.text+0x769): undefined reference to `fio_fmt_write' ../common/print_results.o(.text+0x76e): undefined reference to `fio_fmtw_end' ../common/print_results.o(.text+0x78d): undefined reference to `fio_src_info' ../common/print_results.o(.text+0x7b0): undefined reference to `fio_fmtw_init' ../common/print_results.o(.text+0x7db): undefined reference to `fio_fmt_write' ../common/print_results.o(.text+0x7e0): undefined reference to `fio_fmtw_end' ../common/print_results.o(.text+0x7ff): undefined reference to `fio_src_info' ../common/print_results.o(.text+0x820): undefined reference to `fio_fmtw_init' ../common/print_results.o(.text+0x846): undefined reference to `fio_fmt_write' ../common/print_results.o(.text+0x84b): undefined reference to `fio_fmtw_end' ../common/print_results.o(.text+0x865): undefined reference to `fio_src_info' ../common/print_results.o(.text+0x886): undefined reference to `fio_fmtw_init' ../common/print_results.o(.text+0x8ac): undefined reference to `fio_fmt_write' ../common/print_results.o(.text+0x8b1): undefined reference to `fio_fmtw_end' ../common/print_results.o(.text+0x8cb): undefined reference to `fio_src_info' ../common/print_results.o(.text+0x8ec): undefined reference to `fio_fmtw_init' ../common/print_results.o(.text+0x912): undefined reference to `fio_fmt_write' ../common/print_results.o(.text+0x917): undefined reference to `fio_fmtw_end' ../common/print_results.o(.text+0x931): undefined reference to `fio_src_info' ../common/print_results.o(.text+0x952): undefined reference to `fio_fmtw_init' ../common/print_results.o(.text+0x978): undefined reference to `fio_fmt_write' ../common/print_results.o(.text+0x97d): undefined reference to `fio_fmtw_end' ../common/print_results.o(.text+0x997): undefined reference to `fio_src_info' ../common/print_results.o(.text+0x9b8): undefined reference to `fio_fmtw_init' ../common/print_results.o(.text+0x9de): undefined reference to `fio_fmt_write' ../common/print_results.o(.text+0x9e3): undefined reference to `fio_fmtw_end' ../common/print_results.o(.text+0x9fd): undefined reference to `fio_src_info' ../common/print_results.o(.text+0xa1e): undefined reference to `fio_fmtw_init' ../common/print_results.o(.text+0xa47): undefined reference to `fio_fmt_write' ../common/print_results.o(.text+0xa4c): undefined reference to `fio_fmtw_end' ../common/print_results.o(.text+0xa66): undefined reference to `fio_src_info' ../common/print_results.o(.text+0xa87): undefined reference to `fio_fmtw_init' ../common/print_results.o(.text+0xab0): undefined reference to `fio_fmt_write' ../common/print_results.o(.text+0xab5): undefined reference to `fio_fmtw_end' ../common/print_results.o(.text+0xacf): undefined reference to `fio_src_info' ../common/print_results.o(.text+0xaf0): undefined reference to `fio_fmtw_init' ../common/print_results.o(.text+0xb19): undefined reference to `fio_fmt_write' ../common/print_results.o(.text+0xb1e): undefined reference to `fio_fmtw_end' ../common/print_results.o(.text+0xb38): undefined reference to `fio_src_info' ../common/print_results.o(.text+0xb59): undefined reference to `fio_fmtw_init' ../common/print_results.o(.text+0xb5e): undefined reference to `fio_fmtw_end' ../common/timers.o: In function `timer_start_': ../common/timers.o(.text+0x34): undefined reference to `mpi_wtime_' ../common/timers.o: In function `timer_stop_': ../common/timers.o(.text+0x54): undefined reference to `mpi_wtime_' /usr/lib/gcc-lib/i386-redhat-linux/2.96/libg2c.a(main.o): In function `main': main.o(.text+0x2a): undefined reference to `MAIN__' collect2: ld returned 1 exit status make[1]: *** [../bin/ep.A.16] Error 1 make[1]: Leaving directory `/home/USERDIR/usr02/hayashi/program/NAS/NPB2.4/NPB2.4-MPI/EP' make: *** [ep] Error 2 -- Ritsumeikan Univ. HPC Laboratory Hayashi Masaki hayashi @ hpc.cs.ritsumei.ac.jp From kameyama @ pccluster.org Thu Jan 22 09:18:14 2004 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Thu, 22 Jan 2004 09:18:14 +0900 Subject: [SCore-users-jp] NAS Parallel Benchmark Compile In-Reply-To: Your message of "Thu, 22 Jan 2004 06:38:49 JST." <20040122060430.CAD0.HAYASHI@hpc.cs.ritsumei.ac.jp> Message-ID: <20040122001756.D51D412894C@neal.il.is.s.u-tokyo.ac.jp> 亀山です. In article <20040122060430.CAD0.HAYASHI @ hpc.cs.ritsumei.ac.jp> Hayashi Masaki wrotes: > SCore上でNAS Parallel Benchmarkを動かしたく > コンパイルを試みているのですがうまくいかないので困っています。 (中略) > #FMPI_LIB = -L/usr/local/lib -lmpi > FMPI_LIB = -L/opt/score/mpi/mpich-1.2.5/i386-redhat7-linux2_4_pgi/lib -lmpi これは mpif77 がつけてくれるので不要です. FMPI_LIB = としてください. > #FMPI_INC = -I/usr/local/include > FMPI_INC = -I/opt/score/mpi/mpich-1.2.5/i386-redhat7-linux2_4_pgi/include これも不要です. FMPI_INC = でよいです. > #--------------------------------------------------------------------------- > # Global *compile time* flags for Fortran programs > #--------------------------------------------------------------------------- > FFLAGS = -compiler pgi -O3 > # FFLAGS = -g > > #--------------------------------------------------------------------------- > # Global *link time* flags. Flags for increasing maximum executable > # size usually go here. > #--------------------------------------------------------------------------- > FLINKFLAGS = link できない原因はここにあります. link 時も FLINKFLAGS = -compiler pgi のように compiler を指定してください. 指定しないと default compiler (多分 gnu?) で link してしまいます. > CMPI_LIB = -L/usr/local/lib -lmpi これだと /usr/local/lib に別の libmpi などがあるとうまく link しないような... CMPI_LIB = にしてください. > #--------------------------------------------------------------------------- > # These macros are passed to the compiler to help find 'mpi.h' > #--------------------------------------------------------------------------- > CMPI_INC = -I/usr/local/include 同様に CMPI_INC = としてください. > CFLAGS = -O3 IS で pgi を使用したい場合は CFLAGS = -O3 -compiler pgi と指定してください. > CLINKFLAGS = ここも同様です. CLINKFLAGS = -copmpiler=pgi > #--------------------------------------------------------------------------- > # Utilities C: > # > # This is the C compiler used to compile C utilities. Flags required by > # this compiler go here also; typically there are few flags required; hence > # there are no separate macros provided for such flags. > #--------------------------------------------------------------------------- > CC = /opt/score/bin/mpicc コメントのとおり, こちらは普通のプログラムのコンパイルに使用するので, mpicc ではなく, 通常のコンパイラを指定します. CC = pgcc あたりでよいと思います. これだけなおせば binary はできると思います. > make[1]: *** Warning: File `npbparams.h' has modification time in the future > (2004-01-22 06:28:16 > 2004-01-22 06:28:05) これは NFS 先と compile している host の時刻があっていないためだと思います. とりあえず無視しても構わないと思いますが, 直すためには両方で ntp を 動かすなど時刻を同期させる必要があります. from Kameyama Toyohisa From hayashi @ hpc.cs.ritsumei.ac.jp Thu Jan 22 16:22:26 2004 From: hayashi @ hpc.cs.ritsumei.ac.jp (Hayashi Masaki) Date: Thu, 22 Jan 2004 16:22:26 +0900 Subject: [SCore-users-jp] NAS Parallel Benchmark Compile In-Reply-To: <20040122001756.D51D412894C@neal.il.is.s.u-tokyo.ac.jp> References: <20040122060430.CAD0.HAYASHI@hpc.cs.ritsumei.ac.jp> <20040122001756.D51D412894C@neal.il.is.s.u-tokyo.ac.jp> Message-ID: <20040122161719.8383.HAYASHI@hpc.cs.ritsumei.ac.jp> 亀山様 立命館大学の林です。 亀山様の助言でmakeすることができました。 時間の同期で時々エラーは出ますが コンパイルできることができます。 NPB3.0のmakeも同様に通りました。 今回は本当にありがとうございました。 今後ともよろしくお願いいたします。 -- Ritsumeikan Univ. HPC Laboratory Hayashi Masaki hayashi @ hpc.cs.ritsumei.ac.jp > 亀山です. > > In article <20040122060430.CAD0.HAYASHI @ hpc.cs.ritsumei.ac.jp> Hayashi Masaki wrotes: > > SCore上でNAS Parallel Benchmarkを動かしたく > > コンパイルを試みているのですがうまくいかないので困っています。 > (中略) > > > #FMPI_LIB = -L/usr/local/lib -lmpi > > FMPI_LIB = -L/opt/score/mpi/mpich-1.2.5/i386-redhat7-linux2_4_pgi/lib -lmpi > > これは mpif77 がつけてくれるので不要です. > FMPI_LIB = > としてください. > > > #FMPI_INC = -I/usr/local/include > > FMPI_INC = -I/opt/score/mpi/mpich-1.2.5/i386-redhat7-linux2_4_pgi/include > > これも不要です. > FMPI_INC = > でよいです. > > > #--------------------------------------------------------------------------- > > # Global *compile time* flags for Fortran programs > > #--------------------------------------------------------------------------- > > FFLAGS = -compiler pgi -O3 > > # FFLAGS = -g > > > > #--------------------------------------------------------------------------- > > # Global *link time* flags. Flags for increasing maximum executable > > # size usually go here. > > #--------------------------------------------------------------------------- > > FLINKFLAGS = > > link できない原因はここにあります. > link 時も > FLINKFLAGS = -compiler pgi > のように compiler を指定してください. > 指定しないと default compiler (多分 gnu?) で link してしまいます. > > > > CMPI_LIB = -L/usr/local/lib -lmpi > > これだと /usr/local/lib に別の libmpi などがあるとうまく link しないような... > CMPI_LIB = > にしてください. > > > #--------------------------------------------------------------------------- > > # These macros are passed to the compiler to help find 'mpi.h' > > #--------------------------------------------------------------------------- > > CMPI_INC = -I/usr/local/include > > 同様に > CMPI_INC = > としてください. > > > CFLAGS = -O3 > > IS で pgi を使用したい場合は > CFLAGS = -O3 -compiler pgi > と指定してください. > > > CLINKFLAGS = > > ここも同様です. > CLINKFLAGS = -copmpiler=pgi > > > #--------------------------------------------------------------------------- > > # Utilities C: > > # > > # This is the C compiler used to compile C utilities. Flags required by > > # this compiler go here also; typically there are few flags required; hence > > # there are no separate macros provided for such flags. > > #--------------------------------------------------------------------------- > > CC = /opt/score/bin/mpicc > > コメントのとおり, こちらは普通のプログラムのコンパイルに使用するので, > mpicc ではなく, 通常のコンパイラを指定します. > CC = pgcc > あたりでよいと思います. > > これだけなおせば binary はできると思います. > > > make[1]: *** Warning: File `npbparams.h' has modification time in the future > > (2004-01-22 06:28:16 > 2004-01-22 06:28:05) > > これは NFS 先と compile している host の時刻があっていないためだと思います. > とりあえず無視しても構わないと思いますが, 直すためには両方で ntp を > 動かすなど時刻を同期させる必要があります. > > from Kameyama Toyohisa > _______________________________________________ > SCore-users-jp mailing list > SCore-users-jp @ pccluster.org > http://www.pccluster.org/mailman/listinfo/score-users-jp From alderivative @ wongfaye.com Thu Jan 22 20:33:01 2004 From: alderivative @ wongfaye.com (Bshelton) Date: Thu, 22 Jan 2004 11:33:01 -0000 Subject: [SCore-users-jp] [SCore-users] nesws regarding vigros rocked Message-ID: Humboldt, How Vigras works. And you can better understand, what Vigras can do for you. If you are sensible about your health, reflect on what you can do for your seual health, to keep the chances that you will need Vigras as low as possible. pails asceticism roller, correctly. http://www.pvmsolutions.com/index.php?pid=genviag Inrease Seks Drive Bost Seual Performance Fuller & Harder Erecions Inrease Stamna & Endurance Quicker Rechages distresses Garfield sewer, cabin. unleashes eased amiss, depict. Happy holidays, abridges _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From drivegases @ ilovechocolate.com Fri Jan 23 07:12:31 2004 From: drivegases @ ilovechocolate.com (=?iso-2022-jp?b?ZHJpdmVnYXNlcyAbJEIhdxsoQiBpbG92ZWNob2NvbGF0ZS5jb20=?=) Date: Fri, 23 Jan 2004 07:12:31 +0900 Subject: [SCore-users-jp] [SCore-users] they used to be the only ones. Message-ID: <200401222212.i0MMCUe24327@pccluster.org> The first worth substitute of all existing men`s remedies! Be aware that now the peak of your selxual activity is realy accessible! All you need is to visit http://rxeasymeds.com/mx/index.php?pid=genviag Thanks to the proprietary blend of unique herkbs the four wonderful efkfects are achieved: *blood stream to the penlis is restored *stored tesltosterone is unleashed *activation of the body's naltural holrmone production heightens your sensation *the peknis does enklarge, the changes are being permanent! At last you can enljoy your secxual life in full measure without any risk for your healkth! Don`t wakste your time! Get more inkfo straightforwardly at http://rxeasymeds.com/mx/index.php?pid=genviag _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From m-kawaguchi @ pst.fujitsu.com Sat Jan 24 19:08:37 2004 From: m-kawaguchi @ pst.fujitsu.com (Mitsugu Kawaguchi) Date: Sat, 24 Jan 2004 19:08:37 +0900 Subject: [SCore-users-jp] 計算ノードダウン時のSCoreの動きについて Message-ID: <007001c3e262$08b492b0$570aa8c0@Globus> SCore開発関係者様 富士通プライムソフトテクノロジの川口です。いつもお世話になっております。 申し訳ありませんが、SCoreの動作として確認させてください。 scrunコマンドでジョブ実行中に計算ノードがダウンすると、 他計算ノードのジョブプロセスが終了しても、 scrunコマンドが復帰しませんでした。 また、ダウンした計算ノードが再起動しても同様に scrunコマンドは復帰しませんでした。 上記の動作は今のSCoreの仕様と考えてよろしいでしょうか? 以上、宜しくお願いします。 --- 川口 ==> m-kawaguchi @ pst.fujitsu.com From kameyama @ pccluster.org Mon Jan 26 11:05:34 2004 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Mon, 26 Jan 2004 11:05:34 +0900 Subject: [SCore-users-jp] 計算ノードダウン時のSCore の動きについて In-Reply-To: Your message of "Sat, 24 Jan 2004 19:08:37 JST." <007001c3e262$08b492b0$570aa8c0@Globus> Message-ID: <20040126020504.2897512894C@neal.il.is.s.u-tokyo.ac.jp> 亀山です. In article <007001c3e262$08b492b0$570aa8c0 @ Globus> "Mitsugu Kawaguchi" wrotes: > scrunコマンドでジョブ実行中に計算ノードがダウンすると、 > 他計算ノードのジョブプロセスが終了しても、 > scrunコマンドが復帰しませんでした。 > また、ダウンした計算ノードが再起動しても同様に > scrunコマンドは復帰しませんでした。 "復帰" というのがどのような現象をさしているのか不明ですが, single user mode で restart させるためには, scrun を score 環境の外で % scrun -group=pcc,checkpoint ... のように group オプションと checkpoint option を指定する必要があります. from Kameyama Toyohisa From m-kawaguchi @ pst.fujitsu.com Mon Jan 26 22:59:28 2004 From: m-kawaguchi @ pst.fujitsu.com (Mitsugu Kawaguchi) Date: Mon, 26 Jan 2004 22:59:28 +0900 Subject: [SCore-users-jp] 計算ノードダウン時のSCore の動きについて In-Reply-To: <20040126020504.2897512894C@neal.il.is.s.u-tokyo.ac.jp> Message-ID: <002401c3e414$9d84a2a0$570aa8c0@Globus> 亀山様 富士通プライムソフトテクノロジの川口です。 回答、ありがとうございました。 > -----Original Message----- > From: kameyama @ il.is.s.u-tokyo.ac.jp > [mailto:kameyama @ il.is.s.u-tokyo.ac.jp] On Behalf Of > kameyama @ pccluster.org > Sent: Monday, January 26, 2004 11:06 AM > To: Mitsugu Kawaguchi > Cc: score-users-jp @ pccluster.org > Subject: Re: [SCore-users-jp] 計算ノードダウン時のSCore の動きについて > > > 亀山です. > > In article <007001c3e262$08b492b0$570aa8c0 @ Globus> "Mitsugu > Kawaguchi" wrotes: > > scrunコマンドでジョブ実行中に計算ノードがダウンすると、 > > 他計算ノードのジョブプロセスが終了しても、 > > scrunコマンドが復帰しませんでした。 > > また、ダウンした計算ノードが再起動しても同様に > > scrunコマンドは復帰しませんでした。 > > "復帰" というのがどのような現象をさしているのか不明ですが, > single user mode で restart させるためには, scrun を score 環境の外で > % scrun -group=pcc,checkpoint ... > のように group オプションと checkpoint option を指定する必要があります ”復帰”という単語は、scrunプロセスが終了して プロンプトが戻ってくるという意味で使いました。 それから、この質問は、特にrestartさせるのが目的という訳ではなく、 計算ノードがダウンした場合にこちらで確認した動作で正しいのかと いうことだけを気にしていました。 以上、宜しくお願いします。 --- 川口 ==> m-kawaguchi @ pst.fujitsu.com From kameyama @ pccluster.org Tue Jan 27 08:42:04 2004 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Tue, 27 Jan 2004 08:42:04 +0900 Subject: [SCore-users-jp] 計算ノードダウン時のSCore の動きについて In-Reply-To: Your message of "Mon, 26 Jan 2004 22:59:28 JST." <002401c3e414$9d84a2a0$570aa8c0@Globus> Message-ID: <20040126234130.87C6412894C@neal.il.is.s.u-tokyo.ac.jp> 亀山です. In article <002401c3e414$9d84a2a0$570aa8c0 @ Globus> "Mitsugu Kawaguchi" wrotes: > > In article <007001c3e262$08b492b0$570aa8c0 @ Globus> "Mitsugu > > Kawaguchi" wrotes: > > > scrunコマンドでジョブ実行中に計算ノードがダウンすると、 > > > 他計算ノードのジョブプロセスが終了しても、 > > > scrunコマンドが復帰しませんでした。 > > > また、ダウンした計算ノードが再起動しても同様に > > > scrunコマンドは復帰しませんでした。 > > > > "復帰" というのがどのような現象をさしているのか不明ですが, > > single user mode で restart させるためには, scrun を score 環境の外で > > % scrun -group=pcc,checkpoint ... > > のように group オプションと checkpoint option を指定する必要があります > > ”復帰”という単語は、scrunプロセスが終了して > プロンプトが戻ってくるという意味で使いました。 そのような意味でしたら, SCore 5.6.1 で % scrun -group=pcc /opt/score/test/scored/bigmem で program を起動し, そのうち 1 台を reboot したら, その host が停止したときに <1> SCORE: Program signaled (SIGKILL). SCOUT: Session done. で終了しました. > それから、この質問は、特にrestartさせるのが目的という訳ではなく、 > 計算ノードがダウンした場合にこちらで確認した動作で正しいのかと > いうことだけを気にしていました。 少なくてもこちらと動作が違うことだけは確かですね. from Kameyama Toyohisa From atuyosi @ comp.eng.himeji-tech.ac.jp Tue Jan 27 15:23:02 2004 From: atuyosi @ comp.eng.himeji-tech.ac.jp (池辺 厚慈) Date: Tue, 27 Jan 2004 15:23:02 +0900 Subject: [SCore-users-jp] SCoreを使用しないMPICHよりスコアが劣る問題. Message-ID: <426FFAEC-5091-11D8-903A-003065AD5970@comp.eng.himeji-tech.ac.jp> 姫路工業大学,情報制御機構研究室の池辺と申します. 前回2,3質問させて頂いた者です.その節はありがとうございました. 今回,下記の質問についてお答え頂戴したくメールを致しました. 何卒ご教授願います. ---ここから質問内容です. 下記環境にてMPICH-SCore環境においてベンチマークを 実行したところ,同一のハードウェア上でのSCoreを利用しない MPICHよりスコアが劣ってしまうのですが,設定に問題があるのでしょうか? 動作環境 CPU: AthlonXP 2200+ RAM: PC2700 512MB HDD: SCore時のみ80GB NIC: intel PRO/1000MT デスクトップアダプタ HUB: corega GSW-8 OS: RedHat Linux 7.3 SCore version 5.6.1 MPICH version 1.2.5 上記構成を計算ノード16ノード+クラスタ管理ノード1ノード の計17台で運用しています. 計算ノードへのインストールにはEITを使用しました. 使用したベンチマーク: Poisson FEM-BMTおよび 姫野ベンチXP mpi版 計算サイズM コンパイラg77-2.96 コンパイルオプション: -O3 結果(SCore環境時) Poisson FEM-BMT SCore-D 5.6.1 connected. <0:0> SCORE: 16 nodes (16x1) ready. No. of DOFs : 2097152 (n = 128) No. of PEs : 16 Initialization ... Start rehearsal measurement process. Number of iterations in CG 10 Loop executed for 1 times Residual : 0.00053340235 Elapsed time : 3.72145009 sec. NFLOPS = 914913280. MFLOPS measured : 245.848595 ----------------------------------------- Number of iterations in CG 10 Loop executed for 16 times Residual : 0.00053340235 Elapsed time : 92.4863849 sec. NFLOPS = 914913280. MFLOPS measured : 158.278567 ----------------------------------------- 姫野ベンチxp mpi版 計算サイズM SCore-D 5.6.1 connected. <0:0> SCORE: 16 nodes (16x1) ready. Sequential version array size mimax= 257 mjmax= 129 mkmax= 129 Parallel version array size mimax= 131 mjmax= 67 mkmax= 35 imax= 129 jmax= 65 kmax= 33 I-decomp= 2 J-decomp= 2 K-decomp= 4 Start rehearsal measurement process. Measure the performance in 3 times. MFLOPS: 3717.79994 time(s): 0.110634089 0.00169377867 Now, start the actual measurement process. The loop will be excuted in 1626 times. This will take about one minute. Wait for a while. Loop executed for 1626 times Gosa : 0.000568608928 MFLOPS: 3408.83448 time(s): 65.3985848 Score based on Pentium III 600MHz : 41.1496201 結果(非SCore環境時) Poisson FEM-BMT No. of DOFs : 2097152 (n = 128) No. of PEs : 16 Initialization ... Start rehearsal measurement process. Number of iterations in CG 10 Loop executed for 1 times Residual : 0.000533402352 Elapsed time : 0.934157 sec. NFLOPS = 914913280. MFLOPS measured : 979.399906 ----------------------------------------- Number of iterations in CG 10 Loop executed for 64 times Residual : 0.000533402352 Elapsed time : 69.241711 sec. NFLOPS = 914913280. MFLOPS measured : 845.652843 ----------------------------------------- 姫野ベンチxp mpi版 計算サイズM Sequential version array size mimax= 257 mjmax= 129 mkmax= 129 Parallel version array size mimax= 131 mjmax= 67 mkmax= 35 imax= 129 jmax= 65 kmax= 33 I-decomp= 2 J-decomp= 2 K-decomp= 4 Start rehearsal measurement process. Measure the performance in 3 times. MFLOPS: 4094.68704 time(s): 0.100451 0.00169377949 Now, start the actual measurement process. The loop will be excuted in 1791 times. This will take about one minute. Wait for a while. Loop executed for 1791 times Gosa : 0.000530048565 MFLOPS: 4027.27022 time(s): 60.973137 Score based on Pentium III 600MHz : 48.6150475 〓〓  姫路工業大学 情報制御機構研究室 〓〓             池辺 厚慈 〓〓 atuyosi @ comp.eng.himeji-tech.ac.jp From s-sumi @ flab.fujitsu.co.jp Tue Jan 27 15:38:51 2004 From: s-sumi @ flab.fujitsu.co.jp (Shinji Sumimoto) Date: Tue, 27 Jan 2004 15:38:51 +0900 (JST) Subject: [SCore-users-jp] SCoreを使用しないMPICH よりスコアが劣る問題. In-Reply-To: <426FFAEC-5091-11D8-903A-003065AD5970@comp.eng.himeji-tech.ac.jp> References: <426FFAEC-5091-11D8-903A-003065AD5970@comp.eng.himeji-tech.ac.jp> Message-ID: <20040127.153851.241928111.s-sumi@flab.fujitsu.co.jp> 池辺さま 富士通研の住元です。 /opt/score/etc/pm-ethernet.confはどうなっていますでしょうか? このファイルのパラメータを以下のようにして試してもらえないでしょうか? ================================= maxnsend 24 backoff 2400 intreap 1 ================================= /opt/score/etc/pm-ethernet.confの説明は以下にあるので参考にしてください。 http://www.pccluster.org/score/dist/score/html/ja/man/man5/pm-ether-conf.html From: 池辺 厚慈 Subject: [SCore-users-jp] SCoreを使用しないMPICH よりスコアが劣る問題. Date: Tue, 27 Jan 2004 15:23:02 +0900 Message-ID: <426FFAEC-5091-11D8-903A-003065AD5970 @ comp.eng.himeji-tech.ac.jp> atuyosi> 姫路工業大学,情報制御機構研究室の池辺と申します. atuyosi> 前回2,3質問させて頂いた者です.その節はありがとうございました. atuyosi> 今回,下記の質問についてお答え頂戴したくメールを致しました. atuyosi> 何卒ご教授願います. atuyosi> atuyosi> ---ここから質問内容です. atuyosi> atuyosi> 下記環境にてMPICH-SCore環境においてベンチマークを atuyosi> 実行したところ,同一のハードウェア上でのSCoreを利用しない atuyosi> MPICHよりスコアが劣ってしまうのですが,設定に問題があるのでしょうか? atuyosi> atuyosi> 動作環境 atuyosi> CPU: AthlonXP 2200+ atuyosi> RAM: PC2700 512MB atuyosi> HDD: SCore時のみ80GB atuyosi> NIC: intel PRO/1000MT デスクトップアダプタ atuyosi> HUB: corega GSW-8 atuyosi> OS: RedHat Linux 7.3 atuyosi> SCore version 5.6.1 atuyosi> MPICH version 1.2.5 atuyosi> atuyosi> 上記構成を計算ノード16ノード+クラスタ管理ノード1ノード atuyosi> の計17台で運用しています. atuyosi> 計算ノードへのインストールにはEITを使用しました. atuyosi> atuyosi> 使用したベンチマーク: Poisson FEM-BMTおよび atuyosi> 姫野ベンチXP mpi版 計算サイズM atuyosi> コンパイラg77-2.96 コンパイルオプション: -O3 atuyosi> atuyosi> 結果(SCore環境時) atuyosi> Poisson FEM-BMT atuyosi> SCore-D 5.6.1 connected. atuyosi> <0:0> SCORE: 16 nodes (16x1) ready. atuyosi> No. of DOFs : 2097152 (n = 128) atuyosi> No. of PEs : 16 atuyosi> atuyosi> Initialization ... atuyosi> Start rehearsal measurement process. atuyosi> atuyosi> Number of iterations in CG 10 atuyosi> Loop executed for 1 times atuyosi> Residual : 0.00053340235 atuyosi> Elapsed time : 3.72145009 sec. atuyosi> NFLOPS = 914913280. atuyosi> MFLOPS measured : 245.848595 atuyosi> ----------------------------------------- atuyosi> atuyosi> Number of iterations in CG 10 atuyosi> Loop executed for 16 times atuyosi> Residual : 0.00053340235 atuyosi> Elapsed time : 92.4863849 sec. atuyosi> NFLOPS = 914913280. atuyosi> MFLOPS measured : 158.278567 atuyosi> ----------------------------------------- atuyosi> atuyosi> 姫野ベンチxp mpi版 計算サイズM atuyosi> SCore-D 5.6.1 connected. atuyosi> <0:0> SCORE: 16 nodes (16x1) ready. atuyosi> Sequential version array size atuyosi> mimax= 257 mjmax= 129 mkmax= 129 atuyosi> Parallel version array size atuyosi> mimax= 131 mjmax= 67 mkmax= 35 atuyosi> imax= 129 jmax= 65 kmax= 33 atuyosi> I-decomp= 2 J-decomp= 2 K-decomp= 4 atuyosi> atuyosi> Start rehearsal measurement process. atuyosi> Measure the performance in 3 times. atuyosi> MFLOPS: 3717.79994 time(s): 0.110634089 0.00169377867 atuyosi> Now, start the actual measurement process. atuyosi> The loop will be excuted in 1626 times. atuyosi> This will take about one minute. atuyosi> Wait for a while. atuyosi> Loop executed for 1626 times atuyosi> Gosa : 0.000568608928 atuyosi> MFLOPS: 3408.83448 time(s): 65.3985848 atuyosi> Score based on Pentium III 600MHz : 41.1496201 atuyosi> atuyosi> 結果(非SCore環境時) atuyosi> Poisson FEM-BMT atuyosi> No. of DOFs : 2097152 (n = 128) atuyosi> No. of PEs : 16 atuyosi> atuyosi> Initialization ... atuyosi> Start rehearsal measurement process. atuyosi> atuyosi> Number of iterations in CG 10 atuyosi> Loop executed for 1 times atuyosi> Residual : 0.000533402352 atuyosi> Elapsed time : 0.934157 sec. atuyosi> NFLOPS = 914913280. atuyosi> MFLOPS measured : 979.399906 atuyosi> ----------------------------------------- atuyosi> atuyosi> Number of iterations in CG 10 atuyosi> Loop executed for 64 times atuyosi> Residual : 0.000533402352 atuyosi> Elapsed time : 69.241711 sec. atuyosi> NFLOPS = 914913280. atuyosi> MFLOPS measured : 845.652843 atuyosi> ----------------------------------------- atuyosi> atuyosi> 姫野ベンチxp mpi版 計算サイズM atuyosi> Sequential version array size atuyosi> mimax= 257 mjmax= 129 mkmax= 129 atuyosi> Parallel version array size atuyosi> mimax= 131 mjmax= 67 mkmax= 35 atuyosi> imax= 129 jmax= 65 kmax= 33 atuyosi> I-decomp= 2 J-decomp= 2 K-decomp= 4 atuyosi> atuyosi> Start rehearsal measurement process. atuyosi> Measure the performance in 3 times. atuyosi> MFLOPS: 4094.68704 time(s): 0.100451 0.00169377949 atuyosi> Now, start the actual measurement process. atuyosi> The loop will be excuted in 1791 times. atuyosi> This will take about one minute. atuyosi> Wait for a while. atuyosi> Loop executed for 1791 times atuyosi> Gosa : 0.000530048565 atuyosi> MFLOPS: 4027.27022 time(s): 60.973137 atuyosi> Score based on Pentium III 600MHz : 48.6150475 atuyosi> atuyosi> atuyosi> 〓〓  姫路工業大学 情報制御機構研究室 atuyosi> 〓〓             池辺 厚慈 atuyosi> 〓〓 atuyosi @ comp.eng.himeji-tech.ac.jp atuyosi> atuyosi> _______________________________________________ atuyosi> SCore-users-jp mailing list atuyosi> SCore-users-jp @ pccluster.org atuyosi> http://www.pccluster.org/mailman/listinfo/score-users-jp atuyosi> ------ Shinji Sumimoto, Fujitsu Labs From pccc @ ics-inc.co.jp Tue Jan 27 16:18:22 2004 From: pccc @ ics-inc.co.jp (pccc) Date: Tue, 27 Jan 2004 16:18:22 +0900 Subject: [SCore-users-jp] SCore ワークショップのご案内(3月9日、大阪) Message-ID: SCore ユーザーの皆様 来る3月9日、大阪にて下記の通りSCoreワークショップを開催することになりました。 今回は初の関西地区開催であり、関西地区在住の方はぜひこの機会をご利用いただきたく、ご参加をお待ちしております。 (もちろん、全国より参加可能です) 参加ご希望の方はコンソーシアムホームホームページより事前登録をお願いします。 (事前登録締切:2月29日(日)) ☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆          SCoreワークショップ のご案内    −SCore入門から最新事例まで一気にご紹介−          主催 PCクラスタコンソーシアム ☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆ 貴社、ますますご清栄のこととお喜び申し上げます。 2001年10月に発足したPCクラスタコンソーシアムは、日本発のクラスタシステムソフトウェアSCoreの開発・支援を通して国内外のPCクラスタ市場の発展に貢献しております。 ユーザのご要望にお答えして、今回、関西地域においてSCoreワークショップを開催致します。本ワークショップでは、従来、当コンソーシアムが開催しているPCクラスタシンポジウムおよびSCoreセミナのエッセンスを凝縮し、1日で並列処理の基礎からSCore型クラスタ導入までを紹介致します。また、メンバ企業による最新のSCore型クラスタの紹介も致します。皆様の御参加をお待ちしております。                     PCクラスタコンソーシアム 会長 石川 裕                 −記− ■日時:2004年3月9日(火)10:00〜17:00   (受付開始9:30) ■場所: 富士通株式会社 関西システムラボラトリ 4F会議室   地図は http://jp.fujitsu.com/facilities/kansai/ を参照ください。 ■定員:200名 参加無料 ■カリキュラム (予定) 10:00〜10:30 コンソーシアム紹介 石川 裕 (東京大学) 10:40〜11:45 並列処理入門 石川 裕 (東京大学) 13:00〜13:50 SCore 入門 原田 浩 (日本ヒューレット・パッカード株式会社) 14:00〜14:45 SCoreクラスタ構築のポイント 住元 真司 (富士通研究所) 14:45〜15:00 break 15:00〜15:45 SCore運用のポイント 堀 敦史(スイミー・ソフトウェア株式会社) 16:00〜17:00 メンバ企業によるSCoreクラスタの紹介                ***********<申込要綱>**************** 以下のURLから申し込み願います。 事前登録締切: http://www.pccluster.org/index.html.ja ◆問い合わせ先 〒101-8449 東京都千代田区神田錦町3-24 住友商事神保町ビル 株式会社ICSコンベンションデザイン内 PCクラスタコンソーシアム事務局 電話:03-3219-3541 FAX: 03-3292-1811 E-mail: sec @ pccluster.org ******************************************** From atuyosi @ comp.eng.himeji-tech.ac.jp Wed Jan 28 14:12:36 2004 From: atuyosi @ comp.eng.himeji-tech.ac.jp (池辺 厚慈) Date: Wed, 28 Jan 2004 14:12:36 +0900 Subject: [SCore-users-jp] パラメータ変更後の結果. Message-ID: <9651A728-5150-11D8-A770-003065AD5970@comp.eng.himeji-tech.ac.jp> 姫路工業大学の池辺です. 住元様,素早い回答ありがとうございます. ご指摘の通りに再度試してみたところ, 以下の様に解決致しました. ありがとうございました. ----- ご指摘の通り, /opt/score/etc/pm-ethernet.confのパラメータを以下のように して試してみました. ================================= maxnsend 24 backoff 2400 intreap 1 ================================= 動作環境 CPU: AthlonXP 2200+ RAM: PC2700 512MB HDD: SCore時のみ80GB NIC: intel PRO/1000MT デスクトップアダプタ HUB: corega GSW-8 OS: RedHat Linux 7.3 SCore version 5.6.1 MPICH version 1.2.5 上記構成を計算ノード16ノード+クラスタ管理ノード1ノード の計17台で運用しています. 計算ノードへのインストールにはEITを使用しました. 使用したベンチマーク: Poisson FEM-BMTおよび 姫野ベンチXP mpi版 計算サイズM コンパイラg77-2.96 コンパイルオプション: -O3 結果は以下のように,非SCoreのMPICHに近い結果となりました. 結果(SCore環境時・pm-ethernet.confのパラメータ変更後) Poisson FEM-BMT SCore-D 5.6.1 connected. No. of DOFs : 2097152 (n = 128) No. of PEs : 16 Initialization ... Start rehearsal measurement process. Number of iterations in CG 10 Loop executed for 1 times Residual : 0.00053340235 Elapsed time : 0.779690027 sec. NFLOPS = 914913280. MFLOPS measured : 1173.43206 ----------------------------------------- Number of iterations in CG 10 Loop executed for 76 times Residual : 0.00053340235 Elapsed time : 59.10937 sec. NFLOPS = 914913280. MFLOPS measured : 1176.35172 ----------------------------------------- 姫野ベンチxp mpi版 計算サイズM SCore-D 5.6.1 connected. Sequential version array size mimax= 257 mjmax= 129 mkmax= 129 Parallel version array size mimax= 131 mjmax= 67 mkmax= 35 imax= 129 jmax= 65 kmax= 33 I-decomp= 2 J-decomp= 2 K-decomp= 4 Start rehearsal measurement process. Measure the performance in 3 times. MFLOPS: 3720.59821 time(s): 0.11055088 0.00169377867 Now, start the actual measurement process. The loop will be excuted in 1628 times. This will take about one minute. Wait for a while. Loop executed for 1628 times Gosa : 0.000568119576 MFLOPS: 3712.11807 time(s): 60.1293271 Score based on Pentium III 600MHz : 44.8106995 〓〓  姫路工業大学 情報制御機構研究室 〓〓             池辺 厚慈 〓〓 atuyosi @ comp.eng.himeji-tech.ac.jp From atuyosi @ comp.eng.himeji-tech.ac.jp Fri Jan 30 20:51:40 2004 From: atuyosi @ comp.eng.himeji-tech.ac.jp (池辺 厚慈) Date: Fri, 30 Jan 2004 20:51:40 +0900 Subject: [SCore-users-jp] SCASH+OpenMPの実行時間 Message-ID: 姫路工業大学の池辺です. 度々すみません. SCASH+OpenMPの動作テストのために, 以下のような簡単なプログラムを作成し, 実行時間を計測したところ, 計算ノード数を増やすと実行時間が 長くなっていきます. 何か設定等に問題が考えられますでしょうか. 動作環境 CPU: AthlonXP 2200+ RAM: PC2700 512MB HDD: SCore時のみ80GB NIC: intel PRO/1000MT デスクトップアダプタ HUB: corega GSW-8 OS: RedHat Linux 7.3 SCore version 5.6.1 上記構成を計算ノード16ノード+クラスタ管理ノード1ノード の計17台で運用しています. 計算ノードへのインストールにはEITを使用しました. 以下の動作確認は1,2,4ノードで行いました. テストプログラムのソース c.....7..+.........+.........+.........+.........+.........+.........+.. c *----------------------------------------------------------------* c OpenMP test program c main c *----------------------------------------------------------------* IMPLICIT integer (I-K) IMPLICIT real*8 (A-H,O-Z) real*8 startt,endt dimension ANS(4000),A(4000),B(4000) DO 100 ii=1,3 !$OMP PARALLEL DO DO 10 I=1,4000 ANS(i)=1.0 A(i)=1.0 B(i)=1.0 10 CONTINUE !$OMP END PARALLEL DO call fgettod ( isec, iusec ) startt = isec + iusec*1.0d-6 DO 30 j=1,1000 !$OMP PARALLEL DO DO 20 I=1,4000 ANS(I)=A(I)+B(I) 20 CONTINUE !$OMP END PARALLEL DO jj=jj+j 30 CONTINUE call fgettod ( isec, iusec ) endt = isec + iusec*1.0d-6 WRITE(*,*)'time ',ii,' = ',endt-startt 100 CONTINUE STOP END --- 実行結果 node=1 SCore-D 5.6.1 connected. time 1 = 0.0448157787 time 2 = 0.0448970795 time 3 = 0.0447969437 node=2 SCore-D 5.6.1 connected. time 1 = 5.89022422 time 2 = 5.96823096 time 3 = 6.16784501 node=4 SCore-D 5.6.1 connected. time 1 = 14.5024259 time 2 = 14.2310061 time 3 = 14.2417281 --- よろしくお願い致します. 〓〓  姫路工業大学 情報制御機構研究室 〓〓             池辺 厚慈 〓〓 atuyosi @ comp.eng.himeji-tech.ac.jp From msato @ is.tsukuba.ac.jp Sat Jan 31 02:11:55 2004 From: msato @ is.tsukuba.ac.jp (Mitsuhisa Sato) Date: Sat, 31 Jan 2004 02:11:55 +0900 (JST) Subject: [SCore-users-jp] SCASH+OpenMPの実行時間 In-Reply-To: References: Message-ID: <20040131.021155.846959825.msato@hpcs.is.tsukuba.ac.jp> 池辺様、 このくらいのサイズでは、Ethernetではだいぶきついかもしれません。 さとう。 From: 池辺 厚慈 Subject: [SCore-users-jp] SCASH+OpenMPの実行時間 Date: Fri, 30 Jan 2004 20:51:40 +0900 > 姫路工業大学の池辺です. > 度々すみません. > > SCASH+OpenMPの動作テストのために, > 以下のような簡単なプログラムを作成し, > 実行時間を計測したところ, > 計算ノード数を増やすと実行時間が > 長くなっていきます. > 何か設定等に問題が考えられますでしょうか. > > 動作環境 > CPU: AthlonXP 2200+ > RAM: PC2700 512MB > HDD: SCore時のみ80GB > NIC: intel PRO/1000MT デスクトップアダプタ > HUB: corega GSW-8 > OS: RedHat Linux 7.3 > SCore version 5.6.1 > > 上記構成を計算ノード16ノード+クラスタ管理ノード1ノード > の計17台で運用しています. > 計算ノードへのインストールにはEITを使用しました. > > 以下の動作確認は1,2,4ノードで行いました. > > テストプログラムのソース > c.....7..+.........+.........+.........+.........+.........+.........+.. > c *----------------------------------------------------------------* > c OpenMP test program > c main > c *----------------------------------------------------------------* > IMPLICIT integer (I-K) > IMPLICIT real*8 (A-H,O-Z) > real*8 startt,endt > dimension ANS(4000),A(4000),B(4000) > > DO 100 ii=1,3 > !$OMP PARALLEL DO > DO 10 I=1,4000 > ANS(i)=1.0 > A(i)=1.0 > B(i)=1.0 > 10 CONTINUE > !$OMP END PARALLEL DO > call fgettod ( isec, iusec ) > startt = isec + iusec*1.0d-6 > DO 30 j=1,1000 > !$OMP PARALLEL DO > DO 20 I=1,4000 > ANS(I)=A(I)+B(I) > 20 CONTINUE > !$OMP END PARALLEL DO > jj=jj+j > 30 CONTINUE > call fgettod ( isec, iusec ) > endt = isec + iusec*1.0d-6 > WRITE(*,*)'time ',ii,' = ',endt-startt > 100 CONTINUE > STOP > END > > --- > 実行結果 > node=1 > SCore-D 5.6.1 connected. > time 1 = 0.0448157787 > time 2 = 0.0448970795 > time 3 = 0.0447969437 > > node=2 > SCore-D 5.6.1 connected. > time 1 = 5.89022422 > time 2 = 5.96823096 > time 3 = 6.16784501 > > node=4 > SCore-D 5.6.1 connected. > time 1 = 14.5024259 > time 2 = 14.2310061 > time 3 = 14.2417281 > > --- > > よろしくお願い致します. > > > 〓〓  姫路工業大学 情報制御機構研究室 > 〓〓             池辺 厚慈 > 〓〓 atuyosi @ comp.eng.himeji-tech.ac.jp > > _______________________________________________ > SCore-users-jp mailing list > SCore-users-jp @ pccluster.org > http://www.pccluster.org/mailman/listinfo/score-users-jp >