From shreeni @ cs.uh.edu Tue Oct 1 01:47:29 2002 From: shreeni @ cs.uh.edu (Shreenivasa Venkataramaiah) Date: Mon, 30 Sep 2002 11:47:29 -0500 Subject: [SCore-users-jp] [SCore-users] Gang scheduling implementation References: <3116017727.hori0000@swimmy-soft.com> <3116045111.hori0000@swimmy-soft.com> Message-ID: <3D988021.9020001@cs.uh.edu> Hi, If you have an application running on multitple nodes and if it has to share the processor on only some of the compute nodes then how does SCore handle the scheduling and how is gang scheduling done in this situation?? For instance we have one of the NAS benchmarks like CG compiled for 4 nodes. We run CG on four compute nodes comp1, comp2, comp3 and comp4. Also, we run another application like IS compiled for 2 nodes only, on comp1 and comp2 nodes. CG has to share the processor on comp1 and comp2 only. But on comp3 and comp4 it has the processor for itself. How does gang scheduling work in this situation. Typically, according to my understanding the SCore-D has a server process (running on the server host) that initiates the preemption and context switch on all the compute hosts (that is handled by score-d processes on the compute nodes). But when there is no processor sharing on some of the nodes (comp3 and comp4 in this case), does SCore-D force a preemption on those nodes too? shreeni. _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From 劉学振\ Tue Oct 1 12:15:59 2002 From: 劉学振\ (LIU XUEZHEN) ) Date: Tue, 1 Oct 2002 12:15:59 +0900 Subject: [SCore-users-jp] pccluster.org mailing list memberships reminder References: <20020930200357.1454.68688.Mailman@www.pccluster.org> Message-ID: <008001c268f8$dd7bc750$6c03c9a0@IWS0098> 三菱プレシジョンの劉学振です. Myrinet2Kを使ってクラスタを構築しましたが,以下のようにうまくいっていません. 1.システム構成: M/B: SUPERMICRO P4DC6+ CPU: Intel Xeon2.0G G/B: GeForce4 MEM: 1GB HDD: 40GB LAN: On Board NIC+3C905C-TX-M(3COM社) Myrinet: M3-E32+M3-SW16-8F+M3F-PCI64B-2 (ただし,No Monitoringカード(Blank Panel)) 2.OS: RedHat Linux 7.2 SCore5.0.1(本についているCD-ROMから) 3.現象: インストール時Myrinet2K+Ethernet+Shmem=2を選択して,Myrinetのトポロジーを16でインストールしました. ケーブルの接続は/opt/score/doc/html/en/install/myrinet2k-conf.htmlに示したように接続しました. (1)scout -g pccall scrun /opt/score/demo/bin/mandel で実行すると,システムがフリーズになり,回復できなくなってしまいます. (2)scout -g pccall scrun -nodes=9x1,network=ethernet /opt/score/demo/bin/mandel で実行しても,システムがフリーズになったり,ならなかったりします.Ethernetだけを使おうとしたのになぜMyrinet関係しているのかなと思っています. Myrinetの方のランプが点灯したり,しなかったりしてサーバーPCもノードPCもフリーズになってしまいます.強制的に電源を切るしかないので,再起動時のチェックがすごくめんどくさくなります. (3)scout -g pccall -n 1 scrun /opt/score/demo/bin/mandel で実行できます. このときscstestを実行すると,SCSTEST: BURST on myrinet2k(chan=0,ctx=0,len=16)のメッセージが出て何も進まなくなります. ちなみに, scout -g pccall scstest -network ethernet を実行すると,正常に動作しています. 何か解決策がありますでしょうか.教えて頂きたいです. 宜しくお願い致します. 以上 From kameyama @ pccluster.org Tue Oct 1 12:38:27 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Tue, 01 Oct 2002 12:38:27 +0900 Subject: [SCore-users-jp] pccluster.org mailing list memberships reminder In-Reply-To: Your message of "Tue, 01 Oct 2002 12:15:59 JST." <008001c268f8$dd7bc750$6c03c9a0@IWS0098> Message-ID: <200210010338.g913cRY01211@yl-dhcp18.is.s.u-tokyo.ac.jp> In article <008001c268f8$dd7bc750$6c03c9a0 @ IWS0098> "劉学振\(LIU XUEZHEN\)" wrotes: > 三菱プレシジョンの劉学振です. > > Myrinet2Kを使ってクラスタを構築しましたが,以下のようにうまくいっていません. > > 1.システム構成: > M/B: SUPERMICRO P4DC6+ > CPU: Intel Xeon2.0G > G/B: GeForce4 > MEM: 1GB > HDD: 40GB > LAN: On Board NIC+3C905C-TX-M(3COM社) > Myrinet: M3-E32+M3-SW16-8F+M3F-PCI64B-2 ちなみに, compute host は何台でしょうか? > 3.現象: > インストール時Myrinet2K+Ethernet+Shmem=2を選択して,Myrinetのトポロジー > を16でインストールしました. EIT で E-32 で 16 台以下を設定することを考慮していなかったのだと 思います. /opt/score/etc/pm-myrinet.conf を下の file の hostname を変更したものと入れ換えてみてください. > Ethernetだけを使おうとしたのになぜMyrinet関係しているのかなと思っています. SCore-D 自身は scoreboard に登録してある最初の network を使用します. EIT の default ですと myrinet を使用します. from Kameyama Toyohisa ---------------------------------------cut here--------------------------------- 0 comp0.pccluster.org 0.15 1 comp1.pccluster.org 0.14 2 comp2.pccluster.org 0.13 3 comp3.pccluster.org 0.12 4 comp4.pccluster.org 0.11 5 comp5.pccluster.org 0.10 6 comp6.pccluster.org 0.9 7 comp7.pccluster.org 0.8 8 comp8.pccluster.org 1.15 9 comp9.pccluster.org 1.14 10 compa.pccluster.org 1.13 11 compb.pccluster.org 1.12 12 compc.pccluster.org 1.11 13 compd.pccluster.org 1.10 14 compe.pccluster.org 1.9 15 compf.pccluster.org 1.8 switch 0.0 8.0 switch 0.1 9.0 switch 0.2 10.0 switch 0.3 11.0 switch 0.4 12.0 switch 0.5 13.0 switch 0.6 14.0 switch 0.7 15.0 switch 1.0 8.1 switch 1.1 9.1 switch 1.2 10.1 switch 1.3 11.1 switch 1.4 12.1 switch 1.5 13.1 switch 1.6 14.1 switch 1.7 15.1 search 0 15 7 14 6 13 5 12 4 11 3 10 2 9 1 8 0 search 1 15 7 14 6 13 5 12 4 11 3 10 2 9 1 8 0 search 8 15 7 14 6 13 5 12 4 11 3 10 2 9 1 8 0 search 9 15 7 14 6 13 5 12 4 11 3 10 2 9 1 8 0 search 10 15 7 14 6 13 5 12 4 11 3 10 2 9 1 8 0 search 11 15 7 14 6 13 5 12 4 11 3 10 2 9 1 8 0 search 12 15 7 14 6 13 5 12 4 11 3 10 2 9 1 8 0 search 13 15 7 14 6 13 5 12 4 11 3 10 2 9 1 8 0 search 14 15 7 14 6 13 5 12 4 11 3 10 2 9 1 8 0 search 15 15 7 14 6 13 5 12 4 11 3 10 2 9 1 8 0 ---------------------------------------cut here--------------------------------- From simard_luc @ yahoo.com Tue Oct 1 13:04:12 2002 From: simard_luc @ yahoo.com (Luc Simard) Date: Mon, 30 Sep 2002 21:04:12 -0700 (PDT) Subject: [SCore-users-jp] [SCore-users] Permission denied error. Message-ID: <20021001040412.5877.qmail@web13905.mail.yahoo.com> Hello kameyama San & Shinji San. I'd want to thank you for your help , you have been very helpfull. I have another question, if you or other fellow SCORE users have seen this, please let me know. I work for the CLUMEQ project at McGill University, I am part of the same team as Marting Gourdeau and Dr. Amik St-Cyr. We have a 128 nodes system built onto Dual Atlon 1900+ with MPX chipset, MPI is done with Myrinet. NFS support is done through default 10/100 ethernet. I get a "permission denied" error when I issues the following command : [root @ stokes root]# scout -g cn "cn" are the names of our systems. I get the following (this is a screen grab), the spawning works fine untill it reaches host cn38, then it stops : [root @ stokes root]# scout -g cn SCOUT: Spawning cn38.clumeq.mcgill.caPermission denied. [cn39.clumeq.mcgill.ca]: Spawn timed out. SCOUT: Session done. ==== I also tested with : [root @ stokes root]# scorehosts -l -g cn cn1.clumeq.mcgill.ca cn2.clumeq.mcgill.ca cn3.clumeq.mcgill.ca cn4.clumeq.mcgill.ca ..(major snip) ... cn126.clumeq.mcgill.ca cn127.clumeq.mcgill.ca cn128.clumeq.mcgill.ca 128 hosts found. == and [root @ stokes root]# sceptic -v -g cn cn16.clumeq.mcgill.ca: OK ..(major snip) ... cn126.clumeq.mcgill.ca: OK It says that all hosts are present. ===== Luc Simard Allegra Solutions 514-995-1280 (cel.) lsimard @ allegrasolutions.com simard_luc @ yahoo.com ------- Luc Simard Quebec, Canada My Yahoo!!Email : simard_luc @ yahoo.com ------- __________________________________________________ Do you Yahoo!? New DSL Internet Access from SBC & Yahoo! http://sbc.yahoo.com _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From kameyama @ pccluster.org Tue Oct 1 13:08:34 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Tue, 01 Oct 2002 13:08:34 +0900 Subject: [SCore-users-jp] pccluster.org mailing list memberships reminder In-Reply-To: Your message of "Tue, 01 Oct 2002 12:38:27 JST." <200210010338.g913cRY01211@yl-dhcp18.is.s.u-tokyo.ac.jp> Message-ID: <200210010408.g9148YY01345@yl-dhcp18.is.s.u-tokyo.ac.jp> 亀山です. In article <200210010338.g913cRY01211 @ yl-dhcp18.is.s.u-tokyo.ac.jp> kameyama @ pccluster.org wrotes: > EIT で E-32 で 16 台以下を設定することを考慮していなかったのだと > 思います. すみません. 間違いでした. 多分, 下のものと同じになるはずです. それぞれの host で pminit, loopback test, point to point test は成功するでしょうか? from Kameyama Toyohisa From kameyama @ pccluster.org Tue Oct 1 13:39:25 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Tue, 01 Oct 2002 13:39:25 +0900 Subject: [SCore-users-jp] Re: [SCore-users] Permission denied error. In-Reply-To: Your message of "Mon, 30 Sep 2002 21:04:12 JST." <20021001040412.5877.qmail@web13905.mail.yahoo.com> Message-ID: <200210010439.g914dPY01483@yl-dhcp18.is.s.u-tokyo.ac.jp> In article <20021001040412.5877.qmail @ web13905.mail.yahoo.com> Luc Simard wrotes: > [root @ stokes root]# scout -g cn > SCOUT: Spawning cn38.clumeq.mcgill.caPermission > denied. > [cn39.clumeq.mcgill.ca]: Spawn timed out. I thing cn40, cn41 or cn42 don't allow access to stokes. If you whant to find the host, please execute following: # scout -g cn~cn3~cn40 This command execute scout all hosts belongs cn3 group excpt cn40. If this command is successfull, you check only cn40. Please check that host following: 1. Please check /etc/hosts.equiv. This file must include stokes. 2. Please rlogin (or other access) from that hosts to stokes. If this is fail, this host is not known server host (stoke). Please check this hosts's hostname lookup setting (i.e. /etc/nsswitch.conf, NIS domainname and bind host.) 3. If you use scoutd, please restart scoutd # /etc/rc.d/init.d/scoutd restart If you don't use scoutd (scout execute via rshd), please check /etc/securetty If /etc/securetty don't include rsh, the host don't rsh by root. from Kameyama Toyohisa _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From simard_luc @ yahoo.com Tue Oct 1 14:06:03 2002 From: simard_luc @ yahoo.com (Luc Simard) Date: Mon, 30 Sep 2002 22:06:03 -0700 (PDT) Subject: [SCore-users-jp] Re: [SCore-users] Permission denied error. In-Reply-To: <200210010439.g914dPY01483@yl-dhcp18.is.s.u-tokyo.ac.jp> Message-ID: <20021001050603.13129.qmail@web13905.mail.yahoo.com> your first suggestion worked. it went through. I did the command and as you suggested, it seems to be cn40. == 1. The hosts.equiv on cn40 does include stokes : [root @ cn40 root]# cat /etc/hosts.equiv # The following list is added by configSCore stokes.clumeq.mcgill.ca cn1.clumeq.mcgill.ca cn2.clumeq.mcgill.ca cn3.clumeq.mcgill.ca 2. SSH access works fine. 3. 3.1 scoutd stoped and started again. [root @ stokes init.d]# ./scoutd stop Shutting down scout daemon: [ OK ] [root @ stokes init.d]# ./scoutd start Starting scout daemon: [ OK ] [root @ stokes init.d]# cd .. 3.2 cat /etc/securetty [root @ stokes etc]# cat securetty vc/1 vc/2 vc/3 vc/4 vc/5 vc/6 vc/7 vc/8 vc/9 vc/10 vc/11 tty1 tty2 tty3 tty4 tty5 tty6 tty7 tty8 tty9 tty10 tty11 rsh [root @ stokes etc]# Then I tried to see if restarting the daemons had any effect : [root @ stokes init.d]# ./scoreboard start Starting scoreboard services: [ OK ] [root @ stokes init.d]# scout -g cn SCOUT: Spawning cn38.clumeq.mcgill.caPermission denied. [root @ stokes init.d]# --->> No change <<----- Would pushing the image back again change something in your opinion ? --- kameyama @ pccluster.org wrote: > In article > <20021001040412.5877.qmail @ web13905.mail.yahoo.com> > Luc Simard wrotes: > > [root @ stokes root]# scout -g cn > > SCOUT: Spawning cn38.clumeq.mcgill.caPermission > > denied. > > [cn39.clumeq.mcgill.ca]: Spawn timed out. > > I thing cn40, cn41 or cn42 don't allow access to > stokes. > If you whant to find the host, please execute > following: > # scout -g cn~cn3~cn40 > This command execute scout all hosts belongs cn3 > group excpt cn40. > If this command is successfull, you check only cn40. > > Please check that host following: > 1. Please check /etc/hosts.equiv. > This file must include stokes. > 2. Please rlogin (or other access) from that hosts > to stokes. > If this is fail, this host is not known server > host (stoke). > Please check this hosts's hostname lookup setting > (i.e. > /etc/nsswitch.conf, NIS domainname and bind > host.) > 3. If you use scoutd, please restart scoutd > # /etc/rc.d/init.d/scoutd restart > If you don't use scoutd (scout execute via rshd), > please check > /etc/securetty > If /etc/securetty don't include rsh, the host > don't rsh by root. > > from Kameyama Toyohisa ===== Luc Simard Allegra Solutions 514-995-1280 (cel.) lsimard @ allegrasolutions.com simard_luc @ yahoo.com ------- Luc Simard Quebec, Canada My Yahoo!!Email : simard_luc @ yahoo.com ------- __________________________________________________ Do you Yahoo!? New DSL Internet Access from SBC & Yahoo! http://sbc.yahoo.com _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From kameyama @ pccluster.org Tue Oct 1 15:17:09 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Tue, 01 Oct 2002 15:17:09 +0900 Subject: [SCore-users-jp] Re: [SCore-users] Permission denied error. In-Reply-To: Your message of "Mon, 30 Sep 2002 22:06:03 JST." <20021001050603.13129.qmail@web13905.mail.yahoo.com> Message-ID: <200210010617.g916H9Y01985@yl-dhcp18.is.s.u-tokyo.ac.jp> In article <20021001050603.13129.qmail @ web13905.mail.yahoo.com> Luc Simard wrotes: > your first suggestion worked. Sorry, scout invokes scremote from privious compu9te host insted of server host. Then you must check cn39 instead of stokes. > 1. The hosts.equiv on cn40 does include stokes : > > [root @ cn40 root]# cat /etc/hosts.equiv > # The following list is added by configSCore > stokes.clumeq.mcgill.ca > cn1.clumeq.mcgill.ca > cn2.clumeq.mcgill.ca > cn3.clumeq.mcgill.ca Please check cn39.clumeq.mcgill.ca is found. > 2. SSH access works fine. Please check rsh access is work between cn39 and cn40. from Kameyama Toyohisa _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From 劉学振\ Tue Oct 1 17:03:19 2002 From: 劉学振\ (LIU XUEZHEN) ) Date: Tue, 1 Oct 2002 17:03:19 +0900 Subject: [SCore-users-jp] pccluster.org mailing list memberships reminder References: <200210010408.g9148YY01345@yl-dhcp18.is.s.u-tokyo.ac.jp> Message-ID: <010501c26921$015ec320$6c03c9a0@IWS0098> 亀山様 劉@三菱プレシジョンです. ご返信ありがとうございます. > > Myrinet2Kを使ってクラスタを構築しましたが,以下のようにうまくいっていません. > > > > 1.システム構成: > > M/B: SUPERMICRO P4DC6+ > > CPU: Intel Xeon2.0G > > G/B: GeForce4 > > MEM: 1GB > > HDD: 40GB > > LAN: On Board NIC+3C905C-TX-M(3COM社) > > Myrinet: M3-E32+M3-SW16-8F+M3F-PCI64B-2 > > ちなみに, compute host は何台でしょうか? compute host は9台です(サーバーPCもcompute hostとしてインストールしました.) EITでインストールした時デフォルトのpm-myrinet.confファイルの中身は下記のようになっています. -----------------pm-myrinet.conf------------------ # Node specification # NodeNumber Hostname switchNumber.portNumber 0 server1.score.vg.mpcnet.co.jp 0.15 1 comp0.score.vg.mpcnet.co.jp 0.14 2 comp1.score.vg.mpcnet.co.jp 0.13 3 comp2.score.vg.mpcnet.co.jp 0.12 4 comp3.score.vg.mpcnet.co.jp 0.11 5 comp4.score.vg.mpcnet.co.jp 0.10 6 comp5.score.vg.mpcnet.co.jp 0.9 7 comp6.score.vg.mpcnet.co.jp 0.8 8 comp7.score.vg.mpcnet.co.jp 1.15 # 9 %s 1.14 # 10 %s 1.13 # 11 %s 1.12 # 12 %s 1.11 # 13 %s 1.10 # 14 %s 1.9 # 15 %s 1.8 switch 0.0 8.0 switch 0.1 9.0 switch 0.2 10.0 switch 0.3 11.0 switch 0.4 12.0 switch 0.5 13.0 switch 0.6 14.0 switch 0.7 15.0 switch 1.0 8.1 switch 1.1 9.1 switch 1.2 10.1 switch 1.3 11.1 switch 1.4 12.1 switch 1.5 13.1 switch 1.6 14.1 switch 1.7 15.1 search 0 15 7 14 6 13 5 12 4 11 3 10 2 9 1 8 0 search 1 15 7 14 6 13 5 12 4 11 3 10 2 9 1 8 0 search 8 15 7 14 6 13 5 12 4 11 3 10 2 9 1 8 0 search 9 15 7 14 6 13 5 12 4 11 3 10 2 9 1 8 0 search 10 15 7 14 6 13 5 12 4 11 3 10 2 9 1 8 0 search 11 15 7 14 6 13 5 12 4 11 3 10 2 9 1 8 0 search 12 15 7 14 6 13 5 12 4 11 3 10 2 9 1 8 0 search 13 15 7 14 6 13 5 12 4 11 3 10 2 9 1 8 0 search 14 15 7 14 6 13 5 12 4 11 3 10 2 9 1 8 0 search 15 15 7 14 6 13 5 12 4 11 3 10 2 9 1 8 0 -----------------pm-myrinet.conf------------------ PM/Ethernetテストは正常でした. > > それぞれの host で > pminit, loopback test, point to point test は成功するでしょうか? > (1)pminit を実行すると,「pmOpenDevice: No such file or directory(2)」というメッセージが出てきます. (2)pmtest -ping を実行すると,上記と同じメッセージが出てきます. ちなみに,サーバーPCで  rpminit server1 myrinet rpmtest server1 myrinet -dest 0 -ping を実行すると, 8, 1.xxxxe-5 が出てきます. また,サーバーPCで rpminit compX myrinet が実行できますが, rpmtest compX myrinet -dest Y -ping を実行すると,そのcompute hostがフリーズになってしまいます. 何か御アドバイスをお願い致します. From kameyama @ pccluster.org Tue Oct 1 17:10:21 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Tue, 01 Oct 2002 17:10:21 +0900 Subject: [SCore-users-jp] pccluster.org mailing list memberships reminder In-Reply-To: Your message of "Tue, 01 Oct 2002 17:03:19 JST." <010501c26921$015ec320$6c03c9a0@IWS0098> Message-ID: <200210010810.g918AMY02479@yl-dhcp18.is.s.u-tokyo.ac.jp> 亀山です. In article <010501c26921$015ec320$6c03c9a0 @ IWS0098> "劉学振\(LIU XUEZHEN\)" wrotes: > ちなみに,サーバーPCで  > rpminit server1 myrinet > rpmtest server1 myrinet -dest 0 -ping > を実行すると, > 8, 1.xxxxe-5 > が出てきます. 一応, loop back test は OK と... > また,サーバーPCで > rpminit compX myrinet > が実行できますが, > rpmtest compX myrinet -dest Y -ping > を実行すると,そのcompute hostがフリーズになってしまいます. X と Y の値が分からないと何をやったかも不明ですが... Y に対応する host で rpmtest compY -reply は実行しましたでしょうか? (もしくは loopback test?) あ, ちなみに myrinet と他のデバイスの IRQ が重なっているということは ありませんよね? from Kameyama Toyohisa From 劉学振\ Tue Oct 1 17:51:02 2002 From: 劉学振\ (LIU XUEZHEN) ) Date: Tue, 1 Oct 2002 17:51:02 +0900 Subject: [SCore-users-jp] pccluster.org mailing list memberships reminder References: <200210010810.g918AMY02479@yl-dhcp18.is.s.u-tokyo.ac.jp> Message-ID: <012d01c26927$abb25f70$6c03c9a0@IWS0098> 亀山様 劉@三菱プレシジョンです. 早速のご返信ありがとうございます. > 一応, loop back test は OK と... > > また,サーバーPCで > > rpminit compX myrinet > > が実行できますが, > > rpmtest compX myrinet -dest Y -ping > > を実行すると,そのcompute hostがフリーズになってしまいます. > > X と Y の値が分からないと何をやったかも不明ですが... > > Y に対応する host で > rpmtest compY -reply > は実行しましたでしょうか? > (もしくは loopback test?) 実行したのはloopback testです. rpmtest comp0 myrinet -dest 1 -ping を実行しました.サーバーPCを最初のcompute hostとしてインストールしましたので,compのナンバーと-destの後ろのナンバーとおなじではないです. 上記のコマンドを実行してフリーズになってしまいましたので,rpmtest compY -replyは実行できませんでした(しなかった). > > あ, ちなみに myrinet と他のデバイスの IRQ が重なっているということは > ありませんよね? > いま,lspci -v でチェックしたら,ethernetのカード(3C905C-TX-M)と同じIRQを使っています. 3C905C-TX-Mを抜いてやってみます. ありがとうございました. (台風が接近してきているようです.早めに帰らなければならないので,今日は早めに帰ります.明日やってみます) From simard_luc @ yahoo.com Wed Oct 2 02:08:55 2002 From: simard_luc @ yahoo.com (Luc Simard) Date: Tue, 1 Oct 2002 10:08:55 -0700 (PDT) Subject: [SCore-users-jp] Re: [SCore-users] Permission denied error. In-Reply-To: <200210010617.g916H9Y01985@yl-dhcp18.is.s.u-tokyo.ac.jp> Message-ID: <20021001170855.11369.qmail@web13906.mail.yahoo.com> Host cn40 seems to be faulty for some reason. I will compare and try to find a difference in the configuration . == == 1. In doing an "elimination" test to verify which hosts is not working , I started eliminating from host cn36 and proceeded towards host cn40 . When I bypassed host cn40 , it went through : [root @ stokes root]# scout -g cn~cn3~cn36 SCOUT: Spawning cn38.clumeq.mcgill.caPermission denied. [root @ stokes root]# scout -g cn~cn3~cn37 SCOUT: Spawning cn38.clumeq.mcgill.caPermission denied. [root @ stokes root]# scout -g cn~cn3~cn38 SCOUT: Spawning cn37.clumeq.mcgill.caPermission denied. [root @ stokes root]# scout -g cn~cn3~cn39 SCOUT: Spawning cn37.clumeq.mcgill.caPermission denied. [root @ stokes root]# scout -g cn~cn3~cn40 -- 2. test #1 : I checked the rsh between host cn2 and cn38,cn39,cn40,cn41. The host cn40 isn't cooperating in rsh commands. Here are my results : [root @ cn2 sysconfig]# rsh -l root cn38 ls -C / bin dev home lib misc opt root scored usr boot etc initrd lost+found mnt proc sbin tmp var [root @ cn2 sysconfig]# rsh -l root cn39 ls -C / bin dev home lib misc opt root scored usr boot etc initrd lost+found mnt proc sbin tmp var [root @ cn2 sysconfig]# rsh -l root cn40 ls -C / Permission denied. [root @ cn2 sysconfig]# rsh -l root cn40 ls -C / Permission denied. [root @ cn2 sysconfig]# rsh -l root cn41 ls -C / bin dev home lib misc opt root scored usr boot etc initrd lost+found mnt proc sbin tmp var [root @ cn2 sysconfig]# test #2 : I verified if host cn40 behaves with some degree of consistency, deniying all rsh communications . test #2.1 : cn38 to cn2,cn39,cn40,cn41 . All worked for the exception of cn40. [root @ cn38 root]# rsh -l root cn2 ls -C / bin dev home lib misc opt root scored usr boot etc initrd lost+found mnt proc sbin tmp var [root @ cn38 root]# rsh -l root cn39 ls -C / bin dev home lib misc opt root scored usr boot etc initrd lost+found mnt proc sbin tmp var [root @ cn38 root]# rsh -l root cn40 ls -C / Permission denied. [root @ cn38 root]# rsh -l root cn41 ls -C / bin dev home lib misc opt root scored usr boot etc initrd lost+found mnt proc sbin tmp var [root @ cn38 root]# test #2.2 : cn39 to cn2,cn38,cn40,cn41 . All worked for the exception of cn40. [root @ cn39 root]# rsh -l root cn2 ls -C / bin dev home lib misc opt root scored usr boot etc initrd lost+found mnt proc sbin tmp var [root @ cn39 root]# rsh -l root cn38 ls -C / bin dev home lib misc opt root scored usr boot etc initrd lost+found mnt proc sbin tmp var [root @ cn39 root]# rsh -l root cn40 ls -C / Permission denied. [root @ cn39 root]# rsh -l root cn41 ls -C / bin dev home lib misc opt root scored usr boot etc initrd lost+found mnt proc sbin tmp var [root @ cn39 root]# test #2.3 : cn40 to cn2,cn38,cn39,cn41 . Nothing worked. >> It seems to be the problem << [root @ cn40 root]# rsh -l root usage: rsh [-nd] [-l login] host [command] [root @ cn40 root]# rsh -l root cn2 ls -C / cn2: Unknown host [root @ cn40 root]# rsh -l root cn38 ls -C / cn38: Unknown host [root @ cn40 root]# rsh -l root cn39 ls -C / cn39: Unknown host [root @ cn40 root]# rsh -l root cn41 ls -C / cn41: Unknown host [root @ cn40 root]# test #2.4 : cn41 to cn2,cn38,cn39,cn40 . All worked for the exception of cn40. [root @ cn41 root]# rsh -l root cn2 ls -C / bin dev home lib misc opt root scored usr boot etc initrd lost+found mnt proc sbin tmp var [root @ cn41 root]# rsh -l root cn38 ls -C / bin dev home lib misc opt root scored usr boot etc initrd lost+found mnt proc sbin tmp var [root @ cn41 root]# rsh -l root cn39 ls -C / bin dev home lib misc opt root scored usr boot etc initrd lost+found mnt proc sbin tmp var [root @ cn41 root]# rsh -l root cn40 ls -C / Permission denied. [root @ cn41 root]# -- I was doing a test last week. Could a /etc/sysconfig/network file modification be the cause or have any implication ? My test was done on only "cn1" and "cn2" , these two hosts >>are not<< posing a problem. I am trying to find any relevance to solve this problem. Once the modification weas done , I had to reboot the nodes. The day after, kaboom, nothing has been working since. Here's what I did, I added a default gateway to enable remote display to internet users. The orginial file looks like this : [root @ cn2 etc]# cat /etc/sysconfig/network NETWORKING=yes HOSTNAME=cn2.clumeq.mcgill.ca NISDOMAIN=clumeq.mcgill.ca DOMAINNAME=clumeq.mcgill.ca my modification was : [root @ stokes root]# cat /etc/sysconfig/network NETWORKING=yes FORWARD_IPV4=yes HOSTNAME=cn2.clumeq.mcgill.ca NISDOMAIN=clumeq.mcgill.ca GATEWAY=192.168.0.250 GATEWAYDEV=eth0 --- kameyama @ pccluster.org wrote: > In article > <20021001050603.13129.qmail @ web13905.mail.yahoo.com> > Luc Simard wrotes: > > your first suggestion worked. > > Sorry, scout invokes scremote from privious compu9te > host insted of server host. > Then you must check cn39 instead of stokes. > > > 1. The hosts.equiv on cn40 does include stokes : > > > > [root @ cn40 root]# cat /etc/hosts.equiv > > # The following list is added by configSCore > > stokes.clumeq.mcgill.ca > > cn1.clumeq.mcgill.ca > > cn2.clumeq.mcgill.ca > > cn3.clumeq.mcgill.ca > > Please check cn39.clumeq.mcgill.ca is found. > > > 2. SSH access works fine. > > Please check rsh access is work between cn39 and > cn40. > > from Kameyama Toyohisa ===== Luc Simard Allegra Solutions 514-995-1280 (cel.) lsimard @ allegrasolutions.com simard_luc @ yahoo.com ------- Luc Simard Quebec, Canada My Yahoo!!Email : simard_luc @ yahoo.com ------- __________________________________________________ Do you Yahoo!? New DSL Internet Access from SBC & Yahoo! http://sbc.yahoo.com _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From kameyama @ pccluster.org Wed Oct 2 09:19:24 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Wed, 02 Oct 2002 09:19:24 +0900 Subject: [SCore-users-jp] Re: [SCore-users] Permission denied error. In-Reply-To: Your message of "Tue, 01 Oct 2002 10:08:55 JST." <20021001170855.11369.qmail@web13906.mail.yahoo.com> Message-ID: <200210020019.g920JOY06656@yl-dhcp18.is.s.u-tokyo.ac.jp> In article <20021001170855.11369.qmail @ web13906.mail.yahoo.com> Luc Simard wrotes: > [root @ cn40 root]# rsh -l root cn2 ls -C / > cn2: Unknown host > [root @ cn40 root]# rsh -l root cn38 ls -C / > cn38: Unknown host > [root @ cn40 root]# rsh -l root cn39 ls -C / > cn39: Unknown host > [root @ cn40 root]# rsh -l root cn41 ls -C / > cn41: Unknown host > [root @ cn40 root]# Please check following files on cn40: 1. /etc/nsswitch.conf This file determin hostname lookup order. For example this file include following line: hosts: files nis dns hostbame serch /etc/hosts, NIS and DNS. 2. If you want to NIS (and /etc/nsswitch.conf include nis), please check NIS status. related commands are: ifconfig, domainname, ypwhich, ypcat related files are: /etc/sysconfig/network this file specifies NIS domain name. /etc/yp.conf Note that if you want to specify NIS server in this file, the server's hostname must be include in /etc/hosts or IP address. /etc/sysconfig/network-scripts/ifcfg-eth* If you want to use broadcast to determin NIS server, you must correct broadcast address. 2. If you want to DNS (and /etc/nsswitch.conf include dns), please check /etc/resolv.conf. > [root @ cn2 etc]# cat /etc/sysconfig/network > NETWORKING=yes > HOSTNAME=cn2.clumeq.mcgill.ca > NISDOMAIN=clumeq.mcgill.ca > DOMAINNAME=clumeq.mcgill.ca > > my modification was : > > [root @ stokes root]# cat /etc/sysconfig/network > NETWORKING=yes > FORWARD_IPV4=yes > HOSTNAME=cn2.clumeq.mcgill.ca > NISDOMAIN=clumeq.mcgill.ca > GATEWAY=192.168.0.250 > GATEWAYDEV=eth0 stokes's hostname is cn2? from Kameyama Toyohisa _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From ushida @ cj.jp.nec.com Wed Oct 2 20:46:07 2002 From: ushida @ cj.jp.nec.com (Jun USHIDA) Date: Wed, 2 Oct 2002 20:46:07 +0900 Subject: [SCore-users-jp] How to change the results of "mpicc -link_info". In-Reply-To: Your message of "Wed, 02 Oct 2002 20:30:01 +0900". <20021002113001.15198.73405.Mailman@www.pccluster.org> Message-ID: <021002204607.M0110739@ushida.frl.cl.nec.co.jp> 牛田と申します。 fftw という MPI にも対応した FFT プログラムを利用した とある並列プログラムを Score で利用したいと考えています。 fftw は /usr/local/lib にインストールしたのですが、 mpicc で コンパイルをする際に リンクができません。 % mpicc -link_info /opt/score/bin/scorecc -DUSE_STDARG -DHAVE_STDLIB_H=1 -DHAVE_STRING_H=1 -DHAVE_UNISTD_H=1 -DHAVE_STDARG_H=1 -DUSE_STDARG=1 -DMALLOC_RET_VOID=1 -L/opt/score/mpi/mpich-1.2.0/alpha-redhat-linux/lib -compiler gnu -lmpich と表示されるので、ここに -L/usr/local/lib が含まれるようになればコンパイル できると考えております。 % mpicc -link_info で表示される link 情報に -L/usr/local/lib が含まれるように するにはどのようにしたらよろしいでしょうか? NOTE1: CCFLAGS=-L/usr/local/lib はダメでした。 NOTE2: configure --> make という作業でコンパイルをするプログラムのために mpicc を直接起動するわけではなく、ライブラリのパスを直接指定することも できませんし -L/usr/local/lib を与えることもできない状況です。 NOTE3: configure の際には mpicc は認識されています。 環境は以下の通りです。 OS: Red Hat Linux release 6.2 (Zoot) Kernel 2.2.14-6.0 on an alpha Score version 3.2 or 3.3 (? すみません、確認方法がわかりません.) 他に必要な情報などございましたら御指摘下さい。 以上、どうぞよろしくお願い致します。 -- 牛田 淳, 〒305-8501 つくば市御幸が丘34 phone: 0298-50-2643, fax: 0298-56-6139 E-mail : ushida @ cj.jp.nec.com From kameyama @ pccluster.org Wed Oct 2 21:30:46 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Wed, 02 Oct 2002 21:30:46 +0900 Subject: [SCore-users-jp] How to change the results of "mpicc -link_info". In-Reply-To: Your message of "Wed, 02 Oct 2002 20:46:07 JST." <021002204607.M0110739@ushida.frl.cl.nec.co.jp> Message-ID: <200210021230.g92CUkY09831@yl-dhcp18.is.s.u-tokyo.ac.jp> 亀山です. In article <021002204607.M0110739 @ ushida.frl.cl.nec.co.jp> Jun USHIDA wrotes: > fftw という MPI にも対応した FFT プログラムを利用した > とある並列プログラムを Score で利用したいと考えています。 > > fftw は /usr/local/lib にインストールしたのですが、 > mpicc で コンパイルをする際に リンクができません。 fftw 自身は MPICH/SCore で compile したのですよね? > NOTE1: CCFLAGS=-L/usr/local/lib はダメでした。 > NOTE2: configure --> make という作業でコンパイルをするプログラムのために > mpicc を直接起動するわけではなく、ライブラリのパスを直接指定することも > できませんし -L/usr/local/lib を与えることもできない状況です。 > NOTE3: configure の際には mpicc は認識されています。 configure などの作りに依存しますので, ソースがないと わかりませんけど... (mpicc -link_info から link 情報をとりだして, 実際は gcc で compile 及び link させるしかけでしたら, scorecc で指定している library もあるので, そもそもうまくいかないかもしれません.) 1. LDFLAGS ではだめでしょうか? 2. mpicc などが引数で指定できるのでしたら, mpicc を -L/usr/local/lib つきで 呼び出す script を書いてしまう手もあります. 3. configure をいじる, もしくは configure したあとの Makefile をいじる というのは無しでしょうか? 4. いっそのこと fftw library を /opt/score/mpi/mpich-1.2.0/alpha-redhat-linux/lib にコピー (もしくは symbolic link) してしまうのが一番確実かも知れません. from Kameyama Toyohisa From ushida @ cj.jp.nec.com Wed Oct 2 22:15:36 2002 From: ushida @ cj.jp.nec.com (Jun USHIDA) Date: Wed, 2 Oct 2002 22:15:36 +0900 Subject: [SCore-users-jp] How to change the results of "mpicc -link_info". In-Reply-To: Your message of "Wed, 02 Oct 2002 21:30:46 +0900". <200210021230.g92CUkY09831@yl-dhcp18.is.s.u-tokyo.ac.jp> Message-ID: <021002221536.M0111123@ushida.frl.cl.nec.co.jp> 牛田と申します。 <200210021230.g92CUkY09831 @ yl-dhcp18.is.s.u-tokyo.ac.jp>の記事において 2002年10月02日(水) 21時30分46秒頃、kameyama @ pccluster.org様は書かれました。 |fftw 自身は MPICH/SCore で compile したのですよね? その通りです。 |configure などの作りに依存しますので, ソースがないと |わかりませんけど... たくさんライブラリをリンクするため、 それらのライブラリをインストールする手間がかかるります。 そのためどなたかに試して頂くのは恐縮しています。 |(mpicc -link_info から link 情報をとりだして, 実際は gcc で compile 及び |link させるしかけでしたら, scorecc で指定している library もあるので, |そもそもうまくいかないかもしれません.) configure を読む限りはそういうわけではなさそうです。 本当は configure を見て頂くのが早いのかも知れませんが、約250kB あります。 |1. LDFLAGS ではだめでしょうか? 試しましたが、結果は同じでリンクできませんでした。 |2. mpicc などが引数で指定できるのでしたら, mpicc を -L/usr/local/lib つきで | 呼び出す script を書いてしまう手もあります. 後ほど考えて試してみます。 |3. configure をいじる, もしくは configure したあとの Makefile をいじる | というのは無しでしょうか? configure を読んで修正を試みたものの、Makefile が作成されるまでに まだ至っておりません。 |4. いっそのこと fftw library を | /opt/score/mpi/mpich-1.2.0/alpha-redhat-linux/lib | にコピー (もしくは symbolic link) してしまうのが一番確実かも知れません. もし 上記 2. の方法で行きづまったら、試してみようと思います。 確かに -L/opt/score/mpi/mpich-1.2.0/alpha-redhat-linux/lib が default で入っているので、きっと読みに行ってくれそうな気がします。 アドバイスをどうもありがとうございました。 -- 牛田 淳 〒305-8501 つくば市御幸が丘34 phone: 0298-50-2643, fax: 0298-56-6139 E-mail : ushida @ cj.jp.nec.com From simard_luc @ yahoo.com Thu Oct 3 04:11:29 2002 From: simard_luc @ yahoo.com (Luc Simard) Date: Wed, 2 Oct 2002 12:11:29 -0700 (PDT) Subject: [SCore-users-jp] [SCore-users] How do I become a member of pccluster.org ? Message-ID: <20021002191129.28201.qmail@web13901.mail.yahoo.com> How do I become a member of pccluster.org ? Does it cost something ? If so , how much ? What kind responsabilities does a member have ? ===== Luc Simard Allegra Solutions 514-995-1280 (cel.) lsimard @ allegrasolutions.com simard_luc @ yahoo.com ------- Luc Simard Quebec, Canada My Yahoo!!Email : simard_luc @ yahoo.com ------- __________________________________________________ Do you Yahoo!? New DSL Internet Access from SBC & Yahoo! http://sbc.yahoo.com _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From kameyama @ pccluster.org Thu Oct 3 09:57:56 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Thu, 03 Oct 2002 09:57:56 +0900 Subject: [SCore-users-jp] [SCore-users] Re: Problem with Intel Pro/1000 & Score In-Reply-To: Your message of "Wed, 02 Oct 2002 14:41:10 JST." Message-ID: <200210030057.g930vuY13536@yl-dhcp18.is.s.u-tokyo.ac.jp> In article "Jim Giuliani" wrotes: > I found the following e-mail when I was trying to debug a > problem with a cluster I am working on. The problem > appears similar to the problem in this message, that my > Intel Pro/1000 gigabit network cards are not recognized by > the SCORE kickstart disk. The EIT boot floppy is not include Intel Pro/1000 driver on SCore 5.0.1. Probaly, next version will be provide boot floppy include Pro/1000 driver. > Was there a solution to this problem? Please create boot floppy include Pro/1000 driver. Or please install SCore without EIT. > In article <200208141121.AA05608 @ flash.tokyo.pfu.co.jp> > KATAYAMA Yoshio wrotes: > > EIT で作った FD で起動しますと、次のメッセージを出して止まってし > > まいます。 > > > Using EIT5 feature > > mounting /proc filesystem ... done > > Testing ......... > > No dhcp_server specified. Use Broadcast > > SIOCSIFADDR: No such device > > Try it again > > SIOCSIFADDR: No such device > > Try it again > > SIOCSIFADDR: No such device > > Try it again > > Configure Network failes > > とりあえず, なんらかの理由で NIC > が認識されていないのは確かなようです. > このとき, > Cntl+ALT+F3 (installer の log, NIC > を認識しているかどうかが出力されます.) > Cntl+ALT+F4 (kernel の log, driver > が組み込まれたかどうかが確認できます.) > はどうなっているでしょうか? > > from Kameyama Toyohisa from Kameyama Toyohisa _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From hori @ swimmy-soft.com Thu Oct 3 14:48:23 2002 From: hori @ swimmy-soft.com (Atsushi HORI) Date: Thu, 3 Oct 2002 14:48:23 +0900 Subject: [SCore-users-jp] [SCore-users] Re: Gang scheduling implementation In-Reply-To: <3D988021.9020001@cs.uh.edu> References: <3116017727.hori0000@swimmy-soft.com> Message-ID: <3116501303.hori000b@swimmy-soft.com> Hi. >If you have an application running on multitple nodes and if it has to >share the processor on only some of the compute nodes then how does >SCore handle the scheduling and how is gang scheduling done in this >situation?? For instance we have one of the NAS benchmarks like CG >compiled for 4 nodes. We run CG on four compute nodes comp1, comp2, >comp3 and comp4. Also, we run another application like IS compiled for 2 >nodes only, on comp1 and comp2 nodes. CG has to share the processor on >comp1 and comp2 only. But on comp3 and comp4 it has the processor for >itself. How does gang scheduling work in this situation. Just comp3 and comp4 are in idle when the second CG is scheduled to run, just because this is the way of "gang" scheduling based on the assumption in which distributed processes are communicating each other frequently, and even the processes on comp3 and comp4 are scheduled but they are simply waiting for the reply messages from comp1 and comp2. >Typically, according to my understanding the SCore-D has a server >process (running on the server host) that initiates the preemption and >context switch on all the compute hosts (that is handled by score-d >processes on the compute nodes). But when there is no processor sharing >on some of the nodes (comp3 and comp4 in this case), does SCore-D force >a preemption on those nodes too? Fisrt, there is no dedicated process as a scheduling server in SCore-D. SCore-D is multi-threaded program, and some of running processes act like a server. Second, SCore-D intentionally preempts user processes because of deadlock detection. When SCore-D detects deadlock state in user processes, it kills them. ---- Atsushi HORI Swimmy Software, Inc. _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From ushida @ cj.jp.nec.com Thu Oct 3 16:23:30 2002 From: ushida @ cj.jp.nec.com (Jun USHIDA) Date: Thu, 3 Oct 2002 16:23:30 +0900 Subject: [SCore-users-jp] msgbserv : No hosts In-Reply-To: Your message of "Wed, 2 Oct 2002 22:15:36 +0900". <021002221536.M0111123@ushida.frl.cl.nec.co.jp> Message-ID: <021003162330.M0113796@ushida.frl.cl.nec.co.jp> 牛田と申します。 scoreboard, msgbserv が動いているはずの server マシンで msgbserv が動いていなかったので、起動しようとすると、 # /etc/rc.d/init.d/msgbserv start Starting Compute Host Lock services: No hosts となり msgbserv が立ち上がりません。 環境変数 SCBDSERV にはその サーバマシンのホストネームを指定してあります。 サーバマシン は稼働しておりますし、TCP/IP のネットワークにも接続去れています。 この No hosts は何を意味しているのか、ドキュメントには見当たりませんでした。 どなたか解決方法を御教示願えませんでしょうか? -- 牛田 淳 〒305-8501 つくば市御幸が丘34 phone: 0298-50-2643, fax: 0298-56-6139 E-mail : ushida @ cj.jp.nec.com From kameyama @ pccluster.org Thu Oct 3 16:40:33 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Thu, 03 Oct 2002 16:40:33 +0900 Subject: [SCore-users-jp] msgbserv : No hosts In-Reply-To: Your message of "Thu, 03 Oct 2002 16:23:30 JST." <021003162330.M0113796@ushida.frl.cl.nec.co.jp> Message-ID: <200210030740.g937eXY15431@yl-dhcp18.is.s.u-tokyo.ac.jp> 亀山です. In article <021003162330.M0113796 @ ushida.frl.cl.nec.co.jp> Jun USHIDA wrotes: > scoreboard, msgbserv が動いているはずの server マシンで > msgbserv が動いていなかったので、起動しようとすると、 > > # /etc/rc.d/init.d/msgbserv start > Starting Compute Host Lock services: No hosts > > となり msgbserv が立ち上がりません。 > > 環境変数 SCBDSERV にはその サーバマシンのホストネームを指定してあります。 > サーバマシン は稼働しておりますし、TCP/IP のネットワークにも接続去れています。 > この No hosts は何を意味しているのか、ドキュメントには見当たりませんでした。 scorehosts.db のなかでその host の msgbserv が担当する host が無いという 意味です. % scbutil msgbserv を実行して, hostname が正しいか確認してください. そのとき, その hostname は hostname に注意してください. hostname は version によって若干違います. SCore 4.0 以前の場合は hostname コマンドの出力と一致する必要が あります. SCore 4.0 移行は gethostbyname(gethostname()) のものと一致する 必要があります. SCore の version は /opt/score/etc/version で分かると思います. このファイルがない場合は, 多分 SCore 3.2 かそれより前のバージョン だと思います. from Kameyama Toyohisa From ushida @ cj.jp.nec.com Thu Oct 3 16:43:44 2002 From: ushida @ cj.jp.nec.com (Jun USHIDA) Date: Thu, 3 Oct 2002 16:43:44 +0900 Subject: [SCore-users-jp] msgbserv : No hosts In-Reply-To: Your message of "Thu, 3 Oct 2002 16:23:30 +0900". <021003162330.M0113796@ushida.frl.cl.nec.co.jp> Message-ID: <021003164344.M0113990@ushida.frl.cl.nec.co.jp> 牛田と申します。 <021003162330.M0113796 @ ushida.frl.cl.nec.co.jp>の記事において 2002年10月03日(木) 16時23分30秒頃、牛田は書きました。 |scoreboard, msgbserv が動いているはずの server マシンで |msgbserv が動いていなかったので、起動しようとすると、 | |# /etc/rc.d/init.d/msgbserv start |Starting Compute Host Lock services: No hosts | |となり msgbserv が立ち上がりません。 こちらのミスでした。申し訳ありません。 hostname でセットした ホスト名と、各種ファイルに設定した ホスト名が一致していませんでした。 それを修正したところ起動できるようになりました。 DNS や /etc/hosts に書かれているものを指定したので大丈夫と 踏んでいたのですが、それらは無視されるようです。 -- 牛田 From ushida @ cj.jp.nec.com Thu Oct 3 16:47:11 2002 From: ushida @ cj.jp.nec.com (Jun USHIDA) Date: Thu, 3 Oct 2002 16:47:11 +0900 Subject: [SCore-users-jp] msgbserv : No hosts In-Reply-To: Your message of "Thu, 03 Oct 2002 16:40:33 +0900". <200210030740.g937eXY15431@yl-dhcp18.is.s.u-tokyo.ac.jp> Message-ID: <021003164711.M0114011@ushida.frl.cl.nec.co.jp> 牛田と申します。 <200210030740.g937eXY15431 @ yl-dhcp18.is.s.u-tokyo.ac.jp>の記事において 2002年10月03日(木) 16時40分33秒頃、kameyama @ pccluster.org様は書かれました。 |scorehosts.db のなかでその host の msgbserv が担当する host が無いという |意味です. | % scbutil msgbserv |を実行して, hostname が正しいか確認してください. | |そのとき, その hostname は hostname に注意してください. |hostname は version によって若干違います. | SCore 4.0 以前の場合は hostname コマンドの出力と一致する必要が | あります. | SCore 4.0 移行は gethostbyname(gethostname()) のものと一致する | 必要があります. どうもありがとうございます。 これらをチェックしていて、hostname の出力と完全に一致していないことが わかり修正したところ、無事に動作しました。 |SCore の version は | /opt/score/etc/version |で分かると思います. |このファイルがない場合は, 多分 SCore 3.2 かそれより前のバージョン |だと思います. % cat /opt/score/etc/version 3.3.2 です。 -- 牛田 淳 From 劉学振\ Thu Oct 3 18:04:08 2002 From: 劉学振\ (LIU XUEZHEN) ) Date: Thu, 3 Oct 2002 18:04:08 +0900 Subject: [SCore-users-jp] pccluster.org mailing list memberships reminder References: <200210010810.g918AMY02479@yl-dhcp18.is.s.u-tokyo.ac.jp> Message-ID: <009b01c26abb$d53e3e50$6c03c9a0@IWS0098> 亀山様 劉@三菱プレシジョンです. 結果をご報告いたします. > あ, ちなみに myrinet と他のデバイスの IRQ が重なっているということは > ありませんよね? > SUPERMICROのマザーボードP4DC6+で, Myrinetカードの挿す場所(PCI64)を変えても直りませんでした. (PCI64のどっちに挿しても,IRQが18になります) 結局,Etherカードの挿す場所(PCI32)を変えて直りました. (PCI32の#3に挿すとPCI64に挿しているMyrinetカードと同じIRQ値になります) 現在システムが正常に動いています. ありがとうございました. システム構成をもう一回下記のように示します. M/B: SUPERMICRO P4DC6+ CPU: Intel Xeon2.0G G/B: GeForce4 MEM: 1GB HDD: 40GB LAN: On Board NIC+3C905C-TX-M(3COM社) Myrinet: M3-E32+M3-SW16-8F+M3F-PCI64B-2 以上 From kameyama @ pccluster.org Fri Oct 4 09:56:33 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Fri, 04 Oct 2002 09:56:33 +0900 Subject: [SCore-users-jp] [SCore-users] Re: Problem with Intel Pro/1000 & Score In-Reply-To: Your message of "Thu, 03 Oct 2002 12:08:45 JST." Message-ID: <200210040056.g940uXY20050@yl-dhcp18.is.s.u-tokyo.ac.jp> In article "Jim Giuliani" wrotes: > >Please create boot floppy include Pro/1000 driver. > >Or please install SCore without EIT. > > Do you have a written proceedure on how to create the new > boot floppy with the Pro/1000 driver? 1. Create boot floppy by EIT. 2. mount this floppy. # mount /dev/fd0 /mnt/floppy 3. extract initrd image and mount it. # gunzip < initrd.img > /tmp/initrd # mkdir /mnt/tmp # mount -o loop /tmp/initrd /mnt/tmp 4. extract modules cpio file # cd /tmp # mkdir work # cd work # zcat /mnt/tmp/modules/modules.cgz | cpio --extract -d 5. extract pro/1000 driver. Pro/1000 driver is included in CD-ROM. # mkdir /mnt/tmp2 # mount -o loop /mnt/cdrom/setup/RedHat/images/drvnet.img /mnt/tmp2 # mkdir /tmp/work2 # cd /tmp/work2 # zcat /mnt/tmp2/modules.cgz | cpio --extract -d 6. copy e1000 driver to modules cpio file # cp */e1000.o /tmp/work/*/ # cd /tmp/work # find * -type f | cpio --quiet -H crc -o | gzip -9 > /mnt//tmp/modules/modules.cgz 7. edit other file # cat >> module-info e1000 eth0 "Intel EtherExpress/1000 gigabit" ^D # grep e1000 /mnt/tmp2/pcitable >> pcitable 8. umount initrd and copy back to floppy # umount /mnt/tmp2 # umount /mnt/tmp # gzip -9 /tmp/initrd # cp /tmp/initrd.gz /mnt/floppy/initrd.img If your floppy is full, you must remove another driver in modules cpio file. from Kameyama Toyohisa _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From kameyama @ pccluster.org Fri Oct 4 11:26:13 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Fri, 04 Oct 2002 11:26:13 +0900 Subject: [SCore-users-jp] Re: Scoreネットワークについて In-Reply-To: Your message of "Fri, 04 Oct 2002 11:21:24 JST." <3D9CFB24.3030601@tobata.isc.kyutech.ac.jp> Message-ID: <200210040226.g942QDY20477@yl-dhcp18.is.s.u-tokyo.ac.jp> 亀山です. なるべく個人宛ではなく SCore-users-jp mailling list を 使用してください. In article <3D9CFB24.3030601 @ tobata.isc.kyutech.ac.jp> iida ryousuke wrotes: > 九州工業大学の飯田と申しますがたびたびすみません。今回は、ネットワークに > ついて質問があるのですが、Scoreを構築しているサーバーにネットワークカー > ドを2本さして別々の設定をしたいのですが、それは、可能ですか?そのとき > は、やはりLinux対応のネットワークカードを選んだ方が良いのですか。 基本的に server host は通常の linux host と同じなので, 特に問題は無いと思います. # linux で使用するのですから linux 対応が望ましいことは当然ですが... ただ EIT は compute host を install するのに eth0 を使用しようと するので, EIT の使用を前提とするのでしたら, compute host と接続する ほうを eth0 にしておくことをお勧めします. from Kameyama Toyohisa From ishikawa @ is.s.u-tokyo.ac.jp Fri Oct 4 18:08:17 2002 From: ishikawa @ is.s.u-tokyo.ac.jp (Yutaka Ishikawa) Date: Fri, 04 Oct 2002 18:08:17 +0900 (JST) Subject: [SCore-users-jp] Re: [SCore-users] How do I become a member of pccluster.org ? In-Reply-To: <20021002191129.28201.qmail@web13901.mail.yahoo.com> References: <20021002191129.28201.qmail@web13901.mail.yahoo.com> Message-ID: <20021004.180817.838024840.ishikawa@is.s.u-tokyo.ac.jp> Hi, > How do I become a member of pccluster.org ? > Does it cost something ? We do not exclude international people and companies. However, the member fee is Japanese Yen and the official language is Japanese, all internal letters are written in Japanese. We planed to establish international branches at Europe before. But not yet. > What kind responsabilities does a member have ? Promotion and maintenance of the SCore software. -- Yutaka _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From suga @ sse.co.jp Fri Oct 4 19:23:13 2002 From: suga @ sse.co.jp (Sugano, Mitsukuni) Date: Fri, 04 Oct 2002 19:23:13 +0900 Subject: [SCore-users-jp] マシン故障の際の手順 Message-ID: <3D9D6C11.E1ED6D37@sse.co.jp> 菅野と申します。 お世話になります。 SCoreで、EITを使用する際には、独自のDHCPが使用 されますが、これに関していくつか教えてください。 ・インストール後の運用の際は、DHCPは使用せず、  固定のIPアドレスで動作しますよね? ・マシンが故障した場合、例えばHDDの故障の場合、  EIT用のKickstartFDを、HDDを交換したマシンに  セットし、EITにて復旧可能ですよね? ・NICを交換した場合は、EITのDHCP関連の設定  ファイルを修正する必要があるのでしょうか?  必要な場合、修正方法を教えてください。 以上、よろしくお願いいたします。 From ishikawa @ is.s.u-tokyo.ac.jp Fri Oct 4 19:55:04 2002 From: ishikawa @ is.s.u-tokyo.ac.jp (Yutaka Ishikawa) Date: Fri, 04 Oct 2002 19:55:04 +0900 (JST) Subject: How to recover your SCore Cluster (Re: [SCore-users-jp] マシン故障の際の手順) In-Reply-To: <3D9D6C11.E1ED6D37@sse.co.jp> References: <3D9D6C11.E1ED6D37@sse.co.jp> Message-ID: <20021004.195504.943956730.ishikawa@is.s.u-tokyo.ac.jp> > ・インストール後の運用の際は、DHCPは使用せず、 >  固定のIPアドレスで動作しますよね? はい。EITを終了すると独自DHCPもしに増す。 > ・マシンが故障した場合、例えばHDDの故障の場合、 >  EIT用のKickstartFDを、HDDを交換したマシンに >  セットし、EITにて復旧可能ですよね? 可能です。 > ・NICを交換した場合は、EITのDHCP関連の設定 >  ファイルを修正する必要があるのでしょうか? >  必要な場合、修正方法を教えてください。 必要があります。 1)NICを交換してかつ再インストールする場合には、 /opt/score5.2.0/setup/RedHat/instimage/compconfの下に、 MACアドレスをファイル名にしたファイルが存在するはずです。 この中身は、Red Hatのanaconda kickstart fileです。 この名前を新しいNICのMACアドレスに変更してから、EITを動かして下さい。 2)NICだけ交換したのならば、 1)上記のファイルは、後々のために変更しておく 2)/opt/score/etc/pm-ethernet.confにあるMACアドレスを変更 このファイルのフォーマットはmanページを見て下さい。 3)/opt/score/etc/ndconf/の下に数字のファイルがあります。 数字はホスト番号に対応しています。当該ホストのファイルを 修正します。この中にもMACアドレスが入っています。 これで大丈夫のはず。 石川 From simard_luc @ yahoo.com Sat Oct 5 00:56:09 2002 From: simard_luc @ yahoo.com (Luc Simard) Date: Fri, 4 Oct 2002 08:56:09 -0700 (PDT) Subject: [SCore-users-jp] Re: [SCore-users] How do I become a member of pccluster.org ? In-Reply-To: <20021004.180817.838024840.ishikawa@is.s.u-tokyo.ac.jp> Message-ID: <20021004155609.78197.qmail@web13904.mail.yahoo.com> Promotion of SCORE is not a problem. Once our CLUSTER is 'debuged' and officially in the TOP500, is it ok if we promote SCORE as the core application for the system ? Could we use the "Powered by SCORE" logo ? The Japanese part sure is , I do not speak or write the language and I don't I will in a near by future , I figure that I don't really know anyone who speaks japanese, might be darn difficult to practice. However , I think I could help in other ways. I could participate in documenting score , make 'pdf' documents. There's the possibility of hosting web content from my companies web site. I am just enumating a couple of ideas . For SCORE's international birth, have though about Canada ?, we speak FRENCH and ENGLISH, the two offical languages of Canada. The origins of Quebec (a province on the eastern side of Canada) are coming straight from FRANCE. I would cover a lot of ground, we are also close to the United States. Martin and I are very interested in SCORE, we think it is a great idea. We think there is a lot of potential. As for the price in YENs, please let me know how much it is , we'll see from there. What do you think ? --- Yutaka Ishikawa wrote: > Hi, > > > How do I become a member of pccluster.org ? > > Does it cost something ? > > We do not exclude international people and > companies. However, the > member fee is Japanese Yen and the official language > is Japanese, all > internal letters are written in Japanese. > We planed to establish international branches at > Europe before. > But not yet. > > > What kind responsabilities does a member have ? > > Promotion and maintenance of the SCore software. > > -- Yutaka > _______________________________________________ > SCore-users mailing list > SCore-users @ pccluster.org > http://www.pccluster.org/mailman/listinfo/score-users ===== Luc Simard Allegra Solutions 514-995-1280 (cel.) lsimard @ allegrasolutions.com simard_luc @ yahoo.com ------- Luc Simard Quebec, Canada My Yahoo!!Email : simard_luc @ yahoo.com ------- __________________________________________________ Do you Yahoo!? New DSL Internet Access from SBC & Yahoo! http://sbc.yahoo.com _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From bogdan.costescu @ iwr.uni-heidelberg.de Sat Oct 5 02:57:03 2002 From: bogdan.costescu @ iwr.uni-heidelberg.de (Bogdan Costescu) Date: Fri, 4 Oct 2002 19:57:03 +0200 (CEST) Subject: [SCore-users-jp] [SCore-users] sleep or signal problems Message-ID: Hi, I'm trying to run the following simple C program on SCore 4.2.1: #include #include #include int main(int argc, char *argv[]) { int r; r = MPI_Init(&argc, &argv); printf("Sleeping...\n"); r = sleep(10); printf("Finalizing. Sleep left: %d\n", r); MPI_Finalize(); return 1; } I expect that after the processes are started on nodes, they all sleep for 10 seconds then they finish. On SCore this doesn't happen, the 'sleep' call doesn't pause execution, instead returns 10 (or whatever number of seconds I ask for). The man page for sleep(3) suggests that this situation should occur when a signal which is not ignored arrives. The same program functions as expected when using MPICH 1.2.2 over TCP. Could someone shed some light on this ? Have I missed the description of signals used by SCore MPI (as requested by the MPI Forum) ? On a larger scale, when I discovered this I was trying to make Global Arrays work on SCore. I think that this (sleep and/or signal problems) are affecting starting up of ARMCI (trying to use ARMCI over MPI, not ARMCI over TCGMSG over MPI). Has anyone got Global Arrays to work on SCore ? I've seen the messages exchanged on this list in June, but the last one http://www.pccluster.org/pipermail/score-users/2002-June/000076.html left things halfway through... -- Bogdan Costescu IWR - Interdisziplinaeres Zentrum fuer Wissenschaftliches Rechnen Universitaet Heidelberg, INF 368, D-69120 Heidelberg, GERMANY Telephone: +49 6221 54 8869, Telefax: +49 6221 54 8868 E-mail: Bogdan.Costescu @ IWR.Uni-Heidelberg.De _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From shimon6f @ ark.dj.kit.ac.jp Sat Oct 5 12:51:27 2002 From: shimon6f @ ark.dj.kit.ac.jp (Shimono Fumihiro) Date: Sat, 05 Oct 2002 12:51:27 +0900 (JST) Subject: [SCore-users-jp] about MD simulation Message-ID: <200210050351.g953pRmP019230@alia.ark.dj.kit.ac.jp> はじめまして,京都工芸繊維大学の下野と申します. この度,PCクラスタにおける並列処理に関する質問をさせていただ きたく,メールを送らせていただきます.何卒よろしくお願い申し 上げます. 現在,分子動力学シミュレーションをPCクラスタで並列処理させる 場合の,PCの台数効果を妨げる要因について調べています. マシン環境が整っていない状態でありますので,インターネットに て調査を行っています. PCの台数効果を妨げる最大の要因は,PC間の通信処理ということで, 調査をPC間の通信処理に絞って行っているところです. インターネットでの調査によりますと,分子動力学シミュレーショ ンを並列処理せずに,単体のPCで実行させる場合,解析処理により生 成した出力ファイルを次回の解析処理の入力ファイルにするとのこ とでした. そこで質問なのですが,分子動力学シミュレーションをPCクラスタで 並列実行させる場合,PC間の通信処理はどのように行われているのでし ょうか? # 単体のPCでの処理模様を参考にすると,各PCは解析結果をファイル # に出力するようにして,その出力ファイルを他のPCに送信する,と # 考えたりもしているのですが. また,分子動力学シミュレーションの並列化についてですが,解析空 間を分割して各PCに割り当てて並列実行するという,空間分割法が最も 効率がよいという情報を見つけました. 世界的に有名な分子動力学シミュレーションである AMBER では,どの ような方法がなされているのでしょうか? 何卒よろしくお願い申し上げます. --------------------------------- 京都工芸繊維大学大学院 下野文宏 E-mail: shimon6f @ ark.dj.kit.ac.jp --------------------------------- From daniel.charpin @ nec.fr Mon Oct 7 19:17:16 2002 From: daniel.charpin @ nec.fr (Daniel Charpin) Date: Mon, 07 Oct 2002 12:17:16 +0200 Subject: [SCore-users-jp] [SCore-users] Score/Omni usage Message-ID: <200210071017.g97AHGH03280@charpinpc.ess.nec.fr> Dear list members, I am trying to run an OpenMP code on a cluster under Score.5.0.1. I compile the code via /opt/omni/bin/omf77 -o code.exe code.f The environment variable OMPC_NUM_PROCS has the value of 2. When I start the executable two threads are working but only on the master node, not on the cluster nodes. Please, could you tell me what is wrong in my procedure ? Thanks for your help. Regards. Daniel Charpin NEC / European Supercomputer Systems "Le Saturne" - 3, Parc Ariane - 78284 GUYANCOURT Cedex +33 (0)1 39 30 66 05 | +33 (0)6 03 20 07 21 Courriel: Daniel.Charpin @ nec.fr < http://www.ess.nec.de > _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From kameyama @ pccluster.org Mon Oct 7 19:32:21 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Mon, 07 Oct 2002 19:32:21 +0900 Subject: [SCore-users-jp] Re: [SCore-users] Score/Omni usage In-Reply-To: Your message of "Mon, 07 Oct 2002 12:17:16 JST." <200210071017.g97AHGH03280@charpinpc.ess.nec.fr> Message-ID: <200210071032.g97AWLY19119@yl-dhcp18.is.s.u-tokyo.ac.jp> In article <200210071017.g97AHGH03280 @ charpinpc.ess.nec.fr> Daniel Charpin wrotes: > I am trying to run an OpenMP code on a cluster under Score.5.0.1. I compile > the code via /opt/omni/bin/omf77 -o code.exe code.f Please use -omniconfig=scash option to compile: % /opt/omni/bin/omf77 -omniconfig=scash -o code.exe code.f And scrun to execute: % scrun -group=pcc,nodes=2 ./code.exe from Kameyama Toyohisa _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From markus @ markus-fischer.de Mon Oct 7 21:35:04 2002 From: markus @ markus-fischer.de (Markus Fischer) Date: Mon, 07 Oct 2002 14:35:04 +0200 Subject: [SCore-users-jp] Re: [SCore-users] PVM and PM References: <3D872448.5070203@first.fhg.de> Message-ID: <3DA17F78.DA2F16E@markus-fischer.de> I just noticed this request ... This behavior is actually as expected. The PVM will remain after a execution. I know that this doesn't fit the SCore environment. (control c will help ;) ) For correct SCore handling, the daemons would have to check whether there are any more processes (tasks) running in the virtual machine, otherwise they should halt. Markus Uwe Der wrote: > > Hi, > > i have some trouble to use pvm over pm with score. > i tried to run the example from the documentation (the simple > master slave application), and i got: > > ---------------------------------------------------------------- > $ scrun -nodes=2x1,group=q3 pvmd -e 1 master > SCOUT: Spawning done. > SCore-D 5.0.1 connected. > Assembling hostlist > Adding host host12 to VM! > Adding host host13 to VM! > Using Loopback Address !!! > 7f000001:875d > i'm t40001 > from t40002: hello, world from host12.first.gmd.de > ---------------------------------------------------------------- > > and the program never returns. > > what's wrong? > > thanks in advance > uwe der > > ps: > the cluster is an 16x2 dual athlon with myrinet2000 > > -- > Fraunhofer - Institute for Computer Architecture and Software Technology > Uwe Der, Fraunhofer FIRST, Kekuléstr. 7, D-12489 Berlin, Germany > FON +49 (0)30 6392 1912, FAX -1805, uwe.der @ first.fhg.de > > _______________________________________________ > SCore-users mailing list > SCore-users @ pccluster.org > http://www.pccluster.org/mailman/listinfo/score-users _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From nrcb @ streamline-computing.com Tue Oct 8 15:22:06 2002 From: nrcb @ streamline-computing.com (Nick Birkett) Date: Tue, 8 Oct 2002 07:22:06 +0100 Subject: [SCore-users-jp] [SCore-users] Intel dual Gigabit Message-ID: <200210080622.g986M6t02296@zeralda.streamline.com> Hi - this is one for the SCore developers. Some of the new SuperMicro motherboards now come with dual onboard Intel Gigabit. Infortunately the SCore module for kernel 2.4.18-2SCORE does not support the motherboard chipset (Intel 82546EB) as it is based on the Intel 4.0.x driver (the RedHat 7.3 driver does not work for the same reason). However the latest Intel 4.3.15 Linux driver downloaded from Intel's web site works fine. I was wondering if there will be a patch available to make this driver work well under pm-ethernet ? Thanks, Nick _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From s-sumi @ flab.fujitsu.co.jp Tue Oct 8 16:11:43 2002 From: s-sumi @ flab.fujitsu.co.jp (Shinji Sumimoto) Date: Tue, 08 Oct 2002 16:11:43 +0900 (JST) Subject: [SCore-users-jp] Re: [SCore-users] Intel dual Gigabit In-Reply-To: <200210080622.g986M6t02296@zeralda.streamline.com> References: <200210080622.g986M6t02296@zeralda.streamline.com> Message-ID: <20021008.161143.104040668.s-sumi@flab.fujitsu.co.jp> Hi. Nick. From: Nick Birkett Subject: [SCore-users] Intel dual Gigabit Date: Tue, 8 Oct 2002 07:22:06 +0100 Message-ID: <200210080622.g986M6t02296 @ zeralda.streamline.com> nrcb> Hi - this is one for the SCore developers. nrcb> nrcb> Some of the new SuperMicro motherboards now come with dual onboard Intel nrcb> Gigabit. nrcb> nrcb> Infortunately the SCore module for kernel 2.4.18-2SCORE does not support the nrcb> motherboard chipset (Intel 82546EB) as it is based on the Intel 4.0.x driver nrcb> (the RedHat 7.3 driver does not work for the same reason). nrcb> nrcb> However the latest Intel 4.3.15 Linux driver downloaded from Intel's web site nrcb> works fine. nrcb> nrcb> I was wondering if there will be a patch available to make this driver work nrcb> well under pm-ethernet ? No patch is required for Intel e1000 driver in order to use PM/Ethernet. However, if you have a performance problem especially RTT and bandwidth. Use RxIntDelay=0 option in /etc/modules.conf. The rpmtest -ping (or -burst) program will help you. If you have any problmes about the driver, please let us know. PS: The next SCore release will include the e1000 driver. Shinji. ------ Shinji Sumimoto, Fujitsu Labs _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From hori @ swimmy-soft.com Tue Oct 8 19:05:29 2002 From: hori @ swimmy-soft.com (Atsushi HORI) Date: Tue, 8 Oct 2002 19:05:29 +0900 Subject: [SCore-users-jp] Re: [SCore-users] sleep or signal problems Message-ID: <3116948729.hori0006@swimmy-soft.com> Hi, I am sorry for this late answer. I have been busy for preparing the next SCore release. >I'm trying to run the following simple C program on SCore 4.2.1: > >#include >#include >#include > >int main(int argc, char *argv[]) >{ >int r; > >r = MPI_Init(&argc, &argv); >printf("Sleeping...\n"); >r = sleep(10); >printf("Finalizing. Sleep left: %d\n", r); >MPI_Finalize(); >return 1; >} > >I expect that after the processes are started on nodes, they all sleep for >10 seconds then they finish. On SCore this doesn't happen, the 'sleep' >call doesn't pause execution, instead returns 10 (or whatever number of >seconds I ask for). The man page for sleep(3) suggests that this situation >should occur when a signal which is not ignored arrives. >The same program functions as expected when using MPICH 1.2.2 over TCP. Well, this can happen because user processes is kept receiving SIGSTOP and SIGCONT for gang scheduling. The easiest way is to change the function name of sleep() to sc_sleep(). r = sc_sleep(10); /* sc_sleep() is an SCore builtin function */ ---- Atsushi HORI Swimmy Software, Inc. _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From ushida @ cj.jp.nec.com Tue Oct 8 20:35:03 2002 From: ushida @ cj.jp.nec.com (Jun USHIDA) Date: Tue, 8 Oct 2002 20:35:03 +0900 Subject: [SCore-users-jp] score_runtime_resource (Re: How to change the results of "mpicc -link_info".) In-Reply-To: Your message of "Wed, 02 Oct 2002 21:30:46 +0900". <200210021230.g92CUkY09831@yl-dhcp18.is.s.u-tokyo.ac.jp> Message-ID: <021008203503.M0144996@ushida.frl.cl.nec.co.jp> 牛田と申します。 少し引用順を変えます。 <200210021230.g92CUkY09831 @ yl-dhcp18.is.s.u-tokyo.ac.jp>の記事において 2002年10月02日(水) 21時30分46秒頃、kameyama @ pccluster.org様は書かれました。 |> fftw という MPI にも対応した FFT プログラムを利用した |> とある並列プログラムを Score で利用したいと考えています。 | |1. LDFLAGS ではだめでしょうか? |2. mpicc などが引数で指定できるのでしたら, mpicc を -L/usr/local/lib つきで | 呼び出す script を書いてしまう手もあります. |3. configure をいじる, もしくは configure したあとの Makefile をいじる | というのは無しでしょうか? |4. いっそのこと fftw library を | /opt/score/mpi/mpich-1.2.0/alpha-redhat-linux/lib | にコピー (もしくは symbolic link) してしまうのが一番確実かも知れません. 1.と 4. ではだめでした。3,4 についてもうまく行かないようなので、 別の視点から再度質問させて下さい。 |configure などの作りに依存しますので, ソースがないと |わかりませんけど... とのことでしたが、 config.log の関係箇所を示します。 <----------- ここから configure:6635: checking for guile configure:6659: found /usr/local/bin/guile configure:6667: result: yes configure:6677: checking for guile-config configure:6701: found /usr/local/bin/guile-config configure:6709: result: yes configure:6970: checking if linking to guile works configure:6970: mpicc -o conftest -g -O2 -Wall -W -Wbad-function-cast -Wcast-qual -Wpointer-a rith -Wcast-align -pedantic -I/usr/local/include -I/usr/local/include -L/usr/local/lib confte st.c -L/usr/local/lib -lguile -ldl -lm -lfftw_mpi -lcxml -lfftw -lm -L/usr/local/lib -lm -lUfor -lfor -lFutil -lcpml -lots -L/usr/lib/gcc-lib/alpha-redhat-linux/egcs-2.91.66 -L/usr/ alpha-redhat-linux/lib >&5 /opt/score/lib/alpha-redhat-linux/libscoreusr.a(usrsetup.o): In function `setup': /usr/src/redhat/BUILD/score-3.3/scoredlib/usr/obj.alpha-redhat-linux/../usrsetup.c:144: undef ined reference to `score_runtime_resource' /usr/src/redhat/BUILD/score-3.3/scoredlib/usr/obj.alpha-redhat-linux/../usrsetup.c:144: undef ined reference to `score_runtime_resource' collect2: ld returned 1 exit status configure:6970: $? = 1 configure: failed program was: #line 6970 "configure" #include "confdefs.h" /* Override any gcc2 internal prototype to avoid an error. */ #ifdef __cplusplus extern "C" #endif /* We use char because int might match the return type of a gcc2 builtin and then its argument prototype would still apply. */ char gh_enter (); #ifdef F77_DUMMY_MAIN # ifdef __cplusplus extern "C" # endif int F77_DUMMY_MAIN() { return 1; } #endif int main () { gh_enter (); ; return 0; } configure:6970: result: no configure:6970: error: guile-config is broken or Guile is not working. <----------- ここまで 上記を見ると、guile という schme の実装の動作チェックをしている箇所で、 score_runtime_resource という関数がリンクできないがために configure が error で途中で停止しているようです。 Score 3.3.2 のマニュアルでは, 「ユーザプログラム、あるいはランタイムライブラリに よって実装されなければならないコールバック関数で,... 」 とありますが、もともと MPICH で動かしていたプログラムなので、 SCORE の関数を直接呼出したりはしていないはずなのです。 このエラーは、どこに問題があるのか御教示願えませんでしょうか? 環境は、 Score version: 3.3.2 % uname -a Linux server.score.nec.co.jp 2.2.14-6.0 #1 Tue Mar 28 16:56:56 EST 2000 alpha unknown です。 どうぞよろしくお願い致します。 -- 牛田 淳, 〒305-8501 つくば市御幸が丘34 phone: 0298-50-2643, fax: 0298-56-6139 E-mail : ushida @ cj.jp.nec.com From kameyama @ pccluster.org Tue Oct 8 21:11:46 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Tue, 08 Oct 2002 21:11:46 +0900 Subject: [SCore-users-jp] score_runtime_resource (Re: How to change the results of "mpicc -link_info".) In-Reply-To: Your message of "Tue, 08 Oct 2002 20:35:03 JST." <021008203503.M0144996@ushida.frl.cl.nec.co.jp> Message-ID: <200210081211.g98CBkY26004@yl-dhcp18.is.s.u-tokyo.ac.jp> 亀山です. In article <021008203503.M0144996 @ ushida.frl.cl.nec.co.jp> Jun USHIDA wrotes: > <----------- ここから > configure:6635: checking for guile > configure:6659: found /usr/local/bin/guile > configure:6667: result: yes > configure:6677: checking for guile-config > configure:6701: found /usr/local/bin/guile-config > configure:6709: result: yes > configure:6970: checking if linking to guile works > configure:6970: mpicc -o conftest -g -O2 -Wall -W -Wbad-function-cast -Wcast- > qual -Wpointer-a > rith -Wcast-align -pedantic -I/usr/local/include -I/usr/local/include -L/usr/ > local/lib confte > st.c -L/usr/local/lib -lguile -ldl -lm -lfftw_mpi -lcxml -lfftw -lm -L/u > sr/local/lib -lm > -lUfor -lfor -lFutil -lcpml -lots -L/usr/lib/gcc-lib/alpha-redhat-linux/egcs > -2.91.66 -L/usr/ > alpha-redhat-linux/lib >&5 > /opt/score/lib/alpha-redhat-linux/libscoreusr.a(usrsetup.o): In function `set > up': > /usr/src/redhat/BUILD/score-3.3/scoredlib/usr/obj.alpha-redhat-linux/../usrse > tup.c:144: undef > ined reference to `score_runtime_resource' > /usr/src/redhat/BUILD/score-3.3/scoredlib/usr/obj.alpha-redhat-linux/../usrse > tup.c:144: undef > ined reference to `score_runtime_resource' > collect2: ld returned 1 exit status (中略) > > 上記を見ると、guile という schme の実装の動作チェックをしている箇所で、 > score_runtime_resource という関数がリンクできないがために configure が > error で途中で停止しているようです。 > > Score 3.3.2 のマニュアルでは, > 「ユーザプログラム、あるいはランタイムライブラリに > よって実装されなければならないコールバック関数で,... 」 > とありますが、もともと MPICH で動かしていたプログラムなので、 > SCORE の関数を直接呼出したりはしていないはずなのです。 MPI の場合, この関数は mpi library (libmpich.a) の中にあります. /usr/local/lib に別の mpi library があったらそちらの library が link されてしまっているのかも知れません. あと, SCore のコンパイルは checkpoint などの関係で static link するのですが, guile が static link を許さない場合はそこで引っかかる かも知れません. そのときは, -nostatic オプションをつけてみてください. from Kameyama Toyohisa From ushida @ cj.jp.nec.com Tue Oct 8 21:58:04 2002 From: ushida @ cj.jp.nec.com (Jun USHIDA) Date: Tue, 8 Oct 2002 21:58:04 +0900 Subject: [SCore-users-jp] score_runtime_resource (Re: How to change the results of "mpicc -link_info".) In-Reply-To: Your message of "Tue, 08 Oct 2002 21:11:46 +0900". <200210081211.g98CBkY26004@yl-dhcp18.is.s.u-tokyo.ac.jp> Message-ID: <021008215804.M0145310@ushida.frl.cl.nec.co.jp> 牛田と申します。 いつも敏速な応答に感謝しております。 <200210081211.g98CBkY26004 @ yl-dhcp18.is.s.u-tokyo.ac.jp>の記事において 2002年10月08日(火) 21時11分46秒頃、kameyama @ pccluster.org様は書かれました。 |> tup.c:144: undefined reference to `score_runtime_resource' |> collect2: ld returned 1 exit status 中略 |MPI の場合, この関数は mpi library (libmpich.a) の中にあります. |/usr/local/lib に別の mpi library があったらそちらの library が |link されてしまっているのかも知れません. /usr/local/lib には MPICH も含めた MPI を実装したライブラリはありません。 また、/opt/score/mpi/mpich-1.2.0/alpha-redhat-linux/lib/libmpich.a は存在します. このlibmpich.a に score_runtime_resource がないということなので しょうか? |あと, SCore のコンパイルは checkpoint などの関係で static link |するのですが, guile が static link を許さない場合はそこで引っかかる |かも知れません. |そのときは, | -nostatic |オプションをつけてみてください. すみません。何に対するオプションとして -nostatic を指定する のかわからないので教えて下さい。 度々申し訳ありませんが、どうぞよろしくお願い致します。 環境: Score 3.3.2 Red Hat Linux release 6.2 (Zoot) Kernel 2.2.14-6.0 on an alpha -- 牛田 淳 〒305-8501 つくば市御幸が丘34 phone: 0298-50-2643, fax: 0298-56-6139 E-mail : ushida @ cj.jp.nec.com From ishikawa @ is.s.u-tokyo.ac.jp Tue Oct 8 22:13:10 2002 From: ishikawa @ is.s.u-tokyo.ac.jp (Yutaka Ishikawa) Date: Tue, 08 Oct 2002 22:13:10 +0900 (JST) Subject: [SCore-users-jp] 1st SCore Seminar - announcement Message-ID: <20021008.221310.1025207215.ishikawa@is.s.u-tokyo.ac.jp> SCoreユーザの皆様、 ☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆          第一回 SCoreセミナー のご案内    −SCore入門から最新事例まで一気にご紹介−    豪華パネリストによる今後のPCクラスタの展望も!          主催 PCクラスタコンソーシアム ☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆ 貴社、ますますご清栄のこととお喜び申し上げます。 さて、今般『第1回SCoreセミナー』と題し、下記のとおりPC上のクラスタ ソフトウェアであるSCoreに関するセミナを企画しましたので、お知らせ致します。 SCoreを使ったことのない方にはSCore入門や事例の紹介、また既にご利用の 方にはSCoreの最新バージョン5.2の新機能や今後の展望など、PCクラスタに ご興味がある方には大変充実した内容になっております。 ご多用中とは存じますが、何卒多数の皆様にご参加いただけますよう、よろしく お願い申し上げます。                    PCクラスタコンソーシアム 会長 石川 裕                 −記− ■日時:10月30日(水)13:30〜17:30   (受付開始13:00〜 23Fにて) ■場所: 天王洲アイルセントラルタワー 23F   地図は http://www.compaq.co.jp/info/tokyo.html を参照ください。 ■定員:100名 参加無料 ■プログラム    *併設してSCore V5.2で新たにサポートしたItanium2対応の 体験コーナーがあります! *13:30〜13:50 "ご挨拶、PCクラスタコンソーシアムのご紹介" 講師: 石川 裕 氏 (PCクラスタコンソーシアム会長、 東京大学大学院情報理工学系研究科コンピュータ科学専攻 助教授) *14:00〜14:40 "SCore入門" 講師: 原田 浩 氏(Compaq/HP) *14:50〜15:30 (セッション1, 2は同時進行になります) セッション1: "SCoreパフォーマンスチューニング" 講師: 住元 真司 氏(富士通研) セッション2: "分散メモリ型並列構造解析システム ADVENTURECluster事例紹介" 講師: 秋葉 博 氏(アライドエンジニアリング 社長 工学博士) *15:40〜16:20 (セッション3, 4は同時進行になります) セッション3: "SCore-DグローバルOSの機能" 講師:堀 敦史 氏(スイミーソフトウェア(株)) セッション4: "クラスタ利用事例" 講師:依頼中 *16:30〜17:30  パネルディスカッション「導入/利用事例、SCoreに望むもの」 司会:鳥井 氏(NEC) パネリスト: 独立行政法人 産業技術総合研究所 生命情報科学研究センター センター長 秋山 泰 氏 東京工業大学 学術国際情報センター(情報理工学研究科 数理・計算科学専攻担当) 教授 松岡 聡 氏 理化学研究所 情報基盤研究部 情報環境室 技師 重谷 隆之 氏 三菱電機株式会社 先端技術綜合研究所 グループマネージャー 田岡 久雄 氏                ***********************<申込要綱>********** 以下のURLから申し込み願います。 http://www.pccluster.org/index.html.ja ◆締め切り : 平成14年10月25日(金)午後6:00 (午後6:00以降、施設点検のため、WEBサーバを停止しますので、 WEBにもアクセスできなくなります)   なお、申し込み多数の場合は先着順になります。 ◆問い合わせ先   〒102-8646 東京都千代田区平河町2-7-4   砂防会館別館 株式会社アイシーエス企画内   PCクラスタコンソーシアム事務局   電話:03-3263-6474 FAX: 03-3263-7537 ******************************************** From kameyama @ pccluster.org Tue Oct 8 22:17:35 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Tue, 08 Oct 2002 22:17:35 +0900 Subject: [SCore-users-jp] score_runtime_resource (Re: How to change the results of "mpicc -link_info".) In-Reply-To: Your message of "Tue, 08 Oct 2002 21:58:04 JST." <021008215804.M0145310@ushida.frl.cl.nec.co.jp> Message-ID: <200210081317.g98DHZY26289@yl-dhcp18.is.s.u-tokyo.ac.jp> 亀山です. In article <021008215804.M0145310 @ ushida.frl.cl.nec.co.jp> Jun USHIDA wrotes: > > |MPI の場合, この関数は mpi library (libmpich.a) の中にあります. > |/usr/local/lib に別の mpi library があったらそちらの library が > |link されてしまっているのかも知れません. > > /usr/local/lib には MPICH も含めた MPI を実装したライブラリはありません。 そうですか... わかりました. MPI library には入っているけど, mpi に関する関数が使用されていないので, libmpi.a に入っている object が link されないためだと思います. (それでなぜ setup.o のほうを link するのかが不明ですが...) とりあえず, 無理矢理 MPI の関数を呼んでやれば link できると思いますが... > |あと, SCore のコンパイルは checkpoint などの関係で static link > |するのですが, guile が static link を許さない場合はそこで引っかかる > |かも知れません. > |そのときは, > | -nostatic > |オプションをつけてみてください. > > すみません。何に対するオプションとして -nostatic を指定する > のかわからないので教えて下さい。 link 時に mpicc に -nostatic を渡すように configure を設定してください. from Kameyama Toyohisa From okamoto @ gsport.co.jp Wed Oct 9 01:13:00 2002 From: okamoto @ gsport.co.jp (Okamoto Masafumi) Date: Wed, 9 Oct 2002 01:13:00 +0900 Subject: [SCore-users-jp] システムテストPM/Ethernet における躓き References: <002f01c2540a$e4753d50$6e0010ac@tommy><20020904.210929.102781867.s-sumi@flab.fujitsu.co.jp><004701c25413$aaad2160$6e0010ac@tommy> <20020904.232043.730555262.s-sumi@bd6.so-net.ne.jp> Message-ID: <004f01c26ee5$b4738170$0401a8c0@tommy> ジースポートの岡本です。 長期間、報告をせずに申し訳ございませんでした。 usbとethernetのirqが競合しているために 問題が生じているのではないかということで対処していました。 しかし、「デバイスドライバがインストールされない」の件と同様に irqが競合しているのはserverだけなのでirqについては問題なさそうです。 その後、いろいろと試しているのですが、状況は改善しません。 ただ、試しているうちに以下のような症状がみられることがわかりました。 ./scstest -network ethernet -count n -burst  で nが偶数のときは極端に通信が遅くなる(n=100程度以上で行うとTimeOutしてしま う) nが奇数のときにはn=199程度までは通信ができる、それ以上だとTimeOutしてしま う。 (例えば、n=2のときのほうがn=99のときよりも実行に時間がかかるのです) また、一度nが偶数で実行 or 大きい値のnで実行 して通信が遅くなったり、 TimeOutすると マシンをリブートしないかぎり通信は遅いままです。 (通信が遅いとは、例えば、scout hostname のようなコマンドにも5分程度の時間が かかるような状態です) なにか改善案をいただけると幸いです。 From bogdan.costescu @ iwr.uni-heidelberg.de Wed Oct 9 05:47:27 2002 From: bogdan.costescu @ iwr.uni-heidelberg.de (Bogdan Costescu) Date: Tue, 8 Oct 2002 22:47:27 +0200 (CEST) Subject: [SCore-users-jp] Re: [SCore-users] sleep or signal problems In-Reply-To: <3116948729.hori0006@swimmy-soft.com> Message-ID: On Tue, 8 Oct 2002, Atsushi HORI wrote: > Hi, I am sorry for this late answer. I have been busy for preparing > the next SCore release. Well, I'm waiting equally impatient for both this answer and the next SCore release, so it's up to you how to divide your time between them :-) But thank you for doing both ! > Well, this can happen because user processes is kept receiving > SIGSTOP and SIGCONT for gang scheduling. I missed this in the documentation, but now it's clear. However, this is not the real problem... read on. > The easiest way is to change the function name of sleep() to sc_sleep(). Yes, however this is not my program, so I don't know if the original programmer also intended or not to be interrupted by some signals. Using sc_sleep() ignores the signals, so it's not a general replacement. However, this temporary change allowed me to go further in finding the real problem. I "lost" about half a day to realize the same thing that was mentioned in Kameyama's last message on GlobalArray topic, but maybe not clear enough: the application installs a signal handler for SIGCLHD in which a wait(2) call tries to get more data about the dead child then prints it and exits. However, the return value of the wait(2) call is NOT checked. By checking it, I found that is -1, which indicates an error, the error being (surprise! surprise!) ECHILD which indicates (if I interpret the description correctly) that there was actually NO child that sent that signal. This is actually what I expected, as there was no child process created at that point! So, I tried and succeeded in reproducing the problem with a simple non-MPI program: #include #include #include #include void sig_chld() { pid_t r; int status; signal(SIGCHLD, sig_chld); r = wait(&status); printf("%d : ", r); if (r == -1) { switch (errno) { case ECHILD: printf("ECHILD : "); break; case EINVAL: printf("EINVAL : "); break; case EINTR: printf("EINTR/ERESTARTSYS : "); break; default: printf("Other code : "); break; } } printf("Status = %d\n", status); } int main(int argc, char *argv[]) { signal(SIGCHLD, sig_chld); printf("Signal handler installed...\n"); pause(); printf("Finalizing\n"); return 1; } [ I know this is not 100% correct, there may be races between the signal(2) call and delivery of signal, plus the return value of signal(2) is not checked, but it's only here to illustrate the point] This program prints the "Signal handler installed..." message then pauses. There is no child created by this program, so there could be no SIGCHLD signal received. However, using kill(1) to send a SIGCHLD signal will result in exactly the same behaviour that I've observed: wait(2) returns -1 with errno=ECHILD and the "status" value is just bogus (in my attempts with the MPI program I obtained various values: 0, -1, two-digit positive numbers, 9 digit positive and negative numbers; I failed to interpret them based on the macros described in the wait(2) man page). Things became even stranger after I put in the signal handler of the MPI application code to print the time when the signal occurs. At the beginning, the test program had only code to initialize everything, sleep/pause then finalize and exit so I observed some erratic timings; but at some point I added some code which does no function call, basically a tight loop that does nothing - and I observed that the signal handler got executed every 1/2 seconds... So the big question is: what is generating this spurious SIGCHLD signals ? There is certainly no dead child every half a second as there is no child created... and the man page of sc_signal_bcast() mentions that SCore-D uses only SIGSTOP, SIGCONT and SIGKILL. [ Sorry about the long message. I wanted to show you my line of thinking so that you might try to find flows in it... :-) ] -- Bogdan Costescu IWR - Interdisziplinaeres Zentrum fuer Wissenschaftliches Rechnen Universitaet Heidelberg, INF 368, D-69120 Heidelberg, GERMANY Telephone: +49 6221 54 8869, Telefax: +49 6221 54 8868 E-mail: Bogdan.Costescu @ IWR.Uni-Heidelberg.De _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From hori @ swimmy-soft.com Wed Oct 9 10:20:48 2002 From: hori @ swimmy-soft.com (Atsushi HORI) Date: Wed, 9 Oct 2002 10:20:48 +0900 Subject: [SCore-users-jp] Re: [SCore-users] sleep or signal problems References: <3116948729.hori0006@swimmy-soft.com> Message-ID: <3117003648.hori0000@swimmy-soft.com> Hi. >it, I found that is -1, which indicates an error, the error being >(surprise! surprise!) ECHILD which indicates (if I interpret the >description correctly) that there was actually NO child that sent that >signal. This is actually what I expected, as there was no child process >created at that point! So, I tried and succeeded in reproducing the >problem with a simple non-MPI program: Aha, now I understand your problem (a little bit). SCore runtime library forks (actually clone) another process which is to have the same memory space. We call this process "shadow process." We need this shadow process to avoid a race condition where Myrinet DMA might destroy the memory region that belonged to user process which has just terminated. So, the wait() function in your code returns when the closed shadow process stops because of SIGSTOP. At this point, you may ask why it retunrs the PID of the shadow process. I tried but it does not return the PID of the shadow process, and I do not why. You may ignore the cloned process status by using the waitpid(2) system call with a option described in the man pages. I also tried this, but it does not work as the man page said. ---- Atsushi HORI Swimmy Software, Inc. _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From kate @ pfu.fujitsu.com Wed Oct 9 13:49:43 2002 From: kate @ pfu.fujitsu.com (KATAYAMA Yoshio) Date: Wed, 09 Oct 2002 13:49:43 +0900 Subject: [SCore-users-jp] システムテストPM/Ethernet における躓き In-Reply-To: Your message of Wed, 09 Oct 2002 01:13:00 +0900. <004f01c26ee5$b4738170$0401a8c0@tommy> Message-ID: <200210090449.AA07875@flash.tokyo.pfu.co.jp> PFUの片山です。 Date: Wed, 09 Oct 2002 01:13:00 +0900 From: Okamoto Masafumi >ただ、試しているうちに以下のような症状がみられることがわかりました。 >./scstest -network ethernet -count n -burst  で >nが偶数のときは極端に通信が遅くなる(n=100程度以上で行うとTimeOutしてしまう) >nが奇数のときにはn=199程度までは通信ができる、それ以上だとTimeOutしてしま>う。 >(例えば、n=2のときのほうがn=99のときよりも実行に時間がかかるのです) こちらのクラスタでも同様の現象が起きています。構成は次の通りです。 サーバホスト Mother Board: AOpen AX4G Pro (845G) CPU: Celeron 1.7 GHz Memory: 256 MB (DDR PC2100) HDD: 80 GB NIC: On Board (RealTek 8100BL) 外部 LAN 接続用 Corega FEther PCI-TXS (RealTek 8139C) 計算ホストとの通信用 計算ホスト(4台) Mother Board: AOpen AX4G Pro (845G) CPU: Pentium4 2.0A GHz Memory: 1 GB (DDR PC2100) HDD: 40 GB NIC: Corega FEther PCI-TXS (RealTek 8139C) Intel PRO/1000 T #当初は、計算ホストの NIC は On Board + Intel PRO/1000 T でした #が、On Board NIC が WOL 対応していないので PCI-TXS にしました network に gigethernet を指定すれば問題ないのですが、ethernet を 指定すると発生します。 >また、一度nが偶数で実行 or 大きい値のnで実行 して通信が遅くなったり、 >TimeOutすると マシンをリブートしないかぎり通信は遅いままです。 >(通信が遅いとは、例えば、scout hostname のようなコマンドにも5分程度の時間が >かかるような状態です) こちらのクラスタでは、この状態になった時は計算ホストの NIC を立 上げ直す(ifdown + ifup)と、通信が正常に戻ります。ただし、1回で は直らず、何回か繰り返す必要がある時もあります。 常に計算ホストで NIC の立上げ直しが必要なわけでなく、大抵は一部 の計算ホストで立上げ直せば済みます。立上げ直しの要/不要は YP を 引けるか(ypcat passwd)で判定しています。 解決策でなくて済みません。 -- (株)PFU OSSC)Linuxシステム部 片山 善夫 Tel 044-520-6617 Fax 044-556-1022 From atsumi-m @ jeans.ocn.ne.jp Wed Oct 9 14:51:04 2002 From: atsumi-m @ jeans.ocn.ne.jp (宮沢 厚美) Date: Wed, 9 Oct 2002 14:51:04 +0900 Subject: [SCore-users-jp] SCoreに関する質問です Message-ID: <002701c26f57$e70d6d90$c7add63d@minnie> 現在、私はパソコンの並列処理を行おうとSCoreをインストールして 利用しています。 SCoreの方はインストールも終わり、MPIのプログラムを実行 させているのですが、SCoreインストール用のCD-ROMに入っている サンプルプログラムを実行しようとすると以下のようなエラーが出てしまい、 どうしても実行させることができません。 今は最低限のパソコン2台(comp1,comp2)で実験中です。 参考図書 『Linuxで並列処理をしよう ーSCoreで作るスーパーコンピューター』 共立出版発行 実行サンプルプログラム(マンデルブロ集合プログラム) scrun -nodes=2 /opt/score/demo/bin/pmandel エラー内容 Could not open display Failed to connect to comp1.pccluster.org:0 from comp1.pccluster.org Failed to connect to comp1.pccluster.org:0 from comp2.pccluster.org One or more processes could not connect to the display. Exiting 以上です。 すべてネットワークにもつながっていますし、モニターにもつながっています。 他のMPIプログラムをエラーなく実行させることができています。 初歩的な質問で申し訳ありませんが、どう対処すればよいか ありましたらよろしくお願いいたします。 ------------------------------------------------------------- 専修大学経営学部情報管理学科4年 宮沢 厚美 E-mail : atsumi-m @ jeans.ocn.ne.jp ------------------------------------------------------------- From ishikawa @ is.s.u-tokyo.ac.jp Wed Oct 9 15:39:58 2002 From: ishikawa @ is.s.u-tokyo.ac.jp (Yutaka Ishikawa) Date: Wed, 09 Oct 2002 15:39:58 +0900 (JST) Subject: [SCore-users-jp] SCoreに関する質問です In-Reply-To: <002701c26f57$e70d6d90$c7add63d@minnie> References: <002701c26f57$e70d6d90$c7add63d@minnie> Message-ID: <20021009.153958.719892198.ishikawa@is.s.u-tokyo.ac.jp> comp1.pccluster.org上で、X windowを立ち上げていますでしょうか? 立ち上がっているとすれば、 % xhost + とすれば、とりあえず、マンデルは動くかと思います。 石川 From: "宮沢 厚美" Subject: [SCore-users-jp] SCoreに関する質問です Date: Wed, 9 Oct 2002 14:51:04 +0900 > 現在、私はパソコンの並列処理を行おうとSCoreをインストールして > 利用しています。 > SCoreの方はインストールも終わり、MPIのプログラムを実行 > させているのですが、SCoreインストール用のCD-ROMに入っている > サンプルプログラムを実行しようとすると以下のようなエラーが出てしまい、 > どうしても実行させることができません。 > 今は最低限のパソコン2台(comp1,comp2)で実験中です。 > > 参考図書 > 『Linuxで並列処理をしよう ーSCoreで作るスーパーコンピューター』 > 共立出版発行 > > 実行サンプルプログラム(マンデルブロ集合プログラム) > scrun -nodes=2 /opt/score/demo/bin/pmandel > > エラー内容 > Could not open display > Failed to connect to comp1.pccluster.org:0 from comp1.pccluster.org > Failed to connect to comp1.pccluster.org:0 from comp2.pccluster.org > One or more processes could not connect to the display. > Exiting > > 以上です。 > すべてネットワークにもつながっていますし、モニターにもつながっています。 > 他のMPIプログラムをエラーなく実行させることができています。 > > 初歩的な質問で申し訳ありませんが、どう対処すればよいか > ありましたらよろしくお願いいたします。 > > ------------------------------------------------------------- > 専修大学経営学部情報管理学科4年 > 宮沢 厚美 > E-mail : atsumi-m @ jeans.ocn.ne.jp > ------------------------------------------------------------- > > > _______________________________________________ > SCore-users-jp mailing list > SCore-users-jp @ pccluster.org > http://www.pccluster.org/mailman/listinfo/score-users-jp > From e973220 @ eve.u-ryukyu.ac.jp Wed Oct 9 15:46:13 2002 From: e973220 @ eve.u-ryukyu.ac.jp (金城 尚志(わじら)) Date: Wed, 09 Oct 2002 15:46:13 +0900 Subject: [SCore-users-jp] SCoreに関する質問です References: <002701c26f57$e70d6d90$c7add63d@minnie> Message-ID: <3DA3D0B5.2090909@eve.u-ryukyu.ac.jp> こんにちわ。 琉球大学の金城といいます。 宮沢さんの問題は、おそらく僕の以前の問題と おなじ問題かも知れないので、そのときの解決法を 下に示します。 $ xhost + $ export DISPLAY=*******:0.0 # ****** は、サーバホスト名 を打ち込むと、うまく動作すると思われます。 あと、詳しくは http://www.pccluster.org/pipermail/score-users-jp/2002-September/000558.html も、参照してください。  ━┛━┛━┛━┛━┛━┛━┛━┛━┛  琉球大学 理学部 物質地球学科4年  金城尚志(キンジョウヒサシ) ━┛━┛━┛━┛━┛━┛━┛━┛━┛ 宮沢 厚美 wrote: >現在、私はパソコンの並列処理を行おうとSCoreをインストールして >利用しています。 >SCoreの方はインストールも終わり、MPIのプログラムを実行 >させているのですが、SCoreインストール用のCD-ROMに入っている >サンプルプログラムを実行しようとすると以下のようなエラーが出てしまい、 >どうしても実行させることができません。 >今は最低限のパソコン2台(comp1,comp2)で実験中です。 > >参考図書 >『Linuxで並列処理をしよう ーSCoreで作るスーパーコンピューター』 >共立出版発行 > >実行サンプルプログラム(マンデルブロ集合プログラム) >scrun -nodes=2 /opt/score/demo/bin/pmandel > >エラー内容 >Could not open display >Failed to connect to comp1.pccluster.org:0 from comp1.pccluster.org >Failed to connect to comp1.pccluster.org:0 from comp2.pccluster.org >One or more processes could not connect to the display. >Exiting > >以上です。 >すべてネットワークにもつながっていますし、モニターにもつながっています。 >他のMPIプログラムをエラーなく実行させることができています。 > >初歩的な質問で申し訳ありませんが、どう対処すればよいか >ありましたらよろしくお願いいたします。 > >------------------------------------------------------------- >専修大学経営学部情報管理学科4年 >宮沢 厚美 >E-mail : atsumi-m @ jeans.ocn.ne.jp >------------------------------------------------------------- > > >_______________________________________________ >SCore-users-jp mailing list >SCore-users-jp @ pccluster.org >http://www.pccluster.org/mailman/listinfo/score-users-jp > > > > From wzhou @ nakk.co.jp Wed Oct 9 15:56:10 2002 From: wzhou @ nakk.co.jp (=?iso-2022-jp?b?d3pob3UgGyRCIXcbKEIgbmFray5jby5qcA==?=) Date: Wed, 9 Oct 2002 15:56:10 +0900 Subject: [SCore-users-jp] [SCore-users] newbie questions on PM/Ethernet test Message-ID: <1D572112BE5FD51194D600D0B73C780405D31263@tk-exchange1.ap.nai.com> Hi, list users, I just installed a three compute node cluster, and the installation itself was quite smooth (thanks to the easy-to-use installer). I have passed the scout tests but I failed to find etherpmctl and pm_ethernet is not at the place it's supposed to be (/etc/rc.d/init.d). Where can I find them? Regards, Z _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From s-sumi @ flab.fujitsu.co.jp Wed Oct 9 17:28:35 2002 From: s-sumi @ flab.fujitsu.co.jp (Shinji Sumimoto) Date: Wed, 09 Oct 2002 17:28:35 +0900 (JST) Subject: [SCore-users-jp] システムテストPM/Ethernet における躓き In-Reply-To: <200210090449.AA07875@flash.tokyo.pfu.co.jp> References: <004f01c26ee5$b4738170$0401a8c0@tommy> <200210090449.AA07875@flash.tokyo.pfu.co.jp> Message-ID: <20021009.172835.71108340.s-sumi@flab.fujitsu.co.jp> 富士通研の住元です。 From: KATAYAMA Yoshio Subject: Re: [SCore-users-jp] システムテストPM/Ethernet における躓き Date: Wed, 09 Oct 2002 13:49:43 +0900 Message-ID: <200210090449.AA07875 @ flash.tokyo.pfu.co.jp> kate> PFUの片山です。 kate> kate> Date: Wed, 09 Oct 2002 01:13:00 +0900 kate> From: Okamoto Masafumi kate> kate> >ただ、試しているうちに以下のような症状がみられることがわかりました。 kate> kate> >./scstest -network ethernet -count n -burst  で kate> kate> >nが偶数のときは極端に通信が遅くなる(n=100程度以上で行うとTimeOutしてしまう) kate> >nが奇数のときにはn=199程度までは通信ができる、それ以上だとTimeOutしてしま>う。 kate> >(例えば、n=2のときのほうがn=99のときよりも実行に時間がかかるのです) kate> kate> こちらのクラスタでも同様の現象が起きています。構成は次の通りです。 kate> kate> サーバホスト kate> Mother Board: AOpen AX4G Pro (845G) kate> CPU: Celeron 1.7 GHz kate> Memory: 256 MB (DDR PC2100) kate> HDD: 80 GB kate> NIC: On Board (RealTek 8100BL) 外部 LAN 接続用 kate> Corega FEther PCI-TXS (RealTek 8139C) 計算ホストとの通信用 kate> kate> 計算ホスト(4台) kate> Mother Board: AOpen AX4G Pro (845G) kate> CPU: Pentium4 2.0A GHz kate> Memory: 1 GB (DDR PC2100) kate> HDD: 40 GB kate> NIC: Corega FEther PCI-TXS (RealTek 8139C) kate> Intel PRO/1000 T kate> kate> #当初は、計算ホストの NIC は On Board + Intel PRO/1000 T でした kate> #が、On Board NIC が WOL 対応していないので PCI-TXS にしました kate> kate> network に gigethernet を指定すれば問題ないのですが、ethernet を kate> 指定すると発生します。 kate> kate> >また、一度nが偶数で実行 or 大きい値のnで実行 して通信が遅くなったり、 kate> >TimeOutすると マシンをリブートしないかぎり通信は遅いままです。 kate> >(通信が遅いとは、例えば、scout hostname のようなコマンドにも5分程度の時間が kate> >かかるような状態です) kate> kate> こちらのクラスタでは、この状態になった時は計算ホストの NIC を立 kate> 上げ直す(ifdown + ifup)と、通信が正常に戻ります。ただし、1回で kate> は直らず、何回か繰り返す必要がある時もあります。 この現象ですが、カーネルのログは何か出ていませんでしょうか? dmesg, /var/log/messages /var/log/bootlog などです。 以下のフォーマットの出力が出ているはずなのですが、、 printk (KERN_INFO"%s: Setting %s%s-duplex based on" " auto-negotiated partner ability %4.4x.\n", dev->name, mii_lpa == 0 ? "" : (mii_lpa & 0x0180) ? "100mbps " : "10mbps ", tp->mii.full_duplex ? "full" : "half", mii_lpa); auto negotiation がうまくいっていない場合があるではないかと思います。 kate> 常に計算ホストで NIC の立上げ直しが必要なわけでなく、大抵は一部 kate> の計算ホストで立上げ直せば済みます。立上げ直しの要/不要は YP を kate> 引けるか(ypcat passwd)で判定しています。 kate> kate> 解決策でなくて済みません。 kate> -- kate> (株)PFU OSSC)Linuxシステム部 kate> 片山 善夫 kate> Tel 044-520-6617 Fax 044-556-1022 kate> _______________________________________________ kate> SCore-users-jp mailing list kate> SCore-users-jp @ pccluster.org kate> http://www.pccluster.org/mailman/listinfo/score-users-jp kate> kate> ------ Shinji Sumimoto, Fujitsu Labs From e973220 @ eve.u-ryukyu.ac.jp Wed Oct 9 17:44:02 2002 From: e973220 @ eve.u-ryukyu.ac.jp (金城 尚志(琉球大学)) Date: Wed, 9 Oct 2002 17:44:02 +0900 Subject: [SCore-users-jp] RE: SCore環境変数について In-Reply-To: <002501c26f6c$bcceb650$9daad63d@minnie> Message-ID: 宮沢さん: こんにちわ。琉球大学の金城です。 $ xhost+ $ export DISPLAY=*********:0.0 #例 # $ export DISPLAY=sciB133.sci.u-ryukyu.ac.jp:0.0 は、サーバホストにのみへのコマンドでOKです。 それと、上の方法でできないのであれば、 ホスト名ではなく、IPアドレスをしていしてやるといいのでは ないでしょうか? #例 # $ export DISPLAY=133.13.129.133:0.0 あと、計算ホスト側は、PCが立ち上がっていれば、 あとは何もしなくてもOKだと思います。 (ログインさえしなくても良い)。 つぎの環境変数設定はお済でしょうか。 $ export SCBDSERV=`hostname' $ export PATH=$PATH:/opt/score/bin #例 # $ export SCBDSERV=133.13.129.133 すみません、これぐらいしか僕も わかりません。 うまくいくといいですね! ━┛━┛━┛━┛━┛━┛━┛━┛━┛   琉球大学理学部 物質地球科学科   金城 尚志 (キンジョウヒサシ) ━┛━┛━┛━┛━┛━┛━┛━┛━┛ -----Original Message----- From: 宮沢 厚美 [mailto:atsumi-m @ jeans.ocn.ne.jp] Sent: Wednesday, October 09, 2002 5:20 PM To: e973220 @ eve.u-ryukyu.ac.jp Subject: SCore環境変数について 先ほどSCoreでデモンストレーションが実行できないと言う質問を させていただきました専修大学の宮沢です。 早速のお返事ありがとうございました。 その後試してみまして、いくつかお聞きしたいことがありましたので 直接メールさせていただきました。 $ xhost + $ export DISPLAY=*******:0.0 というコマンドはすべての計算ホストで行うのでしょうか。 そして、このコマンドを実行した後は計算ホスト上でxが立ち上がっているのでしょ うか。 私も実際にやってみたのですが、どうしても今までのエラーが解消されません。 計算ホストの画面はすべてxがあがらない状態になっています。 これを解決させるために何かありましたら教えていただけますか。 よろしくお願いいたします。 専修大学経営学部情報管理科4年 宮沢 厚美 --- Incoming mail is certified Virus Free. Checked by AVG anti-virus system (http://www.grisoft.com). Version: 6.0.394 / Virus Database: 224 - Release Date: 2002/10/03 From s-sumi @ flab.fujitsu.co.jp Wed Oct 9 17:46:29 2002 From: s-sumi @ flab.fujitsu.co.jp (Shinji Sumimoto) Date: Wed, 09 Oct 2002 17:46:29 +0900 (JST) Subject: [SCore-users-jp] Re: [SCore-users] newbie questions on PM/Ethernet test In-Reply-To: <1D572112BE5FD51194D600D0B73C780405D31263@tk-exchange1.ap.nai.com> References: <1D572112BE5FD51194D600D0B73C780405D31263@tk-exchange1.ap.nai.com> Message-ID: <20021009.174629.104051127.s-sumi@flab.fujitsu.co.jp> Hi. If you installed the cluster using EIT, the etherpmctl is installed to /sbin. If you can not find the program on /sbin directory, please check-out whether the cluster nodes is installed properly. (check disk space on / /opt ) PS: These files do not exist on score server node. Shinji. From: wzhou @ nakk.co.jp Subject: [SCore-users] newbie questions on PM/Ethernet test Date: Wed, 9 Oct 2002 15:56:10 +0900 Message-ID: <1D572112BE5FD51194D600D0B73C780405D31263 @ tk-exchange1.ap.nai.com> wzhou> Hi, list users, wzhou> wzhou> I just installed a three compute node cluster, and the installation itself wzhou> was quite wzhou> smooth (thanks to the easy-to-use installer). wzhou> wzhou> I have passed the scout tests but I failed to find etherpmctl and wzhou> pm_ethernet is wzhou> not at the place it's supposed to be (/etc/rc.d/init.d). Where can I find wzhou> them? wzhou> wzhou> Regards, wzhou> wzhou> Z wzhou> _______________________________________________ wzhou> SCore-users mailing list wzhou> SCore-users @ pccluster.org wzhou> http://www.pccluster.org/mailman/listinfo/score-users wzhou> wzhou> ------ Shinji Sumimoto, Fujitsu Labs _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From bogdan.costescu @ iwr.uni-heidelberg.de Wed Oct 9 21:54:51 2002 From: bogdan.costescu @ iwr.uni-heidelberg.de (Bogdan Costescu) Date: Wed, 9 Oct 2002 14:54:51 +0200 (CEST) Subject: [SCore-users-jp] Re: [SCore-users] sleep or signal problems In-Reply-To: <3117003648.hori0000@swimmy-soft.com> Message-ID: On Wed, 9 Oct 2002, Atsushi HORI wrote: > Aha, now I understand your problem (a little bit). You gave me all the right clues. Thank you ! > SCore runtime library forks (actually clone) another process which is > to have the same memory space. We call this process "shadow process." I found it in scoredlib/usr/shadow.c. I tried to replicate it in my test program with fork(2) but it didn't work as you described, so I copied the code from shadow.c which uses clone(2) with syscalls translated to getpid(2) and kill(2) and this worked. > So, the wait() function in your code returns when the closed shadow > process stops because of SIGSTOP. Yes, I was able to replicate this in my test program. Whenever the child sends itself SIGSTOP, the parent receives SIGCHLD. If at this point, another SIGSTOP is sent to the child, the parent is not signalled again. However, if a SIGCONT is sent to the child, the child "wakes up" and sends itself again a SIGSTOP at which point the parent receives again SIGCHLD. So I assume that the SCore scheduler sends SIGCONT every half a second to all processes belonging to SCore jobs, which makes the parent receive a SIGCHLD signal every half a second. So, SIGCHLD is another signal that cannot be used with SCore. It would probably be helpful for other developers to mention this somewhere in the documentation. I'll try to modify the ARMCI library from GlobalArrays to prevent it from dying when wait(2) returns an error code; if successfull I'll post later a patch here for the benefit of all trying to get ARMCI/GA to work on SCore. -- Bogdan Costescu IWR - Interdisziplinaeres Zentrum fuer Wissenschaftliches Rechnen Universitaet Heidelberg, INF 368, D-69120 Heidelberg, GERMANY Telephone: +49 6221 54 8869, Telefax: +49 6221 54 8868 E-mail: Bogdan.Costescu @ IWR.Uni-Heidelberg.De _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From emile.carcamo @ nec.fr Wed Oct 9 22:27:48 2002 From: emile.carcamo @ nec.fr (Emile CARCAMO) Date: Wed, 09 Oct 2002 15:27:48 +0200 Subject: [SCore-users-jp] [SCore-users] how to get scoop client/server packages Message-ID: <200210091327.g99DRms11909@emilepc.ess.nec.fr> Hello, I'm trying to locate scoop RPM/sources on either the Score 5.0.1 CDROM contents , or on the pccluster WEB site http://www.pccluster.org/ but no luck so far... Could anybody give me a pointer or a WEB link ?? How about getting Java Dev. Kit or any pre-requisites ?? Thanks in advance for your help, and best regards. -- Emile_CARCAMO NEC European http://www.ess.nec.de System Engineer Supercomputer mailto:emile.carcamo @ nec.fr Systems France GSM mailto:emile.carcamo @ orange.fr (+33)1-3930-6601 FAX (+33)1-3930-6613 PHONE / Your mouse has moved. Windows NT must be restarted \ (+33)6-8063-7003 GSM \ for the change to take effect. Reboot now? [ OK ] / _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From kameyama @ pccluster.org Thu Oct 10 09:32:09 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Thu, 10 Oct 2002 09:32:09 +0900 Subject: [SCore-users-jp] Re: [SCore-users] how to get scoop client/server packages In-Reply-To: Your message of "Wed, 09 Oct 2002 15:27:48 JST." <200210091327.g99DRms11909@emilepc.ess.nec.fr> Message-ID: <200210100032.g9A0W9Y03402@yl-dhcp18.is.s.u-tokyo.ac.jp> In article <200210091327.g99DRms11909 @ emilepc.ess.nec.fr> Emile CARCAMO wrotes: > I'm trying to locate scoop RPM/sources on either the > Score 5.0.1 CDROM contents , or on the pccluster WEB > site http://www.pccluster.org/ but no luck so far... SCOOP is not include in SCore 5.0.1. SCOOP source file is: http://www.pccluster.org/score/dist/pub/score-4.2.1/source/score-4.2.1.Scoop.tar.gz If you want to compile SCoop, you must instakk JDK 1.2 or later. JDK is downloaded from following URL: http://java.sun.com/linux http://www.blackdown.org/ Note that SCOOP is unsupported from SCore 4.0. from Kameyama Toyohisa _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From kate @ pfu.fujitsu.com Thu Oct 10 12:17:46 2002 From: kate @ pfu.fujitsu.com (KATAYAMA Yoshio) Date: Thu, 10 Oct 2002 12:17:46 +0900 Subject: [SCore-users-jp] システムテストPM/Ethernet における躓き In-Reply-To: Your message of Wed, 09 Oct 2002 17:28:35 +0900. <20021009.172835.71108340.s-sumi@flab.fujitsu.co.jp> Message-ID: <200210100317.AA08585@flash.tokyo.pfu.co.jp> PFUの片山です。リプライ有難う御座います。 Date: Wed, 09 Oct 2002 17:28:35 +0900 (JST) From: Shinji Sumimoto >> >また、一度nが偶数で実行 or 大きい値のnで実行 して通信が遅くなったり、 >> >TimeOutすると マシンをリブートしないかぎり通信は遅いままです。 >> >(通信が遅いとは、例えば、scout hostname のようなコマンドにも5分程度の時間が >> >かかるような状態です) >> >> こちらのクラスタでは、この状態になった時は計算ホストの NIC を立 >> 上げ直す(ifdown + ifup)と、通信が正常に戻ります。ただし、1回で >> は直らず、何回か繰り返す必要がある時もあります。 >この現象ですが、カーネルのログは何か出ていませんでしょうか? >dmesg, /var/log/messages /var/log/bootlog などです。 >以下のフォーマットの出力が出ているはずなのですが、、 > printk (KERN_INFO"%s: Setting %s%s-duplex based on" > " auto-negotiated partner ability %4.4x.\n", > dev->name, mii_lpa == 0 ? "" : > (mii_lpa & 0x0180) ? "100mbps " : "10mbps ", > tp->mii.full_duplex ? "full" : "half", mii_lpa); >auto negotiation がうまくいっていない場合があるではないかと思います。 dmesg と /var/log/messages に、それらしいメッセージが出ています。 [root @ s2 root]# dmesg | grep auto-negotiated eth0: Setting 100mbps full-duplex based on auto-negotiated partner ability 45e1. eth1: Setting 100mbps full-duplex based on auto-negotiated partner ability 45e1. [root @ s2 root]# grep auto-negotiated /var/log/messages* | head -4 /var/log/messages:Oct 8 11:19:06 s2 kernel: eth0: Setting 100mbps full-duplex based on auto-negotiated partner ability 45e1. /var/log/messages:Oct 8 11:19:06 s2 kernel: eth1: Setting 100mbps full-duplex based on auto-negotiated partner ability 45e1. /var/log/messages.1:Sep 30 15:35:57 s2 kernel: eth0: Setting 100mbps full-duplex based on auto-negotiated partner ability 45e1. /var/log/messages.1:Sep 30 15:35:57 s2 kernel: eth1: Setting 100mbps full-duplex based on auto-negotiated partner ability 45e1. [root @ s2 root]# grep auto-negotiated /var/log/boot.log* | head -4 [root @ s2 root]# rsh comp0 !dme rsh comp0 dmesg | grep auto-negotiated eth0: Setting 100mbps full-duplex based on auto-negotiated partner ability 45e1. [root @ s2 root]# rsh comp0 "grep auto-negotiated /var/log/messages*" | head -4 /var/log/messages:Oct 7 08:00:55 comp0 kernel: eth0: Setting 100mbps full-duplex based on auto-negotiated partner ability 45e1. /var/log/messages:Oct 8 08:00:56 comp0 kernel: eth0: Setting 100mbps full-duplex based on auto-negotiated partner ability 45e1. /var/log/messages:Oct 9 08:00:56 comp0 kernel: eth0: Setting 100mbps full-duplex based on auto-negotiated partner ability 45e1. /var/log/messages:Oct 9 10:34:39 comp0 kernel: eth0: Setting 100mbps full-duplex based on auto-negotiated partner ability 45e1. [root @ s2 root]# rsh comp0 "grep auto-negotiated /var/log/boot.log*" | head -4 [root @ s2 root]# 最後の数値のフォーマットが違っているようですが、タイポでしょうか。 それとも、別のメッセージでしょうか。 -- (株)PFU OSSC)Linuxシステム部 片山 善夫 Tel 044-520-6617 Fax 044-556-1022 From kameyama @ pccluster.org Thu Oct 10 12:59:24 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Thu, 10 Oct 2002 12:59:24 +0900 Subject: [SCore-users-jp] システムテストPM/Ethernet における躓き In-Reply-To: Your message of "Thu, 10 Oct 2002 12:17:46 JST." <200210100317.AA08585@flash.tokyo.pfu.co.jp> Message-ID: <200210100359.g9A3xOY04324@yl-dhcp18.is.s.u-tokyo.ac.jp> 亀山です. In article <200210100317.AA08585 @ flash.tokyo.pfu.co.jp> KATAYAMA Yoshio wrotes: > > printk (KERN_INFO"%s: Setting %s%s-duplex based on" > > " auto-negotiated partner ability %4.4x.\n", > > dev->name, mii_lpa == 0 ? "" : > > (mii_lpa & 0x0180) ? "100mbps " : "10mbps ", > > tp->mii.full_duplex ? "full" : "half", mii_lpa); > (中略) > eth0: Setting 100mbps full-duplex based on auto-negotiated partner ability 45 > e1. (中略) > 最後の数値のフォーマットが違っているようですが、タイポでしょうか。 %4.4x で 16 進整数 4 桁出ているので違っていないと思いますが... from Kameyama Toyohisa From kate @ pfu.fujitsu.com Thu Oct 10 13:16:12 2002 From: kate @ pfu.fujitsu.com (KATAYAMA Yoshio) Date: Thu, 10 Oct 2002 13:16:12 +0900 Subject: [SCore-users-jp] システムテストPM/Ethernet における躓き In-Reply-To: Your message of Thu, 10 Oct 2002 12:59:24 +0900. <200210100359.g9A3xOY04324@yl-dhcp18.is.s.u-tokyo.ac.jp> Message-ID: <200210100416.AA08682@flash.tokyo.pfu.co.jp> 片山です。 Date: Thu, 10 Oct 2002 12:59:24 +0900 From: kameyama @ pccluster.org >> 最後の数値のフォーマットが違っているようですが、タイポでしょうか。 >%4.4x で 16 進整数 4 桁出ているので違っていないと思いますが... 済みません。x を d に見間違えていました。 -- (株)PFU OSSC)Linuxシステム部 片山 善夫 Tel 044-520-6617 Fax 044-556-1022 From jj @ guest.xenya.si Thu Oct 10 14:14:52 2002 From: jj @ guest.xenya.si (JJ) Date: Thu, 10 Oct 2002 07:14:52 +0200 (CEST) Subject: [SCore-users-jp] [SCore-users] Problem with pm tests Message-ID: <1034226892.3da50cccec6f6@webmail.xenya.si> After successful test of Score in small test cluster we installed Score on the target architecture, which is the same as in the test case. NIC is tamarack tc902x fiber gigaethernet (also proven to work). Cluster is now up and ready, sceptic returns all hosts, but we have no luck with pm tests. ping test ./rpmtest tuba1 gigaethernet -reply ./rpmtest tuba0 gigaethernet -dest 1 -ping fails with Ethernet PM context #0 information (unit 0) channel 0 descripter information rx_p=00000000, rx_c=00000000, rx_bp=00000000, rx_bc=00000000 tx_p=00000001, tx_c=00000000, tx_bp=00000080, tx_bc=00000000 channel 0 statistics information st_txmit=f5982b38, st_rexmit=548a2d51, st_xmit_ctl=e3a02c69 st_xmit_ack=548a2e78 st_xmit_lost=529f2d9a, st_xmit_stop=548a2fb2 st_xmit_err=01932ecb, st_xmit_received=917de008, st_rcv_valid=1792de09 st_rcv_ackonly=917de008, st_rcv_igonore=9192ddfe, st_rcv_lose=917de009 st_rcv_ov=8d92de00,st_rcv_ov=917de00a st_rcv_stop=fe8ade01, st_rcv_go=b17de00b pmReceive: Connection timed out(110) Here is the scorehost.db file: /* * SCore 5.0 scorehosts.db * generated by PCCC EIT 5.0 */ /* PM/Myrinet */ myrinet type=myrinet \ -firmware:file=/opt/score/share/lanai/lanai.mcp \ -config:file=/opt/score/etc/pm-myrinet.conf /* PM/Myrinet */ myrinet2k type=myrinet2k \ -firmware:file=/opt/score/share/lanai/lanaiM2k.mcp \ -config:file=/opt/score/etc/pm-myrinet.conf /* PM/Ethernet */ ethernet type=ethernet \ -config:file=/opt/score/etc/pm-ethernet.conf gigaethernet type=ethernet \ -config:file=/opt/score/etc/pm-ethernet.conf /* PM/Agent */ udp type=agent -agent=pmaudp \ -config:file=/opt/score/etc/pm-udp.conf /* RHiNET */ rhinet type=rhinet \ -firmware:file=/opt/score/share/rhinet/phu_top_0207a.hex \ -config:file=/opt/score/etc/pm-rhinet.conf ## /* PM/SHMEM */ shmem0 type=shmem -node=0 shmem1 type=shmem -node=1 /* PM/SHMEM */ shmem0 type=shmem -node=0 shmem1 type=shmem -node=1 ## #include "/opt/score//etc/ndconf/0" #include "/opt/score//etc/ndconf/1" #include "/opt/score//etc/ndconf/2" #include "/opt/score//etc/ndconf/3" #include "/opt/score//etc/ndconf/4" #include "/opt/score//etc/ndconf/5" #include "/opt/score//etc/ndconf/6" #include "/opt/score//etc/ndconf/7" #include "/opt/score//etc/ndconf/8" #include "/opt/score//etc/ndconf/9" #include "/opt/score//etc/ndconf/10" #include "/opt/score//etc/ndconf/11" #include "/opt/score//etc/ndconf/12" #include "/opt/score//etc/ndconf/13" ## #define MSGBSERV msgbserv=(tuba0.xenya.si:8764) tuba0.xenya.si HOST_0 network=gigaethernet,shmem0,shmem1 group=_scoreall_,tuba smp=2 MSGBSERV tuba1.xenya.si HOST_1 network=gigaethernet,shmem0,shmem1 group=_scoreall_,tuba smp=2 MSGBSERV tuba2.xenya.si HOST_2 network=gigaethernet,shmem0,shmem1 group=_scoreall_,tuba smp=2 MSGBSERV tuba3.xenya.si HOST_3 network=gigaethernet,shmem0,shmem1 group=_scoreall_,tuba smp=2 MSGBSERV tuba4.xenya.si HOST_4 network=gigaethernet,shmem0,shmem1 group=_scoreall_,tuba smp=2 MSGBSERV tuba5.xenya.si HOST_5 network=gigaethernet,shmem0,shmem1 group=_scoreall_,tuba smp=2 MSGBSERV tuba6.xenya.si HOST_6 network=gigaethernet,shmem0,shmem1 group=_scoreall_,tuba smp=2 MSGBSERV tuba7.xenya.si HOST_7 network=gigaethernet,shmem0,shmem1 group=_scoreall_,tuba smp=2 MSGBSERV tuba8.xenya.si HOST_8 network=gigaethernet,shmem0,shmem1 group=_scoreall_,tuba smp=2 MSGBSERV tuba9.xenya.si HOST_9 network=gigaethernet,shmem0,shmem1 group=_scoreall_,tuba smp=2 MSGBSERV tuba10.xenya.si HOST_10 network=gigaethernet,shmem0,shmem1 group=_scoreall_,tuba smp=2 MSGBSERV tuba11.xenya.si HOST_11 network=gigaethernet,shmem0,shmem1 group=_scoreall_,tuba smp=2 MSGBSERV tuba12.xenya.si HOST_12 network=gigaethernet,shmem0,shmem1 group=_scoreall_,tuba smp=2 MSGBSERV tuba13.xenya.si HOST_13 network=gigaethernet,shmem0,shmem1 group=_scoreall_,tuba smp=2 MSGBSERV We would be very grateful for any hint. We know that there was something wrong in the instalation process, but we simply do not know how to procede. Thanks, Jure _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From nodaguch @ jst.go.jp Thu Oct 10 16:40:43 2002 From: nodaguch @ jst.go.jp (Shinya Nodaguchi) Date: Thu, 10 Oct 2002 16:40:43 +0900 (JST) Subject: [SCore-users-jp] Re:SCore-users-jp -- confirmation of Message-ID: <200210100740.QAA12204@host_mr1.lan.jst.go.jp> confirm 336260 From jj @ guest.xenya.si Thu Oct 10 17:56:39 2002 From: jj @ guest.xenya.si (JJ) Date: Thu, 10 Oct 2002 10:56:39 +0200 (CEST) Subject: [SCore-users-jp] [SCore-users] RE: Problem with pm tests Message-ID: <1034240199.3da540c7b6e86@webmail.xenya.si> Hi, I hate myself when I have to correct myself. I am sorry for previous message. It seems that my problem was in gigabit switch (SSR8000) which did not route pm packets. After overpasing the switch the pm communication works well. I will have to look over configuration of switch and hopefully the problem will be resolved. I will post results for communication with tamarck based fiber gigabit NICs as soon switch will work properly. _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From s-sumi @ flab.fujitsu.co.jp Thu Oct 10 20:11:18 2002 From: s-sumi @ flab.fujitsu.co.jp (Shinji Sumimoto) Date: Thu, 10 Oct 2002 20:11:18 +0900 (JST) Subject: [SCore-users-jp] Re: [SCore-users] RE: Problem with pm tests In-Reply-To: <1034240199.3da540c7b6e86@webmail.xenya.si> References: <1034240199.3da540c7b6e86@webmail.xenya.si> Message-ID: <20021010.201118.108748113.s-sumi@flab.fujitsu.co.jp> Hi. From: JJ Subject: [SCore-users] RE: Problem with pm tests Date: Thu, 10 Oct 2002 10:56:39 +0200 (CEST) Message-ID: <1034240199.3da540c7b6e86 @ webmail.xenya.si> jj> I hate myself when I have to correct myself. I am sorry jj> for previous message. It seems that my problem was in jj> gigabit switch (SSR8000) which did not route pm packets. jj> After overpasing the switch the pm communication works well. jj> I will have to look over configuration of switch and jj> hopefully the problem will be resolved. Thank you very much for the information. I will add this topics for FAQ list. :-) We can not recongnize the situation easily, so this information is very important. jj> I will post results for communication with tamarck based jj> fiber gigabit NICs as soon switch will work properly. I am looking for your test reports. Thank you. Shinji. ------ Shinji Sumimoto, Fujitsu Labs _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From sugawara @ mlab.jks.ynu.ac.jp Fri Oct 11 15:34:59 2002 From: sugawara @ mlab.jks.ynu.ac.jp (Taira Sugawara) Date: Fri, 11 Oct 2002 15:34:59 +0900 Subject: [SCore-users-jp] Intel PRO/1000 XT Message-ID: <20021011152511.CB6E.SUGAWARA@mlab.jks.ynu.ac.jp> 横浜国立大学の菅原と申します。 並列マシンの構築を考えているのですが、 NICをギガビットEtherで考えています。 ドキュメントのハードウェアの所には、 GNIC-II, Syskonnect SK9843 がテストされたと書いてありましたが、 Intel PRO/1000 XTを使って構築した方はいらっしゃいますか? 問題なく使えるのでしょうか? 何か意見等ありましたらよろしくお願いいたします。 菅原 平 横浜国立大学大学院 環境情報学府 情報メディア環境学専攻 情報メディア学コース 松本研究室 sugawara @ mlab.jks.ynu.ac.jp From nakata @ bestsystems.co.jp Fri Oct 11 16:04:32 2002 From: nakata @ bestsystems.co.jp (Hisaho Nakata) Date: Fri, 11 Oct 2002 16:04:32 +0900 Subject: [SCore-users-jp] Intel PRO/1000 XT In-Reply-To: <20021011152511.CB6E.SUGAWARA@mlab.jks.ynu.ac.jp> References: <20021011152511.CB6E.SUGAWARA@mlab.jks.ynu.ac.jp> Message-ID: <20021011160432.66d2077a.nakata@bestsystems.co.jp> 横浜国立大学菅原様 中田@ベストシステムズです。 下記の構成で動いています。 M/B: Tyan Tiger MPX CPU: AthlonMP2000+ NIC: Intel Pro/1000 XT HUB: NETGEAR Gigabit Switching HUB OS: RedHat-7.2 SCore-5.0.1 > 横浜国立大学の菅原と申します。 > > 並列マシンの構築を考えているのですが、 > NICをギガビットEtherで考えています。 > ドキュメントのハードウェアの所には、 > GNIC-II, Syskonnect SK9843 がテストされたと書いてありましたが、 > Intel PRO/1000 XTを使って構築した方はいらっしゃいますか? > 問題なく使えるのでしょうか? > > 何か意見等ありましたらよろしくお願いいたします。 > > > 菅原 平 > 横浜国立大学大学院 環境情報学府 > 情報メディア環境学専攻 情報メディア学コース 松本研究室 > sugawara @ mlab.jks.ynu.ac.jp > > > _______________________________________________ > SCore-users-jp mailing list > SCore-users-jp @ pccluster.org > http://www.pccluster.org/mailman/listinfo/score-users-jp ======================================================================== 株式会社 ベストシステムズ システムソリューション事業部テクニカルサポート 中田 寿穗 (nakata @ bestsystems.co.jp) 〒110-0016 東京都台東区台東2-18-8 台東K-1ビル 2,3F Tel: 03-5812-1350 Fax: 03-5812-1351 ======================================================================== From sugawara @ mlab.jks.ynu.ac.jp Fri Oct 11 16:44:09 2002 From: sugawara @ mlab.jks.ynu.ac.jp (Taira Sugawara) Date: Fri, 11 Oct 2002 16:44:09 +0900 Subject: [SCore-users-jp] Intel PRO/1000 XT In-Reply-To: <20021011160432.66d2077a.nakata@bestsystems.co.jp> References: <20021011152511.CB6E.SUGAWARA@mlab.jks.ynu.ac.jp> <20021011160432.66d2077a.nakata@bestsystems.co.jp> Message-ID: <20021011162416.CB7C.SUGAWARA@mlab.jks.ynu.ac.jp> 横浜国立大学の菅原です。 ベストシステムズ 中田さん 早速のメールありがとうございました。 NIC,OS,SCoreは同じ構成になりそうなんですが、 このNICを使用するためにkernelの再構築、設定変更など 必要な作業はありましたでしょうか? 面倒でなかったらでけっこうですので、 何かアドバイス等ありましたらよろしくお願いいたします。 Hisaho Nakata さんは書きました。 > 横浜国立大学菅原様 > > 中田@ベストシステムズです。 > > 下記の構成で動いています。 > M/B: Tyan Tiger MPX > CPU: AthlonMP2000+ > NIC: Intel Pro/1000 XT > HUB: NETGEAR Gigabit Switching HUB > OS: RedHat-7.2 > SCore-5.0.1 菅原 平 横浜国立大学大学院 環境情報学府 情報メディア環境学専攻 情報メディア学コース 松本研究室 sugawara @ mlab.jks.ynu.ac.jp From nakata @ bestsystems.co.jp Fri Oct 11 16:55:36 2002 From: nakata @ bestsystems.co.jp (Hisaho Nakata) Date: Fri, 11 Oct 2002 16:55:36 +0900 Subject: [SCore-users-jp] Intel PRO/1000 XT In-Reply-To: <20021011162416.CB7C.SUGAWARA@mlab.jks.ynu.ac.jp> References: <20021011152511.CB6E.SUGAWARA@mlab.jks.ynu.ac.jp> <20021011160432.66d2077a.nakata@bestsystems.co.jp> <20021011162416.CB7C.SUGAWARA@mlab.jks.ynu.ac.jp> Message-ID: <20021011165536.4b04f2fc.nakata@bestsystems.co.jp> 中田@ベストシステムズです。 > NIC,OS,SCoreは同じ構成になりそうなんですが、 > このNICを使用するためにkernelの再構築、設定変更など > 必要な作業はありましたでしょうか? SCoreのデフォルトカーネル(EITでインストールされるもの)で問題なく動作します。 あと、今回の場合もそうだったのですが、Tiger MPXはオンボードで3ComのNICをもっており、 EITでインストールを行う場合、3Comをeth0として認識します。ですのでEITでインストールする ときは、オンボードNICにネットワークケーブルを差し、インストールを行い、インストール終了後 /etc/modules.confを書き換えて、e1000をeth0にしています。 また、/opt/score/etc/pm-ethernet.confも3Com用になっていたので、あらたにe1000用に 書き直しています。 (Intel Pro/1000 1枚のみだったら上記のような問題はおきませんけど....) ======================================================================== 株式会社 ベストシステムズ システムソリューション事業部テクニカルサポート 中田 寿穗 (nakata @ bestsystems.co.jp) 〒110-0016 東京都台東区台東2-18-8 台東K-1ビル 2,3F Tel: 03-5812-1350 Fax: 03-5812-1351 ======================================================================== From okamoto @ gsport.co.jp Fri Oct 11 18:43:44 2002 From: okamoto @ gsport.co.jp (Okamoto Masafumi) Date: Fri, 11 Oct 2002 18:43:44 +0900 Subject: [SCore-users-jp] システムテストPM/Ethernet における躓き References: <200210100317.AA08585@flash.tokyo.pfu.co.jp> Message-ID: <003a01c2710a$b19970f0$6d0010ac@tommy> ジースポートの岡本です。 > >この現象ですが、カーネルのログは何か出ていませんでしょうか? > >dmesg, /var/log/messages /var/log/bootlog などです。 > > >以下のフォーマットの出力が出ているはずなのですが、、 > > > printk (KERN_INFO"%s: Setting %s%s-duplex based on" > > " auto-negotiated partner ability %4.4x.\n", > > dev->name, mii_lpa == 0 ? "" : > > (mii_lpa & 0x0180) ? "100mbps " : "10mbps ", > > tp->mii.full_duplex ? "full" : "half", mii_lpa); > > >auto negotiation がうまくいっていない場合があるではないかと思います。 > > dmesg と /var/log/messages に、それらしいメッセージが出ています。 私のところでも同じようなメッセージが出ていました。 [root @ redhat etc]# dmesg | grep auto-negotiated eth0: Setting 100mbps full-duplex based on auto-negotiated partner ability 45e1. [root @ redhat etc]# grep auto-negotiated /var/log/messages* | head -1 /var/log/messages:Oct 3 16:47:11 redhat kernel: eth0: Setting 100mbps full-duplex based on auto-negotiated partner ability 45e1. From s-sumi @ flab.fujitsu.co.jp Fri Oct 11 19:13:38 2002 From: s-sumi @ flab.fujitsu.co.jp (Shinji Sumimoto) Date: Fri, 11 Oct 2002 19:13:38 +0900 (JST) Subject: [SCore-users-jp] システムテストPM/Ethernet における躓き In-Reply-To: <003a01c2710a$b19970f0$6d0010ac@tommy> References: <200210100317.AA08585@flash.tokyo.pfu.co.jp> <003a01c2710a$b19970f0$6d0010ac@tommy> Message-ID: <20021011.191338.38699308.s-sumi@flab.fujitsu.co.jp> 富士通研の住元です。 返事が遅れて済みません。 このメッセージは100Mbps Full duplexと NICが認識したことを示すものです。 必ず出るものでエラーメッセージではありません。 頂いたメッセージが全て100M full duplexになっていますが、スイッチの方も 同じでしょうか? From: "Okamoto Masafumi" Subject: Re: [SCore-users-jp] システムテストPM/Ethernet における躓き Date: Fri, 11 Oct 2002 18:43:44 +0900 Message-ID: <003a01c2710a$b19970f0$6d0010ac @ tommy> okamoto> ジースポートの岡本です。 okamoto> okamoto> > >この現象ですが、カーネルのログは何か出ていませんでしょうか? okamoto> > >dmesg, /var/log/messages /var/log/bootlog などです。 okamoto> > okamoto> > >以下のフォーマットの出力が出ているはずなのですが、、 okamoto> > okamoto> > > printk (KERN_INFO"%s: Setting %s%s-duplex based on" okamoto> > > " auto-negotiated partner ability okamoto> %4.4x.\n", okamoto> > > dev->name, mii_lpa == 0 ? "" : okamoto> > > (mii_lpa & 0x0180) ? "100mbps " : "10mbps okamoto> ", okamoto> > > tp->mii.full_duplex ? "full" : "half", mii_lpa); okamoto> > okamoto> > >auto negotiation がうまくいっていない場合があるではないかと思います。 okamoto> > okamoto> > dmesg と /var/log/messages に、それらしいメッセージが出ています。 okamoto> okamoto> 私のところでも同じようなメッセージが出ていました。 okamoto> okamoto> [root @ redhat etc]# dmesg | grep auto-negotiated okamoto> eth0: Setting 100mbps full-duplex based on auto-negotiated partner ability okamoto> 45e1. okamoto> okamoto> [root @ redhat etc]# grep auto-negotiated /var/log/messages* | head -1 okamoto> /var/log/messages:Oct 3 16:47:11 redhat kernel: eth0: Setting 100mbps okamoto> full-duplex based on auto-negotiated partner ability 45e1. okamoto> okamoto> okamoto> okamoto> okamoto> _______________________________________________ okamoto> SCore-users-jp mailing list okamoto> SCore-users-jp @ pccluster.org okamoto> http://www.pccluster.org/mailman/listinfo/score-users-jp okamoto> okamoto> ------ Shinji Sumimoto, Fujitsu Labs From kate @ pfu.fujitsu.com Fri Oct 11 20:32:51 2002 From: kate @ pfu.fujitsu.com (KATAYAMA Yoshio) Date: Fri, 11 Oct 2002 20:32:51 +0900 Subject: [SCore-users-jp] システムテストPM/Ethernet における躓き In-Reply-To: Your message of Fri, 11 Oct 2002 19:13:38 +0900. <20021011.191338.38699308.s-sumi@flab.fujitsu.co.jp> Message-ID: <200210111132.AA10116@flash.tokyo.pfu.co.jp> PFUの片山です。 間違えて住元さん個人宛で返信してしまいましたので、再送しています。 Date: Fri, 11 Oct 2002 19:13:38 +0900 (JST) From: Shinji Sumimoto >頂いたメッセージが全て100M full duplexになっていますが、スイッチの方も >同じでしょうか? スイッチのパネルで見ればよろしいのでしょうか。パネルの 100M と FDX の LED が点灯してます。 -- (株)PFU OSSC)Linuxシステム部 片山 善夫 Tel 044-520-6617 Fax 044-556-1022 From s-sumi @ flab.fujitsu.co.jp Fri Oct 11 21:02:23 2002 From: s-sumi @ flab.fujitsu.co.jp (Shinji Sumimoto) Date: Fri, 11 Oct 2002 21:02:23 +0900 (JST) Subject: [SCore-users-jp] システムテストPM/Ethernet における躓き In-Reply-To: <200210111132.AA10116@flash.tokyo.pfu.co.jp> References: <20021011.191338.38699308.s-sumi@flab.fujitsu.co.jp> <200210111132.AA10116@flash.tokyo.pfu.co.jp> Message-ID: <20021011.210223.15256741.s-sumi@flab.fujitsu.co.jp> 富士通研究所の住元です。 情報提供どうもありがとうございます。 動作がおかしい時にも同じように100M full duplexになっているのでしたら、 auto negotiation の問題ではなさそうです。 デバイスドライバの問題でしょうか? 試したことがないので、安定して動くかは分かりませんが、 http://www.scyld.com/network/rtl8139.html にあるドライバを試していただけないでしょうか? 利用される時は、ソース中 static int max_interrupt_work = 20; を static int max_interrupt_work = 2000; に変更してお願いします。 From: KATAYAMA Yoshio Subject: Re: [SCore-users-jp] システムテストPM/Ethernet における躓き Date: Fri, 11 Oct 2002 20:32:51 +0900 Message-ID: <200210111132.AA10116 @ flash.tokyo.pfu.co.jp> kate> PFUの片山です。 kate> kate> 間違えて住元さん個人宛で返信してしまいましたので、再送しています。 kate> kate> Date: Fri, 11 Oct 2002 19:13:38 +0900 (JST) kate> From: Shinji Sumimoto kate> kate> >頂いたメッセージが全て100M full duplexになっていますが、スイッチの方も kate> >同じでしょうか? kate> kate> スイッチのパネルで見ればよろしいのでしょうか。パネルの 100M と kate> FDX の LED が点灯してます。 ------ Shinji Sumimoto, Fujitsu Labs From kate @ pfu.fujitsu.com Fri Oct 11 21:38:36 2002 From: kate @ pfu.fujitsu.com (KATAYAMA Yoshio) Date: Fri, 11 Oct 2002 21:38:36 +0900 Subject: [SCore-users-jp] Intel PRO/1000 XT In-Reply-To: Your message of Fri, 11 Oct 2002 16:55:36 +0900. <20021011165536.4b04f2fc.nakata@bestsystems.co.jp> Message-ID: <200210111238.AA10254@flash.tokyo.pfu.co.jp> PFUの片山です。 また個人宛に返信してしまいました。度々済みません。 Date: Fri, 11 Oct 2002 16:55:36 +0900 From: Hisaho Nakata >あと、今回の場合もそうだったのですが、Tiger MPXはオンボードで3ComのNICをもっており、 >EITでインストールを行う場合、3Comをeth0として認識します。ですのでEITでインストールする >ときは、オンボードNICにネットワークケーブルを差し、インストールを行い、インストール終了後 >/etc/modules.confを書き換えて、e1000をeth0にしています。 GigaLAN を使った SCore を組む時は、GigaLAN と 100M の両方を使え るようにしています。その方法は次のようにしています。 # Giga NIC が eth1 になっているとします 1. EIT でのポイント “Group Creation”で 100M Eth と 1G Eth の両方をチェック 2. インストール後の設定 ・計算ホスト /etc/syssconfig/network-scripts/ifcfg-eth1 を作る /etc/rc.d/init.d/pm_ethernet の eth1 の行を有効にする リブート ・サーバーホスト(計算ホストのリブート後) /opt/score/deploy/mkpmethernetconf -speed 1000 -g _scoreall_ \ -device eth1 -unit 1 >/opt/score/etc/pm-gigaethernet.conf (必要に応じて maxnsend などを指定して下さい) /opt/score/etc/scorehosts.db を次のように修正 gigaethernet の config ファイルを pm-gigaethernet.conf に変更 ホスト定義の network=… で gigaethernet を先頭にする これで、gigaethernet がデフォールトで、scrun で -network=ethernet を指定すると 100M を使うようになります。 インストール後の設定が面倒そうに見えますが、shell script を作っ ておけばよいです。 # pm-ethernet.conf と pm-gigaethernet.conf を分けるのは邪道でしょ #うか? -- (株)PFU OSSC)Linuxシステム部 片山 善夫 Tel 044-520-6617 Fax 044-556-1022 From kate @ pfu.fujitsu.com Fri Oct 11 23:26:38 2002 From: kate @ pfu.fujitsu.com (KATAYAMA Yoshio) Date: Fri, 11 Oct 2002 23:26:38 +0900 Subject: [SCore-users-jp] システムテストPM/Ethernet における躓き In-Reply-To: Your message of Fri, 11 Oct 2002 21:02:23 +0900. <20021011.210223.15256741.s-sumi@flab.fujitsu.co.jp> Message-ID: <200210111426.AA10388@flash.tokyo.pfu.co.jp> PFUの片山です。 Date: Fri, 11 Oct 2002 21:02:23 +0900 (JST) From: Shinji Sumimoto >デバイスドライバの問題でしょうか? >試したことがないので、安定して動くかは分かりませんが、 >http://www.scyld.com/network/rtl8139.html >にあるドライバを試していただけないでしょうか? 有難う御座います。 試したところ、今まで“xx K packets.”が全くでなかったのが、ある 程度出てくるようになりました。これが幾つか表示されて止まるので、 計算ホストのコンソールを見たら、comp0 が panic を起こしていまし た。 >利用される時は、ソース中 >static int max_interrupt_work = 20; >を >static int max_interrupt_work = 2000; >に変更してお願いします。 この変更を行なっているのですが、20 に戻して試してみようと思いま す。 -- (株)PFU OSSC)Linuxシステム部 片山 善夫 Tel 044-520-6617 Fax 044-556-1022 From nakata @ bestsystems.co.jp Fri Oct 11 23:38:11 2002 From: nakata @ bestsystems.co.jp (Hisaho Nakata) Date: Fri, 11 Oct 2002 23:38:11 +0900 Subject: [SCore-users-jp] Intel PRO/1000 XT In-Reply-To: <200210111238.AA10254@flash.tokyo.pfu.co.jp> References: <20021011165536.4b04f2fc.nakata@bestsystems.co.jp> <200210111238.AA10254@flash.tokyo.pfu.co.jp> Message-ID: <20021011233811.350559ab.nakata@bestsystems.co.jp> 中田@ベストシステムズです。 > # pm-ethernet.conf と pm-gigaethernet.conf を分けるのは邪道でしょ > #うか? 自分のクラスタはいろいろとテストしているのでethernet, gigaetheret, myrinet, sciと全部設定していますが、お客ところに出すものは、基本的には一番パフォーマンスが いいもののみを出しています。お客さんから要望があれば別ですが....!! ======================================================================== 株式会社 ベストシステムズ システムソリューション事業部テクニカルサポート 中田 寿穗 (nakata @ bestsystems.co.jp) 〒110-0016 東京都台東区台東2-18-8 台東K-1ビル 2,3F Tel: 03-5812-1350 Fax: 03-5812-1351 ======================================================================== From kate @ pfu.fujitsu.com Sat Oct 12 17:41:21 2002 From: kate @ pfu.fujitsu.com (KATAYAMA Yoshio) Date: Sat, 12 Oct 2002 17:41:21 +0900 Subject: [SCore-users-jp] システムテストPM/Ethernet における躓き In-Reply-To: Your message of Fri, 11 Oct 2002 23:26:38 +0900. <200210111426.AA10388@flash.tokyo.pfu.co.jp> Message-ID: <200210120841.AA10737@flash.tokyo.pfu.co.jp> PFUの片山です。 Date: Fri, 11 Oct 2002 23:26:38 +0900 From: KATAYAMA Yoshio >>利用される時は、ソース中 >>static int max_interrupt_work = 20; >>を >>static int max_interrupt_work = 2000; >>に変更してお願いします。 >この変更を行なっているのですが、20 に戻して試してみようと思いま >す。 20 に戻しても、やはり計算ホストが panic を起こしていました。 -- (株)PFU OSSC)Linuxシステム部 片山 善夫 Tel 044-520-6617 Fax 044-556-1022 From s-sumi @ bd6.so-net.ne.jp Sun Oct 13 12:05:46 2002 From: s-sumi @ bd6.so-net.ne.jp (Shinji Sumimoto) Date: Sun, 13 Oct 2002 12:05:46 +0900 (JST) Subject: [SCore-users-jp] システムテストPM/Ethernet における躓き In-Reply-To: <200210120841.AA10737@flash.tokyo.pfu.co.jp> References: <200210111426.AA10388@flash.tokyo.pfu.co.jp> <200210120841.AA10737@flash.tokyo.pfu.co.jp> Message-ID: <20021013.120546.74752383.s-sumi@bd6.so-net.ne.jp> 富士通研の住元です。 From: KATAYAMA Yoshio Subject: Re: [SCore-users-jp] システムテストPM/Ethernet における躓き Date: Sat, 12 Oct 2002 17:41:21 +0900 Message-ID: <200210120841.AA10737 @ flash.tokyo.pfu.co.jp> kate> PFUの片山です。 kate> kate> Date: Fri, 11 Oct 2002 23:26:38 +0900 kate> From: KATAYAMA Yoshio kate> kate> >>利用される時は、ソース中 kate> >>static int max_interrupt_work = 20; kate> >>を kate> >>static int max_interrupt_work = 2000; kate> >>に変更してお願いします。 kate> kate> >この変更を行なっているのですが、20 に戻して試してみようと思いま kate> >す。 kate> kate> 20 に戻しても、やはり計算ホストが panic を起こしていました。 この値は、割り込み時に処理するパケットの数を決めるのですが、20を越え る割り込みが上がった場合にも強制的に割り込みレジスタをクリアするので、 ハードウェアにより動作が不定になる場合があるので非常に危険です。 あと、本題ですが、お手数ですが、デバイスドライバをもとのSCore用に戻し て、以下のパッチを当てて試していただけないでしょうか? 富士通研でも rtl8139のクラスタを問題無く動作しています。担当者に聞いた所、以下の修 正をする必要があるとのことです。 出展は以下ですが、バージョンが違うので修正してdiffをとっています。 http://www.labs.fujitsu.com/techinfo/linux/lkml-8139/index.html ===================================================================== diff -u -r1.3 8139too.c --- 8139too.c 28 Mar 2002 03:40:20 -0000 1.3 +++ 8139too.c 13 Oct 2002 03:02:43 -0000 @@ -1658,7 +1658,6 @@ skb_copy_and_csum_dev(skb, tp->tx_buf[entry]); dev_kfree_skb(skb); } else { - dev_kfree_skb(skb); tp->stats.tx_dropped++; return 0; } @@ -1676,6 +1675,7 @@ if ((tp->cur_tx - NUM_TX_DESC) == tp->dirty_tx) netif_stop_queue (dev); spin_unlock_irq(&tp->lock); + dev_kfree_skb(skb); DPRINTK ("%s: Queued Tx packet size %u to slot %d.\n", dev->name, len, entry); ===================================================================== 以上宜しくお願いします。 ----- 住元 真司 E-Mail: s-sumi @ bd6.so-net.ne.jp From s-sumi @ bd6.so-net.ne.jp Sun Oct 13 12:13:26 2002 From: s-sumi @ bd6.so-net.ne.jp (Shinji Sumimoto) Date: Sun, 13 Oct 2002 12:13:26 +0900 (JST) Subject: [SCore-users-jp] システムテストPM/Ethernet における躓き In-Reply-To: <20021013.120546.74752383.s-sumi@bd6.so-net.ne.jp> References: <200210111426.AA10388@flash.tokyo.pfu.co.jp> <200210120841.AA10737@flash.tokyo.pfu.co.jp> <20021013.120546.74752383.s-sumi@bd6.so-net.ne.jp> Message-ID: <20021013.121326.108737834.s-sumi@bd6.so-net.ne.jp> 住元です。 済みません。先のメールのパッチではなく以下のパッチを当ててください。 ===================================================================== diff -u -r1.3 8139too.c --- 8139too.c 28 Mar 2002 03:40:20 -0000 1.3 +++ 8139too.c 13 Oct 2002 03:02:43 -0000 @@ -1658,7 +1658,6 @@ skb_copy_and_csum_dev(skb, tp->tx_buf[entry]); - dev_kfree_skb(skb); } else { dev_kfree_skb(skb); tp->stats.tx_dropped++; return 0; } @@ -1676,6 +1675,7 @@ if ((tp->cur_tx - NUM_TX_DESC) == tp->dirty_tx) netif_stop_queue (dev); spin_unlock_irq(&tp->lock); + dev_kfree_skb(skb); DPRINTK ("%s: Queued Tx packet size %u to slot %d.\n", dev->name, len, entry); ===================================================================== From: Shinji Sumimoto Subject: Re: [SCore-users-jp] システムテストPM/Ethernet における躓き Date: Sun, 13 Oct 2002 12:05:46 +0900 (JST) Message-ID: <20021013.120546.74752383.s-sumi @ bd6.so-net.ne.jp> s-sumi> 富士通研の住元です。 s-sumi> s-sumi> From: KATAYAMA Yoshio s-sumi> Subject: Re: [SCore-users-jp] システムテストPM/Ethernet における躓き s-sumi> Date: Sat, 12 Oct 2002 17:41:21 +0900 s-sumi> Message-ID: <200210120841.AA10737 @ flash.tokyo.pfu.co.jp> s-sumi> s-sumi> kate> PFUの片山です。 s-sumi> kate> s-sumi> kate> Date: Fri, 11 Oct 2002 23:26:38 +0900 s-sumi> kate> From: KATAYAMA Yoshio s-sumi> kate> s-sumi> kate> >>利用される時は、ソース中 s-sumi> kate> >>static int max_interrupt_work = 20; s-sumi> kate> >>を s-sumi> kate> >>static int max_interrupt_work = 2000; s-sumi> kate> >>に変更してお願いします。 s-sumi> kate> s-sumi> kate> >この変更を行なっているのですが、20 に戻して試してみようと思いま s-sumi> kate> >す。 s-sumi> kate> s-sumi> kate> 20 に戻しても、やはり計算ホストが panic を起こしていました。 s-sumi> s-sumi> この値は、割り込み時に処理するパケットの数を決めるのですが、20を越え s-sumi> る割り込みが上がった場合にも強制的に割り込みレジスタをクリアするので、 s-sumi> ハードウェアにより動作が不定になる場合があるので非常に危険です。 s-sumi> s-sumi> あと、本題ですが、お手数ですが、デバイスドライバをもとのSCore用に戻し s-sumi> て、以下のパッチを当てて試していただけないでしょうか? 富士通研でも s-sumi> rtl8139のクラスタを問題無く動作しています。担当者に聞いた所、以下の修 s-sumi> 正をする必要があるとのことです。 s-sumi> s-sumi> 出展は以下ですが、バージョンが違うので修正してdiffをとっています。 s-sumi> s-sumi> http://www.labs.fujitsu.com/techinfo/linux/lkml-8139/index.html s-sumi> ===================================================================== s-sumi> diff -u -r1.3 8139too.c s-sumi> --- 8139too.c 28 Mar 2002 03:40:20 -0000 1.3 s-sumi> +++ 8139too.c 13 Oct 2002 03:02:43 -0000 s-sumi> @@ -1658,7 +1658,6 @@ s-sumi> skb_copy_and_csum_dev(skb, tp->tx_buf[entry]); s-sumi> dev_kfree_skb(skb); s-sumi> } else { s-sumi> - dev_kfree_skb(skb); s-sumi> tp->stats.tx_dropped++; s-sumi> return 0; s-sumi> } s-sumi> @@ -1676,6 +1675,7 @@ s-sumi> if ((tp->cur_tx - NUM_TX_DESC) == tp->dirty_tx) s-sumi> netif_stop_queue (dev); s-sumi> spin_unlock_irq(&tp->lock); s-sumi> + dev_kfree_skb(skb); s-sumi> s-sumi> DPRINTK ("%s: Queued Tx packet size %u to slot %d.\n", s-sumi> dev->name, len, entry); s-sumi> ===================================================================== s-sumi> s-sumi> 以上宜しくお願いします。 s-sumi> ----- s-sumi> 住元 真司 E-Mail: s-sumi @ bd6.so-net.ne.jp s-sumi> ----- 住元 真司 E-Mail: s-sumi @ bd6.so-net.ne.jp From bogdan.costescu @ iwr.uni-heidelberg.de Mon Oct 14 17:03:56 2002 From: bogdan.costescu @ iwr.uni-heidelberg.de (Bogdan Costescu) Date: Mon, 14 Oct 2002 10:03:56 +0200 (CEST) Subject: [SCore-users-jp] [SCore-users] MPI and PM at the same time Message-ID: Dear SCore developers, It seems that my work of porting ARMCI to SCore is still not sufficient for getting the best performance, as ARMCI is using two communication "channels", one through MPI and another one through a socket. On our Myrinet based setup, having such a hybrid program is bad, as the socket communication becomes a bottleneck. The only solution seems to be to have a native port of ARMCI on top on PM (or maybe SCASH), but which will still need to use MPI sometimes. Because of this, I'll probably bug you with some questions during the next few days/weeks... So, I'm trying to get both MPI and PM routines from SCore to work together in the same program, but so far I failed. I've seen that most of PM-related routines need a "context" to work with; however, after calling MPI_Init (which calls score_initialize), there is already a context (and only one, cf. score_num_pmnet) that seems to have a NULL ->device. Is it safe to use the same context for other (non-MPI) operations ? If not, how do I get another context ? Do I need to open a device (PM_COMPOSITE) and get a context on it and if so how do I know that is the same device that is used by MPI ? (My original idea was to get score_pmnet[0]->device and obtain another context on it, but it's NULL...) Thank you in advance! -- Bogdan Costescu IWR - Interdisziplinaeres Zentrum fuer Wissenschaftliches Rechnen Universitaet Heidelberg, INF 368, D-69120 Heidelberg, GERMANY Telephone: +49 6221 54 8869, Telefax: +49 6221 54 8868 E-mail: Bogdan.Costescu @ IWR.Uni-Heidelberg.De _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From kameyama @ pccluster.org Tue Oct 15 09:21:40 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Tue, 15 Oct 2002 09:21:40 +0900 Subject: [SCore-users-jp] システムテストPM/Ethernet における躓き In-Reply-To: Your message of "Sun, 13 Oct 2002 12:13:26 JST." <20021013.121326.108737834.s-sumi@bd6.so-net.ne.jp> Message-ID: <200210150021.g9F0LeY10745@yl-dhcp18.is.s.u-tokyo.ac.jp> 亀山です. In article <20021013.121326.108737834.s-sumi @ bd6.so-net.ne.jp> Shinji Sumimoto wrotes: > s-sumi> > s-sumi> あと、本題ですが、お手数ですが、デバイスドライバをもとのSCore用に戻し > s-sumi> て、以下のパッチを当てて試していただけないでしょうか? 富士通研でも > s-sumi> rtl8139のクラスタを問題無く動作しています。担当者に聞いた所、以下の修 > s-sumi> 正をする必要があるとのことです。 > s-sumi> > s-sumi> 出展は以下ですが、バージョンが違うので修正してdiffをとっています。 以前該当 patch をみたのですが... path のもとになった version はこの if のあとで skb->len を 使っていたので, patch が必要だったようですが, 現在の version は skb を free する前に 変数にとっていますので, 問題ないと思うのですが... from Kameyama Toyohisa From s-sumi @ flab.fujitsu.co.jp Tue Oct 15 09:33:02 2002 From: s-sumi @ flab.fujitsu.co.jp (Shinji Sumimoto) Date: Tue, 15 Oct 2002 09:33:02 +0900 (JST) Subject: [SCore-users-jp] システムテストPM/Ethernet における躓き In-Reply-To: <200210150021.g9F0LeY10745@yl-dhcp18.is.s.u-tokyo.ac.jp> References: <20021013.121326.108737834.s-sumi@bd6.so-net.ne.jp> <200210150021.g9F0LeY10745@yl-dhcp18.is.s.u-tokyo.ac.jp> Message-ID: <20021015.093302.74719140.s-sumi@flab.fujitsu.co.jp> 住元です。 From: kameyama @ pccluster.org Subject: Re: [SCore-users-jp] システムテストPM/Ethernet における躓き Date: Tue, 15 Oct 2002 09:21:40 +0900 Message-ID: <200210150021.g9F0LeY10745 @ yl-dhcp18.is.s.u-tokyo.ac.jp> kameyama> 亀山です. kameyama> kameyama> In article <20021013.121326.108737834.s-sumi @ bd6.so-net.ne.jp> Shinji Sumimoto wrotes: kameyama> > s-sumi> kameyama> > s-sumi> あと、本題ですが、お手数ですが、デバイスドライバをもとのSCore用に戻し kameyama> > s-sumi> て、以下のパッチを当てて試していただけないでしょうか? 富士通研でも kameyama> > s-sumi> rtl8139のクラスタを問題無く動作しています。担当者に聞いた所、以下の修 kameyama> > s-sumi> 正をする必要があるとのことです。 kameyama> > s-sumi> kameyama> > s-sumi> 出展は以下ですが、バージョンが違うので修正してdiffをとっています。 kameyama> kameyama> 以前該当 patch をみたのですが... kameyama> path のもとになった version はこの if のあとで skb->len を kameyama> 使っていたので, patch が必要だったようですが, kameyama> 現在の version は skb を free する前に kameyama> 変数にとっていますので, 問題ないと思うのですが... そうですね、問題ないですね、、済みませんでした。 とすると、問題は富士通研では48ノードで問題無く動いていて どうして他では安定しないのかということになります。 ------ Shinji Sumimoto, Fujitsu Labs From kate @ pfu.fujitsu.com Tue Oct 15 15:38:14 2002 From: kate @ pfu.fujitsu.com (KATAYAMA Yoshio) Date: Tue, 15 Oct 2002 15:38:14 +0900 Subject: [SCore-users-jp] システムテストPM/Ethernet における躓き In-Reply-To: Your message of Tue, 15 Oct 2002 09:33:02 +0900. <20021015.093302.74719140.s-sumi@flab.fujitsu.co.jp> Message-ID: <200210150638.AA11863@flash.tokyo.pfu.co.jp> 片山です。 Date: Tue, 15 Oct 2002 09:33:02 +0900 (JST) From: Shinji Sumimoto kameyama> > s-sumi> あと、本題ですが、お手数ですが、デバイスドライバをもとのSCore用に戻し kameyama> > s-sumi> て、以下のパッチを当てて試していただけないでしょうか? 富士通研でも kameyama> > s-sumi> rtl8139のクラスタを問題無く動作しています。担当者に聞いた所、以下の修 kameyama> > s-sumi> 正をする必要があるとのことです。 kameyama> > s-sumi> kameyama> > s-sumi> 出展は以下ですが、バージョンが違うので修正してdiffをとっています。 出展を見ますと、if (likely(len < TX_BUF_SIZE)) { の then の側の dev_kfree_skb(skb); を spin_unlock_irq(&tp->lock); の後に移動し ているようなので、そのように修正してみました。 #住元さんのメールでは else 側の dev_kfree_skb(skb); が移動 kameyama> 以前該当 patch をみたのですが... kameyama> path のもとになった version はこの if のあとで skb->len を kameyama> 使っていたので, patch が必要だったようですが, kameyama> 現在の version は skb を free する前に kameyama> 変数にとっていますので, 問題ないと思うのですが... >そうですね、問題ないですね、、済みませんでした。 当然かもしれませんが、症状は変わりませんでした。この他に RealTek からダウンロードしたドライバ(*)も試してみましたが、やはり同じ症 状でした。 *ftp://152.104.125.40/cn/nic/rtl8139abcd8130810xseries/linux24x-8139cp(101).zip >とすると、問題は富士通研では48ノードで問題無く動いていて >どうして他では安定しないのかということになります。 SCore のバージョンの違いということはありませんでしょうか。こちら では SCore 5.0.1 を使っています。 -- (株)PFU OSSC)Linuxシステム部 片山 善夫 Tel 044-520-6617 Fax 044-556-1022 From s-sumi @ flab.fujitsu.co.jp Tue Oct 15 17:14:02 2002 From: s-sumi @ flab.fujitsu.co.jp (Shinji Sumimoto) Date: Tue, 15 Oct 2002 17:14:02 +0900 (JST) Subject: [SCore-users-jp] システムテストPM/Ethernet における躓き In-Reply-To: <200210150638.AA11863@flash.tokyo.pfu.co.jp> References: <20021015.093302.74719140.s-sumi@flab.fujitsu.co.jp> <200210150638.AA11863@flash.tokyo.pfu.co.jp> Message-ID: <20021015.171402.28817104.s-sumi@flab.fujitsu.co.jp> kate> 当然かもしれませんが、症状は変わりませんでした。この他に RealTek kate> からダウンロードしたドライバ(*)も試してみましたが、やはり同じ症 kate> 状でした。 kate> kate> *ftp://152.104.125.40/cn/nic/rtl8139abcd8130810xseries/linux24x-8139cp(101).zip kate> kate> >とすると、問題は富士通研では48ノードで問題無く動いていて kate> >どうして他では安定しないのかということになります。 kate> kate> SCore のバージョンの違いということはありませんでしょうか。こちら kate> では SCore 5.0.1 を使っています。 rcstestというPMレベルの話なので SCoreのバージョンレベルの可能性は低い です。カーネルパニックの話なので、カーネルもしくはデバイスドライバ回り の問題と考えています。 一応、こちらもSCore5.0.1です。とはいっても、開発しているのでdistributionと 同じバイナリではありませんが、、 一応、ハードウェアのrevisionを確認したいのですが、、 こちらのはrev 16です。 ============================================================= Bus 1, device 7, function 0: Ethernet controller: Realtek Semiconductor Co., Ltd. RTL-8139 (rev 16). IRQ 11. Master Capable. Latency=32. Min Gnt=32.Max Lat=64. I/O at 0xc000 [0xc0ff]. Non-prefetchable 32 bit memory at 0xd5000000 [0xd50000ff]. ============================================================= あと、お手数ですが、panic時のメッセージでどの当たりで落ちているかを 分かるような情報はありませんでしょうか? ------ Shinji Sumimoto, Fujitsu Labs From kate @ pfu.fujitsu.com Tue Oct 15 19:11:14 2002 From: kate @ pfu.fujitsu.com (KATAYAMA Yoshio) Date: Tue, 15 Oct 2002 19:11:14 +0900 Subject: [SCore-users-jp] システムテストPM/Ethernet における躓き In-Reply-To: Your message of Tue, 15 Oct 2002 17:14:02 +0900. <20021015.171402.28817104.s-sumi@flab.fujitsu.co.jp> Message-ID: <200210151011.AA12136@flash.tokyo.pfu.co.jp> 片山です。 Date: Tue, 15 Oct 2002 17:14:02 +0900 (JST) From: Shinji Sumimoto >rcstestというPMレベルの話なので SCoreのバージョンレベルの可能性は低い >です。カーネルパニックの話なので、カーネルもしくはデバイスドライバ回り >の問題と考えています。 >一応、こちらもSCore5.0.1です。とはいっても、開発しているのでdistributionと >同じバイナリではありませんが、、 SCore 4.X でしたら、こちらも同じバージョンにしてみようと思ったの ですが、、、 >一応、ハードウェアのrevisionを確認したいのですが、、 >こちらのはrev 16です。 >============================================================= > Bus 1, device 7, function 0: > Ethernet controller: Realtek Semiconductor Co., Ltd. RTL-8139 (rev 16). > IRQ 11. > Master Capable. Latency=32. Min Gnt=32.Max Lat=64. > I/O at 0xc000 [0xc0ff]. > Non-prefetchable 32 bit memory at 0xd5000000 [0xd50000ff]. >============================================================= これも同じみたいです。 ――――ここから――――ここから――――ここから――――ここから―――― Bus 1, device 5, function 0: Ethernet controller: Realtek Semiconductor Co., Ltd. RTL-8139 (rev 16). IRQ 11. Master Capable. Latency=32. Min Gnt=32.Max Lat=64. I/O at 0xc000 [0xc0ff]. Non-prefetchable 32 bit memory at 0xec060000 [0xec0600ff]. ――――ここまで――――ここまで――――ここまで――――ここまで―――― >あと、お手数ですが、panic時のメッセージでどの当たりで落ちているかを >分かるような情報はありませんでしょうか? panic メッセージが console 画面に収まっていますので、全部書き写 しました。この panic が起きるのは rtl8139 ドライバを使った時です。 ――――ここから――――ここから――――ここから――――ここから―――― Unable to handle kernel NULL pointer dereference at virtual address 00000070 *pde = 00000000 Oops: 0002 CPU: 0 EIP: 0010:[] Not tainted EFLAGS: 00010206 eax: 00000000 ebx: 0000004e ecx: 000000ac edx: 00000000 esi: f7ce0d60 edi: f7ce0d68 ebp: f6abdf7c esp: f6abdf44 ds: 0018 es: 0018 ss: 0018 Process scremote.exe (pid: 1080, stackpage=f6abd000) Stack: 0000000e 081912e8 000000ac 0000fe83 00000004 c03edf48 00000004 00000000 0000c000 00030d40 f45ce800 f45aad60 04000001 0000000b f6abdfc4 c010822a 0000000b f45ce800 f6abdfc4 f6abdfc4 0000000b c029ea60 f45aad60 c01083a8 Call Trace: [] [] Code: ff 4a 70 0f 94 c0 84 c0 74 1e 9c 5b fa a1 00 07 2a c0 89 02 <0>Kernel panic: Aiee, killing interrupt handler! In interrupt handler - not syncing ――――ここまで――――ここまで――――ここまで――――ここまで―――― -- (株)PFU OSSC)Linuxシステム部 片山 善夫 Tel 044-520-6617 Fax 044-556-1022 From s-sumi @ flab.fujitsu.co.jp Tue Oct 15 19:25:01 2002 From: s-sumi @ flab.fujitsu.co.jp (Shinji Sumimoto) Date: Tue, 15 Oct 2002 19:25:01 +0900 (JST) Subject: [SCore-users-jp] システムテストPM/Ethernet における躓き In-Reply-To: <200210151011.AA12136@flash.tokyo.pfu.co.jp> References: <20021015.171402.28817104.s-sumi@flab.fujitsu.co.jp> <200210151011.AA12136@flash.tokyo.pfu.co.jp> Message-ID: <20021015.192501.70194026.s-sumi@flab.fujitsu.co.jp> 住元です。 情報ありがとうございます。 From: KATAYAMA Yoshio Subject: Re: [SCore-users-jp] システムテストPM/Ethernet における躓き Date: Tue, 15 Oct 2002 19:11:14 +0900 Message-ID: <200210151011.AA12136 @ flash.tokyo.pfu.co.jp> kate> 片山です。 kate> kate> Date: Tue, 15 Oct 2002 17:14:02 +0900 (JST) kate> From: Shinji Sumimoto kate> kate> >rcstestというPMレベルの話なので SCoreのバージョンレベルの可能性は低い kate> >です。カーネルパニックの話なので、カーネルもしくはデバイスドライバ回り kate> >の問題と考えています。 kate> kate> >一応、こちらもSCore5.0.1です。とはいっても、開発しているのでdistributionと kate> >同じバイナリではありませんが、、 kate> kate> SCore 4.X でしたら、こちらも同じバージョンにしてみようと思ったの kate> ですが、、、 試してみるとよいものとしては、linux 2.2系を使ってみるというのがあります。 パッチ自体はSCoreに入っています。(linux-2.2.17 baseですが、、) kate> >一応、ハードウェアのrevisionを確認したいのですが、、 kate> kate> >こちらのはrev 16です。 kate> >============================================================= kate> > Bus 1, device 7, function 0: kate> > Ethernet controller: Realtek Semiconductor Co., Ltd. RTL-8139 (rev 16). kate> > IRQ 11. kate> > Master Capable. Latency=32. Min Gnt=32.Max Lat=64. kate> > I/O at 0xc000 [0xc0ff]. kate> > Non-prefetchable 32 bit memory at 0xd5000000 [0xd50000ff]. kate> >============================================================= kate> kate> これも同じみたいです。 kate> kate> ――――ここから――――ここから――――ここから――――ここから―――― kate> Bus 1, device 5, function 0: kate> Ethernet controller: Realtek Semiconductor Co., Ltd. RTL-8139 (rev 16). kate> IRQ 11. kate> Master Capable. Latency=32. Min Gnt=32.Max Lat=64. kate> I/O at 0xc000 [0xc0ff]. kate> Non-prefetchable 32 bit memory at 0xec060000 [0xec0600ff]. kate> ――――ここまで――――ここまで――――ここまで――――ここまで―――― kate> kate> >あと、お手数ですが、panic時のメッセージでどの当たりで落ちているかを kate> >分かるような情報はありませんでしょうか? kate> kate> panic メッセージが console 画面に収まっていますので、全部書き写 kate> しました。この panic が起きるのは rtl8139 ドライバを使った時です。 kate> kate> ――――ここから――――ここから――――ここから――――ここから―――― kate> Unable to handle kernel NULL pointer dereference at virtual address 00000070 kate> *pde = 00000000 kate> Oops: 0002 kate> CPU: 0 kate> EIP: 0010:[] Not tainted 落ちたアドレスはEIPに入っています。 kate> EFLAGS: 00010206 kate> eax: 00000000 ebx: 0000004e ecx: 000000ac edx: 00000000 kate> esi: f7ce0d60 edi: f7ce0d68 ebp: f6abdf7c esp: f6abdf44 kate> ds: 0018 es: 0018 ss: 0018 kate> Process scremote.exe (pid: 1080, stackpage=f6abd000) kate> Stack: 0000000e 081912e8 000000ac 0000fe83 00000004 c03edf48 00000004 00000000 kate> 0000c000 00030d40 f45ce800 f45aad60 04000001 0000000b f6abdfc4 c010822a kate> 0000000b f45ce800 f6abdfc4 f6abdfc4 0000000b c029ea60 f45aad60 c01083a8 kate> Call Trace: [] [] kate> kate> Code: ff 4a 70 0f 94 c0 84 c0 74 1e 9c 5b fa a1 00 07 2a c0 89 02 kate> <0>Kernel panic: Aiee, killing interrupt handler! kate> In interrupt handler - not syncing kate> ――――ここまで――――ここまで――――ここまで――――ここまで―――― それで、以下のようにして落ちたシンボルがどこに相当するかを調べていただ け無いでしょうか? % cat /proc/ksyms |grep f8895 なければ、 % cat /proc/ksyms |grep f8 同様に もです。 ------ Shinji Sumimoto, Fujitsu Labs From kate @ pfu.fujitsu.com Tue Oct 15 21:44:30 2002 From: kate @ pfu.fujitsu.com (KATAYAMA Yoshio) Date: Tue, 15 Oct 2002 21:44:30 +0900 Subject: [SCore-users-jp] システムテストPM/Ethernet における躓き In-Reply-To: Your message of Tue, 15 Oct 2002 19:25:01 +0900. <20021015.192501.70194026.s-sumi@flab.fujitsu.co.jp> Message-ID: <200210151244.AA12311@flash.tokyo.pfu.co.jp> 片山です。 Date: Tue, 15 Oct 2002 19:25:01 +0900 (JST) From: Shinji Sumimoto >> SCore 4.X でしたら、こちらも同じバージョンにしてみようと思ったの >> ですが、、、 >試してみるとよいものとしては、linux 2.2系を使ってみるというのがあります。 >パッチ自体はSCoreに入っています。(linux-2.2.17 baseですが、、) 有難う御座います。まとまった時間が取れたら試してみます。 >それで、以下のようにして落ちたシンボルがどこに相当するかを調べていただ >け無いでしょうか? >% cat /proc/ksyms |grep f8895 こちらは、それらしいシンボルが出てきました。 [kate @ comp0 RealTek]$ cat /proc/ksyms | grep f8895 f8895060 __insmod_rtl8139_S.text_L7856 [rtl8139] f8895000 __insmod_rtl8139_O/lib/modules/2.4.18-2SCORE/kernel/drivers/net/rtl8139.o_M3DABDBE9_V132114 [rtl8139] > > しかし、こちらは c0108 で grep すると、 [kate @ comp0 RealTek]$ cat /proc/ksyms | grep c0108 c01082c0 enable_irq_Rfcec0987 c0108260 disable_irq_R3ce4ca6f c01089b0 disable_irq_nosync_R27bbf221 c0108640 probe_irq_mask_R360b1afe c01083f0 request_irq_R0c60f2e0 c01084b0 free_irq_Rf20dabd8 c0108530 probe_irq_on_Rb121390a c01086c0 probe_irq_off_Rab600421 となり、 が出てこないみたいです。c010 で grep すると、 [kate @ comp0 RealTek]$ cat /proc/ksyms | grep c010 c0105470 machine_real_restart_R3da1b07a c01053b0 default_idle_R92897e3d c01058d0 dump_thread_Rae90b20c c010c3e0 dump_fpu_Rf7e7d3e6 c010c480 dump_extended_fpu_Ra9c2ac9b c01082c0 enable_irq_Rfcec0987 c0108260 disable_irq_R3ce4ca6f c01089b0 disable_irq_nosync_R27bbf221 c0108640 probe_irq_mask_R360b1afe c0105700 kernel_thread_R7e9ebb05 c010b0e0 get_cmos_time_Rb31ddfb4 c0100234 gdt_R455fbf86 c0105dc8 __down_failed c0105dd4 __down_failed_interruptible c0105de0 __down_failed_trylock c0105dec __up_wakeup c010b9d0 pci_alloc_consistent_R5ca45b27 c010ba60 pci_free_consistent_R8a923015 c010e9d0 pcibios_penalize_isa_irq_R5211c8bf c010d9d0 pcibios_set_irq_routing_Re317f518 c010d8b0 pcibios_get_irq_routing_table_R294a76e5 c0105ba0 get_wchan_R15345b4c c010f790 mtrr_add_R56179c5f c010f9d0 mtrr_del_R272d394e c01083f0 request_irq_R0c60f2e0 c01084b0 free_irq_Rf20dabd8 c0108530 probe_irq_on_Rb121390a c01086c0 probe_irq_off_Rab600421 c0105390 disable_hlt_R794487ee c01053a0 enable_hlt_R9c7077bd c010ad50 do_gettimeofday_R72270e35 c010adc0 do_settimeofday_R19d7b1ff c0105520 machine_restart_Re6e3ef70 c01055a0 machine_halt_R9aa32630 c01055b0 machine_power_off_R091c824a c0104000 empty_zero_page_R84daabab となりました。念のため、rtl8139.o を付けておきます。 -- (株)PFU OSSC)Linuxシステム部 片山 善夫 Tel 044-520-6617 Fax 044-556-1022 begin 644 rtl8139.o.gz M'XL(`%S;JST"`[5[#WA3QY7O2):Q;`PRX"0D(>2F @ 1:*,9;_.X'$("0 @ 8!`V MMO,'(F3I"@MDR9&NL)TM8.=BZLN-$M*F:=JO3<*7=#=YZ?OJ_>`%IZ2),#3. M'W:7$G=+"]NZ:=K8M3'.GQHVR4;OG)F1=26;--E]SQ]H[F]FSIESSIPY[)[;,. M8N.^&:IUGFKH%.!9L0[*(\:=)!;.'OPL%HO)IW(ZHXIUS+3_'+3*(]EJ[=SZ MR+SOQ,(Y)_Z4%CO2#+6Q\%@C\J$$:FV.W%LMGQ)&3"]%Q^7'433%^IZ4<=#Z MGCSPV6CU3LH]9]"4!OQ.Y9C/KEC<08CI\=Z(-'N:^;R]+F+)L&.'43TA:NV8 M1UE]KV2!GO*G^KU_5/[=?%Y^W:", @ Y2FEU;/;[;3H2UQ8>5/#7O?`RK6/$>R M)R2[Y[[&,;!0X_OQ"J[;2#C#'!W:C:-9YT;FM8,ZD7G_@<:(JY>C4<^:`]R5 M58+RX`(U/"*_;I+_,J8$W:A)].52M.#ECUY4:T<./P,,E3J#,DVUCCW[#.5N M!..I,Y"78LOMP=E2ZK+?&5"_*\'C6J4N1[$9T4SOZKH._!JJ3/N[X+//.H`D MYMBAZIVZ>I!NT(>L3\*0'9_&8H1(=W:>EVY7K0/*)UV/%YR&OI6*=<"^TT`[ MWPF=/R7TBOG M]0/(6H`)[H[*O?;1<5N.3LI$F`8S/HH/:^7>^^!AL//LW @ 7FZ&7KH`"#F[X7 M[>H]>.#?T7_>U2WLA3+S3!?#X(?[OJ[6 @ O=]KQ)P9W3O7&W?SS5]Q^FG3II* MM/9'L$W/NBR7_'QD>P]V"J?30MTV:#='._X$ZP1%6BL/_*,<==N3^)BCG>>Q M;2$9B,72"?@`YR2ES\#59=])3*]2,]C1M%$==6&8X+[V,:@T3H/9:K\"3UNS M\>ECE.8Z>*IHFK#``P8(;\"D;GBKGHE.,1<2/[[O?L>VD,AY?G]EJ58X: M-KXV#SZ[3M[ M!F5Q4/CH1?K\\.C%]6V_Z^X"THO'WS?4?1DZ @ F#RJ6PJV*&$7.#"X6S5+ISX2[K<>^_T M<(Y2.];QK^1<&DQE]LU]UA$4\SBN'5 @ EK^W'43KWYLE[%&D&D$)!E9W_:WXR;DLV?LD!).Z'=" M'-13I=J53T9'Z%,']CY_?`X;U3S^SSK @ I8R-COQ*'!DY,P@*9EH93]#N_5_M M&3$=LX[$E8OK-E>M,JHK!0@'M38;8AZL=0B'RCLG_G0=C#I[^K;!Z=MR M.]X&1[/+G]S\&M6R:NS53BCW;NB,AA>H52/R"?N1:-P[7=^Z'W"&JPJ>VCEV]F>J%. MVRZ\L^>"+%[0J=8+$4-G.PW8%]`,%^0W=*,CZ]HNO*R/F^&(#CETG8/JSC?W M?22?FDL5!CZ)^=QC5-<(JL,-VL;2>YL98%\5C1 M&97FQF;0KK3-V/,W:!C:"/Y\Z%4<&^7\H`?7#BS4=P84^1!4TLBKTL?T''![ MNR8`RQCDPFD;V]X`&Y:K)>A"G>-[K]D<.X+]ZY-6:/+0'^/0[Z`5QM,HL,]0/YW<]/_&5Z9B^X+/AF%VWJDY^A6Z21*$=P MMU*6+QA4"5W8II^WY)%QBU&02D&7<9D&H*284CMFEWOOQJW.#C:"F)`DK7`8 M0:1&2L\#]?M6&6CHMWP+1.RS2!0<;Z^9.8=,/E7 @ R(X>D+H]#LD:]4AC/:56H@,)A!LH&TIF.]]BF,YND\ MRP*S-+OCW79 @ HFVT)QL0Y(%IDV9Q-MW;P_IN(5)7/6IF>E+?2<<=+U)7`/IL M,$_+9RR>H&;*5-Q;2W0#LD/YS:L&7*#%(7W%& M=.5A[CCE @ 9B\(R%QO--,D9]]2A4FJ.C MJBT/;96GRD]"\Q+Y1SC\%=WN&ZD7+K%M6'$WK,_=V3!\W>!AYN$P5T9I-V4^ M>W.DGGDR&WEXUJ'J2'TCC<[)PN`2B]277K1'ZN]@S9'ZY5/T0]DHPTC]9 @ WC M.!&!=*T[%S($I\ M`4)%C=Q;QA9CV)@DR>63Z=3A[#4I+9#-]9LAG5GNN:0>>XX%P,[QI(F('4-+ MQHX]27-!#;5Y'#WTV]3.`VE`6/'ZSZE?I]-"M?971W*[Y=Z=K>DS6F5[_-LPDMW_/4QKG:UL'6*T @ V=U*ZF['WUS!RDDI]WWZ2+_@^*AP- M0D\_#Y^OIM%8J<[I/"LM5%O!)FH*-R7],DT\:E:KW ME*I!9=L`3*SREMJ-0?#$N_K+KU/Y]L_!B"R50"H:^6$WTBV?3G?GKW[RO$[2/0=]<-\T3*=!8#CK$*#(`7R6>X5+ZC:C:MDJ7UD>2N]9 M3K?K077;2"17A7U[>@>.`K-S2>UXDN;,M%C2P=9-VFZ(P:87.YZC;7K3D M'68A/UM9M0'HQU=FZB2!6N8]&"<6VAH[@GI4)R\!M)`YFFPC\&>:7S2[#QOH M%@X;_QBUU:`>P`M,I..-C;8K:>+%ZJS::S^ M!6ZN!WY$6?6KCZ`:%2=,^P,ZZIA*WU"5CN[+ET]"RW9I;?M>(VF;75V3FD;' M;'FT2Z5DBMGNACQ>[N4;1.?YMK28;2MDSW`"D.Z)V1J'MRCCX[9,`UM3R7R` M"63STHWJ`33QBEAL&6G!"=(3A=;$;-N5NS)4'3!U_BF5`++,MU]V_(&:; M%UG^"^R@[#FC5IV)[#6JN143#CK_1_=]4?7*-5B:HS32TE%K?JQ:S_09 MRND4'7B.QF:,AJM,1YYXCB5JIB.;\ZZ/0OZ2WX-N9GIQ)87AFY'O/.2[LIPR M-$>5&?,2C&-QF]Y>U2_-5_?TR^^GJ=;!2&X/+FWE)&@;)96FSJ<^C\665/7+ M_VG8_76R&;PJ M%CZ'LSV:3F<[5C5BZCJ(CJ'6_IY&6\5Z#LYY\H`@S:%S)7DN*B1;WW M-#Q[U/:'F?^_!092[S+"'@MC2^O4VC.0AO$0#P!2KW*J%GN^C:EH.E;U%E@/ M8LQ/-8)MZ\=8O=XXG`7K`/+_MQ3K3Y$?,`,W,74N`R\?+L/\'$^71JU*_;%5 M!;A1W&4T4#)BV[?2K5AJOZ65&6O)1U;*Q;3`U\%_N MNX/&@Z,T3O6/KS)62K/K4L?*D6.Q\+6P:*/)NP[C @ +,,*[>J?WRE$9."2=2@ M9\RRZ'+?U[!C6LRRX7+?7'R4:VOR$.&G8(TI^:\&I;8;V51NAT!Q'0C4>`T$BX0!3--ISG!4 MM7:G/83,%/JI5G7K[MIZ^T/HQ;MGU??XX3!JWSRQG:(S@$M4=4HHLNQ@*A[5G=/=RT=FLNR>M;EG M%,>OF1A?^2T,JH9/?_23\9-TS/&3;/.$6<[,,>U_DV49W9/3D$-J[6GJ?H8Y MDU(/T]YW4SVPYS3\O6R @ Y_;3'[TX'#JD5IT&=XY(TPUJ50]*8>U)5AQT?G![ M9^SJQJX"8_>D4745IO2V'MT]6V_O8,:NZSF?B\IN3F2GN()CX:-\_1[U**LD M)9>=8$$(<&#=>B%FF8LA2JU]"_PMLD6?(;_[F4>I?4LY @ V%A,`=CRR5-A-B? M\1D-(XF%SQ=UQ9<+2W3=)R>E:M5/<0O"3QJF'#19UM"QQ_+O<)-`B\AG=FMAR#:?]CU.=A`9GV'Z`^`[UI7O^& M^3P_OUR3.+](F>P:32^E']?%N]_MN2@/&*0L6%(>N6'+:\-&$,TCK]U2B6)) MLVLVI\K$+O&Z?I=ZC2>__X?A;]`8.I(2#QY*2\2#F&U1S&:_W%?- @ HP-X@U- M*>"Q\G)?):^%#G@;(.7';*NIF,S6<"I[B0;B)^@^HAYXF*O!9]73&6M;6!^Q MCMEW&F*[<[G$F%FE*C%%?IM'M.7 @ 549N] M8DP!%BWNR+TYTCT4[/OZBK50`,)B7_:*-8A6##T.OK1B'3X[A[KP^4-\KJ7% MM_)6?*2 @ S\8P7?R8/LZ%/D,.EK<>I%>N\L"=GB<]2EJU1[7HY8&;V6:?9J\? MW#HWJ!6<^>.`W[+"R M\%/NU;^ALAFD!::7?GFUR^OA#(_RR!D^X#&+P:[1H;I^L&687_H,AU6;45F5 M<]A(;XH,['Q@,?99LND[@.CPEB^I7S @ +,K%8;'@!KK4TQ09.:W @ 6N:H6X[,& MQLN(O`[C67LJ/^=YVGOQ/&U`K7UO?%66#G+ @ V@&Y=_5%.QS*3,=6;K%O3O9V MB`RJ?0N[()*606S49"Y4J$CM8)_UG(F];E)J3^.EZZF<(334(:HY,*Z @ H7Y? M<<>[<&P @ X;R(%6EFLBRQSWJ!>G,'O3UC;['XY?/P/RCCFD%F:@<9;H&S;[A? M?MWP,O;HLYY)I_G5P?FO9>#97,$KFLXW([F9;4;8_HW#LY5Q*+.5,R7';CIA M&$['N\TS9X8W*2?:WHE5G6E[_<30#:87X5`)J8_U @ DJ/7U7]G6]*,]6J"Q`K M;S^(2GQ+5<&*[7CKEFD]QXP'V3D$`SC_0J9MA*?3ZBH#;XHXJ#^^H;)@S MCU?")K`M6]TK2#GVFI1;F4_U4 @ E\[#.NEZX?VHG1_-,TZ3[Y4]@"\$)BJ![O M:/DU+[O7'5JM0_U-1^YG)Z.9JBT/STUZR6!ZL2[/',6+G4N1^K+12/T&.`[T MZU9BQ!J:P=9ECYZ>HVQYUY_M/!M>0R^@]-*=IB-UC-UBTXOWIYZQ;!-GK!+- M&8O>225NE^H&,]F*&'H6?6+D*=!4W36=,',(\ZT%5= M:>AD(=:>)-I4-]&)*`ES5E>#2\;N[GLH?D_2]]#$C/L/D89 M2WL(;ZS[]F<]SUN5_5D8S#I>)]- @ D!.&]6V_N^]^[A/(?:U;M0MJ)35X%MU+ MZ,Q$5LYE[VLPE:9O&CO?W#NWNA%W3&J/E'L\X\[DFC>9_$EIW>&X\:*2".OG M;O>$151+LM%ISUBSUO(6`Z54BR89,E:"O6F%,L;R>UH3_G%$O,)T)5_PAZY7 M.2,-WS-,^1?['_X5YA?GF\N7%M98-E5;.<^1G(H.;(N/0=\1\PMHC$0SK](O M)Z7?M(E^BY/ZQ?_B_717X9?:+\&O_$OUFS-KUNS_E_T.S")SODR_@[IINB_3 M[T;]E]/W?_JGXY[4''\_*#7YL @ AN;JGR`4^_Z'/L%H,A;\"_(GDYA$->_PZ'JQ&& M#H6;0BO,D_5SAJ7&0'!%DK#"\E1A[[CJW+C%D"OH;99P\&K1Z=LB[A*JMVPH M-Q=6+$/1!9LS)`E6J1'EE`1WT`NB$I_7)?I#XHHU]@VDV1EL<@0H!Y!P:;F7 MU7C"/I_#'6[VB:V:VJ:P3_*Z@*7#X_5)8M#A\S9YI17Q5F>KP^N'ZF"X67*@ M!>,M;K$AO`/`I#_>&G+Q+JNI@$*3&`HY=XB"3]PM^H1%!4N+S(NGU#]!'U?! M%@BZ1$$*.OTAETB926W-HA`("AYOJ^@60LVBZ%["--/2:Q7>&/`O?5`,!@0I M((3`;![DZ1:PB\"ZY$\:_RJFJ8I7"TZW.PAJB2'P16`H"J$6K^1J!!?!8:I; MESI]OJ437";SGVS_2UAM MLRXM*2K?>L?"T&U"U;IU M22%E(<01R2F%0T)!Z\+B_.)66-U0+WDQX @ NTAFTPG'YC()5%"()*V.^^11!6 MAF!S0+*:>ZJT/2B#^/BBV^MD @ 8S'(@@9- @ Q'JUDXRB)7E5\0,"12N=Q5#2%A M86 @ IBV%"`-1W8M2\*CE97D3'MP3"/K?_&Q#$?+Z`RRF)@A-MT-`&3T&1RBL$ M88A)C):747JZD1960)`6_8L6"]X`!D-AX:V^5F%=]69DM<8NV+U^D*XPO[`U M(>/5)4N:GQI1DJB&H81V#4%R"(S.H.2'270V>'U> MJ4T[75?C7\OF=3)OG-5;07P?KJ)4Q@'/%_+6V(?-;TCTB2Z<#P'V@%UY:)/F M"9M,S>0+Z3=HA9I:$DXO;,(5`U.YPQN2T#F=L#^M\TM5SM`N1HFHAKD\P]6M M6G @ U%>/\+8W>9L$5\'N\.^)3?'6E)OO?%EP6L)V"8DUB("SEQ9"VR2!N/P051\(BV$1.P8E`?;98!MZK>#V M!F&BXWAAZ"KTR"">J @ 5H^/#":.7YY:WY"T-?9`-.OQD'=R.79B=(#.M0$A8V M"R'O @ R(RPS3%%X`J]U7&G\@#!*[JBH6W4IOYQ19LQ$I>E4FR_8%+`+)I M$"1N,JI$UM^1?X+>'?"+7X$\/G^;PM+2@&=IJ,WOXB9O#E"=\E#]W:%\*/)H M?K8BV0;+B]GX @ 8#0%'8U"I @ WH?$F#)*'/A%DKKR"!W,-`RZ_V.JE\45#!H]! M1Y(QIU*#TZ_S3X3`8.NBQ7F"*QP, @ M=PSUT5]JRD`1$1Z!$419Q3#BU-[JNN MEKA_:;E/V):1,R=ASS!L\GKE]!,'!$_0V21""NEF,QW*^SL3Q?UCG7^WT^=U M3^P%G`@,C;L"!$(/IM%TY*RIZ#?1`]2#X.+)DN0EZ7++%/H7\_C7%(`5&()% M*CX(5&[1`_+CT&R]7'U_9/K#^4O\_S)#7+^5#7Y,,WQ:!_I2*X#+1R.Y"S+[ M'1BM?)/B.EW'?&]*6@"4OQO_ M4_*W58+=LFX9)HJKPJ'4QI3<+^4XG-(:A%9)W!7?X!=29\6$)(]G)'D"H5-Z M&XG/+(87TNCT>0ADJ$T-S2$!'EA)6/`APB*V332*3O?BB#IES4)WI!R%K+);;A$5K-M8N%@KS*TJ%P @ +X*RLR8P;N!AX2^EZX M52C+-],.2RO*(1?/#[4U2&O_/IGI]H MCU_HW()O'31T"]80<@6(9G!Z`[^+6L)Q6KSCS81$]0FZ^#VK.87?O(V$WI_- MX+1Q?K?S,LXO>DNR_''Y\&8Z0U./_7(GW=$18N//<9$&;F%W@:GR;4SIM_UK M4^M1S_L5QNL7$O),=G(_;-^1TB\*!MBN2Y8/_^_6R$KIBP @ IG4*/65H;PU\= M]-LW13^M#OA7`,R>R61WS'YNOQP^%UI^9^Z$LV?&9'Y3WWW&Y^*#I+O6M!2J MM*01$*>3Z5?EANT9Y(9XG*2M&>16/M=Y'.=I_`!_NU;(G^/8ROTGCK?R.1$X M=G-^<9P\OG'B3O0%_OQ4&LZ+CGYI M'>^+C^H8?AWP2_ @ M?LX?WPKCZXRX_/B.\AF @ _3YA_?&W0>70>(%C?%ND,OPWX^6L(>8RWXZMKW\3\9I`AP,X)BV>12X#W:/#? M`._7X$\!"Q/3E$ET(/=V#<[0,WO'\0S`#VOHYP!^3(.O!SR @ Z7\S8,&0P`N1 MOP8O`?Q/&GHSX"A M/!KL1'TU>`?JH\%-@)_7R(-?N!,R$NUM@'^F:=^'_#7MG8!_H6E7`9_7X,<` MOZO!WT=Y-/0_QO&,"?PL\M?@%["_!O\,Y=?0_Q^DSTS @ X]BNZ7\"^6G:^]!^ M60G\+X @ U[>\`_K-&WM\"_DR#_Z"GQ43_/P.NU.!AG"\-_@#;=0D\CK_HTB7X MX;I*!,U,H@=?VZ[!1L#/:/!,P#=HZ',!#VC:;P`L9"+S_RC06/^/8EA0BL\@&P.T:^FK`E1I\=YIV M0\LD]^-X&GNYD5Z#=P*^1\,_.1Y/2\'323/JS]_!SH*:?7Q\@>-'L%W/]@S$ MCZ>QYT44&\ES:2R?*.7X9<"]?+]`_&^`^^'Y6HZ'`/\5GN=S/!/6MA'DOX%C M_$+QUW0L+T)L,3#_R.-XJX'I>R?'+09FC]LX?L+`['4OQQ@[4/YU'/]%\\8. M\X#/4[`I/1G?DH)O3\%U*=B=@A],P0^GX&=2\$LI^%]2\%`*_J\4/'-:,OY& M"JY,P34I.)2"OYV"?YB"_U<*?C,%_T<*_L\4G`NQ:O`FEN_,AAU-R$AN-P-> M`,YRD+=7IK0G7OB2'2Y7H0..!,U>/$@2_ @ IV9?QA%:%O%,GD]V9DZE=UA+]! M))HW@<3A8"]W',DO>A/U*>]X2;/+ZY`:?'$Y'MU>`,NR4>?"AU4\"9G\P19XC5BHL8+]*`Z MU:RQA0T]T8S7M,$$:G7P>UN2N&.AA/342D1^*'DI91-*6-`24M9*R4MI:2EE+24DI;1 M06 @ C;:--M,5,6\R4JYER-5.N9LK53+F:2U.^WS#AU>[@;H?7C6^GG4T);V9? M9DA @ S9<3$I7:[QNDU$ZY\+[@>P>IG2:O].0.+""DUL6_>S!5P]1RIGY?8*KF M+R7Q55[L$[JZZ*J`6."H=A:5.(O4N8L+RHK)KB;Z0LY1 M75'D+G9YQ%+B#30'(`8$Q5`@''2)CNKRTA*QP>5RP]!!\8&P&,+&':`5L'&: MG<6>@@IHDAJ](2X:B7?S!A]P5!>X2 @ L\A6(!V>GU>+QB"&K(3I>G'#CMPKM11VA7`]2*A0WEY05N$@IX)%S?>)OCJ'87B6)).7B[ MJSGL"#J](>@.'>AP[@*S!YK+"=.+LG&7FEWFXB(G<0< M#\'F`/@F6-/O!2N8725.^%>"$<6!;TL=]'TJ2-)06%+N @ N4*4G@]&/BJ"\6R M"D\%5&'$IN&676(ZW#`%;N!55%;H%(M%V$9\<34]KM)"C[G43:B.5&!/(=BC MP5U.F-[5!45ES@)7 @ Q,L`6/A]+4X)5>C.[##$6YV5(OE#:45+H@>V$)CLZ.Z MV%SLM+A/+&MQF=S&=/9_HA/[QV7,75Y048!/U%CYWJ`PN MSC @ CX@(B/XR9D/^IEL* M^9N>\2M$G$_H61$QGI&P'YY5="#T65[_(>("R#FP-!."OY+1%1)Z!L!V//?B M^7_@,O.WGY*"]E`QOG$5X^FL[*'_+R9LAM=`\1DC^-]2_F>`64>IF0 MNSBV\_+A:P_D'$ M<-A_*H.-_QS6=X(^1D;WD)'1J5B6$/(DEI"X/XUE&5!_`+\GR^3;@>4:0GPS6/MW M9[#YRH5#DVXM(=?/9/5;$<-!P\GQ2<3?AG%X^1NL[R+D1A/#2WA98&+U[8CO M`KE-C#X3$ES=>LCI,DLP)N`[RQN9\1V M0A[G^&G$F\$_.(XBK@:[<-P_B]GCMQQ_BKB&'>H0YT*IVP)Z0'+0R#'=8Q_-B_WS6/^]B @ O'Y_'_.YI++\#_HKE=V'^ ML7R>F=S^3T MSV=RRO.9/(_R]LR>Q3=+I"7[T]V/?/'+;S\O_!O^VB, #3@`` ` end From sugawara @ mlab.jks.ynu.ac.jp Wed Oct 16 16:13:38 2002 From: sugawara @ mlab.jks.ynu.ac.jp (Taira Sugawara) Date: Wed, 16 Oct 2002 16:13:38 +0900 Subject: [SCore-users-jp] インストール時のエラー Message-ID: <20021016155053.D0FC.SUGAWARA@mlab.jks.ynu.ac.jp> 横浜国立大学の菅原です。 Dell Precision Workstation 530 RedHat7.2 SCore Ver.5.0.1 以上のような環境なんですが、 インストール時に以下のようなエラーが出ます。 Gdk-ERROR **: BadAccess serial 132 error_code 10 request_code 147 minor_code 1 Gdk-ERROR **: BadShmSeg serial 133 error_code 190 request_code 147 minor_code 5 これは過去ログで対処法があり、それにて対処しています。 (Ver.5.0.1でも改善されていないということなんですよね?) また、計算ホストのインストールウィンドウが立ち上がって Nextを押すと以下のようなエラーが出ます。 The kernel was unable to re-read the partition table on /tmp/hda (Device or resource busy). This means Linux knows nothing about any modifications you made. You should reboot your computer before doing anything with /tmp/hda これは、Ignoreを選択して(これしかないですが)進んでいます。 一応インストールはされているようですが、何か問題はあるんでしょうか? 最後に、EITにてインストール中にサーバで以下のようなメッセージが出ます。 ServerInstallLogger Starting pbs_mom: pbs_mom: another mom [FAILED] ここで止まるわけではないのですが、何か問題はあるんでしょうか? 何か情報等ありましたらよろしくお願いいたします。 菅原 平 横浜国立大学大学院 環境情報学府 情報メディア環境学専攻 情報メディア学コース 松本研究室 sugawara @ mlab.jks.ynu.ac.jp From kameyama @ pccluster.org Wed Oct 16 16:41:54 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Wed, 16 Oct 2002 16:41:54 +0900 Subject: [SCore-users-jp] インストール時のエラー In-Reply-To: Your message of "Wed, 16 Oct 2002 16:13:38 JST." <20021016155053.D0FC.SUGAWARA@mlab.jks.ynu.ac.jp> Message-ID: <200210160741.g9G7fsY19228@yl-dhcp18.is.s.u-tokyo.ac.jp> 亀山です. In article <20021016155053.D0FC.SUGAWARA @ mlab.jks.ynu.ac.jp> Taira Sugawara wrotes: > また、計算ホストのインストールウィンドウが立ち上がって > Nextを押すと以下のようなエラーが出ます。 > The kernel was unable to re-read the partition table on /tmp/hda (Device or r > esource busy). > This means Linux knows nothing about any modifications you made. > You should reboot your computer before doing anything with /tmp/hda > これは、Ignoreを選択して(これしかないですが)進んでいます。 > 一応インストールはされているようですが、何か問題はあるんでしょうか? ちゃんと reboot して立ち上がったのでしたら, 問題無いとは 思いますが... hda というのは IDE disk なのですが, ディスクは IDE でしょうか? それとも SCSI でしょうか? SCSI ハードディスクをつなげていなくて, /dev/hda にが CD-ROM とかになっていて メディアも入ったままということはないでしょうか? > 最後に、EITにてインストール中にサーバで以下のようなメッセージが出ます。 > ServerInstallLogger Starting pbs_mom: pbs_mom: another mom [FAILED] > ここで止まるわけではないのですが、何か問題はあるんでしょうか? これはたちあげるべき daemon がすでに立ち上がっていたということなので 問題ないと思います. from Kameyama Toyohisa From bogdan.costescu @ iwr.uni-heidelberg.de Wed Oct 16 21:07:33 2002 From: bogdan.costescu @ iwr.uni-heidelberg.de (Bogdan Costescu) Date: Wed, 16 Oct 2002 14:07:33 +0200 (CEST) Subject: [SCore-users-jp] [SCore-users] Developing with PM Message-ID: [ This message comes to score-users, as score-info seems to be obsolete, based on the automated reply that I've got. ] Dear SCore developers, In trying to port the ARMCI communication library to work on PM, we've encountered several problems. The documentation and examples did not provide satisfactory answers to our questions, so we need to ask for clarifications. Most of the questions are related to low-level PM functions: 1. Are the PM functions thread safe ? The documentation only mentions pmCreateAttachFd which has to be protected. 2. How does the send operation (pmSend) works when there is no pmReceive at the other end ? Is it OK to just call one or more times pmSend and then just check if everything was sent with pmIsSendDone ? 3. ARMCI needs to create a dataserver thread/process which spends lots of time waiting for requests from clients in a select(2) call. I have found an example of using select(2) in "pmest"; is this mechanism still supposed to work ? How to obtain the fd (or fd's) to wait on ? What are the semantics of select(2) when waiting on these fd's: what does it means when select(2) returns a positive integer and FD_ISSET(fd) returns true ? In the dataserver, is one fd enough to signal arrival of messages from any client or we need to have one fd per client ? 4. The pmGetFd function returns a list of fd's associated with the context. What is the meaning/use of having more fd's associated with a context ? 5. The dataserver thread/process has to do its own communication separate from the MPI communication. After calling MPI_Init(), how can another context (to be used for the non-MPI communication) be obtained ? Are there limitations in what this context can do as being the second associated to the process ? How can we obtain the list of nodes associated with the first context and associate it with the second context ? 6. Is there some more documentation about PM apart from the man pages available with the distribution and from the web site ? We are looking forward for your reply as these are fundamental issues for our porting work. Thank you in advance! -- Bogdan Costescu IWR - Interdisziplinaeres Zentrum fuer Wissenschaftliches Rechnen Universitaet Heidelberg, INF 368, D-69120 Heidelberg, GERMANY Telephone: +49 6221 54 8869, Telefax: +49 6221 54 8868 E-mail: Bogdan.Costescu @ IWR.Uni-Heidelberg.De _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From hori @ swimmy-soft.com Thu Oct 17 09:27:20 2002 From: hori @ swimmy-soft.com (Atsushi HORI) Date: Thu, 17 Oct 2002 09:27:20 +0900 Subject: [SCore-users-jp] Re: [SCore-users] Developing with PM Message-ID: <3117691640.hori0000@swimmy-soft.com> Hi. I am sorry for this late answer for your query e-mails. >1. Are the PM functions thread safe ? The documentation only mentions >pmCreateAttachFd which has to be protected. The functions of PM_COMPOSITE are thread safe, I hope. >2. How does the send operation (pmSend) works when there is no pmReceive >at the other end ? Is it OK to just call one or more times pmSend and then >just check if everything was sent with pmIsSendDone ? pmSend() works asynchronously in some sense. However, when sender sends a number of messages, and receiver does not receive at all, then the pmSend() returns ENOBUF and fails eventually. So, you are right. >3. ARMCI needs to create a dataserver thread/process which spends >lots of time waiting for requests from clients in a select(2) call. I have >found an example of using select(2) in "pmest"; is this mechanism still >supposed to work ? How to obtain the fd (or fd's) to wait on ? What are >the semantics of select(2) when waiting on these fd's: what does it means >when select(2) returns a positive integer and FD_ISSET(fd) returns true ? >In the dataserver, is one fd enough to signal arrival of messages from any >client or we need to have one fd per client ? Supporting select() is still effective and SCore-D heavily uses. Call pmGetFd() function to obtain file descriptors to select. >4. The pmGetFd function returns a list of fd's associated with the >context. What is the meaning/use of having more fd's associated with a >context ? It depends on PM devices. Think about the case having PM on TCP. There could be a number of TCP connections and FDs associted with. >5. The dataserver thread/process has to do its own communication separate >from the MPI communication. After calling MPI_Init(), how can another >context (to be used for the non-MPI communication) be obtained ? Are there >limitations in what this context can do as being the second associated to >the process ? How can we obtain the list of nodes associated with the >first context and associate it with the second context ? I will answer in another e-mail. >6. Is there some more documentation about PM apart from the man pages >available with the distribution and from the web site ? Read the source code :-) ---- Atsushi HORI Swimmy Software, Inc. _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From hori @ swimmy-soft.com Thu Oct 17 09:44:53 2002 From: hori @ swimmy-soft.com (Atsushi HORI) Date: Thu, 17 Oct 2002 09:44:53 +0900 Subject: [SCore-users-jp] Re: [SCore-users] MPI and PM at the same time Message-ID: <3117692693.hori0001@swimmy-soft.com> Hi, again. >So, I'm trying to get both MPI and PM routines from SCore to work together >in the same program, but so far I failed. I've seen that most of >PM-related routines need a "context" to work with; however, after calling >MPI_Init (which calls score_initialize), there is already a context (and >only one, cf. score_num_pmnet) that seems to have a NULL ->device. This should not happen if the number of nodes is greater than one. >Is it >safe to use the same context for other (non-MPI) operations ? No. It is quite dangerous !! >If not, how >do I get another context ? Do I need to open a device (PM_COMPOSITE) and >get a context on it and if so how do I know that is the same device that >is used by MPI ? (My original idea was to get score_pmnet[0]->device and >obtain another context on it, but it's NULL...) Define the number of network sets with the RESOURCE MACRO, like this. SCORE_RSRC_NUM_NETS(N) where N is the number of network sets you want to use. The default is one. In your case, you have to have two network sets and say, SCORE_RSRC_NUM_NETS(2); somewhere in your code. The associated nodes are the same in all allocated network sets. ---- Atsushi HORI Swimmy Software, Inc. _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From a347802r @ tobata.isc.kyutech.ac.jp Thu Oct 17 11:43:32 2002 From: a347802r @ tobata.isc.kyutech.ac.jp (iida ryousuke) Date: Thu, 17 Oct 2002 11:43:32 +0900 Subject: [SCore-users-jp] ScoreとOpenMPについて Message-ID: <3DAE23D4.1030009@tobata.isc.kyutech.ac.jp> 九州工業大学の飯田といいます。ちょっとした質問なのですが、Score5.0をイン ストールしたのちにOpenMPやOmni OpenMPをScore起動上で動かすことはできま すか。またOmni OpenMPをScoreとはべつにインストールしなくてはならないの ですか。 九州工業大学 界面科学研究室 飯田良介 メールアドレス a347802r @ tobata.isc.kyutech.ac.jp From kameyama @ pccluster.org Thu Oct 17 11:50:31 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Thu, 17 Oct 2002 11:50:31 +0900 Subject: [SCore-users-jp] ScoreとOpenMP について In-Reply-To: Your message of "Thu, 17 Oct 2002 11:43:32 JST." <3DAE23D4.1030009@tobata.isc.kyutech.ac.jp> Message-ID: <200210170250.g9H2oVK01683@yl-dhcp18.is.s.u-tokyo.ac.jp> 亀山です. In article <3DAE23D4.1030009 @ tobata.isc.kyutech.ac.jp> iida ryousuke wrotes: > 九州工業大学の飯田といいます。ちょっとした質問なのですが、Score5.0をイン > ストールしたのちにOpenMPやOmni OpenMPをScore起動上で動かすことはできま > すか。またOmni OpenMPをScoreとはべつにインストールしなくてはならないの > ですか。 EIT で SCore を install すると Omni も /opt/omni にインストールされます. ソースから install した場合でも Omni のソース tar file を展開してあれば install されます. 実際のコンパイル方法, 実行方法は /opt/omni/doc/omni-scash.html の How to compile and run your program on your cluster を参照してください. from Kameyama Toyohisa From jure.jerman @ rzs-hm.si Thu Oct 17 14:07:41 2002 From: jure.jerman @ rzs-hm.si (Jure Jerman) Date: Thu, 17 Oct 2002 05:07:41 +0000 (UTC) Subject: [SCore-users-jp] [SCore-users] Memory usage of SCore application Message-ID: Hello, I wanted to track down one problem in our code and I was quite surprised that just a call to mpi_init consumes 350 MB of memory (this is at least written in report if you specify -stat=detailed in scrun options). Is this normal behavior? Thank you very much in advance for any clue, Jure -------------------------------------------------------------- Jure Jerman Environmental Agency of Slovenia _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From hori @ swimmy-soft.com Thu Oct 17 14:13:48 2002 From: hori @ swimmy-soft.com (Atsushi HORI) Date: Thu, 17 Oct 2002 14:13:48 +0900 Subject: [SCore-users-jp] Re: [SCore-users] Memory usage of SCore application In-Reply-To: References: Message-ID: <3117708828.hori0003@swimmy-soft.com> Hi. >I wanted to track down one problem in our code and I was >quite surprised that just a call to mpi_init consumes >350 MB of memory (this is at least written in report >if you specify -stat=detailed in scrun options). > >Is this normal behavior? It depends. If your program has a large data which is statically allocated (more than 300MB in your case), then this could happen. ---- Atsushi HORI Swimmy Software, Inc. _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From c9523 @ st.cs.kumamoto-u.ac.jp Thu Oct 17 17:28:20 2002 From: c9523 @ st.cs.kumamoto-u.ac.jp (tomomi fuchigami) Date: Thu, 17 Oct 2002 17:28:20 +0900 Subject: [SCore-users-jp] PM/Ethernetテスト失敗 Message-ID: <3DAE74A4.1040308@st.cs.kumamoto-u.ac.jp> 渕上です。 システム環境: OS:RedHat7.2 Network:100 BASE-TX Eethenet computer数:3台 構成:server兼computeホスト1台 computeホスト2台 『RPMファイルによるインストール』の手順に従ってインストールを行いました。 現在、システムテストPM/Ethernetテストのetherpmctlコマンドの実行がうまく 行きません。 全てのホストでetherpmctlコマンドを実行したところ、serverホストでは以下の エラーメッセージが出力されました。 n Starting PM/Ethernet: device: eth0 etherpmctl: ERROR on unit 0: "Operation not supported(95)" Check dmesg log!! また、computeホストにおいては2台とも以下のエラーメッセージが出力されました。 n Starting PM/Ethernet: device: eth0 etherpmctl: ERROR on unit 0: "Device or resource busy(16)" Check dmesg log!! ホスト上で他にPM/Ethernetを使っているプロセスが存在するかどうか確認しま したがそのようなプロセスはありませんでした。 dmesg logを確認しましたが原因が分かりませんでした。 logを載せようと思いましたが、あまりに長くどの部分を載せていいのかわから ないので教えていただけないでししょうか? また、etherpmctlコマンドをエラーなく実行させるにはどうすれば良いのでしょ うか? よろしくお願いします。 From kameyama @ pccluster.org Thu Oct 17 17:33:45 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Thu, 17 Oct 2002 17:33:45 +0900 Subject: [SCore-users-jp] PM/Ethernetテスト失敗 In-Reply-To: Your message of "Thu, 17 Oct 2002 17:28:20 JST." <3DAE74A4.1040308@st.cs.kumamoto-u.ac.jp> Message-ID: <200210170833.g9H8XjK03136@yl-dhcp18.is.s.u-tokyo.ac.jp> 亀山です. In article <3DAE74A4.1040308 @ st.cs.kumamoto-u.ac.jp> tomomi fuchigami wrotes: > 全てのホストでetherpmctlコマンドを実行したところ、serverホストでは以下の > エラーメッセージが出力されました。 > > n Starting PM/Ethernet: > device: eth0 > etherpmctl: ERROR on unit 0: "Operation not supported(95)" Check dmesg log!! kernel を入れ換える必要があるのですが, 入れ換えましたでしょうか? > また、computeホストにおいては2台とも以下のエラーメッセージが出力されました。 > > n Starting PM/Ethernet: > device: eth0 > etherpmctl: ERROR on unit 0: "Device or resource busy(16)" Check dmesg log!! すでに etherpmctl が行われている可能性が高いです. > > dmesg logを確認しましたが原因が分かりませんでした。 > logを載せようと思いましたが、あまりに長くどの部分を載せていいのかわから > ないので教えていただけないでししょうか? まず, % dmesg | grep pm を行ってみてください. (起動時のメッセージが残っていないとマッチしない可能性もありますが...) PM/Ethernet: register etherpm device as major(122) なるメッセージがあれば PM/Ethernet driver が組み込まれています. これが無ければ kernel のいれ直しが必要になります. さらに etherpm0: 16 contexts using 4096KB MEM, maxunit=4, maxnodes=512, mtu=1468, eth0. etherpm0: Interrupt Reaping on eth0, irq 11 などというメッセージが出ていれば, etherpmctl が実行されています. 多分. 再度 etherpmctl を行う必要はないと思います. from Kameyama Toyohisa From kameyama @ pccluster.org Thu Oct 17 20:08:49 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Thu, 17 Oct 2002 20:08:49 +0900 Subject: [SCore-users-jp] [SCore-users] Re: [score-info] 質問 In-Reply-To: Your message of "Thu, 17 Oct 2002 20:02:32 JST." <004201c275cc$b113fad0$6e010fb4@j6nac110> Message-ID: <200210171108.g9HB8nK03725@yl-dhcp18.is.s.u-tokyo.ac.jp> 亀山です. In article <004201c275cc$b113fad0$6e010fb4 @ j6nac110> "松浦芳樹" wrotes: > $ cd /opt/score/deploy > $ scout -g pcc > SCOUT: Spawn done. > SCOUT: session started > $ ./scstest -network ethernet > CSTEST: BURST on ethernet(chan=0,ctx=0,len=16) > PM ethernet/ethernet device already opened > ここでストップしてしまいます。 別のプロセスが PM ethernet を使用しているのだと思います. たとえば, rpmtest -reply を行ったプロセスを止めていない ということはありませんでしょうか? from Kameyama Toyohisa _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From bogdan.costescu @ iwr.uni-heidelberg.de Thu Oct 17 23:05:06 2002 From: bogdan.costescu @ iwr.uni-heidelberg.de (Bogdan Costescu) Date: Thu, 17 Oct 2002 16:05:06 +0200 (CEST) Subject: [SCore-users-jp] Re: [SCore-users] MPI and PM at the same time In-Reply-To: <3117692693.hori0001@swimmy-soft.com> Message-ID: On Thu, 17 Oct 2002, Atsushi HORI wrote: > This should not happen if the number of nodes is greater than one. It does ! Or maybe I don't know how to obtain the data. I've included at the end of the message a sample program along with the output that I obtain when running here with SCore configured to use both Myrinet and shared memory. (If the text is too mangled to be useful I can send it as attachement or make it available on a web site). > Define the number of network sets with the RESOURCE MACRO, like this. > > SCORE_RSRC_NUM_NETS(N) I've already tried to set directly the score_num_pmnet variable which is mentioned in the score_initialize() man page and after MPI_Init(), the number of contexts is always 1. When using this macro, the compiler (with -Wall) warns that "unused variable `score_resource_num_netsets'" and the result is always 1 context. But the real problem is that I can't use this method. The ARMCI library has to be initialized *after* MPI, so that it already has all processes up and running. That's why I asked how to obtain another context starting from the one used by MPI. In order to have another context, I was trying to get the device used by the MPI context so that I can call pmOpenContext and get a second context on this device - that's where I discovered that ->device was NULL and of course I couldn't use it in the pmOpenContext call. I also tried to get ->device for the "children" contexts attached to real devices which are in one case only shmem and in the other only myrinet (and I've also tried on a larger number on nodes to have both shmem and myrinet at the same time, but the output becomes long - available on request). Is there any other way of getting another context ? How about using pmSaveContext/pmRestoreContext to get a copy of the first context (as we want the same connectivity) ? What is pmAttachContext used for ? The documentation for pmCreateAttachFd says that the fd obtained there could be used in pmAttachContext. But what for ? If I have a context I attach a fd to it so that I can use select(2), but then I use this fd and a context type to create another context ??? Another strange thing is that in the Myrinet case, the number of nodes returned in pmContextConfig.nodes is 1 when I run on 2 nodes as 2x1 (but becomes 4 when I run on 4 nodes as 4x1). However, I haven't investigated this further, so there might be a logical explanation for it... --------------------------------------------------------------- #include #include #include #include #include #include #include #include pmContext *mpic, *pc; pmDevice *pd; void fatal(char *s, int err) { printf("#%d: %s %s\n", score_self_node, s, pmErrorString(err)); fflush(stdout); exit(1); } int main(int argc, char **argv) { int err, i; pmContextConfig cc; pmContext *allc[PM_MAX_NODE]; int allnr[PM_MAX_NODE]; SCORE_RSRC_NUM_NETS(2); MPI_Init(&argc, &argv); if (score_num_pmnet < 1) { printf("No context !!!\n"); return 1; } else printf("#%d: Nr. of contexts: %d\n", score_self_node, score_num_pmnet); mpic = score_pmnet[0]; if ((err = pmGetContextConfig(mpic, &cc)) != PM_SUCCESS) fatal("pmGetContextConfig", err); printf("#%d:C: device=%p, parent=%p, ref_count=%d, use_count=%d, size=%d\n", score_self_node, mpic->device, mpic->parent, mpic->ref_count, mpic->use_count, mpic->size); printf("#%d:CC: type=%s, nr=%d, nodes=%d, mtu=%d, size=%d, opt=%ld\n", score_self_node, cc.type, cc.number, cc.nodes, cc.mtu, cc.size, cc.option); for (i = 0; i < cc.nodes; i++) { /* pmExtractNode does not work for the node itself !!!*/ if (i == score_self_node) continue; if ((err = pmExtractNode(mpic, i, &allc[i], &allnr[i])) != PM_SUCCESS) fatal("pmExtractNode", err); if ((err = pmGetContextConfig(allc[i], &cc)) != PM_SUCCESS) fatal("pmGetContextConfig", err); printf("#%d:C: me=%d, device=%p, parent=%p, ref_count=%d, use_count=%d, size=%d\n", score_self_node, i, allc[i]->device, allc[i]->parent, allc[i]->ref_count, allc[i]->use_count, allc[i]->size); printf("#%d:CC: me=%d, type=%s, nr=%d, nodes=%d, mtu=%d, size=%d, opt=%ld\n", score_self_node, i, cc.type, cc.number, cc.nodes, cc.mtu, cc.size, cc.option); fflush(stdout); } MPI_Barrier(MPI_COMM_WORLD); fflush(stdout); MPI_Finalize(); return 0; } And the output: [bogdan @ node203 ~/tmp]$ scrun -nodes=1x2 ./z SCore-D 4.2.1 connected (jid=257). <0:0> SCORE: 2 nodes (1x2) ready. #0: Nr. of contexts: 1 #0:C: device=(nil), parent=(nil), ref_count=1, use_count=0, size=8484 #0:CC: type=composite, nr=0, nodes=2, mtu=8192, size=65952, opt=68 #0:C: me=1, device=(nil), parent=0x8530148, ref_count=2, use_count=2, size=276 #0:CC: me=1, type=shmem, nr=21, nodes=2, mtu=8192, size=65568, opt=68 #1: Nr. of contexts: 1 #1:C: device=(nil), parent=(nil), ref_count=1, use_count=0, size=8484 #1:CC: type=composite, nr=0, nodes=2, mtu=8192, size=65952, opt=68 #1:C: me=0, device=(nil), parent=0x8530148, ref_count=2, use_count=2, size=276 #1:CC: me=0, type=shmem, nr=21, nodes=2, mtu=8192, size=65568, opt=68 [bogdan @ node203 ~/tmp]$ [bogdan @ node203 ~/tmp]$ scrun -nodes=2x1 ./z SCore-D 4.2.1 connected (jid=256). <0:0> SCORE: 2 nodes (2x1) ready. #0: Nr. of contexts: 1 #0:C: device=(nil), parent=(nil), ref_count=1, use_count=0, size=8484 #0:CC: type=composite, nr=0, nodes=1, mtu=8256, size=164240, opt=94 #1: Nr. of contexts: 1 #1:C: device=(nil), parent=(nil), ref_count=1, use_count=0, size=8484 #1:CC: type=composite, nr=0, nodes=1, mtu=8256, size=164240, opt=94 #1:C: me=0, device=(nil), parent=0x8530148, ref_count=2, use_count=2, size=272 #1:CC: me=0, type=myrinet, nr=0, nodes=2, mtu=8256, size=163856, opt=127 [bogdan @ node203 ~/tmp]$ -- Bogdan Costescu IWR - Interdisziplinaeres Zentrum fuer Wissenschaftliches Rechnen Universitaet Heidelberg, INF 368, D-69120 Heidelberg, GERMANY Telephone: +49 6221 54 8869, Telefax: +49 6221 54 8868 E-mail: Bogdan.Costescu @ IWR.Uni-Heidelberg.De _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From bogdan.costescu @ iwr.uni-heidelberg.de Thu Oct 17 23:11:01 2002 From: bogdan.costescu @ iwr.uni-heidelberg.de (Bogdan Costescu) Date: Thu, 17 Oct 2002 16:11:01 +0200 (CEST) Subject: [SCore-users-jp] Re: [SCore-users] Developing with PM In-Reply-To: <3117691640.hori0000@swimmy-soft.com> Message-ID: On Thu, 17 Oct 2002, Atsushi HORI wrote: > Call pmGetFd() function to obtain file descriptors to select. The question was more like how to attach an fd to a context, but I see that pmCreateAttachFd is the only one which can output a fd... > Read the source code :-) I do, but it's much easier when you know what to look for :-) -- Bogdan Costescu IWR - Interdisziplinaeres Zentrum fuer Wissenschaftliches Rechnen Universitaet Heidelberg, INF 368, D-69120 Heidelberg, GERMANY Telephone: +49 6221 54 8869, Telefax: +49 6221 54 8868 E-mail: Bogdan.Costescu @ IWR.Uni-Heidelberg.De _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From kameyama @ pccluster.org Fri Oct 18 09:44:26 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Fri, 18 Oct 2002 09:44:26 +0900 Subject: [SCore-users-jp] Re: [SCore-users] MPI and PM at the same time In-Reply-To: Your message of "Thu, 17 Oct 2002 16:05:06 JST." Message-ID: <200210180044.g9I0iQK08840@yl-dhcp18.is.s.u-tokyo.ac.jp> HI. In article Bogdan Costescu wrotes: > > Define the number of network sets with the RESOURCE MACRO, like this. > > > > SCORE_RSRC_NUM_NETS(N) > > I've already tried to set directly the score_num_pmnet variable which is > mentioned in the score_initialize() man page and after MPI_Init(), the > number of contexts is always 1. When using this macro, the compiler (with > -Wall) warns that "unused variable `score_resource_num_netsets'" and the > result is always 1 context. SCORE_RSRC_NUM_NETS try to *initialize* (not set) global variable to set number of network sets. So you must use SCORE_RSRC_NUM_NETS macro out of the function definition. > #include > #include > #include > #include > #include > #include > #include > #include > > > pmContext *mpic, *pc; > pmDevice *pd; Please insert SCORE_RSRC_NUM_NETS(2); here. > int main(int argc, char **argv) > { > int err, i; > pmContextConfig cc; > pmContext *allc[PM_MAX_NODE]; > int allnr[PM_MAX_NODE]; > > SCORE_RSRC_NUM_NETS(2); you may remove this SCORE_RSRC_NUM_NETS macro. from Kameyama Toyohisa _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From hori @ swimmy-soft.com Fri Oct 18 09:53:39 2002 From: hori @ swimmy-soft.com (Atsushi HORI) Date: Fri, 18 Oct 2002 09:53:39 +0900 Subject: [SCore-users-jp] Re: [SCore-users] MPI and PM at the same time References: <3117692693.hori0001@swimmy-soft.com> Message-ID: <3117779619.hori0001@swimmy-soft.com> Hi. >> Define the number of network sets with the RESOURCE MACRO, like this. >> >> SCORE_RSRC_NUM_NETS(N) > >I've already tried to set directly the score_num_pmnet variable which is >mentioned in the score_initialize() man page and after MPI_Init(), the >number of contexts is always 1. When using this macro, the compiler (with >-Wall) warns that "unused variable `score_resource_num_netsets'" and the >result is always 1 context. Aha, the macro should be placed outside of function declaration. >But the real problem is that I can't use this method. The ARMCI library >has to be initialized *after* MPI, so that it already has all processes up >and running. That's why I asked how to obtain another context starting >from the one used by MPI. Thus you do not have to mind this. The macro is a declaration (of a global static variable), not a function call. And can be placed anywhere in your program. >In order to have another context, I was trying to get the device used by >the MPI context so that I can call pmOpenContext and get a second context >on this device - that's where I discovered that ->device was NULL and of >course I couldn't use it in the pmOpenContext call. I also tried to get >->device for the "children" contexts attached to real devices which are in >one case only shmem and in the other only myrinet (and I've also tried on >a larger number on nodes to have both shmem and myrinet at the same time, >but the output becomes long - available on request). 1. Any user programs are not wllowed to open or create a new PM contexts. It is SCore-D responsible. SCore-D allocate appropriate contexts for users according to cluster configuration, user program request and runtime options given by user. 2. All user programs can do is attach context(s) to a given file descriptor(s). Thus you have to ASK (or declare ?) to SCore-D how many PM contexts to use. 3. PM's context is not a point-to-point communication. Just one context is enough to communicate with the other nodes. >Is there any other way of getting another context ? How about using >pmSaveContext/pmRestoreContext to get a copy of the first context (as we >want the same connectivity) ? No. They are for checkpoint and restart. >What is pmAttachContext used for ? The documentation for pmCreateAttachFd >says that the fd obtained there could be used in pmAttachContext. But what >for ? If I have a context I attach a fd to it so that I can use select(2), >but then I use this fd and a context type to create another context ??? You have to pay attention to the PM documents. Some functions are privileged and can be used only by SCore-D. As mentioned above, SCore-D creates PM context and pass FDs created by pmCreateAttachFd() function. All user program can do is attaching PM contexts to given FDs. And this is done by score_initialize() function. And your program should be written as the following; --------------------------------------------------------------- #include #include #include #include #include #include #include #include SCORE_RSRC_NUM_NETS(2); /* PLACE THIS MACRO OUTSIDE OF FUNCTION DECLARATION */ pmContext *mpic, *pc; pmDevice *pd; void fatal(char *s, int err) { printf("#%d: %s %s\n", score_self_node, s, pmErrorString(err)); fflush(stdout); exit(1); } int main(int argc, char **argv) { int err, i; pmContextConfig cc; pmContext *allc[PM_MAX_NODE]; /*** ITHINK ONLY ONE IS ENOUGH HERE ***/ int allnr[PM_MAX_NODE]; /*** DO NOT PLACE THIS MACRO IN A FUNCTION DECLARATION SCORE_RSRC_NUM_NETS(2); ***/ MPI_Init(&argc, &argv); if (score_num_pmnet < 1) { printf("No context !!!\n"); return 1; } else printf("#%d: Nr. of contexts: %d\n", score_self_node, score_num_pmnet); mpic = score_pmnet[0]; /* This context is for MPICH/SCORE ***/ /*** AND NEVER USE FOR THE OETHER COMMUNICATIONS ***/ /* truncated */ ---- Atsushi HORI Swimmy Software, Inc. _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From uebayasi @ pultek.co.jp Fri Oct 18 12:20:32 2002 From: uebayasi @ pultek.co.jp (Masao Uebayashi) Date: Fri, 18 Oct 2002 12:20:32 +0900 (JST) Subject: [SCore-users-jp] [SCore-users] A PM paper Message-ID: <20021018.122032.50045711.uebayasi@pultek.co.jp> Hello, I want to read this paper listed in SCore web page. Hiroshi Tezuka, Atsushi Hori, Yutaka Ishikawa, and Mitsuhisa Sato. PM: An Operating System Coordinated High Performance Communication Library. In Bob Hertzberger, Peter Sloot, editor, High-Performance Computing and Networking, volume 1225 of Lecture Notes in Computer Science, pages 708-717. Springer-Verlag, April 1997. I couldn't get any info at springer.de site. Does anyone have a hint? Regards, Masao _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From kameyama @ pccluster.org Fri Oct 18 12:35:12 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Fri, 18 Oct 2002 12:35:12 +0900 Subject: [SCore-users-jp] Re: [SCore-users] A PM paper In-Reply-To: Your message of "Fri, 18 Oct 2002 12:20:32 JST." <20021018.122032.50045711.uebayasi@pultek.co.jp> Message-ID: <200210180335.g9I3ZCK09710@yl-dhcp18.is.s.u-tokyo.ac.jp> In article <20021018.122032.50045711.uebayasi @ pultek.co.jp> Masao Uebayashi wrotes: > I want to read this paper listed in SCore web page. > > Hiroshi Tezuka, Atsushi Hori, Yutaka Ishikawa, and Mitsuhisa > Sato. PM: An Operating System Coordinated High Performance > Communication Library. In Bob Hertzberger, Peter Sloot, > editor, High-Performance Computing and Networking, volume 1225 > of Lecture Notes in Computer Science, pages > 708-717. Springer-Verlag, April 1997. > > I couldn't get any info at springer.de site. Does anyone have a hint? Sorry, wrong link to the article. Please access to: http://www.pccluster.org/score/db/paper-E/1997/hpcn97/tezuka/tezuka.html from Kameyama Toyohisa _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From c9523 @ st.cs.kumamoto-u.ac.jp Fri Oct 18 17:22:33 2002 From: c9523 @ st.cs.kumamoto-u.ac.jp (tomomi fuchigami) Date: Fri, 18 Oct 2002 17:22:33 +0900 Subject: [SCore-users-jp] PM/Ethernetテスト失敗 References: <200210180712.g9I7CLK10699@yl-dhcp18.is.s.u-tokyo.ac.jp> Message-ID: <3DAFC4C9.7050306@st.cs.kumamoto-u.ac.jp> 亀山様 渕上です. さきほどは,送信先を間違えてすみませんでした. ご返信ありがとうございます. > rpmtest は内部で rsh を使用しているのですが, compute host で > rshd は動いているでしょうか? > 各 compute host で > % /opt/score/deploy/score_system_check > を実行することにより rsh できるかなどが確認できます. > rshd などが install されていれば, root で > # /opt/score/deploy/score_system_check rsh > を行えば, rsh できるようになります. % /opt/score/deploy/score_system_check で確認したところ,全てのホストにおいてrshdが動いていませんでした. したがって,各ホストにおいて # /opt/score/deploy/score_system_check rsh を行ったところ,Point-to-Pintoテストを通過できました. ありがとうございました. ところで, # echo rsh >> /etc/securetty でrshdが動くと思っていたのですが動かないのですか? From kameyama @ pccluster.org Fri Oct 18 17:19:09 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Fri, 18 Oct 2002 17:19:09 +0900 Subject: [SCore-users-jp] PM/Ethernetテスト失敗 In-Reply-To: Your message of "Fri, 18 Oct 2002 17:22:33 JST." <3DAFC4C9.7050306@st.cs.kumamoto-u.ac.jp> Message-ID: <200210180819.g9I8J9K11010@yl-dhcp18.is.s.u-tokyo.ac.jp> 亀山です. In article <3DAFC4C9.7050306 @ st.cs.kumamoto-u.ac.jp> tomomi fuchigami wrotes: > ところで, > # echo rsh >> /etc/securetty > でrshdが動くと思っていたのですが動かないのですか? これは rshd が動くようになっているとき, root への rsh を許可する というだけで, rshd 自体が動くかどうかとは無関係です. ちなみに, rshd を動かすためには redhat 7.x では /etc/xinetd.d/rsh を編集して xinetd を起動し直すか, xinetd に SIGUSR2 を送ります. from Kameyama Toyohisa From Yamamoto.Takaya @ wrc.melco.co.jp Fri Oct 18 19:29:29 2002 From: Yamamoto.Takaya @ wrc.melco.co.jp (Takaya Yamamoto) Date: Fri, 18 Oct 2002 19:29:29 +0900 Subject: [SCore-users-jp] デュアルCPUの使い方 Message-ID: <5.0.2.5.2.20021018191854.035bbb90@133.141.16.40> 三菱電機 山本です。 いつもお世話になっております。 デュアルCPUを使ったクラスタ上でプログラム開発をしようとしていますが、質問があ ります。 各PCで実行するジョブを、それぞれのPC内で2つに分けて、 job_1はCPU#1で、job_2はCPU#2で、というふうに実行したいと考えています。 つまり、各PCで、 if ( job_no == 1) CPU #1 で job_1を実行 else if ( job_no == 2) CPU #2 で job_2実行 というような感じです。 SCoreクラスタでこのようなことをした場合に、何か問題は発生しないでしょうか? また、社内のある人から > CPU affinity は 2.4系カーネルの場合、そのままではできないのでは > ないでしょうか。2.5系にはデフォルトで入ったようですが。。。。 というようなコメントをもらったのですが、これって RedHat7.2/SCore5.0.0(あるいはRedHat7.3/SCore5.2) ではできないということになるのでしょうか。 よろしくお願いします。 以上 From sugawara @ mlab.jks.ynu.ac.jp Fri Oct 18 19:31:05 2002 From: sugawara @ mlab.jks.ynu.ac.jp (Taira Sugawara) Date: Fri, 18 Oct 2002 19:31:05 +0900 Subject: [SCore-users-jp] Shmem Message-ID: <20021018192016.D101.SUGAWARA@mlab.jks.ynu.ac.jp> 横浜国立大学の菅原です。 Dell Precision Workstation 530 Intel Xeon デュアル 3ComR 10/100 Mbps 3C905c互換Ethernet(オンボード) RedHat7.2 SCore Ver.5.0.1 以上のようなマシンで、サーバ1台、計算ホスト2台で構築しています。 SCore-Dテストにおいて、 $ scrun ./cpi <0> SCore-D:WARNING Number of 'smp' (2) is reset to one since there is no SHMEM device. <1> SCore-D:WARNING Number of 'smp' (2) is reset to one since there is no SHMEM device. SCore-D 5.0.1 connected. <0:0> SCORE: 2 nodes (2x1) ready. Process 0 of 2 on comp0.pccluster.org Process 1 of 2 on comp1.pccluster.org pi is approximately 3.1416009869231241, Error is 0.0000083333333309 wall clock time = 0.000263 となって、結果はちゃんと出ているようなのですが、 最初にsmpがらみの警告が出ているようです。 いまいちShmemが何なのか理解してないんですが、 インストール時にShmemにチェックを入れなかったのがまずいんでしょうか? よろしくお願いいたします。 菅原 平 横浜国立大学大学院 環境情報学府 情報メディア環境学専攻 情報メディア学コース 松本研究室 sugawara @ mlab.jks.ynu.ac.jp From kameyama @ pccluster.org Fri Oct 18 19:47:52 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Fri, 18 Oct 2002 19:47:52 +0900 Subject: [SCore-users-jp] Shmem In-Reply-To: Your message of "Fri, 18 Oct 2002 19:31:05 JST." <20021018192016.D101.SUGAWARA@mlab.jks.ynu.ac.jp> Message-ID: <200210181047.g9IAlqK11904@yl-dhcp18.is.s.u-tokyo.ac.jp> 亀山です. In article <20021018192016.D101.SUGAWARA @ mlab.jks.ynu.ac.jp> Taira Sugawara wrotes: > SCore-Dテストにおいて、 > $ scrun ./cpi > <0> SCore-D:WARNING Number of 'smp' (2) is reset to one since there is no SHM > EM device. > <1> SCore-D:WARNING Number of 'smp' (2) is reset to one since there is no SHM > EM device. > SCore-D 5.0.1 connected. > <0:0> SCORE: 2 nodes (2x1) ready. > Process 0 of 2 on comp0.pccluster.org > Process 1 of 2 on comp1.pccluster.org > pi is approximately 3.1416009869231241, Error is 0.0000083333333309 > wall clock time = 0.000263 > となって、結果はちゃんと出ているようなのですが、 > 最初にsmpがらみの警告が出ているようです。 > いまいちShmemが何なのか理解してないんですが、 > インストール時にShmemにチェックを入れなかったのがまずいんでしょうか? そのようです. この WARNING は ホストに CPU が 2 つついていることになっているが, shmem デバイスが ないので 1 つとして扱う ということです. PM/shmem というのは一つのホストで複数の CPU を使用するためのデバイスです. これを設定しないと % scrun -nodes=2x2 ./cpi のように SMP machine として使用することができなくなります. この WARNING を回避するには, /opt/score/etc/scorehosts.db をいじって, shmem デバイスを追加すれば良いです. shemem デバイスの指定として shmem0 type=shmem -node=0 shmem1 type=shmem -node=1 の行がなければ追加してください. そして, 各 host の network= の項目に ,shmem0,shmem1 を追加してください. そのあとで /etc/rc.d/init.d/scoreboard reload を実行してください. from Kameyama Toyohisa From kameyama @ pccluster.org Fri Oct 18 21:18:17 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Fri, 18 Oct 2002 21:18:17 +0900 Subject: [SCore-users-jp] デュアルCPU の使い方 In-Reply-To: Your message of "Fri, 18 Oct 2002 19:29:29 JST." <5.0.2.5.2.20021018191854.035bbb90@133.141.16.40> Message-ID: <200210181218.g9ICIHK12262@yl-dhcp18.is.s.u-tokyo.ac.jp> 亀山です. In article <5.0.2.5.2.20021018191854.035bbb90 @ 133.141.16.40> Takaya Yamamoto wrotes: > 各PCで実行するジョブを、それぞれのPC内で2つに分けて、 > job_1はCPU#1で、job_2はCPU#2で、というふうに実行したいと考えています。 > > つまり、各PCで、 > if ( job_no == 1) > CPU #1 で job_1を実行 > else if ( job_no == 2) > CPU #2 で job_2実行 > というような感じです。 > SCoreクラスタでこのようなことをした場合に、何か問題は発生しないでしょうか? どうやりたいのか, よく見えていないのですが, SCore 環境なら score_self_proc にそのプロセスがその host 内で何番目かを知ることができます. それを利用して if (score_self_proc == 0) job_1 を実行 else if (score_self_proc == 1) job_2 を実行 と, 実行する, という話でしょうか? > また、社内のある人から > > CPU affinity は 2.4系カーネルの場合、そのままではできないのでは > > ないでしょうか。2.5系にはデフォルトで入ったようですが。。。。 > というようなコメントをもらったのですが、これって > RedHat7.2/SCore5.0.0(あるいはRedHat7.3/SCore5.2) > ではできないということになるのでしょうか。 ちょっとみたところ, 2.5 で CPU を固定する単位は process になっているようです. 2.4 にはその機能が無いので, 特定のプロセスを特定の CPU に固定することは, SCore 5.2 ではできないと思います. ただ, SCore-D 自体は kernel 2.2 のころそのような patch があって, 一応, 対応していました. まだその code は残っているようなので, 多分 kernel を 2.5 系とマージして, SCore-D のそのあたりのコードをいじれば動く可能性はあると思います. from Kameyama Toyohisa From bogdan.costescu @ iwr.uni-heidelberg.de Sat Oct 19 19:46:57 2002 From: bogdan.costescu @ iwr.uni-heidelberg.de (Bogdan Costescu) Date: Sat, 19 Oct 2002 12:46:57 +0200 (CEST) Subject: [SCore-users-jp] Re: [SCore-users] MPI and PM at the same time In-Reply-To: <3117779619.hori0001@swimmy-soft.com> Message-ID: On Fri, 18 Oct 2002, Atsushi HORI wrote: > Thus you do not have to mind this. The macro is a declaration (of a > global static variable), not a function call. And can be placed > anywhere in your program. Thank you and Kameyama ! I arrived to the same conclusion before your message, but after about half a day of tracing score_initialize() because I thought that I need to replicate some functionality from there. Well, it's *very* convenient to use this macro and that was the answer that I was looking for the entire week; congratulation to whoever designed it this way ! > 1. Any user programs are not wllowed to open or create a new PM > contexts. > 2. All user programs can do is attach context(s) to a given file > descriptor(s). > 3. PM's context is not a point-to-point communication. It would have been wonderful to have these statements in the docs somewhere. Would it be possible to have some kind of "Developing with PM tips and tricks" document in the future ? > You have to pay attention to the PM documents. Some functions are > privileged and can be used only by SCore-D. The functions were tagged "SYSTEM" and "USER". But there was no explanation of what "SYSTEM" and "USER" mean: kernel space versus user space, SCoreD versus anything else above it, libraries in general versus some user application ? I don't want to be harsh, but such wonderful piece of software as SCore/PM deserves a better documentation :-) > And your program should be written as the following; Thank you for the suggestions ! Everything works now ! -- Bogdan Costescu IWR - Interdisziplinaeres Zentrum fuer Wissenschaftliches Rechnen Universitaet Heidelberg, INF 368, D-69120 Heidelberg, GERMANY Telephone: +49 6221 54 8869, Telefax: +49 6221 54 8868 E-mail: Bogdan.Costescu @ IWR.Uni-Heidelberg.De _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From e973220 @ eve.u-ryukyu.ac.jp Sat Oct 19 21:31:47 2002 From: e973220 @ eve.u-ryukyu.ac.jp (金城 尚志) Date: Sat, 19 Oct 2002 21:31:47 +0900 Subject: [SCore-users-jp] 【インストール設定】計算ホスト情報設定 Message-ID: 琉球大学の金城です。 今回、SCoreインストール時の計算ホスト情報設定 についての質問をさせてもらいます。どうかよろしく御願いします。 【困った点】 計算ホスト情報設定をするときに、 "Cannot resolve the host sciC89.sci.u-ryukyu.ac.jp IP address" といエラーメッセージがでる。 【解決したいこと】 計算ホストを情報を設定したい。 SCore5.0.1で、計算ホストのインストール設定のときに 上記のエラーメッセージがでます。 どうか、改善のためのアドバイスをよろしく御願いします。 【開発環境】 Red Hat 7.2 (フルインストール) SCore 5.0.1 【アドレス】             ホスト名        IP ホストサーバ  sciB133.sci.u-ryukyu.ac.jp 133.13.129.133 計算ホスト    sciB135.sci.u-ryukyu.ac.jp 133.13.129.135 〃         sciB139.sci.u-ryukyu.ac.jp 133.13.129.139 〃 sciC89.sci.u-ryukyu.ac.jp 133.13.130.89 〃       sciC90.sci.u-ryukyu.ac.jp 133.13.130.90 【確認したこと】 ■/etc/hostsの中ホスト名、IPアドレスを記入。 以下のように記述 # Do not remove the following line, or various programs # that require network functionality will fail. 127.0.0.1 sciB133.sci.u-ryukyu.ac.jp sciB133 localhost.localdomain localhost 133.13.129.133 sciB133.sci.u-ryukyu.ac.jp 133.13.129.135 sciB135.sci.u-ryukyu.ac.jp 133.13.129.139 sciB139.sci.u-ryukyu.ac.jp 133.13.130.89 sciC89.sci.u-ryukyu.ac.jp 133.13.130.90 sciC90.sci.u-ryukyu.ac.jp ■ホストサーバをNISサーバとして設定(以下のようにconfigNISを設定) /opt/score/bin/configNIS server cluster ■Red Hat インストール時にDNSサーバを指定完了 SCoreインストール時のネットワーク情報設定画面にて、 Name Serverは認識されている。 以上、稚拙な状況説明ですが、どうかよろしく御願いします。 ━┛━┛━┛━┛━┛━┛━┛━┛━┛   琉球大学理学部 物質地球科学科   金城 尚志 (キンジョウヒサシ) ━┛━┛━┛━┛━┛━┛━┛━┛━┛ From ishikawa @ is.s.u-tokyo.ac.jp Sun Oct 20 10:31:09 2002 From: ishikawa @ is.s.u-tokyo.ac.jp (Yutaka Ishikawa) Date: Sun, 20 Oct 2002 10:31:09 +0900 (JST) Subject: [SCore-users-jp] 【インストール設定】計算ホスト情報設定 In-Reply-To: References: Message-ID: <20021020.103109.719894773.ishikawa@is.s.u-tokyo.ac.jp> > 【困った点】 > 計算ホスト情報設定をするときに、 > "Cannot resolve the host sciC89.sci.u-ryukyu.ac.jp IP address" > といエラーメッセージがでる。 NISを使用しているのであれば、eit起動時に-nisonlyオプションをつけていますか? > 【解決したいこと】 > 計算ホストを情報を設定したい。 NISサーバ上の/etc/hostsファイルに上記ホスト名の情報を入れて、 # cd /var/yp # make > 【確認したこと】 これを見る限り、設定されているように見えるのですが、 # ypwhich でNISDOMAINが正しいかどうか確認。 # ypmatch sciC89.sci.u-ryukyu.ac.jp hosts で、NISから当該ホスト名がひけるか確認。 してみてください。 石川 From ishikawa @ is.s.u-tokyo.ac.jp Sun Oct 20 10:55:57 2002 From: ishikawa @ is.s.u-tokyo.ac.jp (Yutaka Ishikawa) Date: Sun, 20 Oct 2002 10:55:57 +0900 (JST) Subject: [SCore-users-jp] Re: [SCore-users] How do I become a member of pccluster.org ? In-Reply-To: <20021004155609.78197.qmail@web13904.mail.yahoo.com> References: <20021004.180817.838024840.ishikawa@is.s.u-tokyo.ac.jp> <20021004155609.78197.qmail@web13904.mail.yahoo.com> Message-ID: <20021020.105557.1025208008.ishikawa@is.s.u-tokyo.ac.jp> Hello, Sorry for this late response. > Once our CLUSTER is 'debuged' and officially in the > TOP500, is it ok if we promote SCORE as the core > application for the system ? Sure. > Could we use the "Powered by SCORE" logo ? Yes, we would like to encourage the SCore users to use this log. > However , I think I could help in other ways. I could > participate in documenting score , make 'pdf' > documents. There's the possibility of hosting web > content from my companies web site. Because your email address is yahoo.com, we could not know your compay. Are you the yahoo company ?? -- Yutaka Ishikawa _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From s-sumi @ bd6.so-net.ne.jp Sun Oct 20 16:59:24 2002 From: s-sumi @ bd6.so-net.ne.jp (Shinji Sumimoto) Date: Sun, 20 Oct 2002 16:59:24 +0900 (JST) Subject: [SCore-users-jp] システムテストPM/Ethernet における躓き In-Reply-To: <200210151244.AA12311@flash.tokyo.pfu.co.jp> References: <20021015.192501.70194026.s-sumi@flab.fujitsu.co.jp> <200210151244.AA12311@flash.tokyo.pfu.co.jp> Message-ID: <20021020.165924.74755640.s-sumi@bd6.so-net.ne.jp> 住元です。 返事が遅くなって済みません。 頂いたデータから、バックトレースをとると f8895060 __insmod_rtl8139_S.text_L7856 [rtl8139] c0105dec __up_wakeup c0108260 disable_irq_R3ce4ca6f となり、どうもプロセス切替えのところで、なぜかrtlデバイスドライバに移 行して落ちているようです。SCore自体の問題かどうかは判断できません。 お使いのクラスタは、IDEディスクとRtl8139のデバイスドライバがあれば動く でしょうか? もし、そうでしたら、こちらのカーネルをバイナリレベルで提 供しますので、試して頂けないでしょうか? ================================================================== [kate @ comp0 RealTek]$ cat /proc/ksyms | grep f8895 f8895060 __insmod_rtl8139_S.text_L7856 [rtl8139] f8895000 __insmod_rtl8139_O/lib/modules/2.4.18-2SCORE/kernel/drivers/net/rtl8139.o_M3DABDBE9_V132114 [rtl8139] c0100234 gdt_R455fbf86 c0104000 empty_zero_page_R84daabab c0105390 disable_hlt_R794487ee c01053a0 enable_hlt_R9c7077bd c01053b0 default_idle_R92897e3d c0105470 machine_real_restart_R3da1b07a c0105520 machine_restart_Re6e3ef70 c01055a0 machine_halt_R9aa32630 c01055b0 machine_power_off_R091c824a c0105700 kernel_thread_R7e9ebb05 c01058d0 dump_thread_Rae90b20c c0105ba0 get_wchan_R15345b4c c0105dc8 __down_failed c0105dd4 __down_failed_interruptible c0105de0 __down_failed_trylock c0105dec __up_wakeup > c0108260 disable_irq_R3ce4ca6f c01082c0 enable_irq_Rfcec0987 c01082c0 enable_irq_Rfcec0987 c0108260 disable_irq_R3ce4ca6f > c01083f0 request_irq_R0c60f2e0 c01083f0 request_irq_R0c60f2e0 c01084b0 free_irq_Rf20dabd8 c01084b0 free_irq_Rf20dabd8 c0108530 probe_irq_on_Rb121390a c0108530 probe_irq_on_Rb121390a c0108640 probe_irq_mask_R360b1afe c0108640 probe_irq_mask_R360b1afe c01086c0 probe_irq_off_Rab600421 c01086c0 probe_irq_off_Rab600421 c01089b0 disable_irq_nosync_R27bbf221 c01089b0 disable_irq_nosync_R27bbf221 c010ad50 do_gettimeofday_R72270e35 c010adc0 do_settimeofday_R19d7b1ff c010b0e0 get_cmos_time_Rb31ddfb4 c010b9d0 pci_alloc_consistent_R5ca45b27 c010ba60 pci_free_consistent_R8a923015 c010c3e0 dump_fpu_Rf7e7d3e6 c010c480 dump_extended_fpu_Ra9c2ac9b c010d8b0 pcibios_get_irq_routing_table_R294a76e5 c010d9d0 pcibios_set_irq_routing_Re317f518 c010e9d0 pcibios_penalize_isa_irq_R5211c8bf c010f790 mtrr_add_R56179c5f c010f9d0 mtrr_del_R272d394e From: KATAYAMA Yoshio Subject: Re: [SCore-users-jp] システムテストPM/Ethernet における躓き Date: Tue, 15 Oct 2002 21:44:30 +0900 Message-ID: <200210151244.AA12311 @ flash.tokyo.pfu.co.jp> kate> 片山です。 kate> kate> Date: Tue, 15 Oct 2002 19:25:01 +0900 (JST) kate> From: Shinji Sumimoto kate> kate> >> SCore 4.X でしたら、こちらも同じバージョンにしてみようと思ったの kate> >> ですが、、、 kate> kate> >試してみるとよいものとしては、linux 2.2系を使ってみるというのがあります。 kate> >パッチ自体はSCoreに入っています。(linux-2.2.17 baseですが、、) kate> kate> 有難う御座います。まとまった時間が取れたら試してみます。 kate> kate> >それで、以下のようにして落ちたシンボルがどこに相当するかを調べていただ kate> >け無いでしょうか? kate> kate> >% cat /proc/ksyms |grep f8895 kate> kate> こちらは、それらしいシンボルが出てきました。 kate> kate> [kate @ comp0 RealTek]$ cat /proc/ksyms | grep f8895 kate> f8895060 __insmod_rtl8139_S.text_L7856 [rtl8139] kate> f8895000 __insmod_rtl8139_O/lib/modules/2.4.18-2SCORE/kernel/drivers/net/rtl8139.o_M3DABDBE9_V132114 [rtl8139] kate> kate> > kate> > kate> kate> しかし、こちらは c0108 で grep すると、 kate> kate> [kate @ comp0 RealTek]$ cat /proc/ksyms | grep c0108 kate> c01082c0 enable_irq_Rfcec0987 kate> c0108260 disable_irq_R3ce4ca6f kate> c01089b0 disable_irq_nosync_R27bbf221 kate> c0108640 probe_irq_mask_R360b1afe kate> c01083f0 request_irq_R0c60f2e0 kate> c01084b0 free_irq_Rf20dabd8 kate> c0108530 probe_irq_on_Rb121390a kate> c01086c0 probe_irq_off_Rab600421 kate> kate> となり、 が出てこないみたいです。c010 で grep すると、 kate> kate> [kate @ comp0 RealTek]$ cat /proc/ksyms | grep c010 kate> c0105470 machine_real_restart_R3da1b07a kate> c01053b0 default_idle_R92897e3d kate> c01058d0 dump_thread_Rae90b20c kate> c010c3e0 dump_fpu_Rf7e7d3e6 kate> c010c480 dump_extended_fpu_Ra9c2ac9b kate> c01082c0 enable_irq_Rfcec0987 kate> c0108260 disable_irq_R3ce4ca6f kate> c01089b0 disable_irq_nosync_R27bbf221 kate> c0108640 probe_irq_mask_R360b1afe kate> c0105700 kernel_thread_R7e9ebb05 kate> c010b0e0 get_cmos_time_Rb31ddfb4 kate> c0100234 gdt_R455fbf86 kate> c0105dc8 __down_failed kate> c0105dd4 __down_failed_interruptible kate> c0105de0 __down_failed_trylock kate> c0105dec __up_wakeup kate> c010b9d0 pci_alloc_consistent_R5ca45b27 kate> c010ba60 pci_free_consistent_R8a923015 kate> c010e9d0 pcibios_penalize_isa_irq_R5211c8bf kate> c010d9d0 pcibios_set_irq_routing_Re317f518 kate> c010d8b0 pcibios_get_irq_routing_table_R294a76e5 kate> c0105ba0 get_wchan_R15345b4c kate> c010f790 mtrr_add_R56179c5f kate> c010f9d0 mtrr_del_R272d394e kate> c01083f0 request_irq_R0c60f2e0 kate> c01084b0 free_irq_Rf20dabd8 kate> c0108530 probe_irq_on_Rb121390a kate> c01086c0 probe_irq_off_Rab600421 kate> c0105390 disable_hlt_R794487ee kate> c01053a0 enable_hlt_R9c7077bd kate> c010ad50 do_gettimeofday_R72270e35 kate> c010adc0 do_settimeofday_R19d7b1ff kate> c0105520 machine_restart_Re6e3ef70 kate> c01055a0 machine_halt_R9aa32630 kate> c01055b0 machine_power_off_R091c824a kate> c0104000 empty_zero_page_R84daabab kate> kate> となりました。念のため、rtl8139.o を付けておきます。 kate> -- kate> (株)PFU OSSC)Linuxシステム部 kate> 片山 善夫 kate> Tel 044-520-6617 Fax 044-556-1022 ----- 住元 真司 E-Mail: s-sumi @ bd6.so-net.ne.jp From e973220 @ eve.u-ryukyu.ac.jp Sun Oct 20 17:19:59 2002 From: e973220 @ eve.u-ryukyu.ac.jp (金城 尚志) Date: Sun, 20 Oct 2002 17:19:59 +0900 Subject: [SCore-users-jp] RE【インストール設定】計算ホスト情報設定 In-Reply-To: <20021020.103109.719894773.ishikawa@is.s.u-tokyo.ac.jp> Message-ID: 石川さま: 琉球大学の金城です。 アドバイスありがとうございます。 早速試してみました。 が、結論を先に言えばうまく計算ホストの情報設定はうまく できませんでした。 【試したこと】 ★ >NISを使用しているのであれば、eit起動時に-nisonlyオプションをつけていますか ? -nisonlyのオプションをつけると以下のようにエラーメッセージが表示されます。 "Cannot resolve the server's IP address" ★ >NISサーバ上の/etc/hostsファイルに上記ホスト名の情報を入れて、 > # cd /var/yp > # make 行いました。エラーメッセージなどなくmakeできました。 ★ > # ypwhich >でNISDOMAINが正しいかどうか確認。 次のようなメッセージがで、NISサーバ(ホストサーバ)を認識してくれました。 "sciB133.sci.u-ryukyu.ac.jp" ★ > # ypmatch sciC89.sci.u-ryukyu.ac.jp hosts >で、NISから当該ホスト名がひけるか確認。 試してみると、次のようなメッセージがでました。認識していないようです。 "Can't match key sciCsci.u-ryukyu.ac.jp in map hosts byname. Reason:???????????" また次のように、ホストサーバをしていしてypmatchを行ったところ、 # ypmatch sciB133.sci.u-ryukyu.ac.jp hosts "Can't match key sciCsci.u-ryukyu.ac.jp in map hosts byname. Reason:???????????" と、同様のメッセージが出力されました。 またさらに、次のようにlocalhostという文字列でypmatchを行ったところ、正常に反 応が返りました。 "127.0.0.1 sciB133.sci.u-ryukyu.ac.jp sciB133 localhost.localdomain localhost" 以上の確認をしたところで、再度EITの計算ホスト情報設定を試みましたが、 以下のようなエラーメッセージが出力され、設定はできませんでした。 "Cannot resolve the server's IP address" 【さらに試したこと】 NISについてさらに確認してみました。 ★ #コマンドdomanname を実行したところ、私が設定したNISドメインネームを #正常に返してくれました(NISドメインネーム:cluster)。 # domainname cluster ★ #/etc/yp.conf  の中身を確認。 # cat /etc/yp.conf domain cluster broadcast ★ #/etc/hosts の中身を再確認 # cat /etc/hosts # Do not remove the following line, or various programs # that require network functionality will fail. 127.0.0.1 sciB133.sci.u-ryukyu.ac.jp sciB133 localhost.localdomain localhost 133.13.129.133 sciB133.sci.u-ryukyu.ac.jp 133.13.129.135 sciB135.sci.u-ryukyu.ac.jp 133.13.129.139 sciB139.sci.u-ryukyu.ac.jp 133.13.130.89 sciC89.sci.u-ryukyu.ac.jp 133.13.130.90 sciC90.sci.u-ryukyu.ac.jp ★ #/var/yp/securenets でアクセス制限を確認。 #計算ホストからのアクセスを許す設定になっています。 # # securenets This file defines the access rights to your NIS server # for NIS clients. This file contains netmask/network # pairs. A clients IP address needs to match with at least # one of those. # # One can use the word "host" instead of a netmask of # 255.255.255.255. Only IP addresses are allowed in this # file, not hostnames. # # Always allow access for localhost 255.0.0.0 127.0.0.0 # This line gives access to everybody. PLEASE ADJUST! 0.0.0.0 0.0.0.0 以上を確認した後、再度EITを試みましたが、 やはり計算ホスト情報設定で上と同じ "Cannot resolve the server's IP address" というエラーがでてしまいます。 他に策はありそうでしょうか? ご多忙の折、お手数とは存じますが どうか、アドバイスの方をよろしく御願いします。 ━┛━┛━┛━┛━┛━┛━┛━┛━┛   琉球大学理学部 物質地球科学科   金城 尚志 (キンジョウヒサシ) ━┛━┛━┛━┛━┛━┛━┛━┛━┛ From e973220 @ eve.u-ryukyu.ac.jp Sun Oct 20 17:29:06 2002 From: e973220 @ eve.u-ryukyu.ac.jp (金城 尚志) Date: Sun, 20 Oct 2002 17:29:06 +0900 Subject: [SCore-users-jp] RE【インストール設定】計算ホスト情報設定 Message-ID: 琉球大の金城です。 先ほどのメールに追加情報を加えさせてもらいます。 # ypmatch sciC89.sci.u-ryukyu.ac.jp hosts で、反応が返ってこなかったことに対して、 ypcat を行ってみたところ、すべてのホストを認識している反応が 帰ってきました。具体的には、以下の通りです。 # ypcat hosts 133.13.130.90 sciC90.sci.u-ryukyu.ac.jp 133.13.129.135 sciB135.sci.u-ryukyu.ac.jp 133.13.129.133 sciB133.sci.u-ryukyu.ac.jp 127.0.0.1 sciB133.sci.u-ryukyu.ac.jp sciB133 localhost.localdomain localhost 127.0.0.1 sciB133.sci.u-ryukyu.ac.jp sciB133 localhost.localdomain localhost 133.13.129.139 sciB139.sci.u-ryukyu.ac.jp 133.13.130.89 sciC89.sci.u-ryukyu.ac.jp 127.0.0.1 sciB133.sci.u-ryukyu.ac.jp sciB133 localhost.localdomain localhost #これはホストサーバと、すべての計算ホストのIPとホスト名を表しています。 お手数掛けます、よろしく御願いします。 ━┛━┛━┛━┛━┛━┛━┛━┛━┛   琉球大学理学部 物質地球科学科   金城 尚志 (キンジョウヒサシ) ━┛━┛━┛━┛━┛━┛━┛━┛━┛ From ishikawa @ is.s.u-tokyo.ac.jp Sun Oct 20 17:43:46 2002 From: ishikawa @ is.s.u-tokyo.ac.jp (Yutaka Ishikawa) Date: Sun, 20 Oct 2002 17:43:46 +0900 (JST) Subject: [SCore-users-jp] RE【インストール設定】計算ホスト情報設定 In-Reply-To: References: <20021020.103109.719894773.ishikawa@is.s.u-tokyo.ac.jp> Message-ID: <20021020.174346.756907647.ishikawa@is.s.u-tokyo.ac.jp> From: "金城 尚志" > また次のように、ホストサーバをしていしてypmatchを行ったところ、 > # ypmatch sciB133.sci.u-ryukyu.ac.jp hosts > "Can't match key sciCsci.u-ryukyu.ac.jp in map hosts byname. > Reason:???????????" > と、同様のメッセージが出力されました。 % ypcat hosts とすると、登録してある全てのホスト情報が出てきます。これが正しく出ますか? 石川 From e973220 @ eve.u-ryukyu.ac.jp Sun Oct 20 17:49:56 2002 From: e973220 @ eve.u-ryukyu.ac.jp (金城 尚志) Date: Sun, 20 Oct 2002 17:49:56 +0900 Subject: [SCore-users-jp] RE【インストール設定】計算ホスト情報設定 In-Reply-To: <20021020.174346.756907647.ishikawa@is.s.u-tokyo.ac.jp> Message-ID: 琉大の金城です。 ypcat hostsは以下の結果がでました。 これはホストサーバと、すべての計算ホストを表示しています。 # ypcat hosts 133.13.130.90 sciC90.sci.u-ryukyu.ac.jp 133.13.129.135 sciB135.sci.u-ryukyu.ac.jp 133.13.129.133 sciB133.sci.u-ryukyu.ac.jp 127.0.0.1 sciB133.sci.u-ryukyu.ac.jp sciB133 localhost.localdomain localhost 127.0.0.1 sciB133.sci.u-ryukyu.ac.jp sciB133 localhost.localdomain localhost 133.13.129.139 sciB139.sci.u-ryukyu.ac.jp 133.13.130.89 sciC89.sci.u-ryukyu.ac.jp 127.0.0.1 sciB133.sci.u-ryukyu.ac.jp sciB133 localhost.localdomain localhost ━┛━┛━┛━┛━┛━┛━┛━┛━┛   琉球大学理学部 物質地球科学科   金城 尚志 (キンジョウヒサシ) ━┛━┛━┛━┛━┛━┛━┛━┛━┛ From ishikawa @ is.s.u-tokyo.ac.jp Sun Oct 20 17:57:56 2002 From: ishikawa @ is.s.u-tokyo.ac.jp (Yutaka Ishikawa) Date: Sun, 20 Oct 2002 17:57:56 +0900 (JST) Subject: [SCore-users-jp] RE【インストール設定】計算ホスト情報設定 In-Reply-To: References: <20021020.174346.756907647.ishikawa@is.s.u-tokyo.ac.jp> Message-ID: <20021020.175756.964929344.ishikawa@is.s.u-tokyo.ac.jp> ypmatchでとれないのは非常に不思議なんですけど、それとは別に、 > 127.0.0.1 sciB133.sci.u-ryukyu.ac.jp sciB133 localhost.localdomain こういうエントリをいれるのは、止めましょう。 127.0.0.1 localhost.localdomain として、sciB133.sci.u-ryukyu.ac.jpは、 133.13.129.133 sciB133.sci.u-ryukyu.ac.jp だけとしましょう。 石川 From e973220 @ eve.u-ryukyu.ac.jp Sun Oct 20 18:10:10 2002 From: e973220 @ eve.u-ryukyu.ac.jp (金城 尚志(わじら)) Date: Sun, 20 Oct 2002 18:10:10 +0900 Subject: [SCore-users-jp] RE【インストール設定】計算ホスト情報設定 References: <20021020.174346.756907647.ishikawa@is.s.u-tokyo.ac.jp> <20021020.175756.964929344.ishikawa@is.s.u-tokyo.ac.jp> Message-ID: <3DB272F2.6000700@eve.u-ryukyu.ac.jp> 琉球大学の金城です。 石川様、アドバイスありがとうございます。 とりあえず、 下記の書き方を訂正し、 # cd /var/yp # make をしてみて、 # /opt/score/bin/eit と、 # /opt/scoe/bin/eit -nisonly を試みましたが、やはり前回と同じような エラーメッセージが帰って来ました。 (計算ホスト設定ができない&Cannot resolve IP Address というエラーメッセージ)。 これは、もう一度ホストサーバのRed Hatを再インストールして もう一度、SCoreのインストールを試みたほうがいいでしょうか? それでは、失礼します。 琉球大学 金城 尚志 Yutaka Ishikawa wrote: >ypmatchでとれないのは非常に不思議なんですけど、それとは別に、 > > > >>127.0.0.1 sciB133.sci.u-ryukyu.ac.jp sciB133 localhost.localdomain >> >> > >こういうエントリをいれるのは、止めましょう。 >127.0.0.1 localhost.localdomain >として、sciB133.sci.u-ryukyu.ac.jpは、 >133.13.129.133 sciB133.sci.u-ryukyu.ac.jp >だけとしましょう。 > >石川 >_______________________________________________ >SCore-users-jp mailing list >SCore-users-jp @ pccluster.org >http://www.pccluster.org/mailman/listinfo/score-users-jp > > > > From ishikawa @ is.s.u-tokyo.ac.jp Sun Oct 20 18:17:43 2002 From: ishikawa @ is.s.u-tokyo.ac.jp (Yutaka Ishikawa) Date: Sun, 20 Oct 2002 18:17:43 +0900 (JST) Subject: NIS trouble (Re: [SCore-users-jp] RE【インストール設定】計算ホスト情報設定) In-Reply-To: <3DB272F2.6000700@eve.u-ryukyu.ac.jp> References: <20021020.175756.964929344.ishikawa@is.s.u-tokyo.ac.jp> <3DB272F2.6000700@eve.u-ryukyu.ac.jp> Message-ID: <20021020.181743.184812118.ishikawa@is.s.u-tokyo.ac.jp> From: "金城 尚志(わじら)" > をしてみて、 > # /opt/score/bin/eit > と、 > # /opt/scoe/bin/eit -nisonly > > を試みましたが、やはり前回と同じような > エラーメッセージが帰って来ました。 eitは、ypmatchコマンドを呼んでいるので、ypmatchで正しくIP addressが取 り出せない限り駄目です。 ypcatでホスト名が見えているのにypmatchが駄目というのは謎です。 サーバホストをリブートしてみて、ypmatchできるか確認してみて頂けますか? 石川 From e973220 @ eve.u-ryukyu.ac.jp Sun Oct 20 18:32:15 2002 From: e973220 @ eve.u-ryukyu.ac.jp (金城 尚志(わじら)) Date: Sun, 20 Oct 2002 18:32:15 +0900 Subject: NIS trouble (Re: [SCore-users-jp] RE【インストール設定】計算ホスト情報設定) References: <20021020.175756.964929344.ishikawa@is.s.u-tokyo.ac.jp> <3DB272F2.6000700@eve.u-ryukyu.ac.jp> <20021020.181743.184812118.ishikawa@is.s.u-tokyo.ac.jp> Message-ID: <3DB2781F.10004@eve.u-ryukyu.ac.jp> 琉大の金城です。 石川さん、本当にありがとうございます。 先程、ホストサーバをリブートしてypmatchを行いました。 が、やはりエラーが出ております。 # ypmatch sciC89.sci.u-ryukyu.ac.jp hosts Can't match key sciC89.sci.u-ryukyu.ac.jp in map hosts.byname Reason:???????? と、なります。 >eitは、ypmatchコマンドを呼んでいるので、ypmatchで正しくIP addressが取 >り出せない限り駄目です。 > > 実は、今回新たにPC2台購入したため sciC89.sci.u-ryukyu.ac.jp と sciC90(略)を 計算ホストグループに追加しようとしているのです。 前回、sciB135.sci.u-ryukyu.ac.jp と sciB139(略)を計算ホストに登録すると きには、 EITで、計算ホスト情報設定はきちんとできました。 (ただし、前回もオプション-nisonly は働きませんでした。) 琉球大学 金城 尚志 From e973220 @ eve.u-ryukyu.ac.jp Sun Oct 20 18:43:50 2002 From: e973220 @ eve.u-ryukyu.ac.jp (金城 尚志(わじら)) Date: Sun, 20 Oct 2002 18:43:50 +0900 Subject: NIS trouble (Re: [SCore-users-jp] RE【インストール設定】計算ホスト情報設定) References: <20021020.175756.964929344.ishikawa@is.s.u-tokyo.ac.jp> <3DB272F2.6000700@eve.u-ryukyu.ac.jp> <20021020.181743.184812118.ishikawa@is.s.u-tokyo.ac.jp> Message-ID: <3DB27AD6.1020707@eve.u-ryukyu.ac.jp> 琉球大の金城です。 すこし試してみたことがあったので、 報告します。 EITの計算ホスト情報設定において、 試しに、僕の研究室の他のメンバーのIPアドレスを 入れてみました。 他のメンバのIPアドレス: 133.13.129.136 同上 : 133.13.129.137 そうすると、すんなり計算ホスト情報設定が うまく通りました。 (EITの設定はここで中断) 以上の結果がでました。 ちなみに、上記2つのIPアドレスは/etc/hostsには 登録していないアドレスです。 琉球大学 金城 尚志 From e973220 @ eve.u-ryukyu.ac.jp Sun Oct 20 18:59:54 2002 From: e973220 @ eve.u-ryukyu.ac.jp (金城 尚志(わじら)) Date: Sun, 20 Oct 2002 18:59:54 +0900 Subject: NIS trouble (Re: [SCore-users-jp] RE【インストール設定】計算ホスト情報設定) References: <20021020.175756.964929344.ishikawa@is.s.u-tokyo.ac.jp> <3DB272F2.6000700@eve.u-ryukyu.ac.jp> <20021020.181743.184812118.ishikawa@is.s.u-tokyo.ac.jp> Message-ID: <3DB27E9A.6030505@eve.u-ryukyu.ac.jp> 琉大の金城です。 先のメールをまとめて、IPアドレスの差異を表します。 ホストサーバ:133.13.129.133 (既存)計算ホスト:133.13.129.135 (OK) 同上 :133.13.129.139 (OK) (新規)計算ホスト:133.13.130.89 (NG) 同上 :133.13.130.90 (NG) 他のIPアドレス ;133.13.129.136 (OK) 同上 :133.13.129.137 (OK) * OK とは、EITにおいて計算ホスト設定ができるという意味。 * NG とは、EITにおいて計算ホスト設定ができないという意味。 ここで、OKになっているIPアドレスは全て、133.13.129.* になっています。 一方、NGになっているIPアドレスは、133.13.130.* になっています。 この違いに、解決の糸口がありそうです。 EITの計算ホスト情報設定はどのような仕組みになっているのでしょうか? 琉球大学 金城 尚志 From ishikawa @ is.s.u-tokyo.ac.jp Sun Oct 20 19:18:07 2002 From: ishikawa @ is.s.u-tokyo.ac.jp (Yutaka Ishikawa) Date: Sun, 20 Oct 2002 19:18:07 +0900 (JST) Subject: [SCore-users-jp] Re: NIS trouble In-Reply-To: <3DB27AD6.1020707@eve.u-ryukyu.ac.jp> References: <3DB272F2.6000700@eve.u-ryukyu.ac.jp> <20021020.181743.184812118.ishikawa@is.s.u-tokyo.ac.jp> <3DB27AD6.1020707@eve.u-ryukyu.ac.jp> Message-ID: <20021020.191807.350531678.ishikawa@is.s.u-tokyo.ac.jp> > 他のメンバのIPアドレス: 133.13.129.136 > 同上 : 133.13.129.137 > そうすると、すんなり計算ホスト情報設定が > うまく通りました。 > (EITの設定はここで中断) -nisonlyを指定しないと、ypmatchが失敗すると、DNSをみにいきます。 DNSにホスト名とIPアドレスを入れれば大丈夫かと思います。 DNSサーバは、/etc/resolov.confに入っています。 しかし、なぜに、ypmatchで出ないのか不思議でしょうがないです。 それから、念のため、/etc/nsswitch.confのhosts:のエントリを確認しておい て下さい。インストール時および通常の運用において、 ホスト名 <--> IPアドレス は、このエントリの順番で行なわれます。 石川 From e973220 @ eve.u-ryukyu.ac.jp Sun Oct 20 20:50:08 2002 From: e973220 @ eve.u-ryukyu.ac.jp (金城 尚志) Date: Sun, 20 Oct 2002 20:50:08 +0900 Subject: [SCore-users-jp] Re: NIS trouble In-Reply-To: <20021020.191807.350531678.ishikawa@is.s.u-tokyo.ac.jp> Message-ID: 琉大の金城です。 以下、調べてみました。 ■ >DNSサーバは、/etc/resolov.confに入っています。 # cat /etc/resolv.conf search sci.u-ryukyu.ac.jp nameserver 133.13.6.2 #ネームサーバはきっちり指定されているようです。  (琉球大学のDNSは133.13.6.2です) ■ >それから、念のため、/etc/nsswitch.confのhosts:のエントリを確認しておい >て下さい。 # cat /etc/nsswitch.conf | grep hosts #hosts: db files nisplus nis dns hosts: files nisplus dns 初め、上のような記述でしたが、下記のようにNISを追加しました。 # cat /etc/nsswitch.conf | grep hosts #hosts: db files nisplus nis dns hosts: files nis nisplus dns ~~~~~ ★一旦、以上の設定でリブートし、改めてEITを行いましたが、   やはり計算ホスト情報設定はできませんでした。   また、オプション -nisonly も働きませんでした。 続けて、 ■ >% ifconfig eth0 >すると、Mask:というフィールドがあるはずで、そのマスクが、 > 255.255.0.0 >となっていないとすると、サブネットマスクしていることになる ここで、/etc/sysconfig/network-scripts/ifcfg-eth0 の ネットマスクの記述を変えました。 #ネットマスク(修正前)255.255.252.0 → (修正後)255.255.0.0 DEVICE=eth0 BOOTPROTO=static BROADCAST=133.13.131.255 IPADDR=133.13.129.133 #NETMASK=255.255.252.0 NETMASK=255.255.0.0 NETWORK=133.13.128.0 ONBOOT=yes と、したあとリブートし、ためしにインターネットに接続できるかを試してみまし た。 そうすると、インターネットに繋がらなくなっていました。 またEITに関しても設定することはできませんでした。 再度、ネットマスクの設定を元に戻すと、インターネット接続ができるように なりました。 以上、やってみましたが *sciC89の計算ホストの設定はできませんでした。 (* sciC89 = sciC89.sci.u-ryukyu.ac.jp) ━┛━┛━┛━┛━┛━┛━┛━┛━┛   琉球大学理学部 物質地球科学科   金城 尚志 (キンジョウヒサシ) ━┛━┛━┛━┛━┛━┛━┛━┛━┛ From kate @ pfu.fujitsu.com Mon Oct 21 09:30:43 2002 From: kate @ pfu.fujitsu.com (KATAYAMA Yoshio) Date: Mon, 21 Oct 2002 09:30:43 +0900 Subject: [SCore-users-jp] システムテストPM/Ethernet における躓き In-Reply-To: Your message of Sun, 20 Oct 2002 16:59:24 +0900. <20021020.165924.74755640.s-sumi@bd6.so-net.ne.jp> Message-ID: <200210210030.AA01066@flash.tokyo.pfu.co.jp> 片山です。 Date: Sun, 20 Oct 2002 16:59:24 +0900 (JST) From: Shinji Sumimoto >お使いのクラスタは、IDEディスクとRtl8139のデバイスドライバがあれば動く >でしょうか? はい、大丈夫だと思います。 >もし、そうでしたら、こちらのカーネルをバイナリレベルで提 >供しますので、試して頂けないでしょうか? 是非、お願い致します。 -- (株)PFU OSSC)Linuxシステム部 片山 善夫 Tel 044-520-6617 Fax 044-556-1022 From kameyama @ pccluster.org Mon Oct 21 09:42:54 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Mon, 21 Oct 2002 09:42:54 +0900 Subject: [SCore-users-jp] RE【インストール設定】計算ホスト情報設定 In-Reply-To: Your message of "Sun, 20 Oct 2002 17:19:59 JST." Message-ID: <200210210042.g9L0gsK04678@yl-dhcp18.is.s.u-tokyo.ac.jp> 亀山です. In article "金城 尚志" wrotes: > > # ypmatch sciC89.sci.u-ryukyu.ac.jp hosts > >で、NISから当該ホスト名がひけるか確認。 > 試してみると、次のようなメッセージがでました。認識していないようです。 > "Can't match key sciCsci.u-ryukyu.ac.jp in map hosts byname. > Reason:???????????" NIS は hostname をすべて小文字に変換して key にしているようです. ypmatch は大文字小文字変換を行わないで検索しているようです. よって, ypmacth ではすべて小文字で渡す必要があるということになります. 多分, % ypmatch scic89.sci.u-ryukyu.ac.jp hosts はうまくいくと思います. EIT の設定のときも hostname は小文字でいれてみてください. (ちなみに, DNS のほうは大文字が含まれていても変換して探して くれるようです.) 規格としては, hostname は大文字と小文字の区別はしないことになっていると 思いますが, このような混乱を避けるためにも, すべての hostname を小文字で書くことをお勧めします. from Kameyama Toyohisa From Yamamoto.Takaya @ wrc.melco.co.jp Mon Oct 21 10:22:12 2002 From: Yamamoto.Takaya @ wrc.melco.co.jp (Takaya Yamamoto) Date: Mon, 21 Oct 2002 10:22:12 +0900 Subject: [SCore-users-jp] デュアル CPUの使い方 In-Reply-To: <200210181218.g9ICIHK12262@yl-dhcp18.is.s.u-tokyo.ac.jp> References: <"Your message of Fri, 18 Oct 2002 19:29:29 JST."<5.0.2.5.2.20021018191854.035bbb90@133.141.16.40> Message-ID: <5.0.2.5.2.20021021101225.036d1430@133.141.16.40> 山本です。 やりたいことは、 8CPU(デュアルCPUのPC4台)で並列処理するために、 シミュレーションプログラムを8つに分割し、 どのCPUでプログラムのどの分割部分が実行されているかを認識しながら、 全体を8つのCPUで実行したいのです。 確か、SCoreでは、ホストごとにしかジョブを割り当てできなかったと思うのですが、 これでは普通にやるとシミュレーションプログラムは4つにしか分割できず、 それら4つそれぞれのジョブを2CPUを使って実行する、 と思うのですが、正しいでしょうか。 そこで、4つに分割したプログラムを、シミュレーションのソースコード内でさらに2 つに分割し、 それぞれの部分を別々のCPUに割り当てて実行しようと考えています。 以上 At 21:18 02/10/18 +0900, you wrote: >亀山です. > >In article <5.0.2.5.2.20021018191854.035bbb90 @ 133.141.16.40> Takaya >Yamamoto wrotes: > > 各PCで実行するジョブを、それぞれのPC内で2つに分けて、 > > job_1はCPU#1で、job_2はCPU#2で、というふうに実行したいと考えています。 > > > > つまり、各PCで、 > > if ( job_no == 1) > > CPU #1 で job_1を実行 > > else if ( job_no == 2) > > CPU #2 で job_2実行 > > というような感じです。 > > SCoreクラスタでこのようなことをした場合に、何か問題は発生しないでしょうか? > >どうやりたいのか, よく見えていないのですが, >SCore 環境なら > score_self_proc >にそのプロセスがその host 内で何番目かを知ることができます. >それを利用して > if (score_self_proc == 0) > job_1 を実行 > else if (score_self_proc == 1) > job_2 を実行 >と, 実行する, という話でしょうか? > > > また、社内のある人から > > > CPU affinity は 2.4系カーネルの場合、そのままではできないのでは > > > ないでしょうか。2.5系にはデフォルトで入ったようですが。。。。 > > というようなコメントをもらったのですが、これって > > RedHat7.2/SCore5.0.0(あるいはRedHat7.3/SCore5.2) > > ではできないということになるのでしょうか。 > >ちょっとみたところ, 2.5 で CPU を固定する単位は process になっているようです. >2.4 にはその機能が無いので, >特定のプロセスを特定の CPU に固定することは, SCore 5.2 ではできないと思います. > >ただ, SCore-D 自体は kernel 2.2 のころそのような patch があって, >一応, 対応していました. >まだその code は残っているようなので, 多分 kernel を 2.5 系とマージして, >SCore-D のそのあたりのコードをいじれば動く可能性はあると思います. > > from Kameyama Toyohisa >_______________________________________________ >SCore-users-jp mailing list >SCore-users-jp @ pccluster.org >http://www.pccluster.org/mailman/listinfo/score-users-jp From kameyama @ pccluster.org Mon Oct 21 10:40:24 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Mon, 21 Oct 2002 10:40:24 +0900 Subject: [SCore-users-jp] デュアル CPU の使い方 In-Reply-To: Your message of "Mon, 21 Oct 2002 10:22:12 JST." <5.0.2.5.2.20021021101225.036d1430@133.141.16.40> Message-ID: <200210210140.g9L1eOK04956@yl-dhcp18.is.s.u-tokyo.ac.jp> 亀山です. In article <5.0.2.5.2.20021021101225.036d1430 @ 133.141.16.40> Takaya Yamamoto wrotes: > 確か、SCoreでは、ホストごとにしかジョブを割り当てできなかったと思うのですが、 > これでは普通にやるとシミュレーションプログラムは4つにしか分割できず、 > それら4つそれぞれのジョブを2CPUを使って実行する、 > と思うのですが、正しいでしょうか。 割り当てはホスト単位ですが, ジョブの起動は CPU 単位で行えます. つまり, dual CPU の host が 4 台あったとき, 4 プロセス動かそうとすると, 2 台確保し, それぞれの host で 2 プロセス 動かします. (4 つのプロセスはそれぞれ別の CPU で動くことが期待できます. (が, 実際の CPU の割当は linux kernel に任していますので, このプロセスは必ずこの CPU で実行するようにする, という ところまでは指定できませんけど...) "ホストごとにしかジョブを割り当てない" , というのは 上記の cluster で 3 プロセスで実行するプログラム (2 host の割当が必要) と 5 プロセスで実行するプログラム (3 host の割当が必要) が同時には 動かない, (multi user mode で動かしたとき, time shareing されてしまう.) ということを示します. from Kameyama Toyohisa From h995011b @ mbox.media.nagoya-u.ac.jp Mon Oct 21 10:52:59 2002 From: h995011b @ mbox.media.nagoya-u.ac.jp (Naoshi Ueda) Date: Mon, 21 Oct 2002 10:52:59 +0900 Subject: [SCore-users-jp] (no subject) Message-ID: <200210211052.ECF29282.0C9962I2@mbox.media.nagoya-u.ac.jp> 名古屋大学の上田です。 最近気が付いたのですが、プログラムの実行を行うと以下のような警告 が表示されます。 $ mpirun -np 2 ./exam SCore-D 5.0.1 connected. <0> SCORE-D:WARNING Unable to change directory (/home/ueda), and set to /var/scored/singleuser/500/jobs/jid-1. <1> SCORE-D:WARNING Unable to change directory (/home/ueda), and set to /var/scored/singleuser/500/jobs/jid-1. <0:0) SCORE: 2 nodes (2x1) ready. ・・・・・・・・(結果の表示) $ (上は、ディレクトリuedaの中のexamという実行ファイルを2台で実行 した時です。) この表示は、前にも出ていたときがあったのですが、しばらく出なくな り、最近再び出るようになりました。 実行結果などに影響などは無いのですが、気になります。 御回答よろしくお願い致します。 追伸.. /var/scored/singleuser/500/jobs/jid-1. が気になったので内容を見 ようとしたところ、/var/scored/singleuser 以下は存在しておりませ んでした。 From Yamamoto.Takaya @ wrc.melco.co.jp Mon Oct 21 11:53:26 2002 From: Yamamoto.Takaya @ wrc.melco.co.jp (Takaya Yamamoto) Date: Mon, 21 Oct 2002 11:53:26 +0900 Subject: [SCore-users-jp] デュアル CPUの使い方 In-Reply-To: <200210210140.g9L1eOK04956@yl-dhcp18.is.s.u-tokyo.ac.jp> References: <"Your message of Mon, 21 Oct 2002 10:22:12 JST."<5.0.2.5.2.20021021101225.036d1430@133.141.16.40> Message-ID: <5.0.2.5.2.20021021114842.00be90c0@133.141.16.40> 山本です。 ありがとうございます。 このコメントですと、特別なことは何もしなくてよさそうないいような気もしてきま した。 問題が発生するようであれば、また質問させていただきます。 よろしくお願いします。 以上 At 10:40 02/10/21 +0900, you wrote: >亀山です. > >In article <5.0.2.5.2.20021021101225.036d1430 @ 133.141.16.40> Takaya >Yamamoto wrotes: > > 確か、SCoreでは、ホストごとにしかジョブを割り当てできなかったと思うのですが、 > > これでは普通にやるとシミュレーションプログラムは4つにしか分割できず、 > > それら4つそれぞれのジョブを2CPUを使って実行する、 > > と思うのですが、正しいでしょうか。 > >割り当てはホスト単位ですが, ジョブの起動は CPU 単位で行えます. >つまり, dual CPU の host が 4 台あったとき, >4 プロセス動かそうとすると, 2 台確保し, それぞれの host で 2 プロセス >動かします. >(4 つのプロセスはそれぞれ別の CPU で動くことが期待できます. >(が, 実際の CPU の割当は linux kernel に任していますので, >このプロセスは必ずこの CPU で実行するようにする, という >ところまでは指定できませんけど...) > >"ホストごとにしかジョブを割り当てない" , というのは >上記の cluster で 3 プロセスで実行するプログラム (2 host の割当が必要) >と 5 プロセスで実行するプログラム (3 host の割当が必要) が同時には >動かない, (multi user mode で動かしたとき, time shareing されてしまう.) >ということを示します. > > from Kameyama Toyohisa >_______________________________________________ >SCore-users-jp mailing list >SCore-users-jp @ pccluster.org >http://www.pccluster.org/mailman/listinfo/score-users-jp From kameyama @ pccluster.org Mon Oct 21 12:07:04 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Mon, 21 Oct 2002 12:07:04 +0900 Subject: [SCore-users-jp] (no subject) In-Reply-To: Your message of "Mon, 21 Oct 2002 10:52:59 JST." <200210211052.ECF29282.0C9962I2@mbox.media.nagoya-u.ac.jp> Message-ID: <200210210307.g9L374K05622@yl-dhcp18.is.s.u-tokyo.ac.jp> 亀山です. In article <200210211052.ECF29282.0C9962I2 @ mbox.media.nagoya-u.ac.jp> Naoshi Ueda wrotes: > $ mpirun -np 2 ./exam > SCore-D 5.0.1 connected. > <0> SCORE-D:WARNING Unable to change directory (/home/ueda), and > set to /var/scored/singleuser/500/jobs/jid-1. > <1> SCORE-D:WARNING Unable to change directory (/home/ueda), and > set to /var/scored/singleuser/500/jobs/jid-1. > <0:0) SCORE: 2 nodes (2x1) ready. > ・・・・・・・・(結果の表示) > $ > (上は、ディレクトリuedaの中のexamという実行ファイルを2台で実行 > した時です。) > > この表示は、前にも出ていたときがあったのですが、しばらく出なくな > り、最近再び出るようになりました。 compute host に /home/ueda が存在しないのでしたら, 正常です. もし /home を mount しているはずでしたら, /home/ueda のパーミッションに問題があるのかも知れません. SCore-D はなるべく同じ directory で実行しようとしますが, そこに chdir できないと /var/scored のしたに work diectory を作成してそこで実行します. > /var/scored/singleuser/500/jobs/jid-1. が気になったので内容を見 > ようとしたところ、/var/scored/singleuser 以下は存在しておりませ > んでした。 この directory は一時的なものであり, そのプログラムの実行が 終了するとき削除されます. from Kameyama Toyohisa From kameyama @ pccluster.org Mon Oct 21 12:17:31 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Mon, 21 Oct 2002 12:17:31 +0900 Subject: [SCore-users-jp] Re: [score-info-jp] サーバーのインストールについての質問 In-Reply-To: Your message of "21 Oct 2002 11:48:46 JST." <20021021024846.94095.qmail@mail.goo.ne.jp> Message-ID: <200210210317.g9L3HVK05681@yl-dhcp18.is.s.u-tokyo.ac.jp> 亀山です. In article <20021021024846.94095.qmail @ mail.goo.ne.jp> tankakou1 @ mail.goo.ne.jp wrotes: > 環境 PC2台 スイッチングHUB1 NIC intel eepro > ifconfigでも間違いなくNICを認識、PC同士でもPINGが通る >    1台目:サーバー:server.score 192.168.0.2 > 2台目:計算ホスト:comp0.score 192.168.0.101 > ゲートウエイはなし外部とはつないでいない compute host 1 台ですとかなりやれることが限られるような... > このようにターミナルに表示される > //////////////////////////////////// > SetupServerhost > /opt/score/work/bininsatall...... > done > ServerInstallLogger Starting scoreboard services:Starting Compute host Lock s > ervices: > ServerInstallLogger Warning :version 2.4.18-3 seems to score kernel > ServerInstallLogger Shutting down pbs_server [OK] > ServerInstallLogger Starting pbs_server [OK] > ServerInstallLogger Startingpbs_mom:pbs_mom:anothermom [失敗]g > ServerInstallLogger > [] > Cleanup > Clean eitd > Kill 2900 > Cleanup > ////////////////////////////////// 多分, ここまでは問題無いように思います. > 次に"scout -g test"ここでエラー > Session startedと表示されずに終了 Session started はともかく, そのほかのメッセージは出ていましたでしょうか? 出ていたのでしたら, そのエラーを教えてください. > from Kameyama Toyohisa From e973220 @ eve.u-ryukyu.ac.jp Mon Oct 21 14:53:37 2002 From: e973220 @ eve.u-ryukyu.ac.jp (金城 尚志) Date: Mon, 21 Oct 2002 14:53:37 +0900 Subject: [SCore-users-jp] RE【インストール設定】計算ホスト情報設定 In-Reply-To: <200210210042.g9L0gsK04678@yl-dhcp18.is.s.u-tokyo.ac.jp> Message-ID: 琉球大学の金城です。 【結論】 今までの問題は解決しました。 【解決策】 /etc/hosts 内のホスト名を小文字に統一する 亀山さん、ありがとうございます。 小文字に変えて、ypmatchコマンドうまくいきました。 scic89.......が認識されています。 # ypmatch scic89.sci.u-ryukyu.ac.jp hosts 133.13.130.89 sciC89.sci.u-ryukyu.ac.jp その後、/etc/hosts のホスト名をすべて小文字に変えて NISサーバをホストサーバで動かす設定をしました。 # /opt/score/bin/configNIS server cluster その後、オプションつきのEITを実行し、成功しました。 # /op/score/bin/eit -nisonly おそらく、今までの原因は亀山さんがおっしゃっていたように、 /etc/hosts の中身のホスト名に大文字が混ざっていた点だと 考えられます。 また、その後の計算ホスト情報設定においても、 ホスト名は、すべて小文字に統一して記入すると "Cannot resolve the server's IP address" というエラーは発生しなくなりました。 【お礼】 昨日は日曜日なのに、僕に助言をくれた石川さん ありがとうございました。 ━┛━┛━┛━┛━┛━┛━┛━┛━┛   琉球大学理学部 物質地球科学科   金城 尚志 (キンジョウヒサシ) ━┛━┛━┛━┛━┛━┛━┛━┛━┛ From c9523 @ st.cs.kumamoto-u.ac.jp Mon Oct 21 15:40:02 2002 From: c9523 @ st.cs.kumamoto-u.ac.jp (tomomi fuchigami) Date: Mon, 21 Oct 2002 15:40:02 +0900 Subject: [SCore-users-jp] SCore-Dテスト失敗 Message-ID: <3DB3A142.6030107@st.cs.kumamoto-u.ac.jp> 渕上です. システム環境: OS:RedHat7.2 SCore5.0.1 Network:100 BASE-TX Eethenet computer数:3台 CPU:1260MHz-2way,750MHz-2way,600MHz-2way Pentium IIIプロセッサ 構成:server兼computeホスト1台 computeホスト2台 SCore-DテストのMPC++ MTTLプログラムのコンパイルと実行 において, scrun -nodes=3 ./hello を実行すると <0> SCore-D:WARNING Number of 'smp' (2) is reset to one since there is no SHMEM device. <1> SCore-D:WARNING Number of 'smp' (2) is reset to one since there is no SHMEM device. <2> SCore-D:WARNING Number of 'smp' (2) is reset to one since there is no SHMEM device. SCore-D 5.0.1 connected. <0:0> SCORE: 3 nodes (3x1) ready. hello, world (from node 1) hello, world (from node 2) hello, world (from node 0) と表示されます.WARNINGを見る限りCPUを1つしか使っていないようですが,2つ 使うにはどうしたら良いでしょうか?また,このWARNINGを消すにはどうしたら 良いでしょうか?ちなみにscorehosts.db内のsmp属性の値は2にしています.以 下にscorehosts.dbを示します. /* PM/Ethernet */ ethernet type=ethernet \ -config:file=/opt/score/etc/pm-ethernet.conf gigaethernet type=ethernet \ -config:file=/opt/score/etc/pm-ethernet.conf #define MSGBSERV msgbserv=(server1.pccluster.org:8764) \ server1.pccluster.org network=ethernet group=pcc cpugen=pentium-iii speed=1260 smp=2 MSGBSERV compute2.pccluster.org network=ethernet group=pcc cpugen=pentium-iii speed=750 smp=2 MSGBSERV compute3.pccluster.org network=ethernet group=pcc cpugen=pentium-iii speed=600 smp=2 MSGBSERV From kameyama @ pccluster.org Mon Oct 21 15:47:20 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Mon, 21 Oct 2002 15:47:20 +0900 Subject: [SCore-users-jp] SCore-Dテスト失敗 In-Reply-To: Your message of "Mon, 21 Oct 2002 15:40:02 JST." <3DB3A142.6030107@st.cs.kumamoto-u.ac.jp> Message-ID: <200210210647.g9L6lKK06733@yl-dhcp18.is.s.u-tokyo.ac.jp> 亀山です. In article <3DB3A142.6030107 @ st.cs.kumamoto-u.ac.jp> tomomi fuchigami wrotes: > と表示されます.WARNINGを見る限りCPUを1つしか使っていないようですが,2つ > 使うにはどうしたら良いでしょうか?また,このWARNINGを消すにはどうしたら > 良いでしょうか?ちなみにscorehosts.db内のsmp属性の値は2にしています.以 > 下にscorehosts.dbを示します. > > /* PM/Ethernet */ > ethernet > type=ethernet \ > -config:file=/opt/score/etc/pm-ethernet.conf > gigaethernet > type=ethernet \ > -config:file=/opt/score/etc/pm-ethernet.conf このあたりに shmem0 type=shmem -node=0 shmem1 type=shmem -node=1 を追加して > server1.pccluster.org > network=ethernet group=pcc cpugen=pentium-iii speed=1260 smp=2 MSGBSERV > compute2.pccluster.org > network=ethernet group=pcc cpugen=pentium-iii speed=750 smp=2 MSGBSERV > compute3.pccluster.org > network=ethernet group=pcc cpugen=pentium-iii speed=600 smp=2 MSGBSERV それぞれの network 部分を network=ethernet,shmem0, shmem1 に変更して, scoreboard を立ち上げ直すか reload してください. from Kameyama Toyohisa From c9523 @ st.cs.kumamoto-u.ac.jp Mon Oct 21 17:38:49 2002 From: c9523 @ st.cs.kumamoto-u.ac.jp (tomomi fuchigami) Date: Mon, 21 Oct 2002 17:38:49 +0900 Subject: [SCore-users-jp] SCore-Dテスト失敗 References: <200210210647.g9L6lKK06733@yl-dhcp18.is.s.u-tokyo.ac.jp> Message-ID: <3DB3BD19.4030008@st.cs.kumamoto-u.ac.jp> 亀山様,中田様 渕上です. メールの内容通り修正したところ,SCore-Dテストを通過することができまし た.ありがとうございました. From e973220 @ eve.u-ryukyu.ac.jp Tue Oct 22 17:47:27 2002 From: e973220 @ eve.u-ryukyu.ac.jp (金城 尚志) Date: Tue, 22 Oct 2002 17:47:27 +0900 Subject: [SCore-users-jp] CPUとファイルシステムとRedHat7.3 In-Reply-To: <3DB3BD19.4030008@st.cs.kumamoto-u.ac.jp> Message-ID: 琉球大学の金城です。 いつもお世話になっております。 今回3つの質問があり、メールさせてもらっております。 どうかよろしくおねがいします。 ■ AMD社のCPUは使用可能か ■ ファイルシステムタイプのext3は使用可能か ■ SCore5.0.1for Red Hat Linux7.2 をRed Hat 7.3上で使用することは可能か ★ 私達の研究室では、AMD社のCPU(Athlon , K6-3)がいくつかあり、 これらをSCore計算ホストグループに参加できないかと考えております。 が、SCoreクラスタハードウェア推奨欄での計算ホストの要件において "Intel社製Pentium系プロセッサ"(LInuxで並列計算をしよう p96より) と、記述されております。 なので、SCore上でのAMD社CPUの動作になにか問題があるのかが 気になっております。 ★ SCoreのホストサーバにおけるファイルシステムで ext3を使用することはできますか? ★ Red Hat 7.3でSCoreを利用することは可能でしょうか? もし、できないのであれば簡単な理由を教えていただけないでしょうか? 以上です、 よろしくおねがいします。 ━┛━┛━┛━┛━┛━┛━┛━┛━┛   琉球大学理学部 物質地球科学科   金城 尚志 (キンジョウヒサシ) ━┛━┛━┛━┛━┛━┛━┛━┛━┛ From kameyama @ pccluster.org Tue Oct 22 18:04:08 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Tue, 22 Oct 2002 18:04:08 +0900 Subject: [SCore-users-jp] CPUとファイルシステムと RedHat7.3 In-Reply-To: Your message of "Tue, 22 Oct 2002 17:47:27 JST." Message-ID: <200210220904.g9M948e02532@ufford.il.is.s.u-tokyo.ac.jp> 亀山です. In article "金城 尚志" wrotes: > 私達の研究室では、AMD社のCPU(Athlon , K6-3)がいくつかあり、 > これらをSCore計算ホストグループに参加できないかと考えております。 > > が、SCoreクラスタハードウェア推奨欄での計算ホストの要件において > "Intel社製Pentium系プロセッサ"(LInuxで並列計算をしよう p96より) > と、記述されております。 > なので、SCore上でのAMD社CPUの動作になにか問題があるのかが > 気になっております。 Athlon も使用可能です. http://www.pccluster.org/score/dist/score/html/ja/hardware/index.html に athlon での動作実績が載っています. 但し, Athlon 760MP-X chipset で myrinet を使用する場合は http://www.pccluster.org/pipermail/score-users-jp/2002-September/000638.html を参照してください. > SCoreのホストサーバにおけるファイルシステムで > ext3を使用することはできますか? 可能です. EIT で install すると compute host は ext2 になってしまいますが, あらかじめ redhat を install して rpm install を行うことによって ext3 を使用することができます. > Red Hat 7.3でSCoreを利用することは可能でしょうか? > もし、できないのであれば簡単な理由を教えていただけないでしょうか? RPM でインストールして使用することに関しては特に問題ありません. ただ, SCore をソースから install しようとすると. /usr/include/asm にあるヘッダファイルが変わっていてコンパイルエラーに なってしまいます. 次の version の SCore 5.2 は redhat 7.3 に対応しています. from Kameyama Toyohisa From nakata @ bestsystems.co.jp Tue Oct 22 18:37:15 2002 From: nakata @ bestsystems.co.jp (Hisaho Nakata) Date: Tue, 22 Oct 2002 18:37:15 +0900 Subject: [SCore-users-jp] CPUとファイルシステムと RedHat7.3 In-Reply-To: <200210220904.g9M948e02532@ufford.il.is.s.u-tokyo.ac.jp> References: <200210220904.g9M948e02532@ufford.il.is.s.u-tokyo.ac.jp> Message-ID: <20021022183715.3e5784f1.nakata@bestsystems.co.jp> 中田@ベストシステムズです。 亀山さん> EIT で install すると compute host は ext2 になってしまいますが, 亀山さん> あらかじめ redhat を install して rpm install を行うことによって 亀山さん> ext3 を使用することができます. EITでインストールした後、 # tune2fs -j /dev/hda1 のようにext3に変換し、/etc/fstabのext2をext3にすれば、ext3で運用できます。 ======================================================================== 株式会社 ベストシステムズ システムソリューション事業部テクニカルサポート 中田 寿穗 (nakata @ bestsystems.co.jp) 〒110-0016 東京都台東区台東2-18-8 台東K-1ビル 2,3F Tel: 03-5812-1350 Fax: 03-5812-1351 ======================================================================== From e973220 @ eve.u-ryukyu.ac.jp Tue Oct 22 18:42:10 2002 From: e973220 @ eve.u-ryukyu.ac.jp (金城 尚志) Date: Tue, 22 Oct 2002 18:42:10 +0900 Subject: [SCore-users-jp] CPUとファイルシステムと RedHat7.3 In-Reply-To: <200210220904.g9M948e02532@ufford.il.is.s.u-tokyo.ac.jp> Message-ID: 琉球大の金城です。 亀山様、 ありがとうございます。非常に助かりました。 本当に、ありがとうございました。 ━┛━┛━┛━┛━┛━┛━┛━┛━┛   琉球大学理学部 物質地球科学科   金城 尚志 (キンジョウヒサシ) ━┛━┛━┛━┛━┛━┛━┛━┛━┛ -----Original Message----- From: score-users-jp-admin @ pccluster.org [mailto:score-users-jp-admin @ pccluster.org]On Behalf Of kameyama @ pccluster.org Sent: Tuesday, October 22, 2002 6:04 PM To: 金城 尚志 Cc: score-users-jp @ pccluster.org Subject: Re: [SCore-users-jp] CPUとファイルシステムと RedHat7.3 亀山です. In article "金城 尚志" wrotes: > 私達の研究室では、AMD社のCPU(Athlon , K6-3)がいくつかあり、 > これらをSCore計算ホストグループに参加できないかと考えております。 > > が、SCoreクラスタハードウェア推奨欄での計算ホストの要件において > "Intel社製Pentium系プロセッサ"(LInuxで並列計算をしよう p96より) > と、記述されております。 > なので、SCore上でのAMD社CPUの動作になにか問題があるのかが > 気になっております。 Athlon も使用可能です. http://www.pccluster.org/score/dist/score/html/ja/hardware/index.html に athlon での動作実績が載っています. 但し, Athlon 760MP-X chipset で myrinet を使用する場合は http://www.pccluster.org/pipermail/score-users-jp/2002-September/000638.html を参照してください. > SCoreのホストサーバにおけるファイルシステムで > ext3を使用することはできますか? 可能です. EIT で install すると compute host は ext2 になってしまいますが, あらかじめ redhat を install して rpm install を行うことによって ext3 を使用することができます. > Red Hat 7.3でSCoreを利用することは可能でしょうか? > もし、できないのであれば簡単な理由を教えていただけないでしょうか? RPM でインストールして使用することに関しては特に問題ありません. ただ, SCore をソースから install しようとすると. /usr/include/asm にあるヘッダファイルが変わっていてコンパイルエラーに なってしまいます. 次の version の SCore 5.2 は redhat 7.3 に対応しています. from Kameyama Toyohisa _______________________________________________ SCore-users-jp mailing list SCore-users-jp @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users-jp --- Incoming mail is certified Virus Free. Checked by AVG anti-virus system (http://www.grisoft.com). Version: 6.0.404 / Virus Database: 228 - Release Date: 2002/10/15 From u9915240 @ student.anu.edu.au Tue Oct 22 22:41:47 2002 From: u9915240 @ student.anu.edu.au (John Uhlmann) Date: Tue, 22 Oct 2002 23:41:47 +1000 Subject: [SCore-users-jp] [SCore-users] Installer Bug Message-ID: <3DB5559B.2D3162BC@student.anu.edu.au> Hi all, I think I've discovered a bug in the installer when you try to install to a directory other than /opt/score and include the mpi package. Once the sources are extracted to /usr/score/score-src/ I run - ./configure -i=/usr/score make After awhile I get the following error which seems just to have not replaced a reference to /opt/score with /usr/score. I tried just running this with the proper prefix and it worked, but did not seem to fix the entire problem. make[3]: Entering directory `/usr/score/score-src/runtime/mpi/mpich-1.2.0/build.i386-redhat7-linux2_4' ./bin/mpiinstall -prefix=/opt/score/mpi/mpich-1.2.0/i386-redhat7-linux2_4 cp: cannot create regular file `/opt/score/mpi/mpich-1.2.0/i386-redhat7-linux2_4/bin/tarch': Permission denied **Error copying file /usr/score/score-src/runtime/mpi/mpich-1.2.0/src/bin/tarch to /opt/score/mpi/mpich-1.2.0/i386-redhat7-linux2_4/bin/tarch ** make[3]: *** [install] Error 1 John _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From kameyama @ pccluster.org Wed Oct 23 09:13:55 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Wed, 23 Oct 2002 09:13:55 +0900 Subject: [SCore-users-jp] Re: [SCore-users] Installer Bug In-Reply-To: Your message of "Tue, 22 Oct 2002 23:41:47 JST." <3DB5559B.2D3162BC@student.anu.edu.au> Message-ID: <200210230013.g9N0Dte06542@ufford.il.is.s.u-tokyo.ac.jp> In article <3DB5559B.2D3162BC @ student.anu.edu.au> John Uhlmann wrotes: > Once the sources are extracted to /usr/score/score-src/ I run - > ./configure -i=/usr/score > make > > After awhile I get the following error which seems just to have not > replaced a reference to /opt/score with /usr/score. I tried just > running this with the proper prefix and it worked, but did not seem to > fix the entire problem. > > make[3]: Entering directory > `/usr/score/score-src/runtime/mpi/mpich-1.2.0/build.i386-redhat7-linux2_4' > ./bin/mpiinstall > -prefix=/opt/score/mpi/mpich-1.2.0/i386-redhat7-linux2_4 > cp: cannot create regular file > `/opt/score/mpi/mpich-1.2.0/i386-redhat7-linux2_4/bin/tarch': Permission > denied > **Error copying file > /usr/score/score-src/runtime/mpi/mpich-1.2.0/src/bin/tarch to > /opt/score/mpi/mpich-1.2.0/i386-redhat7-linux2_4/bin/tarch ** > make[3]: *** [install] Error 1 Please set PATH to /usr/score/bin (new install directory). If your shell is sh or bash: $ PATH=/usr/score/bin:/usr/score/sbin:/usr/score/deploy:$PATH $ export PATH If your shell is csh or tcsh: % set path=(/usr/score/bin /usr/score/sbin /usr/score/deploy $path) from Kameyama Toyohisa _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From kameyama @ pccluster.org Wed Oct 23 09:57:55 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Wed, 23 Oct 2002 09:57:55 +0900 Subject: [SCore-users-jp] [SCore-users] Re: [score-info] SCore - error - message ULT: Exception Signal (11) In-Reply-To: Your message of "Tue, 22 Oct 2002 15:39:44 JST." Message-ID: <200210230057.g9N0vte06748@ufford.il.is.s.u-tokyo.ac.jp> In article Martin Neisen wrotes: > we are running > Debian Linux 2.4.18 > Score 5.0.1 > Myrinet 2000 > > We have a problem, > the error message is: > <72> ULT: Exception Signal (11) > > In older Mailing-lists is only one hint to this ULT error, > mentioned to check the files > /opt/score/deploy/i386...../scored.exe on each node. > That doesn't help me. We have on each node just the same, > because there is a mount from the whole directory to a > central file-server. When you look at this error message, what program do you run? If this cause any program (e.g. cpi), please execute with scoredtrace option for debugging scored itself: % scrun -nodes=xxx,scoredtrace=100 cpi If this cause only your program, It may segmentation fault (signal number 11) on your program. Please add debug option to scrun as following: % scrun -nodes=xxx,debug your_program your_program_opion SCore-D is tried to attach gdb for debugging. from Kameyama Toyohisa _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From hori @ swimmy-soft.com Wed Oct 23 10:07:01 2002 From: hori @ swimmy-soft.com (Atsushi HORI) Date: Wed, 23 Oct 2002 10:07:01 +0900 Subject: [SCore-users-jp] [SCore-users] Re: [score-info] SCore - error - message ULT: Exception Signal (11) In-Reply-To: References: Message-ID: <3118212421.hori0000@swimmy-soft.com> Hi. >We have a problem, >the error message is: ><72> ULT: Exception Signal (11) There are two possibilities 1. Communication hardware error (Myrinet ?) 2. SCore-D (known ?) bug I found an SCore-D bug when user processes ooutputs lots of stadout and/or stderr messages. This bug is fixed in the SCore 5.2 which will be released in next week, hopefully. ---- Atsushi HORI Swimmy Software, Inc. _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From a347802r @ tobata.isc.kyutech.ac.jp Wed Oct 23 15:20:36 2002 From: a347802r @ tobata.isc.kyutech.ac.jp (飯田良介) Date: Wed, 23 Oct 2002 15:20:36 +0900 Subject: [SCore-users-jp] Score起動時のMPIプログラムについて Message-ID: <3DB63FB4.8030707@tobata.isc.kyutech.ac.jp> 九州工業大学の飯田と申しますが、Score起動時、MPI並列化プログラムでのファ イルの作成の方法をおしえてください。もうひとつ、MPIプログラムで1部分だけ を並列化したいのですが、その部分以外も並列化されているようなのですが。 九州工業大学 界面科学研究室 飯田良介 メールアドレス a347802r @ tobata.isc.kyutech.ac.jp From emile.carcamo @ nec.fr Wed Oct 23 16:37:13 2002 From: emile.carcamo @ nec.fr (Emile CARCAMO) Date: Wed, 23 Oct 2002 09:37:13 +0200 Subject: [SCore-users-jp] [SCore-users] newbie deployment question ... Message-ID: <200210230737.g9N7bD502677@emilepc.ess.nec.fr> Dear List Members, I've read the "Hardware Information for Installation of SCore" on the pccluster.org WEB site. So, I'm quite sure there's no possibility to deploy Score 5.0.1 on a client without a built-in Ethernet board but a PCMCIA card mo- dule instead, right ? But is there any workaround based on hacking a kickstart boot script somewhere ?? I've seen some files under : /opt/score5.0.0/setup/RedHat/instimage/compconf that are looking like kickstart syntax so I was just won- dering if that sounds doable ?? Thanks in advance for any hint you could provide, and best regards. -- Emile_CARCAMO NEC European http://www.ess.nec.de System Engineer Supercomputer mailto:emile.carcamo @ nec.fr Systems France GSM mailto:emile.carcamo @ orange.fr (+33)1-3930-6601 FAX (+33)1-3930-6613 PHONE / Your mouse has moved. Windows NT must be restarted \ (+33)6-8063-7003 GSM \ for the change to take effect. Reboot now? [ OK ] / _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From uebayasi @ pultek.co.jp Wed Oct 23 17:20:26 2002 From: uebayasi @ pultek.co.jp (Masao Uebayashi) Date: Wed, 23 Oct 2002 17:20:26 +0900 (JST) Subject: [SCore-users-jp] Re: [SCore-users] Developing with PM In-Reply-To: References: <3117691640.hori0000@swimmy-soft.com> Message-ID: <20021023.172026.09093020.uebayasi@pultek.co.jp> Hello, I'm another one who's trying to port PM2. > > Call pmGetFd() function to obtain file descriptors to select. > > The question was more like how to attach an fd to a context, but I see > that pmCreateAttachFd is the only one which can output a fd... As far as I read the code, an fd is accosiated with a context by the device number of the device file opened by a process. System calls like poll() can identify which context the fd (or `struct file' in the kernel) directs to only by knowing the fd's device number. For example, myri_pm_poll @ SCore/pm2/arch/myrinet/driver/linux/pm_myrinet.c looks like static unsigned int myri_pm_poll(struct file *file, poll_table * wait) { kdev_t dev = file->f_dentry->d_inode->i_rdev; /* Device number */ struct myri_softc *sc = &myri_sc[PM_UNIT(dev)]; /* Which softc? */ struct myri_ctx *cp = &sc->context[PM_CTX(dev)]; /* Which context? */ poll_wait(file, &cp->selwait, wait); if (cp->intr_pend) { cp->intr_pend = 0; return POLLIN; } return 0; } > > Read the source code :-) This seems to me not a very good (good for users) reply in terms of promotion, doesn't it? :-) Regards, Masao _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From e973220 @ eve.u-ryukyu.ac.jp Wed Oct 23 17:43:55 2002 From: e973220 @ eve.u-ryukyu.ac.jp (金城 尚志) Date: Wed, 23 Oct 2002 17:43:55 +0900 Subject: [SCore-users-jp] Score起動時のMPI プログラムについて In-Reply-To: <3DB63FB4.8030707@tobata.isc.kyutech.ac.jp> Message-ID: 琉球大学の金城です。 僕にできそうなるところは、Give したいと思い メールさせてもらいました。 >Score起動時、MPI並列化プログラムでのファ >イルの作成の方法をおしえてください。 すみません、ちょっと僕にはわかりません。 プログラム実行で、なんらかのファイルを吐き出すという意味なのでしょうか? >MPIプログラムで1部分だけ >を並列化したいのですが、その部分以外も並列化されているようなのですが。 ちょっと質問の意味が理解しがたいのですが、 プログラムの並列処理させるところと、させないところを区別するには どうしたらいいのか?という意味だとすると、 並列化したくない処理の前に、 if( rank==0 ) # rank = ランク などで分岐してやれば、うまく並列するところと、並列にしないところと 分けることができるプログラミングを作ることができると思います。 それでは。 ━┛━┛━┛━┛━┛━┛━┛━┛━┛   琉球大学理学部 物質地球科学科   金城 尚志 (キンジョウヒサシ) ━┛━┛━┛━┛━┛━┛━┛━┛━┛ From hori @ swimmy-soft.com Wed Oct 23 18:17:05 2002 From: hori @ swimmy-soft.com (Atsushi HORI) Date: Wed, 23 Oct 2002 18:17:05 +0900 Subject: [SCore-users-jp] Re: [SCore-users] Developing with PM In-Reply-To: <20021023.172026.09093020.uebayasi@pultek.co.jp> References: <3117691640.hori0000@swimmy-soft.com> Message-ID: <3118241825.hori0006@swimmy-soft.com> Hi. Thanks Uebayasi-san. >As far as I read the code, an fd is accosiated with a context by the >device number of the device file opened by a process. System calls >like poll() can identify which context the fd (or `struct file' in the >kernel) directs to only by knowing the fd's device number. No. This is true and untrue. In PM/Myrinet case, this is true. It depends on implementation of a PM device. I just remeber what I have to say for select() or poll(). You have to call pmBeforeSelect() before calling select() or poll(), and you have to call pmAfterSelect() after calling select() or poll(). By calling these two wrapping functions, you can avoid "FLOOD of INTERRUPTIONS" with Myrinet. Further, when select() or poll() succeeds, however, it is NOT guaranteed that one or more PMM messages arrived indeed. There is a race condition between the pmBeforeSelect() and select() calls. In most cases, the blocking receive code may look like this: pmBeforeSelect( pmc ); if( pmReceive( ... ) == PM_SUCCES ) { /* do something */ pmReleaseReceiveBuffer( pmc ); } n = select( ... ); pmAfterSelect( pmc ); ---- Atsushi HORI SCore Developer Swimmy Software, Inc. _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From bogdan.costescu @ iwr.uni-heidelberg.de Wed Oct 23 20:27:47 2002 From: bogdan.costescu @ iwr.uni-heidelberg.de (Bogdan Costescu) Date: Wed, 23 Oct 2002 13:27:47 +0200 (CEST) Subject: [SCore-users-jp] Re: [SCore-users] Developing with PM In-Reply-To: <3118241825.hori0006@swimmy-soft.com> Message-ID: On Wed, 23 Oct 2002, Atsushi HORI wrote: > You have to call pmBeforeSelect() before calling select() or poll(), and > you have to call pmAfterSelect() after calling select() or poll(). This is expressed in the documentation... > By calling these two wrapping functions, you can avoid "FLOOD of > INTERRUPTIONS" with Myrinet. ... and now we know why we have to do it :-) > Further, when select() or poll() succeeds, however, it is NOT guaranteed > that one or more PMM messages arrived indeed. Huh ? So we have to check again the return code of pmReceive against ENOBUFS ? Now I understand the reason for writting the select()-based code in pmtest.c the way it is: pmBeforeSelect while (pmReceive == ENOBUFS) { select() } pmAfterSelect pmReleaseReceiveBuffer > There is a race condition between the pmBeforeSelect() and select() > calls. I guess this is also avoided in the pmtest.c code. Thank you for mentioning this ! -- Bogdan Costescu IWR - Interdisziplinaeres Zentrum fuer Wissenschaftliches Rechnen Universitaet Heidelberg, INF 368, D-69120 Heidelberg, GERMANY Telephone: +49 6221 54 8869, Telefax: +49 6221 54 8868 E-mail: Bogdan.Costescu @ IWR.Uni-Heidelberg.De _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From u9915240 @ student.anu.edu.au Wed Oct 23 22:45:14 2002 From: u9915240 @ student.anu.edu.au (John Uhlmann) Date: Wed, 23 Oct 2002 23:45:14 +1000 Subject: [SCore-users-jp] Re: [SCore-users] Installer Bug References: <200210230013.g9N0Dte06542@ufford.il.is.s.u-tokyo.ac.jp> Message-ID: <3DB6A7EA.D869AE5E@student.anu.edu.au> Thanks. I fixed my path and everything worked fine. Unfortunately, I have encountered another problem. I share my cluster with a lot of other users and getting nodes rebooted causes difficulty. Currently whenever I try to run something in the scout environment I discover that the PM ethernet devices on my nodes are already opened. I've restarted the pm_ethernet service on each node and rebooted the server to no avail. Is there a way I can fix this without a reboot? Thanks, John [root @ server examples]# scrun ./hello <0> SCore-D:WARNING PM ethernet/ethernet device already opened. <0> SCore-D:ERROR No PM device opened. <2> SCore-D:WARNING PM ethernet/ethernet device already opened. <2> SCore-D:ERROR No PM device opened. <3> SCore-D:WARNING PM ethernet/ethernet device already opened. <3> SCore-D:ERROR No PM device opened. <1> SCore-D:WARNING PM ethernet/ethernet device already opened. <1> SCore-D:ERROR No PM device opened. kameyama @ pccluster.org wrote: > > In article <3DB5559B.2D3162BC @ student.anu.edu.au> John Uhlmann wrotes: > > Once the sources are extracted to /usr/score/score-src/ I run - > > ./configure -i=/usr/score > > make > > > > After awhile I get the following error which seems just to have not > > replaced a reference to /opt/score with /usr/score. I tried just > > running this with the proper prefix and it worked, but did not seem to > > fix the entire problem. > > > > make[3]: Entering directory > > `/usr/score/score-src/runtime/mpi/mpich-1.2.0/build.i386-redhat7-linux2_4' > > ./bin/mpiinstall > > -prefix=/opt/score/mpi/mpich-1.2.0/i386-redhat7-linux2_4 > > cp: cannot create regular file > > `/opt/score/mpi/mpich-1.2.0/i386-redhat7-linux2_4/bin/tarch': Permission > > denied > > **Error copying file > > /usr/score/score-src/runtime/mpi/mpich-1.2.0/src/bin/tarch to > > /opt/score/mpi/mpich-1.2.0/i386-redhat7-linux2_4/bin/tarch ** > > make[3]: *** [install] Error 1 > > Please set PATH to /usr/score/bin (new install directory). > If your shell is sh or bash: > $ PATH=/usr/score/bin:/usr/score/sbin:/usr/score/deploy:$PATH > $ export PATH > If your shell is csh or tcsh: > % set path=(/usr/score/bin /usr/score/sbin /usr/score/deploy $path) > > from Kameyama Toyohisa > _______________________________________________ > SCore-users mailing list > SCore-users @ pccluster.org > http://www.pccluster.org/mailman/listinfo/score-users _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From kameyama @ pccluster.org Thu Oct 24 09:12:36 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Thu, 24 Oct 2002 09:12:36 +0900 Subject: [SCore-users-jp] [SCore-users] Re: [score-info] SCore - error - message: no SHMEM device In-Reply-To: Your message of "Wed, 23 Oct 2002 12:28:15 JST." <23CA00B4-E672-11D6-9617-0050E4C05556@iwr.uni-heidelberg.de> Message-ID: <20021024001236.A86C720037@neal.il.is.s.u-tokyo.ac.jp> In article <23CA00B4-E672-11D6-9617-0050E4C05556 @ iwr.uni-heidelberg.de> Martin Neisen wrotes: > Hello, > we are running > Debian Linux 2.4.18 > Score 5.0.1 > Myrinet 2000 > > We have a problem concerning SHMEM device, > see an extract of scored.messages : > > **** begin of scored.messages - extract ******* > 17/Oct/2002 12:38:17 SYSLOG: Connected to syslog server (odin.cl1:9902) > 17/Oct/2002 12:38:18 SYSLOG: /opt/score/deploy/scored > 17/Oct/2002 12:38:18 SYSLOG: SCore-D 5.0.1 $Id: init.cc,v 1.66 > 2002/02/13 04:18:40 hori Exp $ > 17/Oct/2002 12:38:18 SYSLOG: Compile option(s): > 17/Oct/2002 12:38:18 SYSLOG: SCore-D network: myri/myrinet2k > 17/Oct/2002 12:38:18 SYSLOG: <0> SCore-D:WARNING Number of 'smp' (2) is > reset to one since there is no SHMEM device. > 17/Oct/2002 12:38:18 SYSLOG: <1> SCore-D:WARNING Number of 'smp' (2) is > reset to one since there is no SHMEM device. > 17/Oct/2002 12:38:18 SYSLOG: <2> SCore-D:WARNING Number of 'smp' (2) is > reset to one since there is no SHMEM device. > > 17/Oct/2002 12:38:18 SYSLOG: <67> SCore-D:WARNING Number of 'smp' (2) is > reset to one since there is no SHMEM device. > 17/Oct/2002 12:38:18 SYSLOG2 <68> SCore-D:WARNING Nqmber of 'smp' (2) is > reset to one since there is no SHMAM device. > 17/Oct/2002 12:38:18 SYSLOG: <69> SCore-D:WARNING Number of 'smp' (2) is > reset to one since there is no SHMEM device. ... > Linux itself tells 2 processors activated. > > Is there any idea what causes this behaviour of SCore ? Please add shmem device in /opt/score/etc/scorehosts.db. Please look at: /opt/score/doc/html/en/installation/sys-server.html You must add following lines: shmem0 type=shmem -node=0 shmem1 type=shmem -node=1 And add shmem0 and shmem1 network for each hosts entries. host0 .... network=myrinet,shmem0,shmem1... ~~~~~~~~~~~~~ > What is the difference between SHMEM and SHMAM ? I cannot find SHMAM string on our source files. > Is there any tool or command to check the SHMEM device (status, > unload,..) ? Special command is not found. If the shmem device is loaded in the host, /proc/pm/shmem/info is found. If you want to test shmem device, please look at following: /opt/score/html/en/installation/pm-testshmem.html from Kameyama Toyohisa _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From kameyama @ pccluster.org Thu Oct 24 09:33:45 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Thu, 24 Oct 2002 09:33:45 +0900 Subject: [SCore-users-jp] Re: [SCore-users] newbie deployment question ... In-Reply-To: Your message of "Wed, 23 Oct 2002 09:37:13 JST." <200210230737.g9N7bD502677@emilepc.ess.nec.fr> Message-ID: <20021024003345.5BC9720037@neal.il.is.s.u-tokyo.ac.jp> In article <200210230737.g9N7bD502677 @ emilepc.ess.nec.fr> Emile CARCAMO wrotes: > I've read the "Hardware Information for Installation of > SCore" on the pccluster.org WEB site. So, I'm quite sure > there's no possibility to deploy Score 5.0.1 on a client > without a built-in Ethernet board but a PCMCIA card mo- > dule instead, right ? Right. We don't test PCMCIA card. > But is there any workaround based on hacking a kickstart > boot script somewhere ?? I've seen some files under : > > /opt/score5.0.0/setup/RedHat/instimage/compconf > > that are looking like kickstart syntax so I was just won- > dering if that sounds doable ?? This is kickstart file to install compute hosts. If you insert boot floppy that created by EIT, the host is booted linux and get IP address and some information from eitd. And mount /opt/score/setup/RedHat/instimage and /mnt/cdrom on server host. And access to kickstart file in /opt/score/setup/RedHat/instimage/compconf and start install using anaconda NFS methord. So boot floppy include at least NIC driver and nfs modules. from Kameyama Toyohisa _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From kameyama @ pccluster.org Thu Oct 24 10:01:31 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Thu, 24 Oct 2002 10:01:31 +0900 Subject: [SCore-users-jp] Re: [SCore-users] Installer Bug In-Reply-To: Your message of "Wed, 23 Oct 2002 23:45:14 JST." <3DB6A7EA.D869AE5E@student.anu.edu.au> Message-ID: <20021024010131.CB73F20037@neal.il.is.s.u-tokyo.ac.jp> In article <3DB6A7EA.D869AE5E @ student.anu.edu.au> John Uhlmann wrotes: > Unfortunately, I have encountered another problem. I share my cluster > with a lot of other users and getting nodes rebooted causes difficulty. > Currently whenever I try to run something in the scout environment I > discover that the PM ethernet devices on my nodes are already opened. > I've restarted the pm_ethernet service on each node and rebooted the > server to no avail. > Is there a way I can fix this without a reboot? Please check scoreboard server and msgbserv. Or please use scored multi user mode. If all user shared same scoreboard server (specified SCBDSERV environment variable) and scoreboard set to msgbserv entry, msgbserv locks the host when the user is running scout or SCore program, and other scout and scrun program don't run. (If you run msgb, you can known who use this nodes.) On SCore multi user mode, multiple user can run SCore programs. If you want to execute multi user mode, please look at /opt/score/doc/html/en/reference/scored/start.html from Kameyama Toyohisa _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From u9915240 @ student.anu.edu.au Thu Oct 24 11:38:04 2002 From: u9915240 @ student.anu.edu.au (John Uhlmann) Date: Thu, 24 Oct 2002 12:38:04 +1000 Subject: [SCore-users-jp] [SCore-users] PM ethernet device already opened. Message-ID: <3DB75D0C.4C749192@student.anu.edu.au> kameyama @ pccluster.org wrote: > > In article <3DB6A7EA.D869AE5E @ student.anu.edu.au> John Uhlmann wrotes: > > Unfortunately, I have encountered another problem. I share my cluster > > with a lot of other users and getting nodes rebooted causes difficulty. > > Currently whenever I try to run something in the scout environment I > > discover that the PM ethernet devices on my nodes are already opened. > > I've restarted the pm_ethernet service on each node and rebooted the > > server to no avail. > > > Is there a way I can fix this without a reboot? > > Please check scoreboard server and msgbserv. > Or please use scored multi user mode. I've rebooted the server (and hence restarted scoreboard and msgbserv) and I still can't run anything from the scout environment - including scored. The nodes are reporting (or is it the server daemons doing the reporting?) that their pm_ethernet devices are already open. > If all user shared same scoreboard server (specified SCBDSERV environment > variable) and scoreboard set to msgbserv entry, > msgbserv locks the host when the user is running scout or SCore program, > and other scout and scrun program don't run. > (If you run msgb, you can known who use this nodes.) [root @ server score]# scout -g pcc SCOUT: Spawning done. SCOUT: session started. [root @ server score]# scored <1> SCore-D:WARNING PM ethernet/ethernet device already opened. <1> SCore-D:ERROR No PM device opened. <2> SCore-D:WARNING PM ethernet/ethernet device already opened. <0> SCore-D:WARNING PM ethernet/ethernet device already opened. <0> SCore-D:ERROR No PM device opened. <2> SCore-D:ERROR No PM device opened. <3> SCore-D:WARNING PM ethernet/ethernet device already opened. <3> SCore-D:ERROR No PM device opened. I'm the only user currently using the system so I know that nobdy else is in a scout environment and is running jobs, but I've previous been in a scout environment when the server wasn't configured correctly and managed had a very unclean exit from an attempted job submission and ever since the PM devices are being reported as in use. What I'd like to do is close these devices without a reboot so I can start scored. Thanks, John _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From kameyama @ pccluster.org Thu Oct 24 12:11:04 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Thu, 24 Oct 2002 12:11:04 +0900 Subject: [SCore-users-jp] Re: [SCore-users] PM ethernet device already opened. In-Reply-To: Your message of "Thu, 24 Oct 2002 12:38:04 JST." <3DB75D0C.4C749192@student.anu.edu.au> Message-ID: <20021024031104.655B420037@neal.il.is.s.u-tokyo.ac.jp> Please don't reboot server. This bring about an adverse result. In article <3DB75D0C.4C749192 @ student.anu.edu.au> John Uhlmann wrotes: > > If all user shared same scoreboard server (specified SCBDSERV environment > > variable) and scoreboard set to msgbserv entry, > > msgbserv locks the host when the user is running scout or SCore program, > > and other scout and scrun program don't run. > > (If you run msgb, you can known who use this nodes.) > > [root @ server score]# scout -g pcc > SCOUT: Spawning done. > SCOUT: session started. > [root @ server score]# scored > <1> SCore-D:WARNING PM ethernet/ethernet device already opened. > <1> SCore-D:ERROR No PM device opened. > <2> SCore-D:WARNING PM ethernet/ethernet device already opened. > <0> SCore-D:WARNING PM ethernet/ethernet device already opened. > <0> SCore-D:ERROR No PM device opened. > <2> SCore-D:ERROR No PM device opened. > <3> SCore-D:WARNING PM ethernet/ethernet device already opened. > <3> SCore-D:ERROR No PM device opened. Probadly, there is another process that use PM/ethernet (e.g. scored, pmtest, user program use SCore...) Please try % scout ps ax or % rsh compute-host1 ps ax If there is a process using PM device, please kill the process. If there is scored, please try following command to kill scored for all compute host in pcc group: % kill-all -g pcc scored from Kameyama Toyohisa _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From u9915240 @ student.anu.edu.au Thu Oct 24 13:12:06 2002 From: u9915240 @ student.anu.edu.au (John Uhlmann) Date: Thu, 24 Oct 2002 14:12:06 +1000 Subject: [SCore-users-jp] Re: [SCore-users] PM ethernet device already opened. References: <20021024031104.655B420037@neal.il.is.s.u-tokyo.ac.jp> Message-ID: <3DB77316.2B818B1@student.anu.edu.au> kameyama @ pccluster.org wrote: > > Probadly, there is another process that use PM/ethernet > (e.g. scored, pmtest, user program use SCore...) > > Please try > % scout ps ax > or > % rsh compute-host1 ps ax > If there is a process using PM device, please kill the process. > If there is scored, please try following command to kill scored for all compute > host in pcc group: > % kill-all -g pcc scored [root @ server u9915240]# rsh cx ps ax PID TTY STAT TIME COMMAND 1 ? S 0:28 init [3] 2 ? SW 0:00 [keventd] 4 ? SWN 0:00 [ksoftirqd_CPU0] 5 ? SWN 0:00 [ksoftirqd_CPU1] 6 ? SW 0:00 [kswapd] 7 ? SW 0:00 [bdflush] 8 ? SW 0:06 [kupdated] 39 ? S 2:11 /sbin/portmap 42 ? SW 0:00 [rpciod] 43 ? SW 0:00 [lockd] 54 ? SL 1:07 ntpd 58 ? S 0:02 syslogd -m 0 62 ? S 0:00 klogd 66 ? S 0:00 xinetd -stayalive -reuse -pidfile /var/run/xinetd.pid 71 ? S 0:00 ypbind 72 ? S 0:17 ypbind 73 ? S 0:00 ypbind 75 ? S 0:11 ypbind 108 ttyS0 S 0:00 /sbin/agetty -L 9600 ttyS0 166 ? S 0:01 aurun0 -log autoson.cx0.run -noappend 172 ? S 0:02 aurun1 -log autoson.cx1.run -noappend 196 ? RN 30732:37 bip 24 4 24 4 8191 197 ? RN 30732:49 bip 24 5 24 5 9521 611 ? SN 0:00 /usr/local/lam-6.3.2/bin/lamd -H 192.168.2.17 -P 4848 2240 ? S 0:00 in.rshd 2241 ? R 0:00 ps ax I can't see any processes using a PM device. I also tried 'fuser' unsuccessfully to find if anything had the pm_ethernet devices open. (I've never used fuser before however.) Thanks, John _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From kameyama @ pccluster.org Thu Oct 24 13:35:18 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Thu, 24 Oct 2002 13:35:18 +0900 Subject: [SCore-users-jp] Re: [SCore-users] PM ethernet device already opened. In-Reply-To: Your message of "Thu, 24 Oct 2002 14:12:06 JST." <3DB77316.2B818B1@student.anu.edu.au> Message-ID: <20021024043518.7441A20037@neal.il.is.s.u-tokyo.ac.jp> In article <3DB77316.2B818B1 @ student.anu.edu.au> John Uhlmann wrotes: > I can't see any processes using a PM device. I also tried 'fuser' > unsuccessfully to find if anything had the pm_ethernet devices open. > (I've never used fuser before however.) Please use following command to debug PM/ethernet. $ rpmtest cx ethernet -debug 1 from Kameyama Toyohisa _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From nrcb @ streamline-computing.com Thu Oct 24 17:25:47 2002 From: nrcb @ streamline-computing.com (Nick Birkett) Date: Thu, 24 Oct 2002 09:25:47 +0100 Subject: [SCore-users-jp] [SCore-users] charmm under SCore Message-ID: <200210240825.g9O8PlK19218@zeralda.streamline.com> Hi I am having a problem compiling charmm (both c25b2 and c28b2 versions). I am using SCore 5.0.1 with gnu and PGI 4.0-2 compiler support. If I use the gnu compiler with -O2 (mpif77) I get a compiler error (g77): nmdimb.f:1215: Internal compiler error in make_edges, at flow.c:1071 Please submit a full bug report. See for instructions. make: *** [/users/nrcb/benchmarks/charmm/c25b2_gnumpi/lib/gnu/dimb.a(nmdimb.o)] Error 1 If I change the -O2 to -O or use the PGI compiler then it gets past the compiler error above but then I get: parset.f: In function `nnods': parset.f:29: NNODS = NUMNOD ^ Invalid declaration of or reference to symbol `numnod' at (^) [initially seen at (^)] parset.f: In function `mnods': parset.f:49: MNODS=MYNOD ^ which i assume is a preprocessing error. This is my gnu pref.dat : GNU UNIX SCALAR MPI MEDIUM PUTFCM FCMDIR=fcm OLDDYN PBOUND ASPENER BLOCK DIMB DMCONS DOCK FOURD FMA MMFF MOLVIB MTS PERT REPLICA RGYCONS RISM RXNCOR TNPACK TRAVEL TSM QUANTUM NOGRAPHICS END My gnu Makefile is attached. If anyone had this problem and solved it I would appreciate some help. Thanks, Nick -------------- next part -------------- 文字コード指定の無い添付文書を保管しました... 名前: Makefile_gnu URL: From k-hayashiatsogo-eng.co.jp Thu Oct 24 23:25:06 2002 From: k-hayashiatsogo-eng.co.jp (Keizo Hayashi) Date: Thu, 24 Oct 2002 23:25:06 +0900 Subject: [SCore-users-jp] PCクラスタセミナーについて Message-ID: <001701c27b69$4e8644c0$c500a8c0@0292hayashi> メーリングリストの皆様、お世話になります。 綜合技術コンサルタント 林と申します。 このメーリングリストに流して良いものかどうか、迷いましたが、セミナー 案内もここで流れたことですし、あえてここに送信させていただきました。 以前にこのメーリングリストで亀山さんはじめ、住元さんなどいろいろな 方に大変お世話になりました。その後急なトラブルや開発が入り、 しばらくご無沙汰してしまいましたが、PCクラスタ構築も少しずつ進めて おります。 さて、10/30にセミナーが開催されるとの情報を見て、興味を持った のですが、すでに締め切られた後でした。 内容によっては、ぜひ参加させていただきたいと思っておりましたが、 このセミナーは、追加開催、あるいは大阪など別会場での開催予定は ないでしょうか。 私事で恐縮ですが、こちらは会社が大阪にあり、大阪で開催されると なれば喜んで参加させていただくのですが。 今後同様な機会があれば、考慮していただけると助かります。 また厚かましいお願いで恐縮ですが、今回のセミナーの資料など、 いただくことは・・・できませんでしょうか。 Web公開などでも結構ですので、入手の機会をいただけると嬉しいです。 以上、厚かましいお願いばかりですが、どうぞ宜しくお願いします。 ==================================== (株)綜合技術コンサルタント  IT管理室  林 敬三 k-hayashi at sogo-eng.co.jp ==================================== From u9915240 @ student.anu.edu.au Fri Oct 25 01:24:42 2002 From: u9915240 @ student.anu.edu.au (John Uhlmann) Date: Fri, 25 Oct 2002 02:24:42 +1000 Subject: [SCore-users-jp] Re: [SCore-users] PM ethernet device already opened. References: <20021024043518.7441A20037@neal.il.is.s.u-tokyo.ac.jp> Message-ID: <3DB81ECA.B65003C9@student.anu.edu.au> kameyama @ pccluster.org wrote: > > In article <3DB77316.2B818B1 @ student.anu.edu.au> John Uhlmann wrotes: > > I can't see any processes using a PM device. I also tried 'fuser' > > unsuccessfully to find if anything had the pm_ethernet devices open. > > (I've never used fuser before however.) > > Please use following command to debug PM/ethernet. > $ rpmtest cx ethernet -debug 1 u9915240 @ server u9915240]$ rpmtest cx ethernet -debug 1 pmEthernetReadConfig(0x83cdc48, 0, 00:A0:CC:5B:8D:17, cu): node number "0" conflict pmEthernetOpenDevice("/var/scored/scoreboard/tb0000B2001cAt", 0xbffffa94): pmEthernetConfigure("/var/scored/scoreboard/tb0000B2001cAt", 0xbffff7dc): 16 pmOpenDevice: Device or resource busy(16) Heh. I should have done this before I tried to strace the error. I spent 30 minutes following calls into your code and finally decided (aka guessed) that pmEthernetReadConfig was returning EBUSY which was being passed all the way up back up the line. It looks like I may have been right. Any ideas from here? John _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From kameyama @ pccluster.org Fri Oct 25 09:07:27 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Fri, 25 Oct 2002 09:07:27 +0900 Subject: [SCore-users-jp] Re: [SCore-users] PM ethernet device already opened. In-Reply-To: Your message of "Fri, 25 Oct 2002 02:24:42 JST." <3DB81ECA.B65003C9@student.anu.edu.au> Message-ID: <20021025000727.4956520037@neal.il.is.s.u-tokyo.ac.jp> In article <3DB81ECA.B65003C9 @ student.anu.edu.au> John Uhlmann wrotes: > > Please use following command to debug PM/ethernet. > > $ rpmtest cx ethernet -debug 1 > > u9915240 @ server u9915240]$ rpmtest cx ethernet -debug 1 > pmEthernetReadConfig(0x83cdc48, 0, 00:A0:CC:5B:8D:17, cu): node number > "0" conflict Please check configuration file for PM/ethernet. (usally INSTALL_DIR/etc/pm-ethernet.conf, but this is specifies scorehosts.db.) This file include following line: 0 00:A0:CC:5B:8D:17 cu This file also include other line to Node number is 0: 0 xx:xx:xx:xx:xx:xx yy But Node number doesn't have to be the same as the node number of this host. Please see also /opt/score/doc/html/en/man/man5/pm-ether-conf.html from Kameyama Toyohisa _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From a347802r @ tobata.isc.kyutech.ac.jp Fri Oct 25 12:27:28 2002 From: a347802r @ tobata.isc.kyutech.ac.jp (飯田良介) Date: Fri, 25 Oct 2002 12:27:28 +0900 Subject: [SCore-users-jp] ScoreとSMPクラスタについて Message-ID: <3DB8BA20.2020205@tobata.isc.kyutech.ac.jp> 九州工業大学の飯田と申しますが、デュアルでクラスタを構築しているのです が、シングルとデュアルでMPIプログラムの並列化部分が異なる場合はありますか。 九州工業大学 飯田良介 メールアドレス a347802r @ tobata.isc.kyutech.ac.jp From okamoto @ gsport.co.jp Sat Oct 26 02:42:43 2002 From: okamoto @ gsport.co.jp (Okamoto Masafumi) Date: Sat, 26 Oct 2002 02:42:43 +0900 Subject: [SCore-users-jp] システムテストPM/Ethernet における躓き References: <200210151244.AA12311@flash.tokyo.pfu.co.jp> Message-ID: <003201c27c4e$64245070$0401a8c0@tommy> This is a multi-part message in MIME format. ------=_NextPart_000_002F_01C27C99.5C057FE0 Content-Type: text/plain; charset="iso-2022-jp" Content-Transfer-Encoding: 7bit ジースポート、岡本です。 私のほうでもドライバをrtl8139に変えて試してみたところ 次のようなパニックメッセージが表示されました。 ********* message ********* Oops: 0002 CPU: 0 EIP: 0010:[] Not tainted EFLAGS: 00010202 eax: 00000000 ebx: 0000005e ecx: 000000a0 edx: 00000000 esi: f45df660 edi: f45df668 ebp: f4495c2c esp: f4495bf4 ds: 0018 es: 0018 ss: 0018 Process ypbind (pid: 606, stackpage=f4495000) Stack: f45cf800 000000a0 0004d1d8 00000004 ec3e003e 00000004 00000000 0000ec00 000007d0 f45cf800 00000000 f44ccbc0 04000001 0000000b f4495c74 c010822a 0000000b f45cf800 f4495c74 f4495c74 0000000b c029ea60 f44ccbc0 c01083a8 Call Trace: [] [] [] [] [] [] [] [] [] [] [] [] [] [] [] [] [] [] [] [] [] [] [] [] Code: ff 4a 70 0f 94 c0 84 c0 74 1e 9c 5b fa a1 00 07 2a co 89 02 <0>Kernel panic: Aiee, killing interrupt handler! In interrupt handler - not syncing ********** ここまで **************** 片山さんのメッセージと似ていますがProcess がypbindであるところが 違うようです。 >% cat /proc/ksyms |grep f8824 は次のようになりました。 f8824060 __insmod_rtl8139_S.text_L7720 [rtl8139] f8824000 __insmod_rtl8139_O/lib/modules/2.4.18-2SCORE/kernel/drivers/net/rtl8139.o_M3 DA7C59D_V132114 [rtl8139] Call Traceにかかれているアドレスが多かったので /proc/ksyms 自体をメールに添付します。 あと、よろしければ私の方でもそちらのカーネルを試させて いただきたいと思います。 どうぞよろしくお願いいたします。 ------=_NextPart_000_002F_01C27C99.5C057FE0 Content-Type: application/x-gzip; name="ksyms.gz" Content-Transfer-Encoding: base64 Content-Disposition: attachment; filename="ksyms.gz" H4sICEB1tj0AA2tzeW1zAJW96Y4jS3Ym+Fv1FPkCrXI3M7flp7ZpCNMNAaFuYQBhELA1k8oIkkUy Mm/q6ec7izudjKyGRirdq4rz0dzc/NjZ7diI0Xczpi/543Ya19dv+frt9e10+v5x/pt/l7/9v38a BJqm6cvr6+F4fT+1V0X/y5/fDuXP+MPHW7/+2fyt+9s5/jfzr//wLy//9Ofv/XLsb38e1z8LWP/1 t6fX/2n/4e+cj8G//ttszTy7xyeNZLfp/MyH2/M8/Od5/Ovf3voft9f/ESbzOFiYXP4dvOVbfv0f i4tPgxN6vxLt/HHLb2/PU7ivV//jfLj0pxcIfqNXPOh2Oh7qK57fn5/2tO7Hj++fIPYR0o8f78+z aRvk44wX668f1/z1eSAbHgfCivTL89pGt4EuPbfX68e5X54W1Js75nS6YSC82OsJwHw7nI7Xp7Uo y8PHxLhvPV/706BLfRz0rwyHp8cNeP31/nY4fv8/T0AYQH/RDpe/OtFu+9Onx0Rvn+Y5PQz2f373 bu5vdTgebof8dvjPzqM/AJf0sLeO/+WNdZT/222peN9Sx/vo/mn0dbv4yUzxjvShpE/Iy0n2yh5X QvyEE5Sx0+7Rvs42PgPL9QrcbjhXG4Z7O9XvDQz8+jJ8srbS1uS/KaZvmHb6eXx9yZjsjH88oMoC 5jy+vde34+31fDnV15cwWSyvTw+4YQLjrj8qJvcD34X3TX07dPzwpczVjmiW/W8W35ftN6fz9fUl uSW6JYTHGTx8Spnwf+1jMlb+ufug4f5BH57iPz1l/agG8/IPMze09z+h1w/7uNCLn1L9DNavm55G 9tX9ZmT+wjOE4B5ru8VuuJzrK+TpqdJyv0y1zTVFfJvrxxEkBdKOJeC4dIBGavPsXX0CzV1A/Y9e P2gwP81tqnF6xI1JcbQBX2/5+h2sM5s2T8+PbckL8vrW+/n1BB6bbMmtdvsEbE6AP/P3Thx7pHV/ KTaaMpx7Bk+PYJmCsSWZvpSnl4pRwMf+87V+O7y115dYpxzivDwjdTEvH8cV2dNUc5/bE7IL8nBa d07JZUzDPo/Y+oajXWjD4pLJ7vnbjPsM5VXcUubRxvNqtvH43lfowQ/sml5Lzi7MT+N6XXxVDzp2 WUr24/nb50nBFUpqt22XKdR5VP+ENvq5Wr/eLqdfG3zgky/Omic4uEjY4NvHjRdsxQcba17mZ0bM yq3fD29vYG2eOd7TAe5DeJ66VXasBL3+OkJCxQUMXuPTimQXd8isUD9XP6cnHs8k9e6D9ht9vxjr MqcRnp+v7MgS8nr4+s7rDIE7/GLjMzg9gj+OAu89BW/rE/c25TTSnPkXUA2cVvunyab1S4MlLjeZ 9EvrzY3xvFzNAPzHmVDyqSHTbyeab7Rza08s3MAZgl4/9YuBSlxsflqF2rsCsVivt8N7P33gA3vX HXTWE0Ngp/CEobC/YdJfD9dbv+D7ep/CCP0ZHO9g/H2D41Vmn6fwDB93OEsovGeruX6DQFtyS2nk pyUZztx/whJy9xMLTkjGPv9kifunkN23/1Ec82y9f1pMaOH7j8QhoN/QBl5MMu35xX27w8vh2ASM vb5AAj3x9gj2Dn7Pt/pN0A0i1MZnUTJCmb7ADn/FXwQ3us89+Ud2dROpXtLOyisvY9TJzGU8webw ALt9Y1P3pS4dKuRp7dxE0oPQ/Q/SH4q14KqQTHqeQBTsxn5zHM34J1Hr5rbiLifaqbU2fDT3NBht PgKRGdOhUV9GyK3EaXoaLGXBXXr9QRKzdZNteBos6WCrNH7ptvhs7ONXdMZ6wb0Dd4XuxissS4cZ 8ihUITVVjrCRdWdzKLAlD1Oe0csOvd8WS8H6TM/vZIZ/GJ2WPHYztf68StaE+yrtd+fi5+yeP6Yl g3xD7+cxm27i9KTp4XuVh9F5Ht7DymxPSENq/o92gX9WySXIlwuJwDBDqk55PIOXBzCY5XD8Cruk 1Gn0qT6jo6AhX/doH5YlZ2+e0eN36MPx/JYr9kQoLQYTnn9V28Ovjv12Kv+BZSl9CfOT8QG0fZj/ ijap+gFT7QmND8fo67fDgLt4+tGhycw0ShoxPGN1Hv/ZL6cVWuZSXBtPrJrctGqb8oHlsHOOqS3p E8p9Ib9DUXksZfg+PqEiodoKK2R0luQ/wSp5ACtqsc4twz9rzQcPQCj/FRcAq/hnQeu/dl7A39+9 gE+G0POjVj8AstQ875al/Q6/egJPphAMEPM7uIAh/p7Q1v0Ozc4AdtLjKhk/wNXnfMnvf/Pvl9tb nG0SwtL3ARsl7SY5k+v48AvP0kKB7fLj9dCeEc38dkx9E3JZH/DuYV3veA0yBTN9+sH0mx/8Fz56 uxx+9MuVP77+jD/7P/5d+Icl/eP9sz88ztD8YKrz265C7G/+HX/5b9eajwoK4NYVdJd1n2DE+7me D6wbPlGX5oRKltL554Xt+M+wttQvmzSt5fUbDIbPIMx6J3T/GuxhLVfa/9/FXH/3+9V8fqL/3RPX 7w17+/NPQv/9Tx7Y9Pn9bf3tb9S5/vyQtrjf/kAcbL/H12meFgdl+A6j7nDspK3eNhsb5meeyxSy 4CzUWusjf7xBHrc3qIVkYgrdNtBNnmnf82Li2QPmdnAu59laorpCVk6hIF09f7zy3F8mv4Q22cA/ n2qPX/7pn//1714LOXzBzTYkm1da/fI//0FJw8Vsqqs0q9nM/N3xBQ/j1+vPy4FMODPZPEovMu8I 8dU+3s+bHQYrcCpm4gGmSr4VkwcmBnOphwbHUmjkTTENn7Qf4W0IKKdqck1FZpBFTJwu/T3DRko9 18mZLMSC6R1O5AKBtIwyJ98cDx7JrOjHXLCSh8tf8Gi85ZRiUCq4qx2udzL8D1fh1wo5lUfy8SS+ ngmlDGNmQXkIV1ghRTDihsFYK3MeXRYnYH6yEbblCT31UqZFlh5jfDm/6wcfMcHWCGMlRSKdTz+x L09jUDQlW9Nz4rELBVG+QgDU99OV/SUKd8ABG8XJABQSyTQ488sywVCF6cA/nmDafvnabmSUYdlG lC+ytEqhQfawRz689aZ/bu7xzxgT0uLycb4dsEQK4t23B90uvyjWtJJpo8HMJZH2caYpUsgnfqnX D7wldsQBm6Oezr9ev/YjGA7L3WPOKScv4M4Bzg/1ZBM4yZc2KY2lhZLgBtbZ5aCkQqR6Ol5v2497 xr4aTQaGMUgIWssP+GGvs/61uP1fjf61PWCd/JVcYlh1t5M44nUubaU4ppzLhVz6PNNTFyHNQsJ/ YNR16EOfo0x5FKYcKxZjXE7v8qwX45zRT0ggXo7fwOo02epl42PCYMH61vNFqSH3msDhSmX7YE8f 1rrZ+HUmRl5XPgh/nd2T5tnP3uesC90/YW8nRbbF2NGa1ad6eb+3flR6qbBfYxGZUlITVcpRSf50 pJ04nFSzW4qRXVyyqlxxuXewmOG8TbMwe9fhygEb5QyZwBF/7G7Z+YuhSE8ZIkhnI0O+9/fXnZwO 85Bt1/aDkf6lMS6njxvb/93OYSxzFGgsd+jXJ+iNZQvMc/Cp7yoNyGG5wgXGssimraHF5pruzpJl x/+s36By4AVarAVLaiNR9sutcsAXwn+kEmuKut7wP/BC4BPlPMP/HdMXMWpI3J1e//5//3csRwjD lSFCCOLXfTngRU/HX68/8uH0+pbPN3KQg/NQhV1EzUz2yncSwmdSEG0eA57QWGlVaRfopxe43nNu XbTeCNg477fL5TU3yEY4iCHVRYTwoJVmGjYtiV7o6uRY2MzLRIGQ1WihcDMEz3s+HCnG19NYalRc fzBvHpDZGF8mJ6pkwSrRdiKLCvbKibjkBknhswtwt5osMlb7Sy4w3/rAJ4DQhsXEonnK85JSnxRG +bVHWH8b9MQ6ipFdTij3jHqjwFugGEXMJS4bMH4CHkq9EoPYmqEteTdnW6uMeLvArxxvYMhU8b8x 5JUu8xoccbhdj5m0hukQdV2UGr0FKTXId4ozlAAlEpxQKKia618+DhfZbCcw8BXb5GXMwfXmdMmJ S1cyD4TdHSCOU9QnwKPeAB/H8paPFFWOsFaGKBxAxu7zrlgYHhkcEIxgWni0XFeUhfmclyqThrVG ZtVfPvpHp2gpPiuFLWyysxoYzWIzjLeP6zelUzy8x3lMVnitVbzQOF0qD4C3zaEvk9XxYZjtiLJr mxmwaW3Wn+N1KQ79eiaPOA6Twpz0x+VOkp/GbprDJxA6uUhC57RZsqZlH2RanYTfnSg/H8XHYrzO rQ5FXN+IhN08mo5c5jtJfjqnGJuZ9Z075eJON7L6oJpF9BY3bLSTPr3QFwK7VnpxSNXGAjBNc7B+ WXQCFFMDSRYOHN0qtLbQ0p6mJi020JKD/pgsx8LSjCPo67dxxTpYLApyMzHBb2BTNi6Gvs526Osc iFO+0fa/x5k8GcC2yDfpxX6C7oNSY0rJQ0gp2O/BNAH5xYuB8+2TNworO3a+dDbUt5+9zLV6sERW bHtg609oi4XLucpeGp0M4OPrV6gVCFiWBwMCPSrVMrVv5AbbPpfE6sZV2ojfTrfz28dXfOXbNwq5 tdqWzPoGHhi+AEtM0tFUKvGtv53ZwnChDJ+bwEhr8bs/w6LLJs0iirF3KctCOxF2mLiMJNS7a7Dn BUFMd63fOtM0J9d8tU0BM3k5ulUV1tbUTqgwtQxM30n+Z/7yv6/Ekf8GYU5VACIzuqMFoXXVGey4 AHur5Un4ahn2CbjngZBTj25RVYQ99QglFf2C5QFbGdmJfnoejjDrYrwUnwY8kqJY/4Q9cx6kpDRg DQgG2/ALrGvsG65hgfD7oC3aPVkJxvJq2WVhrf7Ouvcrq6luYflOssmNpcAeAVb/CYZIgexlopsj E8Vu7b22PjNbzIF+xpH3d8h+7wuMoypzD7UoacABwFfxHSZ6zLIKgSS2UClTH7IZdVqFsFMSNjDp OPICQ7RRTDj4cmR2izl4zl9paHKubExD6BLnegDU3qCX2AuAbeqokmRH5iKRFz88piCKiZze1bZn g1LHcSG67uRLAqNeFwVDwX2EoZy5gcau8qi6zDTMfghTIAvDaErHXPfUlBxEQGFln9OAR3gkj+jb r+v6qslFrD8LKJOpzuM7mafjgHVic5scJ8ob0Uc0BTogyRslViCElbTSmoRpcyWVL9s8k+WzA22J kjYi/IhkBEU25A51/XahOh9IjBGgZ2R1YJs/gGTBX8IS5ykt+jjymncYKSjAjAecDoUsPG39dbLN 1bFOlmTSd/nNZAP2WMnyqthvX34IAWpubnGuQgj8OX6sw4WU0lKZy3m1K1nCr7wBpoDHrCxlsJe+ SNCBP/IlH+lTe1ilcw92/TkFd/6gnx8hGMDJNo1RV2L88g3sTL7ECZsVXknAylv5NjADMWHYtx9H KbyAF1DgBArVFmIS+sCYOGXNmjN5yMwshUTYA6V9ewYXQkNn0gyVwlPs97lMzMzZS9qlBqsB+ckr Qt7XJBY5z+4Fi+GwfkoM9AlFIgg52QmuXVoXDHuY/n73j2QL9AxvJLI/QA415IAyW4FooiTHwJfr U2RL1LH2hzn7Wt6+vw6u3DEhw3KYWGG7JYDbtHAua2yD/L668Ne2HDzmjXp9vf060zdfZm+8mDc2 EEsTmWvlyGv0rcdQhCiRNDgxSoUl6JfkmMFsoeQVfiqmcah+at53fvdaB7Ym/n7ddlszC9R8kbe2 kN1fBkvr1sZilqh/hyv6ZbBWqK2MOsQ+cwslmg9fL7ng7eBY+haNErA6h4/jAfqBUsFwdFNWkiPt gLEcGKa1uNhZV2wB/x/44RBofSxOHxI261WK54iFl5i8sKEtyyA69sZPzkHOzdi22EWIPmxEqVMZ YzJjqvwV8OaV6r8oDf36TvpnWsh17PpjUoxsVjAbQsEaDowIkQI2TPyZ30jDVAftK+OC94sS18qT l9YXrE6TH1cY5xQJosiB/ByfxvcoGhnkuE3rdOyvFGWApB8WQwiTVxJmiuC6Qqz/IEdc2MeQ13j9 hc/8dqKHQzDBROMvANZtJX7RNL342nFO+E3ht3Y2Y02aSj4um8TWcH144VxnSUW27VvAbFniMjWh kTXbiFFoYE6+5w5PkN14+imRX7fKuJc+2WFMTUKlLdGwYvJCHXuhrNvJcnB5X1X3QrFssKZOmtKZ DZbED5oSLLUeRFrjdYL8Env9eDvwT01ImFPRx6b5/r4vJbk6W5FTzlJ0tmmdApbJeo+l12WQYF5T u9PMeEkr+8I6OKSQqjA8yscY+MbtcCFXvNkJJtpiRQJwih1LpRgpxjmcSIpDWi0SnsZYHP37zWhw 68e8eN4Fztm0waR+VFET2N1Y8QStAfezWOnvZxBh45wpKGdqzTHKVifGYnaH5/uDVosMIYhm2Okt NV4yO1faVfTj05lYc7jhsE+r8l5UojIffN4F1KSixEvZhTwb/zUEMa/AmPBKvojdJXzpap8hleWX kXQqeBaEdoBlTSEkktvkQ03By8ayVXORG5/ImpGREscyQzAJjmpS96jWf3C+fp5z7bKiFA3cQXhV Mc4MBQIzQbjAjeUBhGEOlYV5hggoYnm4kD6PtNpOYwrNjiQWr8uJzGJVqI+4HotzXnjHBnL5mWF4 4rHDNYbnrcRpJR5PmwIJWD4vIhXiCfIcf34/XMm1IJeUOEP2mi2QyDBEKNJ4RyTYSAWfQEQyOd8y OzBwvlH81y8+xTIpIKUVoJ+J4somtwbpqiuXsXKSjxHgESIaVlQAKyXZ1FB6mw+/fm0H7xwSKogi FPccW4j45UpB0ZcaICRXXnRUdgd+JyX9UioMxZUSSX9XFlUvC/YubHwZM2ZLBNZDMDriZCSWAY2G sYr8IttuYxDn2EaqWinyizy1kbr4L9ZRMUGRpMnka+xTU/lgeU+D9EYbBP6hDTbPSmMOLtB4/KgQ aylDbNhY4N99gZ96+SmvjN/O8F6CD0rG3K8f5R3bt3wjbbb07mbdeRQm+jjyz1SQQCANfIlJ+UYK ermeHp98xVR42xDEYrsvM0u9DSSmkw/ZNi/xZQvOpzWXGDqEUK+313/+F9KeU0xt6IcJkp+q+dJo qjJOGPQEI+u9kIsobylsMj4oVMTA2PBqxctedmNagbzWO5yDGxyNRLoghNqKO186BYXWfKB1yUyl DZHLZG4LjPeQTm2pEOpeTKyF7KR7mgCGQ//jLD5fDHNxagUslDph8tPzCoz+aS4ik9nuuQ/2Th9P cR7Sf9Qm3LT4bT02CbHNbZoXp7A83YcTeGHfAIsf5mzEc166uaNYwgubwuSBzy8+rVlIysCD/g2u z4uxao6bsH8DBun8m5/7sENG82l6QrFf/0K17SYVCTw3v2Oey0kt65Ds3F0UP8nVsXtBYdJBCWNJ cOapj5hZ8rKxH7/wIrFNUQ43ckbxteEw9BVRdwhNanizkBpb1F7KkdWSaKW3A0U8yFib5yRmz1Qn OUYgJzJUe3nMtaQeFFJWCOeVFJJ8BJuLITLTCaXz6Xr4Q6iieI2Z55KLmEHzElbIjQIvar4FM3oR N9KZllaIfH3BUAgxw9pVTF4xa+hR5wMPrKibj4eV/Xyo2ik3weGb1VhnxfllfbV3bIJ8I1dRHLq0 uBKtURvNkI3GYhIaBjP2ajQGiuJlWG4kuigOdCVP01GdfFWzkmLgEi6AEs2gw/wecCpWszMT/Yxt 0QVAGjN6KLUeFUIxDQGsFaq+DhNHkO9jqVRcQwIKuMKryVSjEJKafJQOe8SsoWU4VgU+tVoOc1TX VzXbx3vh8kFKvmfxMPFGZGhd6Z3pzM8LTImWNYYLbvergwwfAW/eKMhSRulqDFUSLaSjt4BI8bDb JWpia1UN/v6dxx4lzKGJfW8rnUgQImZHoVAKbE4iS5tV4noMCioiF1/EkoFfZYQstFQjJfBEbsJW E9rlnR9qXJ/pG8oP6W2JCAXEP10o5OYlJmIbZYL5p1281mUeqXp96FS6zgmmBgXeSoSdlCXaCCHU dhKDhBM/HR48zK4cFdOfRM8bFG8nkyQmqHU1nAwlwWEyrcQIlRlalTnC+iHNd4YvycoPvguESLRV qbx3oXgogCMAC/fRdEmB4dtg5V7+5V/+1+s//tO/UZ2DcQkyROSs5Ry1RsPWeIRxA6Lcqih28wYR DcaYBp9jiWPF0FuSM77ypuhmDwdLLdGFTpo9Q2B48XwXbKm8SKjTBD4oQMu5H2w0CpBGNVaDE+uL aepu5AH+MvrlujHrd4Xk4O/uDb7cLNkH0IPQ1UNXCGUMjWQAbKfqIwlfbWNMCbrYmaSAoYCHQbDk MRlOMkCC166Yv3a6j1KAFEqzYgT6ebrbALoRQoY9H4MYJ8P1+5sxwyU/DGxwldM9rYFYdf9zMxni rIj8pXoNIRDkXeJDEd+JjleIrJlVqEKm/lKlO3wrGWujgLEDrIZMCJNdDYaxUImQfL77NAP+3qVK CAyf7yVbK9e3vqTadYyZ/KkGEQeRLr7eDDlSgupi78TX4yDj8aRMMufQjcTajaeC/xUhGtp5WKUl iiHiqOhmpe/UOLzy2JpGGl1PTyDdgmXUaWj8dLGqhJVXaxhLTcrOi5k341cj3nAz5tU0ZKV5T8R+ u7BX5bFSY2rqOnfzmK1VUJ0TJTxF8FJx930ceB0MgRsxPAxDhdSHcVZQz3WuLvOHgRGEZb/dft2z O1KFSOnJZkwVP9zDZBDYbrwVGJutLrFLB7+LtioBr7cGywFu3YkUZMp1gdggSKuVs5XiRYkrZQaV EBWuMWqNQkrfYK5fyaBXX2shHuOUDgaIMoDSYGmCyzkeiPUhViQav+oy49tYqQmJ7Ise9GTw6fhG 9e3wSIIa0aAHkTLqWl8oPV0n67vU2lDcAWOzKdlTxc/EeoU3Qxp9c5EpUzMNxwsHL8YSW8sG1oXj Ai4VBjC5YAlL1AqOXuDJ0zCyB0yB/g7rNw/TRmaPDU66NV5qQEDNG1VMH4j0bpv+lmOep3p7ey2/ NAgxxgizGetEKZh7OX1/mF5fxrTEuSjE7XiOQyNwGvtIgwGw4ikgc/uLkha4mq0UUWqWElpssq7e XglwX4qwIXxROoXWWWOuAGjMeZo5lQOmiF3SB8QUJ4qy+DKW2KWoE96+kunj5m9yyKUvEBqyLeEe FOFL8u4pxAZVb3KXDJ73VncB73bYhQc6h0bmVsNLg4tks8wlCEyCQ2ukwJQEcSrhMTxIh/r2cfz6 Kqnk5CAdrCSlvF1nMt4O5/Vlz5SohWXW5lzrirOCo09d8kd7vUjuw0Z4a5LdxLxndpz+9e/+byx4 guELLhDFkveJdI51/cL/+07SP+TeNbzrKfC429R7oHEQIa5pKoCcbarPfH2XBGrGHGqUAISj6kIK Ch5vzHpLax7mvRipHhviC6mOD/1lzMmNvkgcLVGY7i6jDsfxTgPAIxirWZbMkyBTUK5thEWKJMA/ vHvzpfL5rXzhT80FQFDjcBy7FN3A7yAVrW4ykOcLleVMWDjNaNtElQLwj890LpdObFFm0yRXnDCT 5czOpXMMOF++ymmPl+prCKXLumbiKA4Y6WQneNXzlKVyIU/7j4P1pn25eoTZe4gtSSBzwnH36o/Q ZtNEh/oZWqjOS+nbiRxvICIklDeXuW6Aw/Emx1jAty5JzGcuxm+A/ziMceCUblu6LVGnQ2eguYam nbZzPL7Ow1p5Ro5jA6zPaMRks5Yh88nvR8D2qJZgF8+LFJdkKa7aA98PR9riLx2+Nuz2qAPaDffx djp+ZeR1G3X90ZQWC99fl4IqPT/9SJFxcnDsOTc4z5yBpoI7spwudPaaqqr12ZUyrFRxp8RR4QjO 4mxOkc9Gat0CV09O1U/DSJ3NRIfgJbUtJddmarmIgsuRelTQn8kPocxGhPMuIRAYW5NMiEWVFGu9 lAwlBFmuCPsJ0f+obx9XqojH9p9ii34dzW+cvB/QzJAjWfytmd1ppo4TFY+9n9/6jWO1cDXIl5FF teT7KJX4eKYj9FpXGhe7r/+m35bZYCdNUtyI+TzQqQAjU07Gaa1dpRQzlW/oUs+DXEiOZxhX06ik d9bPkCFrIUeFlidHtMP7e2+SlMFKT62KYnSe/B1JyXzXA1t9XiBaNFbiyePn77SR4apP3qvgI29f Y3IAQJyLPrA2iVlquIAUNgOn4O6QitXVqBYbx5JGXukTLKrmvaa/zWqAr1PwcLyrRuGNsX2zOFcA pbp8FO1mF0qilMvPjdpcbGsBP94gUX0bP3f7yJQcKiX5EoYUpHASauXmRnl2B6VNClbJVVeJaQF+ mbNS1+0KxQnpz9fz4ajhn04Vzk2cs2mhjNJ6hODbG4Wik6OKNK2WJ9tAjycwNeF9IGmlOC5le5/Y pV9PH5S/fXEzXr+KvwoMnd/U/OgdE2dHHWNkoyfS7VtrhzsohxkGkFkH8mtm6I5oscFLUcmeRBHe J/SVNwoEeYb7KKIt1YUryXUcQQzq/gARoIgko6xTFgys/2Wa12Xtc4RFdz5d9u8d4fKUWrUGt1sH CNUf3BGpj94WsbtgncbdniUm5sqilzYSnCLZvFBBScL1evbWQM9loyNYKQbe2iSwTzXFarIv+nNy vFb6dhrYQ4rCuJKPaImF730rIvRnc/rxOCS30bbD7gGKb5SgoofiGg/nLHZdMOalw300OhmuF/g9 chu7Q3jHLOw3m7YvtSNDwFi/nvmhgtV7Gd76+zm0hWpfRJjDkf6y6TiSPab5oCQ6iCo++eDzKBLw mHJbNB5+40HhiZK3QmfiuuShAakMuT5A5tRCmaUi3eWlR0rdnznBxhrxF+kKlwKk55+k4pwqbkXN wP+BM8CJB5MNJbyOF+rPcWQ1X6H7PRid33shiQWZRwdPMJdARch/4nL5RmYPlzIPLpDwOa+V9eT5 Xo8rDe5CI5uNaZw9u9JJsEH9JJKZxD+lX0FN/thGTAt8BtgpQksU1LkPuYTsl0nC7RTqI6KOWfB3 Z9QxNiSsyE+SEGA1S8R+Ez8lRvKiNlqbXIhGg4cGPvqXutFgVLrgpNwdXIovdj3QRnrl0y1vVFwS nBlND5fwefgd4IMK9an80ho9YOI+Id5IjcJRmuWNXaZyJDXPt5p0UGEI96DqLtYvIEm1eYbWrI0z MfhxgJbkUg1p8yEm5GiF0nkiaRezP4CnZzo69ZYaEo6aOIe0Qr5lFsc5wwu1K73c6bvzWBMVtxo+ QAArE+7Sl9cq1Uix2Qh/gHWZZ/EJF+8DtvmtQpyQHKWaqDWyPXdPTQPEH+OzZ1weCsl1eodne+uc xIEp77QGpVDhjYwoSZlcegguOrUcev1SoXjLlfOzKRc3rTqtsmbRwPvtpLU5HaYIneRT2UaZhgwD 6sixCOhsqkHQUz40wMORLawVpGEU8xEaztDU/vLawaVnVlrWp0kMB67IZurK3r2APgfR2pF3DKha F5Hp6L1b9JeT0LaSoNnYOi8ScnSRaqyETG6yo/4ri5ZGRTKziKYhulFGWlqRWGWS+VJ7FvJ61pJM k6gdj7g9iZIbnHYS9+D6qkf6XsqIYDOn3hGFFCG8qGKabNIEwxlMIbGARKUJUrp8emtyDgUOWpmc DToRKqTRgfUlCoycJsakTRF7kddFfjtVKLr1FIKZiB/40JJU0hdqKhOqiL246B65/ScVQizNrQkJ GzQA+TpUx/le16Ja6K+tTEICvlsxCAzbCimhxSBUxLGH8fHTDUtmeUyaA3IUEJXTZoJ9gXDutUnC EQ78oDN3r+tROpPitNRZgqlmOI22XM+9EufpEI0T+1VjZbPXyLtGTGDxQ9iIQWStZNdvD+nKlrFb wTA8w2XO+xoffQRZ7cNVyactC1dzc8sWoUvJVW5zmIv1CoqbE7IH+TFDGmett8mUU5doycOA6rEs Y8pGq97cQrET6gHyWvKaGyPDx0LUR0V4Dgbu6CGk1OUYBKlm7KH+QxonldlXqxUtno4BkjGtSY8C ZQ6GU+G71C94i8t4O/38OFC3jeJh40xRyXjmSv5K5IBV0FpTJjswx+vDAJgwONa7FRH3CB4Dpho8 sDVbQFGQIZHt9WhBC536Ssoyjnk9R6Ool0IBPg21LDPFSDl8pzqu5VTrLBxRnOYKJQcAD4stuTzG EsOshzgpI0nnFQ/1HaYiDGw7ZasqmcpX6BTn+UhBcwjSalQ5kodDFCoUjQteqXipDJ5I39C5hTfi xMOrdNQodGBbD81NxD0rgsnQyRa8pTYW5fnLNzkjoTEPN8N9EEuGS54lLvmN8h51mCC8C5Ld2JKI pS5QYFac7ESCcn2qKIaMicSiPnOix650Xm9SS81oUgWD8ylcan/GM1Muhv2RyqyufrJq4p3GTYIE E0R1KuqwkMVxyQfI9w3QYncjrz+nbmx0xv0ZNM3D9q7v77hAaJ3p3c6Fj1CDXd/GjT0K3+EO9FPP i5ofnpsf3FvVfRzZbzE5dGd61+9ldGUOW12BL44KcaOanmRcHpoKgY7vMaomAherbQto//+gsurL R6VIOMUUe9Gib2M3h5hKwqnym3XRSwzV1EUij3OlnIYy8eqWYMiXtnToaCk5wFhGfe/HkebFe/jl MmNLM8ZPuRRhrXf2w4ySJdpj5FgpCSTRmmdYV3L61g5TZ0kkTNyGQ4QphxS1BMm1nIt6ho5k7vs7 R1lHdN0UqaiGgvdaCiAdAqQYvlrY8VaOwWMS4Bg6dbqeFqiJWjcxsRaqsT+/v/bbN1Kst91xH7v4 7meJ8lD3u0fc/rRPzSPWuoixWpuc+b/1ytEiTpxQlmtSx9/MFD87v+/7L1HPNeV/Q/EjIu+f0DFj 2IB6yCn0ZwA3Y4PJV/KimWjOWgDEB+joUCGYX2I/Zk7mTuJf9gqDp+pprZlMx7MeHoELvyywAeR4 aIKGI1LGq5EB0wv0Yhjri0dH7PCUj8DSkKlcV0xkDB+v2zCOyphmkdUQ2RR6yoc3EbjCDRmSFppT pPlEhXTXb3LChY+Ycu+8aqnT5axeC0nkh5IEMRmLG4NaaTCIGmLtS4TZ/BLH1PUpO/C64DgH/rGV iyhcX3AuS2haeO64AKD/HglzCUZRy4pcayvX6jz4zsN0o6kh+n5afCJ7Y7OXZmpv5tfqtuS0zJN8 cCpmXzX0FKnbhYKKhDIpyHXHDJtcs0HL8ugwGKWhYfJzSOtuy1FDxEl0FkUIWbFs5xsquK5IKwHX etWOTJTS52eUxcclduEfyGAnAWgyNqX2Pfg54NFipPeyBtLvZQFLSc1r1r5TTI/pWlzj4bpYL1F2 UMtG5WQ8GBe6K67Usa0ogyTr/kIJTchRcTCkn6Zovz1o0Gm9eRaLpps1jq6vMOEVtD8A3nFyOyLV 02DDBRidy0qPQicxgq03t261iAW0KjRptLLk6pMc16G12z90y1ePNLUhudylmrZLsBzplGsJC1Sa ZFqXah/zKozo3nqw2xAEhZ1IiYBfmWp9nr0cWKLf83GOlZYHnGyNVy587m2jrUUPL4tdhndGn09l Hx+3EV/fy+30k4yW1iqcVX04qSYlX4lOXm2DW+Mlxo/3W3//s95O74WkixnzLBFGkMNGvhKdi9Rs pZbD7DnP5EE9pP3fqEYWaxAmwknS1E3luTiAM9lQSctIs5iFnooSP9UGKC5i1l4OxZNnPH2BuUOu AieioQz64mBWMTkQw73TJO7SfoI3npYkzwl9BbS+0xh9OB9FofhIzSUp9fG9/yonqviVyMCRDdXg AoAiCQBdBPp++rj2R9xEnVj1qZGqAgi3BQ0fsLNv8JHFkQE2C1bT8HsgdF4xsygeT0fmvxRqHMnb Svzl04WkVWzwEkWk+TSt1WQck5Ygxwf7BZnG6OzMmGUarcLrfoNMUz9t+ELhvKTkXrfiG25ACRVD HSA5dAXX39zJXy+U1vGj2yIWPcj+Ti5vH3jnqVPlLuf8azR49o9D61RCC4vmWz98/UZlq0s3bpbY H0DdKYhbQEGgdd42eSypybfrVDnCfSClrGOmHdW4OxAGcHwu7N65wHXfIUyDUCkQuJKkSQJ15uIz Z80N5j+gKD/148ZjkI6pS3ei6cM82MuAeUau1f0pjc4jTVJ9HziT85XUPXTsHbKYAQcoCKTOosqu /U2tHrhfqYwh9aPB0sY+Z7DuHgJNPKwVuz5EStPeE75Q2xQ4ynAjqymzQEQ2fQLVHuFrcc8cgOJE ZTSUAudFrxIAsM1nSApekYoxv3wvUFJY6A9yBkf2MLfFs1qgsEBed9Jq/MN/ggk4JN8RKMK4PeXX lfwLjy2vQc2ZI7Kw2B8Qx5NY/c3meYk6Xe6r+6oIqT3XfHiv1Ft3ReU7Sk18xRV8bFhVQXHljiMr BK/xSr1YICqy1VMMQPU7iqyaFYWFnuYu6pI6TpIZCFtNnRVH5TRNmKJ0o0SdDR34n9qiy1OSF/KP w4VjiNJSrGKyRcpK4YhWgVCKjCw5tc47t4OUGl6MYx5BcnoXEq1iANlkNXXBnJv2qnwJFu5gYwHL dCf0mzbgSnPtk56CCKyS+E04XURmWiPHY0gpYWCVs9K1CnCMmE3jAQyVdcWdXoZ1TA1m6OSm1HVN VLn6/utyEKNLK7+6S9QtQ0cwiiBV5COfk+UfL+QGCokOclAiJQbb5Bw5Fx5RLmxLu8mXgHopNsr0 YZTQiXoY8rdv+d5PYBwu3FWgwPfSXiCRC2g/Id8yASv5FV60bCymSa0ZO7xrKn6hntxy+It6nwuC WFABdBCbjojLEJNUfHFbqSPkygrymRr4NwUVAQmRTOjV75hrztRKWHF1j2N3c2ucEOjAi/TAA5Lk 1OoTPOJKd7NJdV2KvtWU3ZORipyCt13LN2PZFz5/HLlPxnpELZsSpyAnTmOlQ7S8aGIDdJimk5hF BuabjMIRKHEV/Mi9aDFsrOSkkoJdMdTILrQgLZJArlKPcSdXC+kuexWcoC7JRq5Uy+zF+07ayAKf kn1bLpHLduEDRwpY1lKBOwJidrjJBUV0HWK0dpDSzhlmZ5KIf6JWwTrCBig1tawnvBJHF3nw1Zfr c/Zez5KBDI6jX65UbH8qNdQfUzz37UanfJWc8FmohFjJDzZxv/Hjkw8eGC8Q86hYVlDokIKSeCaQ J/9oczb9BNUa9AXNepT+JssTIjUHEr0F6tZZQsnQI3R2Tcnc3H19tiIczJxQJU9MJ7Ef5qeY4eYM MZcVQ6H4uk4vx7HQgU+lxfX7VKmFhRmYJ6mgAjVvX0fJc081iFEO8l4xK8LCJbRJSvYSlxHui+kE E22iqxG6YCjgRpencH2PzHGBWjNa0Q1AvQMunfP7ZHDbqfJ5XtMpKv7lQGHynwe2sqFM4rLI18lU XkjEbRZrA5m4GB8mNxQ2BLab7gqkGP9cJGWROApKQK7e4AKRbz+lSQ6AECmVkzI0qyhAKeOBgE4B 5oSuTExbS87r64Aw/cYH8l7oKpY85MhuiiRQaQgp5OG7iajSP+SahhSzpEgFWYSBPU4Rp0StNKQK FF/SR6bJYa6lzRMpSPndrC+8E8U2kn8hOZOUSFUTQOULSzLOrnPAr3vqIcrfyHRYEPIg8XPUunnp ZQGPSPuBxGm2dnqVb7FKYQvXLCT9VOTD89KSTSzSkjSbb1gusShTbu7pc9IxHnV5uzepVwm44Iu6 T190hx1mWCyWMCG9t44qfbV3wAoxmOBKynfLdl1tso+kW2qw1ow+dLvxCV064vBxu0O8h3VtokoV OlaDP58POozmaXtxvs1ZdxcVxQhIR1qzuXS7UltlGBVGHOQ08L2+M9qB5dZtGqx+aG6Xul7bsbQM 4SbeeworT8OhO1GlMRgVppYQc9ZHjMMfa42j6VjdLJ5jCpSfJABvBq2d8PCXNCqXAok5ngFZJJxY DrnB5ZacQwqdqz8lvX5XvJkuDirCjDHM67ofNMTxWt8bZ3KxtpLoBcpuD9phbJqXRT0OTEaXgyya /UCe4qDb4tc7aJtRdxWaSzLdibrwK8vcz6CzEp06tJZzwvUhqvjhh7TiE/4j3y4Vv1s3psNF9bHL kUM6dfZEl75Wc68zTC3h3FTXV+bupMv0TiwyUi6rAOQwAbMI3Xy2bnXINGoiyh8gRzJ1162+Bbe4 PodU7DwLKwDn13d+jIMdhDELVKG0YMuB6uOku1zTo6tf++m9c8yMPHAYEUEGNU/RNxVm/TIy7/9c DHTqpO/ryn2qKo1IbUHmS/IMkKU9zPKOcpbuchNeSSY/CZJvdAreLpA0upWTe5Y1LxbLGr0Um6dY P+sMqlSkC7WMPsRu25OKvaC7OPQBkdeleTNED2ZLiuthlJjHPPlFmZ9O8nATUErQn0nMw40Mw8g5 DAgBapnzceG6jJrPuXL7yQbh60LTd6l+q5Qhn6tq3WFfMjWOYwzby7y20LYUGPmAJPxDDidE+BR+ KG5e9zNtn0Nbr6l7WehM9eTlicWu+uMGi02r+178UodrXgdai8Jvl3y8yrn4nuHaSNA3FQpfcfzk 1+sRLPGLOyGTO2C8pfifovRB9XQch6+6qa/nzl1QCvTcLLUOmS9wow6tcrxO4CRW6cNCyUtkhHDj M+7nifSznEDriqOo6TOuCXC2wUBIdgUGAYqf+PDkOqcejYgLAPNvgDJiDdQRW3JXma+3+wTUZ+fh 8A5O4lW5uCh941eFGnJ00FJmJes7kJMK1mCVG02lNpT8qEZuAiG05nR1Y7A9ytJ14q3oUqx1qytq StR+TtoC5ha0Oy+nkIhVy0F6pZoAt1nPz2Xueynrui/45K0zh26TrGprfoXtq0uvfOQozRoExUPz /qGwtWgNIoyhJL4wEHGHWGcOo6BRKYBA/H7m1zeK7sMJz6n0WceY94CPQomMl5F6w4eQx3SnDYKJ 5d+z7nTMDqowKiLcERzaYIlPDYbgZCjTuaIrnesTLqaY4RzwIpYp6RfB+x6+HncVryXATS5y/Cbz CWBZxKdzbM4vOTuviziU335z4A1Cf16PRGS6d2Vlt93ZuYTBoj6x6/fgm4K25abLUkbmuklgyD7e VlNLzu5vsMABykViW7nXeVs0CNmN8UylGz6GYGZdNE2VryASkdbmderbdmbFsfnrdUR46bOOpJ8o H4/SnkxhN7U5KDEWh6mxyofIPenSkcqie9Yk5jW1UltSzugKaRoQZojB1sxV3CBA1rckujDgRKcV g9Pv7XSbshLNt1veLW6bYHBpy6bCV2huyNYfkGYOY5okLQRk/zymTH+mM0RS/FGmxX4ekGHkRcCC UB5K9w+ltZB8+wQFPYxtdVZY1tGu3JlAEGWpqbU+FLHxrKQJ1mFKSS6MVWyFB7HFFdcvrkHkBeWK kd2uu/dagrCYKVNuUSBlvkM+q40WuTXorFj/e6xK5Zz6kPJXwpbfY1WEU72197pjRp3u4N+okEBu oJd0G8DLXwHLyG7M1cg5QQLnvwLWecDxdcOJzYT12g29l6adDjwNaZIHVHlCbRojNJcqZ/MxgzjV L9RJneRXuRzaV8osf/36i3N3uUiTC8aJ/lIGw7ckGxfs4mCv62paVWLn0+lt15mhDAgAndXid5Ct UWWEzwDWa4Lx0w6jceclm5GT0cWN8w4hQWc67gWTT11uOo6Etzofz2tkdkm2ldHMSo8rfVPIBn7B KCKFysQunSA2niwjFqi9pAh/f8YAE0AgH9kxpLYFOgqJix2Giz1MhOhf1ueQWFIEM6DwUrcF5ogk PMuU50eMMEUZtgUvMUhg3CNGOaeOMoKRQCBAeQMJm+n+yXE07ToFUHsCyUg+90bXPgqomCeQPg+2 BdwzKRaFJRvuKN74o1Kfcqdzpmr+h69AhxwmF5NIGADSBuDYsnSv69iTxc0Kqbsx7qC+lEp3Iwho 3F9JbR42Dumi2UU0JqVWHjESh0zwj7WfVaETkneeoHCS8lbIYaYCIkGZ8ITCSNTNdvJwjL0+zbTP bybn6ctkfBV/oZjSdl9V9e56wHdKhfS5LBWXp23IJ9OA7IecxBMtfKmaIn9jRsyQ2F2PrxYvR5TW wOElv/f1HHSePJSUnF4tnpqD7EOMe2SHG+W7HKOH1bg7WEudXQqHZTBIV0FDBTPUPvcZVP1cu3K7 p8TTf/+n//X6f/396z//4/9D2gJyTKv9iydBjd/o5RPaGRaGz1R1uk0AXBIudNt8NF7MrMJ3X4Eu l7NwgdiClV7HDxzvLqxAhRw6vugih5exuTuT1+y0QDJGWDQlAMfUMORw/MHXRgIhLTiW6qWFaAmW +60ARM76O6dJ66A2XJx0xEKR+qXHHK5nvhIFmh3moZwmKbHxHKFGyIW8ZNg70hyy1hzcsENR8Qkl pd0v4LzoZj4qZZbKRXyMah/v76QaqMtc5fc1c3JeV5OS9NPIMF2kAoAzZ/JD6p5HpjEUbpZiocLp nh11TR6UkLMVH6TQJt5j9CWWWFJX/6+U3h4w+grRpgaDXYRaoQtZdpjzx40qdquLpUhCFbPpnyCk VOkGlUksxMKdoXeYS/9BummOzWvSHpD6m9m85wu0A1VmGBNDTVbXJ+6ws6fYKXymItGbUn19JK8r NM1jHhJYBGg8gnSJKHnfnWqZSseW9yBdI2t981W1Qy3+ESSLBPFpivaAL9zk6BlDdkAzzS6SkSpt fnqaLhMUH1wGxdDllZ9ntK2Tp/bHWpy71L5fCOPoRAus4pC7jOXMI1nXyaYZolvKFgFaHkG6TtHH qWkda2ncOnIH0nWCArG1DVnMFtsjSNbJmzDHLmVDpZXfYNjGoEMdQ5824iNI18lDkRlpu1T65H83 o22dqJxt6VI5sdSxn741ZDiaGLMcTIIec49kXSesdXFWKmkL9yTag3SdoOKwlrrl+mIeQbpOnapU m1RzlU4NvfcgWSdnu/Wzbrr+sJaKIWvN2Ax7UOddnqYk62QTNtIi5V6FKw8/z2hbp9q8rUmN3kQp vfemyf4W0qizRBiqfdB4wDzcJQNnN8QhobXKZz/2iaonsKPZJckRlsHXEq09TPQcQ3fFpCgHUiv3 DsYYGv3vcHZJtgmNGlu+N3ZMpYdQdtlGyedXS8xGr0OkXCt7TxAz2iKKrl/QXx/7ejv21G1r0s60 8jnXdwqxVy40ynTN6pX7hieqcBMQ9eFl0Jrl1OvQOh2p1XPPlc8TArXPhipuzBPFmVmF1onSIe9b zJJazTmY92CdSZ8m48hVY9sYrkcS0yKLBklPWnS+omYz43NsFppats+gYCqbc5yTpRbvZnGTa6Im Md+Fx7iX0a2PKhm6sUq1WY+FV5CGkJ6NUHG2Sv8VmOHy4SS2Ciu4S3rGOiq6kKgTvtHa0Jw7fMA+ NdCxIggal8BvCxYnY7br0WE74VkSmALuseXIAzLQjUGzFGc0PmxwT7gd83nDmbhkGCJBcfmxZmuP TLl08mP/JCe7cv2Sb++vb/lIxdpX7gdtJukJQvQi9PfzKQsdvpTPUmdJdLraCHQ6QMlkR3osSCN+ kJv7cj7jt4BIEYYUy9F54ZG5OSx19aYmEkDIKaE1MPmjVvYze4qsOilKN7kvhRpjihUnY/llojbB YYXEFUKJPYEUl8BkRo5KTlSkTo+DyX3hauk5BiMNlohadTJiZyomYJbZzoohPiaMuB0HOs1GBpIe TJ6cvs+5Xl6/nqhazga6/GBySqdK+hNVIuvxxczNIRMsxVatYsqKuX4UujjqtuJmuGt96XLx3USx U15dSt7l/LaQ5B9Lkd48dDfLLACpq9lOT8BLw3bR96FOKitmX/A66J4/ae0NVOi7t5ZiiDAtQ1oN gE4hqOu3jxu3pF+He6lpgJB1DD5Zx/cn0NcdMQbd1dQQlE5Lfi+v79R8n909GERDwozES11YcVcD HqvtdMEhb8bAF3fj9yzu9MT4XJeM/yyKaIL4OLY7xBpsMWmqx60/aN21WYJevB3jVLQJPQBOAfuc koGDk7V4s4aZOx9Koz0p48sJalp6t4M89g0XBOFirVAbrIihYfp6MRxf66etNBJUYGvirgATN8zt JAdUFUeVRhCnokb44CQ/Yw3ddGr5kkWDVccfTa9popDMHGOftMqLGoNsq7F2/KcmhkHKc6o3Kx1G B/37dL5xcH/yrssZHk/NtBjydQcxVOpUvT6FLs7QUY7t/fqVNNmo2Um7MNDLNov6g+neu3lUqcKB QU3vsL0B3+wdZn08WRCgSTgpwXiGUdR1ZdbHchRDjyg6OvgVJUaDTzU9rI5cjPW9cOFpdprjgOln P8POjEvGueGb8h9dn8E4SbVz+YJrcZ7Vz6jBrqt1PN3XHCIXAkrsvco1ByuEtxLbzasXWoOb7nRY TkfqbEcdcuDZS+dZOiN8h9C/++2c6egGuCJb5/Tlnbmj6OwafThLF7TpbQFA2Dtiu5wDnnrrbWV2 5+4QbiX6Uo2HipFiHdCXO13L9KCjbe7SCwwAfwe88UWSFE/qo4ys203Eqb7NKn9e6KKLmO06SnqY 6Z1XM/wEueiRUHE30p5dC3WWiYpazB61ciwsUasN0QCx+8+oTDu3NJVFQlyA7BZGekZn3jhdZ7ws j0/RBo8e2yZLGU7l61ZkYwh/59Jgneo7+7ry0k+hzi5muKm6dds6xZ/rFTwtmR5EdRN9XbHLRu9z C3pYscZZpS3V1+cL29xwFJaQ1eaO3MsEALagqDPBC1wZyKWqh/voQN4DnQ4Rgz1iT3MdskrccYdA tIi8YaAa3rkjS6pRP0giO45A0hRoA1X4G3OVdjoA6Uiscu+g5gN1QQsK8r8DqVwN2MDUP4Sh3C1t g1I3G+6+8Pwb6zAFK7mGGteJ8m+kRURveclN8kw1Tb8dVJAlJxcW8bRrsvNvH8/hzWlQ5x7Z63Gp O+Da0b0H6pQn7lrlGojXV5FYt8vhnZW2aUOuS65c3a/k8wf38zhQQ5HEl43qYzj/Sgh9hB6+s7Ag nPSWqpGcjfM2l5cBq6hpZqNyrZ18aWE3GgBanj524WY08rEz9TzdVlklii05dimDr5lKVMj0q7zp hk1lOGktStcNKVNv11jZZGzoEgipvq8bSu6yInvWjur09uqa+XaT73yUehzeJMlcc/FJQpiVrqr7 wtd4fN8AVKcXvFTV1kHq8Eh1F3qWQM5z020ircvVlJVvWN1j1A+Hp5tTkrNCdVAJiIAohvz2Y6uK e5lMoLss9IF0NlJwqgx6uyPJMC4Slq6d+tEKci06CXRZpZHu3JXrJ3SkNQuUQ+sjrnSz0te7ZZpN 1mp/htrlFhNBSLsDOSdboYtNr/pe8/YUwZCfP8G+j14qeyHVyoo4DJH1sOBi6fKRGlvwQtcGgztT bnFkGsnX7MRy58cZQ+Pb2auMG9wpTidz1OquudtYV33d47a697QXTO6lqUThm3QFABfx/boaKXQ3 gx1S4AGmsI+gTfPHBQbpkIru2uBsr588c/Ec5YL15CzsNkgR+RLU+G/75u/nfNs+uK2mwh8XGdIo DNuut3VO2VAySErHQORTLUQW7dF9DHlZp8JNo6g92/rW1NsRfie/UJsNM+eN24i+HejyB7poDAa+ 6CYAzArgg2aw070f2uoKVCfU60oeI3nbpTasZrlM5Frf748vU13gs+s2lb7iBBAOS7E3WMxDNzFf 5ww/5vzauLQ4kFIa63U92nvlquWWk6VdbVRBLGZnda92ee1l9tKVphnSi3zMAX683bzuqU0J0yqK 4bMDMvUHmJ9sg4YJCjM61D/98z9vkCVBBzWzQpb7SHtUKfAWqiRyKtdlahOEFSxmHxWYLAWLp9aa yRtQqzlW3AT5CtmqMpaCgLL+XI8wKF+GNV6snyW42+jwNvxwLVfm1JE64xM14ejSMqk3OvdeLg/B gXmURI4lDwSOjF8OejhACuvoluA5S3q6VS5QJ2bRAsvbqVJDrD6gqxdJ/eDbGwXRiY07CLY0hZWY a0bnFOlDOwJGXn+SvzLlRZOKo8s1S4/9CDaopWMiep4LzhIlnM98vfgmoOnk14uNJA+lULFl6gCz waRw+cVSt7NJ6iUpSAwE9TlRmdlSGioRW6cGIAcKwEgrZdr0fM0GHaq1NSiKyiJ2KDjBJ6obMPOY 5fz7SFQtnC/rQ6YGi3bmTuT4EKS5iFYucDePEu2hc5ND84WNrZfX18NZzxtStSnzPmy1FkXoQvh2 ngU/QQsXsw0FjsIsAAo2AgCW+fquEauR5rHICdJBxzt58Ud+P7z9knl4aPYFjjzPg48sHigEwQ3+ qLBvFtd8DCeDv1e+o1XPFiw5zFEeAIjc2EeQ1u+QMPhiPZkilX8dOKN8oM5RKlzp6shardd5OmUS 7LcOU4XnOYFvTTcrZGXdxsaMxM9iiMOJdw43R+bCpgybwC8F7hNdM0EjTNMU78x/0SsXe4RxkCUU OCqfvThux0QF+BKGC/AahbfGkE9CO0z6T8BujiM7HcLp5iF6od5Lrf9B+THqHyGpqFGoTPZwXIeg VdlEc/IBnoWE11ujJtL8LPq+VNJL13pI8nOarLwu9VsSVzDh2VD9skErX6/Uf/DrKAC2a42TuL6j jn2rY4Lx2+4uae5Q/0nuwQP6MdL/G3zwsJCsXNPeOZN2kDJ//OJAGY0yLwGbpq+yzH1pb1QJt5Nm mHW3ScoqB1/grTJGVbwLxlAxoIgW0x65ZnPgYUVC7UlpEb7XeOCcDQX/jQLhKqeWaeUO9d6h1SeI ZmH0VlbmWd1qW6Kj+0Dl12FZp7L51NQmOy4S2RmNi1yEte6uMgzxGIycLx58DTtD9j43ZNrUjMTZ 8Zh5G0Vd6RJqnqTJP+i+biumfnSqNsHakBVrYZsFKQfmOm7TA3MCvrDxOle/R22LT6W8yyRn1/NE PecokE3dgKRhmykQe0YubKBEvtB1vX6KOqK7tIP0FwMPkPn60db7Kz0lWJyRlvWdevpvNL3BCBxW jfionRuF0QP2SppyABaWqOTX2/Aie8Qa/YNNq5ZguA1pgV65G9Rz8JDFue8QjGWJCmtPDQPZKXv8 BezuQCcC+fW5SRzN7odbzWVZCDGse6B7BhkZSdPQi+ombXSrzCR5PzhAQYgb06apYRM42cOJKnaI TD0iVgTk3OJa1tGDLvHGMBMUKMxaUTB+0q+oFzWW2YXq5LhM94u+w350j729FOk60z3drEmIbc8Y uqxKAqKDyzuJqjVUksiCH2WpdS97qJ1vEL5jrmc69ETHo6HZJDfXDSkQgoj/mjqF4uXITzcUJCCa Ll6IJUYjpY2dm81xs8ptTxo6zRBUefq60nf7jdKV2Ur8ugerw+93ZJ2ph6wUpnZukUeIbcOVnKjZ mCzhiGF9xJGzk5lVeMw5SqsWqGpqCcifQNsO00n9EgZkmLCSN3kFHN7avVHvnAaUt2rZbPVBYNBr 38yWl9GoQEyOzXS+c5YnC+VIx5wKePIbnU5IMEVrEpdhTKQ6eFHJ3eZdw+f+uB6/0EWxIhOnaFfm IZf7AQhZNtHtRaIMmi7SXhtYF+eSRKt2LgNZZyZFtNt7QuREeGGiE5ZJX4EetJ3z2qHdCAMv0/XB zj2i703AIIeiWJQYdHkaVBvDlbLkJOcbu5t2n1KimLAEp9ZlMdw8bRv+0ssHfSqKynDVeVzAlwo0 KW/AvV23FCoNagqicg8F0dbbHe6GtWFnNViWlf01xkANpIiBhFNeIAdtmUTUDb6jjbDlg52UNSwx G2shdcXkc42tUmakj9urnHHNdoZRKfGWQV0TvzzSnWuuOClLp+jRyjzf+uWwYiKdAe9iXA9OOa9L 8OsoxpqI7xaoUa404xk2ug1HR/bIpJtjgt6X8qAh7UHuy8QSqoxcqKOMIHrYEKxJFCbp6UYdWZuu DxVYE/LjKOpobssSxGsgddRFjpLrQhZua0P7O5Ai0iVhmsvwvr2U2YIDVUttn0YZsOYBM0+OrS6d 4o6HMy0HtQUdlGkrJix0Ow8zX2+66tqG+NL5pBIrNDhYkNrSQxZmle7Jjc6ZFZgvOc+SIuqDAnvM NeuSUfgZIqkLOen2Z296lVkVsrBIUhZ8F/WNbz9J/W4tBxe4c9VI2GJQS05V0NzE/Hvv5/xGR6L0 OoDF9FST1Q9l0ypIr9wW5Ansq6mxeXWvlujWCzGoMfybcJleb9/hN02THyu0qvYgxGltSdVdWcRU bVZV5B7hbI42y+m5zh1wePUp6/XOXYNgWfRe1Y6hMIjYoXf5Vh0gNoqqMdRLRPaVdPGob5lCx+Cq OKSag3hlifIYDiNo+CtTDBJibfHLLPluvJOt6+vLkt1LLhLcxxq9GlFUrLcHvvM9M2DsufR1fSa3 h/xkyACphNwU4h5G6fXIrdTHHIooFr6UljnqJzXsO5/fDpVvVXvleBa9wFTznK2yGN9uscpSydV0 2LjOiMrrbPzdrQIx3JaRk+1B7Suz7MQt5lzkEAf3NoVUGHLekDZnfpg8OBar/6vyxZqwEOY6rwtx v6aF7zOCYCpg/bfTV77yorQuYokauu17Yf/wn7thUzvLrEdjfSpxwx8Izn2iHF4zi1ZrwXMM8sb9 5Ij9+4UHgeCtWvgSlvkOKZcTtVW48h0kBWa3WHstaCiRQR/Hg0DKXBar17JQF/o7RFs1r6rAYOGD XtvWQnN34Hpkm0W5wVO81Zl3e0exoChtmfost3C0MHaD6LGdlyVPcPw1bhdG3j1GImQQvcEZrcZv VCqyIc4neiPoSh+KhCjbRAcqLnIHtVg/Lx0Oz+zkhiowJ3WvuK0j0D/4QJDt1UoaBEPI5RC3TIkI MsInkneLxsjrwwC8FpDR7PN0N1zQ+yMa15fcgaQh6aAxiwMDjiySHcCUKNsIIJmzyY3aNFg7yJ5e I+RyW0ukRldraR7fQCl0CuC9wAPNS5EAfANq+zFPkSc4QwMu2p+78mUtFHYgHoN0ef94ux3ozGOF r6RFHXXJd8yZPJxr/ZCjkfBb0lqeFozbop/r+WaNfsISqmmVVRyz5FflxvfJjlHkBgZa9llp2qEp ZDdK19ehtDAT1wZOHl7TNKQhfXXc754veuJozmlraL60kZ1fizKoq80DjK97ebGRCoKlCLmLc34W I4LOHL0YOisapA69FtdlRaQ/Z291wDKQ6HR07JG/Hm+nTNcGVLCeBK5HpsZGf1wgAVmQ/6SUb7PW yxkfuudG4jdk1TRLJ8bU4M+TBg+ZVBZPF8ypqUHheCLdypvW2lgJ245UNRy5dkWlqwHlIvtmWLlq zIstA4r5LjZGTWCUZXxqQUOHUe7RHWz4qtVNlI6ef9OO5vEHowefpIzHLKlyW8bTmSSqJF5bm+nS DPHD2+R++/wXuDWw0jS32sxfeyyd+KbG7FE/mMg45mJ2D9YDI9XDEE9xfajuBjoLqYG6OBrUp6aD +d6t9VK/ezCvut6jnEEgjOPUzycUHYy2TW4IBGp6GEmbeA8Xq2sKmcvTQHoRLiVV1+JSWrP1zTR0 uK+s8g2G56wFptW1+yrsDvq6Yd0s94zM8KsC9zV6YI1c6CSHVLY0Q3EWbm20h7hOfQQ1mRnydlWT WJseWtVpgjY0TohrjpjIGW47OFeLeDiLTGnuN6rNfYGjUdKscZdI2ct7DjzDFRxTWfsic+YS7PZ6 +YOD67DqtBqHDtDxcnOaI8tV3JC+Vpcxjyb0tX+EmLgwsrrerYUvZu5f7CUk8PAoyha26OiaFY/B zl7LfIqd90T5hrlNsMCFY5p1VVK7/GV+0tnjduIbCV96LD5VrW8ofOU1J3KoOiAnKsEvKshrFZrG PTAFuLNauVcojUrEfdjLUQMOE3Q7dmXHwoG9gUfR9agrzd1pInlz6jFp1zPIiig/1pgRNC18tqK5 zqDL9l5FRWWP5epyMBXO0J26Kri6TBMdxRYAySEFfJzlxZdgYk961/OYebs9NMqPZepG7nGlXFqO X8ATbMzf+h98LdWgTv1i5jX6rmrmsa3LV8uNXGP0ywbZTOLLBinTMmCQqcNGKmG9su+8nXO6cfNU yOsovbbxsantyl+aNEdd069+cVmvMaM7VlaAtqShNEQ3ahlaYqeNrPe+zNT7NGnhNJXJCUDNuDb4 pi7qX9GtTLexLQfx+ypI6rxAJ3bEt+W7kYVwo02qHTmmKSZtGb7IUflxgEUhQE6/UK5wKUXZuuSd CNfn9Ejla2pR8r0tO3GlGF8gaqxEQxtfRyoEvj/mliEw6CBE93Iqu1lqpyQIMrAEEQ3skkW67zSX tiXdlwxDWY95kpZs8LTsiiHpj6U9vNO19VT4hW9jVliKK4xZboczoPZZhFHzgV1qYrs31kcQY7Y4 Vb9+qQ9UvcuMmqfkEOTsOkDmAbSxyxjWhBL1QWl6RJGl9+InLD9sA5lz7vtubYSldKt8suBNgqkh S7mUx65yT9hlhrE1JCnQKNb15Th2XWo4YQMXuVDHcMFwmc1DAxnNYkNChuyjovLjSFtkFSzrypBi x8Y3YD0OtgGdrwv1UxEgVcTyeIfjf0g4Y4aKC9JDBRrTPD5OmzWuPargPUBRa0HCzJ78w0Of4K4N DyUrH3bmAqUhb3llG2+iC21GW12PvNEpehoiZt207INSD6Dtg89hKnRj5AoIDNjHnl1qDq6Pxgs0 +UqJSnWtEp1KNLMOUNIuUU4lBfnC8cgBDQG+U2029t3zvh4G2cDcFB/WrFNl2MSgkhuqoG6xBd4p SDWM7aNIM+E8cZHiadw418b1utitfYkiRGbHJ1r6uzppxg7TrIRpZkehadrxErkmcdtnrNesv3R7 Ki3loN69RYrpHftdP8nB4DA/H1+h/vxyoJYuZXqgS1RhD6BklQAoS/Gn/w9v6MswvbgAAA== ------=_NextPart_000_002F_01C27C99.5C057FE0-- From s-sumi @ bd6.so-net.ne.jp Sat Oct 26 19:46:10 2002 From: s-sumi @ bd6.so-net.ne.jp (Shinji Sumimoto) Date: Sat, 26 Oct 2002 19:46:10 +0900 (JST) Subject: [SCore-users-jp] ScoreとSMP クラスタについて In-Reply-To: <3DB8BA20.2020205@tobata.isc.kyutech.ac.jp> References: <3DB8BA20.2020205@tobata.isc.kyutech.ac.jp> Message-ID: <20021026.194610.108739811.s-sumi@bd6.so-net.ne.jp> 富士通研究所の住元です。 From: 飯田良介 Subject: [SCore-users-jp] ScoreとSMP クラスタについて Date: Fri, 25 Oct 2002 12:27:28 +0900 Message-ID: <3DB8BA20.2020205 @ tobata.isc.kyutech.ac.jp> a347802r> 九州工業大学の飯田と申しますが、デュアルでクラスタを構築しているのです a347802r> が、シングルとデュアルでMPIプログラムの並列化部分が異なる場合はありますか。 SCoreでは、同じMPIプログラムのバイナリがSMPクラスタでもUP (Uni-processor)クラスタでも動作します。 ですので、特に意識する必要はありません。 ------ Shinji Sumimoto E-Mail: s-sumi @ flab.fujitsu.co.jp From bogdan.costescu @ iwr.uni-heidelberg.de Mon Oct 28 22:47:19 2002 From: bogdan.costescu @ iwr.uni-heidelberg.de (Bogdan Costescu) Date: Mon, 28 Oct 2002 14:47:19 +0100 (CET) Subject: [SCore-users-jp] Re: [SCore-users] charmm under SCore In-Reply-To: <200210240825.g9O8PlK19218@zeralda.streamline.com> Message-ID: Sorry for the late reply, I had a very busy end of week... On Thu, 24 Oct 2002, Nick Birkett wrote: > Hi I am having a problem compiling charmm (both c25b2 and c28b2 versions). Hmm, c25b2 is so old, but I'm quite surprised about c28b2. I think that I haven't got any similar error when compiling it - I'm using RedHat Linux 7.2 with all the updates. > If I use the gnu compiler with -O2 (mpif77) I get a compiler error (g77): I assume that you are using a 2.9x gcc/g77. > nmdimb.f:1215: Internal compiler error in make_edges, at flow.c:1071 That's the reason why the "FC0" variable is set in the Makefile. It's the compile line used to disable optimizations for files where optimizations are known to screw up the compilation; gcc 3.x (I don't know exactly from what "x", but 3.2 seems to work) fixes this. In the attached Makefile, FC0 is not set properly. And keep in mind: Makefiles can be different in different CHARMM versions, so don't just copy the Makefile from c25b2 to c28b2 (I would actually copy it in the other direction !). > parset.f: In function `nnods': > parset.f:29: > NNODS = NUMNOD > ^ > Invalid declaration of or reference to symbol `numnod' at (^) [initially seen > at (^)] > parset.f: In function `mnods': > parset.f:49: > MNODS=MYNOD I've never seen these errors in recent versions of CHARMM, so I assume that this is still c25b2. I can't give you any advice here, as I don't think that I ever compiled pre-c26 versions. However, from what I remember, c25 was the first version to work in parallel on Linux and you still needed to do some tweeking in c26, so maybe this was just fixed in some later version. > This is my gnu pref.dat : You should keep in mind that not all modules of CHARMM work in parallel. I usually compile here only the "lite" version in parallel. OK, so this had nothing to do with SCore :-( You should have probably written to the CHARMM users' list or to CCL. > which i assume is a preprocessing error. But this reminded me of something that _is_ related to SCore: while a normal invocation of the compiler works with something like: gcc -DOS="LINUX" -o x x.c where x.c is something like: #include int main(void) { printf("OS is: %s\n", OS); } the SCore MPI wrappers don't, as the command line is parsed by the scripts and not sent to gcc in its original form. Can something be done about this ? -- Bogdan Costescu IWR - Interdisziplinaeres Zentrum fuer Wissenschaftliches Rechnen Universitaet Heidelberg, INF 368, D-69120 Heidelberg, GERMANY Telephone: +49 6221 54 8869, Telefax: +49 6221 54 8868 E-mail: Bogdan.Costescu @ IWR.Uni-Heidelberg.De _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From kameyama @ pccluster.org Tue Oct 29 09:15:35 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Tue, 29 Oct 2002 09:15:35 +0900 Subject: [SCore-users-jp] Re: [SCore-users] charmm under SCore In-Reply-To: Your message of "Mon, 28 Oct 2002 14:47:19 JST." Message-ID: <20021029001530.BE90420039@neal.il.is.s.u-tokyo.ac.jp> In article Bogdan Costescu wrotes: > But this reminded me of something that _is_ related to SCore: while a > normal invocation of the compiler works with something like: > > gcc -DOS="LINUX" -o x x.c > > where x.c is something like: > > #include > int main(void) { > printf("OS is: %s\n", OS); > } I test this (On redhat 7.2/gcc 2.96). But following result is happen. eyama @ develop kameyama]$ ./tt1 OS is LINUX $ gcc -DOS="LINUX" tt.c -o tt1 tt.c: In function `main': tt.c:4: `LINUX' undeclared (first use in this function) tt.c:4: (Each undeclared identifier is reported only once tt.c:4: for each function it appears in.) these command line is successfull $ gcc -DOS=\"LINUX\" tt.c -o tt1 $ mpicc -DOS=\"LINUX\" tt.c -o tt1 But if you want to string include space in command line as following: $ gcc '-DOS="LINUX test"' tt.c -o tt1 $ mpicc '-DOS="LINUX test"' tt.c -o tt1 gcc is worked butg mpicc is not work. from Kameyama Toyohisa _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From u9915240 @ student.anu.edu.au Wed Oct 30 08:13:10 2002 From: u9915240 @ student.anu.edu.au (John Uhlmann) Date: Wed, 30 Oct 2002 10:13:10 +1100 Subject: [SCore-users-jp] Re: [SCore-users] PM ethernet device already opened. References: <20021025000727.4956520037@neal.il.is.s.u-tokyo.ac.jp> Message-ID: <3DBF1606.EF57DDA@student.anu.edu.au> Thanks. I found the problem in the configuration file and fixed it. It runs fine now. (Well.. except for the fact that some of my nodes have completely frozen. But that's a different story.) John kameyama @ pccluster.org wrote: > > In article <3DB81ECA.B65003C9 @ student.anu.edu.au> John Uhlmann wrotes: > > > Please use following command to debug PM/ethernet. > > > $ rpmtest cx ethernet -debug 1 > > > > u9915240 @ server u9915240]$ rpmtest cx ethernet -debug 1 > > pmEthernetReadConfig(0x83cdc48, 0, 00:A0:CC:5B:8D:17, cu): node number > > "0" conflict > > Please check configuration file for PM/ethernet. > (usally INSTALL_DIR/etc/pm-ethernet.conf, but this is specifies scorehosts.db.) > This file include following line: > 0 00:A0:CC:5B:8D:17 cu > This file also include other line to Node number is 0: > 0 xx:xx:xx:xx:xx:xx yy > But Node number doesn't have to be the same as the node number of this host. > Please see also > /opt/score/doc/html/en/man/man5/pm-ether-conf.html > > from Kameyama Toyohisa > _______________________________________________ > SCore-users mailing list > SCore-users @ pccluster.org > http://www.pccluster.org/mailman/listinfo/score-users _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From kameyama @ pccluster.org Thu Oct 31 12:11:15 2002 From: kameyama @ pccluster.org (=?iso-2022-jp?b?a2FtZXlhbWEgGyRCIXcbKEIgcGNjbHVzdGVyLm9yZw==?=) Date: Thu, 31 Oct 2002 12:11:15 +0900 Subject: [SCore-users-jp] [SCore-users] SCore 5.2.0 released Message-ID: <20021031031048.4C7E320042@neal.il.is.s.u-tokyo.ac.jp> We are happy to announce the SCore 5.2.0 release. Please visit the following URL to obtain the package. http://www.pccluster.org/score/dist/ Attention:SCore 5.2 dose not have binary compatibility of SCore 5.0.1 or before. If you want to execute old SCore programs, please recompile them. New features in SCore 5.2 Checkpoint facility is also available under the single user mode IA64 is supported The comiler descrition format is changed MPICH 1.2.4 is supported OpenPBS is supported SCore libraries for Intel, PGI, and Fujitsu comiplers are included The -l option of the sc_qsub command is available. EIT supports the e1000, bcm5700, and hamachi drivers. Those are Gigabit Ethernet. Bug fixes EIT generated wrong configuration files bug is fixed. The officialname command was not installed on compute host. Limitations IA64 porting We have not tested following features in an IA64 cluster: Checkpoint Omni OpenMP PBS The PM/Ethernet network trunking feature has been only tested on up to three Intel EEPRO100 NICs and up to two Syskonnect SK9843 NICs, Intel PRO1000/XT NICs and Broadcom BCM5701 baseed NICs. We already found that the feature does not work using some different NIC cards, e.g., the combination of tulip and 3C05B NICs. PVM is not fully tested. PVM does not work in an SMP cluster. Known bugs EIT The modification of the display name in the network configuration window is not effective. Kameyama Toyohisa _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users