From vqm_mp @ yahoo.co.jp Mon Oct 16 20:23:43 2006 From: vqm_mp @ yahoo.co.jp (vqm_mp) Date: Mon, 16 Oct 2006 20:23:43 +0900 (JST) Subject: [SCore-users-jp] =?iso-2022-jp?b?GyRCJU4hPCVJP3QkSCUzJSIbKEI=?= =?iso-2022-jp?b?GyRCP3QkLElUMGxDVxsoQg==?= Message-ID: <20061016112343.46616.qmail@web2207.mail.yahoo.co.jp> 明治大学の鈴木です.たびたびお騒がせ致します. これまでと同様,以下の環境です. Fedora Core 3 i386 CPU:Pentium D サーバー1台+計算ホスト6台 ネットワーク:gigabit-ehernet スイッチ:PLANEX FXG-24IMV SCoreを使わずに,MPICH-1.2.7p1をインストールし, hello.ccをコンパイル実行しました. $ mpirun -np ./a.out すると,hello worldは分だけ標準出力に 返ってきますが,と実際にa.outが動いている CPUコアの数が一致せず,次のような関係になってしまい ました. 実際に動いたコア数 2 2 3 4 4 6 5 8 6 10 7 12 つまり, 実際に動いたコア数 = 2*(-1) の関係になっているようです.これを,  実際に動いたコア数 = の関係にするには,どのようにすればよいのでしょうか? FC3をFC4に,スイッチをPLANEX FXG-16TXJ(当方の 別システムで動作実績のあるスイッチ)に変更しても 同じ症状です. SCoreもこれが原因で動かなかったのでしょうか? MPICHの問題,あるいはCPUに問題があるようですが, どなたかわかる方がいらっしゃいましたら,ご教示 ください. -------------------------------------- Start Yahoo! Auction now! Check out the cool campaign http://pr.mail.yahoo.co.jp/auction/ From kameyama @ pccluster.org Tue Oct 17 13:06:50 2006 From: kameyama @ pccluster.org (Kameyama Toyohisa) Date: Tue, 17 Oct 2006 13:06:50 +0900 Subject: [SCore-users-jp] =?ISO-2022-JP?B?GyRCJU4hPCVJP3QkSCUzJSI/dBsoQg==?= =?ISO-2022-JP?B?GyRCJCxJVDBsQ1cbKEI=?= In-Reply-To: <20061016112343.46616.qmail@web2207.mail.yahoo.co.jp> References: <20061016112343.46616.qmail@web2207.mail.yahoo.co.jp> Message-ID: <453456DA.6060601@pccluster.org> 亀山です. vqm_mp wrote: > これまでと同様,以下の環境です. > > Fedora Core 3 i386 > CPU:Pentium D サーバー1台+計算ホスト6台 > ネットワーク:gigabit-ehernet > スイッチ:PLANEX FXG-24IMV この場合, ハードウエア構成よりもソフトウエア構成 (どうやってどこに mpich をインストールし, コンパイル/実行したか) のほうが重要なんですが... > SCoreを使わずに,MPICH-1.2.7p1をインストールし, > hello.ccをコンパイル実行しました. SCore の例にある hello.cc は MPC++ で書かれた もので MPI ではコンパイルできないはずです. mpich-1.2.7p1 に hello++.cc というのがありますが, こちらでしょうか? (MPI のテストでしたら hostname も出力されるので, cpi のほうが良いと思いますけど...) > $ mpirun -np ./a.out > > すると,hello worldは分だけ標準出力に > 返ってきますが,と実際にa.outが動いている > CPUコアの数が一致せず,次のような関係になってしまい > ました. > > 実際に動いたコア数 > 2 2 > 3 4 > 4 6 > 5 8 > 6 10 > 7 12 どのような実行結果が出てこのように判断したのかが不明なのですが 具体的にたとえば 3 の場合の出力がどうなっているのかがわからないと... # mpich の場合, -np で指定するのは number of processes # であって, ホスト数ではないので, # http://www-unix.mcs.anl.gov/mpi/www/www1/mpirun.html # mpirun -np 3 で 4 process 走っているとすると, なにか間違っているような... ちなみに, machines ファイルはどのような内容でしょうか? Kameyama Toyohisa From vqm_mp @ yahoo.co.jp Tue Oct 17 16:18:31 2006 From: vqm_mp @ yahoo.co.jp (vqm_mp) Date: Tue, 17 Oct 2006 16:18:31 +0900 (JST) Subject: [SCore-users-jp] =?ISO-2022-JP?B?GyRCJU4hPCVJP3QkSCUzJSI/dBsoQg==?= =?ISO-2022-JP?B?GyRAGyRCJCxJVDBsQ1cbKEI=?= Message-ID: <20061017071831.88061.qmail@web2207.mail.yahoo.co.jp> 鈴木です.大変お世話になっております.ありがとう ございます. > この場合, ハードウエア構成よりもソフトウエア構成 > (どうやってどこに mpich をインストールし, > コンパイル/実行したか) のほうが重要なんですが... すべて,デフォルトです.OSをインストールしなおし, まっさらの状態でr系コマンドの設定をし,  # ./configure  # make  # make install としました.パスを通して実行しております. > SCore の例にある hello.cc は MPC++ で書かれた > もので MPI ではコンパイルできないはずです. > mpich-1.2.7p1 に hello++.cc というのがありますが, > こちらでしょうか? > (MPI のテストでしたら hostname も出力されるので, > cpi のほうが良いと思いますけど...) hello++.ccのほうで試しました. 次の表は,以下のように訂正させてください. > > 実際に動いたコア数 > > 2 2 > > 3 4 > > 4 6 > > 5 8 > > 6 10 > > 7 12 > > どのような実行結果が出てこのように判断したのかが不明な のですが > 具体的にたとえば 3 > の場合の出力がどうなっているのかがわからないと... この表は,実際にhello++.ccを動かし,各ノードにおいて topコマンド,psコマンドを使ってa.outが動いているかを 調べました. cpi.cを動かしたときの出力結果は以下の通りです. machineファイル: comp01.pccluster.org:2 comp02.pccluster.org:2 #".org"の後ろの":2"を取り除いて動かしても,まったく同じ 症状 [root @ server mpi_test]# mpirun -np 4 ./a.out Process 0 on server.pccluster.org Process 2 on comp02.pccluster.org Process 3 on comp01.pccluster.org Process 0 on comp01.pccluster.org pi is .....略 [root @ server mpi_test]# mpirun -np 3 ./a.out Process 0 on server.pccluster.org Process 1 on comp01.pccluster.org Process 2 on comp02.pccluster.org pi is .....略 同様にtop,psで調べると,=4の場合は  server*2+comp01*4+comp02*2 だけCPUが動き,=3の場合は,  server*2+comp01*2+comp02*2 のCPUが動いております.と稼動コア数は 稼動コア数 = 2* です.サーバーホストでもa.outが動いていることを 見逃していました. 実際に動いたコア数 2 4 3 6 4 8 5 10 6 12 7 14 smpを使用しないで1CPUとしてOSを起動したときは,1CPUに 2つのa.outが走り,サーバーホストも加わって,    a.outの数 = 2* となっています. ・2倍のCPUを使ってしまうのはなぜでしょうか? ・サーバーホスト(mpirunコマンドを打ち込むホスト)も計算に  加わっていますが,これはMPIの仕様でしょうか? ・machineファイルの":2"は何を意味しているのでしょうか? -------------------------------------- Start Yahoo! Auction now! Check out the cool campaign http://pr.mail.yahoo.co.jp/auction/ From kameyama @ pccluster.org Tue Oct 17 18:06:09 2006 From: kameyama @ pccluster.org (Kameyama Toyohisa) Date: Tue, 17 Oct 2006 18:06:09 +0900 Subject: [SCore-users-jp] =?ISO-2022-JP?B?GyRCJU4hPCVJP3QkSCUzJSI/dBsoQg==?= =?ISO-2022-JP?B?GyRCJCxJVDBsQ1cbKEI=?= In-Reply-To: <20061017070635.45682.qmail@web2203.mail.yahoo.co.jp> References: <20061017070635.45682.qmail@web2203.mail.yahoo.co.jp> Message-ID: <45349D01.2010306@pccluster.org> 亀山です. vqm_mp wrote: >> この場合, ハードウエア構成よりもソフトウエア構成 >> (どうやってどこに mpich をインストールし, >> コンパイル/実行したか) のほうが重要なんですが... > > すべて,デフォルトです.OSをインストールしなおし, > まっさらの状態でr系コマンドの設定をし, >  # ./configure >  # make >  # make install > としました.パスを通して実行しております. > >> SCore の例にある hello.cc は MPC++ で書かれた >> もので MPI ではコンパイルできないはずです. >> mpich-1.2.7p1 に hello++.cc というのがありますが, >> こちらでしょうか? >> (MPI のテストでしたら hostname も出力されるので, >> cpi のほうが良いと思いますけど...) > > hello++.ccのほうで試しました. > > > 次の表は,以下のように訂正させてください. >>> 実際に動いたコア数 >>> 2 2 >>> 3 4 >>> 4 6 >>> 5 8 >>> 6 10 >>> 7 12 >> どのような実行結果が出てこのように判断したのかが不明な > のですが >> 具体的にたとえば 3 >> の場合の出力がどうなっているのかがわからないと... > > この表は,実際にhello++.ccを動かし,各ノードにおいて > topコマンド,psコマンドを使ってa.outが動いているかを > 調べました. > > cpi.cを動かしたときの出力結果は以下の通りです. > > machineファイル: > comp01.pccluster.org:2 > comp02.pccluster.org:2 > #".org"の後ろの":2"を取り除いて動かしても,まったく同じ > 症状 > > [root @ server mpi_test]# mpirun -np 4 ./a.out > Process 0 on server.pccluster.org > Process 2 on comp02.pccluster.org > Process 3 on comp01.pccluster.org > Process 0 on comp01.pccluster.org > pi is .....略 指定 process 0 が 2 つあるのが気になりますが, server * 1, comp01 * 2, comp02 * 1 の 4 process ですね. > [root @ server mpi_test]# mpirun -np 3 ./a.out > Process 0 on server.pccluster.org > Process 1 on comp01.pccluster.org > Process 2 on comp02.pccluster.org > pi is .....略 server, comp01. comp02 の 3 process ですね. 指定どおりに動いているようですけど... > 同様にtop,psで調べると,=4の場合は >  server*2+comp01*4+comp02*2 > だけCPUが動き,=3の場合は, >  server*2+comp01*2+comp02*2 > のCPUが動いております.と稼動コア数は > 稼動コア数 = 2* > smpを使用しないで1CPUとしてOSを起動したときは,1CPUに > 2つのa.outが走り,サーバーホストも加わって, >    a.outの数 = 2* > となっています. http://www.alde.co.jp/information/mpiinit/mpiinit.html によると, Listener と呼ばれる外部プログラムをさらに 起動するために用いられる プロセスが起動されるようです. 起動されるだけで, 何もしないようなので, 影響はなさそうですけど... > ・サーバーホスト(mpirunコマンドを打ち込むホスト)も計算に >  加わっていますが,これはMPIの仕様でしょうか? http://www-unix.mcs.anl.gov/mpi/www/www1/mpirun.html をみると -nolocal do not run on the local machine (only works for p4 and ch_p4 jobs) というオプションが存在します. > ・machineファイルの":2"は何を意味しているのでしょうか? http://www-unix.mcs.anl.gov/mpi/mpich1/docs/mpichman-chp4/node14.htm#Node19 によると, configure のときに, -comm=shared をつけたとき意味があるようです. Kameyama Toyohisa From vqm_mp @ yahoo.co.jp Wed Oct 18 20:54:30 2006 From: vqm_mp @ yahoo.co.jp (vqm_mp) Date: Wed, 18 Oct 2006 20:54:30 +0900 (JST) Subject: [SCore-users-jp] =?ISO-2022-JP?B?GyRCJU4hPCVJP3QkSCUzJSI/dBsoQg==?= =?ISO-2022-JP?B?GyRAGyRCJCxJVDBsQ1cbKEI=?= In-Reply-To: <45349D01.2010306@pccluster.org> Message-ID: <20061018115430.62540.qmail@web2205.mail.yahoo.co.jp> 明治大学の鈴木です. これまで,いろいろとお騒がせ致しました. 教えていただいたように,configure時に-comm=sharedを やってみましたが,結局,これまでと同様の症状 ・と実稼動ノード数が一致しない ・":2"が何も意味をなさない となってしまいました. しかし,MPICHのバージョンをMPICH2-1.0.4p1にしたところ, 正常に動くようになりました.ひとまず,MPICH2で計算機を 運用いたします.MPICH1は,当方のハードと相性が悪かった のでしょうか.そのために,SCoreも動かなかったものと 思われます. お世話になりました.ありがとうございました. -------------------------------------- Start Yahoo! Auction now! Check out the cool campaign http://pr.mail.yahoo.co.jp/auction/ From matsuoka @ arch.ce.hiroshima-cu.ac.jp Mon Oct 23 14:48:26 2006 From: matsuoka @ arch.ce.hiroshima-cu.ac.jp (matsuoka) Date: Mon, 23 Oct 2006 14:48:26 +0900 Subject: [SCore-users-jp] =?utf-8?b?U0NvcmUtROOBruiHquWLlemBi+i7ouOBqOiHquWLleW+qeaXpw==?= =?utf-8?b?44Gn44Gu44Ko44Op44O8?= Message-ID: <1161582506.8925.2.camel@gym.arch.ce.hiroshima-cu.ac.jp> メーリングリストの皆様 広島市立大学の松岡と申します。 お世話になります。 現在、SCore 5.8.3でSCore-D の自動運転と自動復旧を行おうとしているのですが、障害発生後score-dが再起動したところで <1> ULT: Exception Signal (11) が出力されます。 サーバ名はmaster.pccluster.org、計算ホスト名はpc1?pc6.pccluster.orgです。 master.pccluster.orgとpc1?pc6.pccluster.orgの7台がpccグループで、pc7.pccluster.org をspareに指定してあります。 手順としてはまず、ルートで以下を実行しました。 sc_watch -g pcc -t 1m -l ./replace.sh scored_dev replace.shの内容はWebと同じです。 SCore-Dがbootupしたところで別のシェルで scrun -scored=master,checkpoint=4m,nodes=2x1 ./a.out を実行しました。a.outはMPIプログラムです。 チェックポイントが行われた後、pc1をshutdownしました。 以下がそのときのログになります。 [root @ master ft]# sc_watch -g pcc -t 1m -l ./replace.sh scored_dev [20/Oct/2006,15:48:37] SC_WATCH (5.8.3) started. [20/Oct/2006,15:48:37] Interval is set to 1 minutes. [20/Oct/2006,15:48:37] Init. Action = (none) [20/Oct/2006,15:48:37] Local Action = ./replace.sh [20/Oct/2006,15:48:37] Remote Action = (none) [20/Oct/2006,15:48:37] Abort action = (none) [20/Oct/2006,15:48:37] Boot Retry Max. = 10 [20/Oct/2006,15:48:37] Booting System: scored_dev SCOUT: Spawning done. 20/Oct/2006 15:48:39 SYSLOG: /opt/score5.8.3/deploy/scored_dev 20/Oct/2006 15:48:39 SYSLOG: SCore-D 5.8.3 $Id: init.cc,v 1.74 2005/02/24 07:47:54 hori Exp $ 20/Oct/2006 15:48:39 SYSLOG: Compile option(s): DEVELOPMENT ULT_DO_TRACE SCORE_DO_TRACE 20/Oct/2006 15:48:39 SYSLOG: SCore-D network: myrinetxp/myrinetxp 20/Oct/2006 15:48:39 SYSLOG: Cluster[0]: (0..6)x2.i386-fedoracore3- linux2_6.pentium4.2800 20/Oct/2006 15:48:39 SYSLOG: Memory: 1010[MB], Swap: 1028[MB], Disk: 9845[MB] 20/Oct/2006 15:48:39 SYSLOG: Network[0]: myrinetxp/myrinetxp 20/Oct/2006 15:48:39 SYSLOG: Network[1]: ethernet/ethernet 20/Oct/2006 15:48:39 SYSLOG: Scheduler initiated: Timeslice = 200 [msec] 20/Oct/2006 15:48:39 SYSLOG: Queue[0] activated, exclusive scheduling 20/Oct/2006 15:48:39 SYSLOG: Queue[1] activated, time-sharing scheduling 20/Oct/2006 15:48:39 SYSLOG: Queue[2] activated, time-sharing scheduling 20/Oct/2006 15:48:39 SYSLOG: Session ID: 0 20/Oct/2006 15:48:39 SYSLOG: Server Host: master.pccluster.org 20/Oct/2006 15:48:39 SYSLOG: Backup Host: pc3.pccluster.org @ 2 20/Oct/2006 15:48:39 SYSLOG: Backup file is lost but created. 20/Oct/2006 15:48:39 SYSLOG: Server file is lost but created. 20/Oct/2006 15:48:39 SYSLOG: Operated by: root 20/Oct/2006 15:48:39 SYSLOG: SCore-D Watcher (master.pccluster.org:33245) 20/Oct/2006 15:48:39 SYSLOG: --------- SCore-D (5.8.3) bootup -------- 20/Oct/2006 15:49:04 SYSLOG: Login request: matsuoka @ master.pccluster.org:33247 20/Oct/2006 15:49:04 SYSLOG: Login accepted: matsuoka @ master.pccluster.org:33247, JID: 1, Hosts: 2(2x1)@0, Priority: 1, Command: ./a.out [20/Oct/2006,15:57:08] System failure detected. [20/Oct/2006,15:57:28] System has been shutdown. [20/Oct/2006,15:57:28] Local Action: ./replace.sh 1 host not responding. defected hosts pc1.pccluster.org new host list pc1.pccluster.org pc2.pccluster.org pc3.pccluster.org pc4.pccluster.org pc5.pccluster.org pc6.pccluster.org master.pccluster.org 7 hosts found. Shutting down scoreboard services: [ OK ] Starting scoreboard services: [ OK ] scoreboard is restarted. [20/Oct/2006,15:57:35] Rebooting System [2 times, first retry]: scored_dev SCOUT: Spawning done. 20/Oct/2006 15:57:37 SYSLOG: /opt/score5.8.3/deploy/scored_dev <2> SCore-D:WARNING Host pc1.pccluster.org is replaced by pc7.pccluster.org. 20/Oct/2006 15:57:37 SYSLOG: SCore-D 5.8.3 $Id: init.cc,v 1.74 2005/02/24 07:47:54 hori Exp $ 20/Oct/2006 15:57:37 SYSLOG: Compile option(s): DEVELOPMENT ULT_DO_TRACE SCORE_DO_TRACE 20/Oct/2006 15:57:37 SYSLOG: SCore-D network: myrinetxp/myrinetxp 20/Oct/2006 15:57:37 SYSLOG: Cluster[0]: (0..6)x2.i386-fedoracore3- linux2_6.pentium4.2800 20/Oct/2006 15:57:37 SYSLOG: Memory: 1010[MB], Swap: 1028[MB], Disk: 9845[MB] 20/Oct/2006 15:57:37 SYSLOG: Network[0]: myrinetxp/myrinetxp 20/Oct/2006 15:57:37 SYSLOG: Network[1]: ethernet/ethernet 20/Oct/2006 15:57:37 SYSLOG: Scheduler initiated: Timeslice = 200 [msec] 20/Oct/2006 15:57:37 SYSLOG: Queue[0] activated, exclusive scheduling 20/Oct/2006 15:57:37 SYSLOG: Queue[1] activated, time-sharing scheduling 20/Oct/2006 15:57:37 SYSLOG: Queue[2] activated, time-sharing scheduling 20/Oct/2006 15:57:37 SYSLOG: Session ID: 0 20/Oct/2006 15:57:37 SYSLOG: Server Host: master.pccluster.org 20/Oct/2006 15:57:37 SYSLOG: Backup Host: pc3.pccluster.org @ 2 <6> SCore-D:WARNING Host pc1.pccluster.org is replaced by pc7.pccluster.org. 20/Oct/2006 15:57:37 SYSLOG: Operated by: root 20/Oct/2006 15:57:37 SYSLOG: SCore-D Watcher (master.pccluster.org:33248) 20/Oct/2006 15:57:37 SYSLOG: Recovery: matsuoka @ master.pccluster.org:33247, JOB-ID: 1 20/Oct/2006 15:57:37 SYSLOG: --------- SCore-D (5.8.3) bootup -------- <1> ULT: Exception Signal (11) <1> Attaching GDB: Exception signal (no debugging symbols found)...Using host libthread_db library "/lib/tls/libthread_db.so.1". (no debugging symbols found)...`shared object read from target memory' has disappeared; keeping its symbols. 0xffffe410 in __kernel_vsyscall () #0 0xffffe410 in __kernel_vsyscall () #1 0x4683296d in wait () from /lib/tls/libc.so.6 #2 0x080de358 in score_attach_debugger () #3 0x080d8621 in ult_exception () #4 #5 0x08093fa8 in close_pm_context () #6 0x080940bc in close_context () #7 0x08094398 in free_user_network () #8 0x08097860 in reallocate_user_network () #9 0x080b8eb4 in fork_rstr_proc () #10 0x080681e9 in createPE () #11 0x080694f5 in createPPE () #12 0x08069e92 in fork_pegroup () #13 0x0809adb1 in fork_all () #14 0x080a1bec in _ainvoker4, int, int, int>::invoke () #15 0x4054ff0c in ?? () #16 0x0809acdc in setlimit_all () /opt/score5.8.3/deploy/score.gdb:1: Error in sourced command file: Previous frame inner to this frame (corrupt stack?) ・・・ 以下が別のシェルでMPIプログラムa.outを実行した時の出力です。 [matsuoka @ master test]$ scrun - scored=master,checkpoint=4m,nodes=2x1 ./a.out SCore-D 5.8.3 connected (jid=1,reconnect=33247). <0:0> SCORE: 2 nodes (2x1) ready. SCORE: Checkpointing ... done. FEP: [20/Oct/2006 15:57:37] Restarted. SCore-D 5.8.3 connected (jid=1,reconnect=33247). <0> SCORE-D: System checkpoint file was lost, but recovered. <0> SCORE-D: User checkpoint file was lost, but recovered. FEP:WARNING SCore-D unexpectedly terminated. FEP: [20/Oct/2006 15:57:45] Waiting for SCore-D restarted ... ・・・ ログを見た限りでは、障害が発生したホストの代替ホストへの切り替えと、 ユーザプログラムのリカバリは行っているように見えます。 例外の原因と解決方法についてよろしくご教授お願いします。 From hori @ allinea.com Tue Oct 24 10:18:50 2006 From: hori @ allinea.com (Atsushi HORI) Date: Tue, 24 Oct 2006 10:18:50 +0900 Subject: [SCore-users-jp] Re: [SCore-users] SCore 5.8.3 on fedora core 5 In-Reply-To: <20061023203407.GA30903@ginger.Informatik.TU-Cottbus.DE> References: <20061023203407.GA30903@ginger.Informatik.TU-Cottbus.DE> Message-ID: <103FA063-8068-4297-9E84-FB2AE501E775@allinea.com> On 2006/10/24, at 5:34, Thomas Kobienia wrote: > I've been trying to compile score 5.8.3 on fedora core 5. gcc was not > able to compile the files: > - score-src/SCore/scoredlib/usr/ckpt.c > - score-src/SCore/mttl-ult/ult/stack.c > Both files needed the macros JB_SP and JB_PC. I don't get the errors > on centos 4.3 or debian (sarge). I made a patch to define the macros > in the related header files. Is there a better solution? > (compilation tested with gcc 4.1 and 3.2. Hi, I faced the same problem. In the score-src/SCore/mttl-ult/ult/mpcxx_defs.h file, you will the following line ---- /** use Sys-V user context for high portability but low performance **/ #define ULT_USE_USER_CONTEXT --- and uncomment the line. Then it will not use the JB_SP not JB_PC. Next, change the score-src/SCore/build/config/score file. ----- ######################################################################## ## #### checkpoint configuration parameters #### ######################################################################## ## # -DSCORE_NO_CHECKPOINT # Disables all checkpointing facilities. This switch overrides # all other switches. # -DSCORE_CKPT_NO_SC_OVERRIDE # Disables all system call overrides. Restoring mmap(2)ed # memory area and file descriptor are disabled. # CKPT_CONFIG_PARAMS = -DSCORE_NO_CHECKPOINT ---- As in the above, "-DSCORE_NO_CHECKPOINT" should be added to the config params. This disables the checkpoint/restart. --- All the above problems are fixed in the upcoming SCore 6.0 which will be release next month. _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users From hori @ allinea.com Tue Oct 24 10:33:11 2006 From: hori @ allinea.com (Atsushi HORI) Date: Tue, 24 Oct 2006 10:33:11 +0900 Subject: [SCore-users-jp] Re: [SCore-users] SCore 5.8.3 on fedora core 5 In-Reply-To: <20061023203407.GA30903@ginger.Informatik.TU-Cottbus.DE> References: <20061023203407.GA30903@ginger.Informatik.TU-Cottbus.DE> Message-ID: On 2006/10/24, at 5:34, Thomas Kobienia wrote: > I found (thanks google) the site > http://www.pccluster.org/xoopsjp/modules/pukiwiki/?kameyama% > 2Ffedora5 . > Are there necessary tips for buildung score on fedora core 5? I don't > understand japanese. Oh, I forgot to comment on this. This web page is just an internal memo for the porting SCore to Fedora 5. However, from SCore 6.0, our distribution will be based on CentOS (4.4 at this moment). _______________________________________________ SCore-users mailing list SCore-users @ pccluster.org http://www.pccluster.org/mailman/listinfo/score-users