Reedbush-Uアカウントの発行

Size: px
Start display at page:

Download "Reedbush-Uアカウントの発行"

Transcription

1 計算科学概論 ( 第 9 回 ):6 月 12 日 ( 月 ) Reedbush-U スーパーコンピュータシステム の利用と MPI プログラムの実行 松本正晴 大学院情報理工学系研究科コンピュータ科学専攻

2 本日の講義資料 ITC-LMS の授業スライドにある 計算科学概論 0612.pdf を 各自ダウンロードしてください

3 Reedbush-U アカウントの発行 ( 先週までに名簿登録した者のみです ) 1. 本人証明ができるものを用意 学生証 運転免許証 など 無い場合は ECCSにログインできることで証明 2. 名前を呼びます 3. 本人確認の上 アカウントが記載された紙を配布します 4. 授業で指示があるまで ログイン作業を行わないでください

4 ECCS にログイン ( 以降 mac での説明です ) 1. ECCSのマシンにログインする ユーザ名 パスワードを間違えずに! 今配った<スパコンのアカウント>ではない 2. デスクトップ画面下の ターミナル をクリックする 3. コンソール画面が表示される

5 ユーザ名の確認 ユーザ名 ( 利用者番号 ):t24xxx (xxx は 3 桁番号 ) グループ名 ( 課金プロジェクト名 ):gt24 紙に書いてある情報が間違えている場合は教えてください

6 秘密鍵 / 公開鍵の作成 1. ターミナルを起動して 以下を入力する $ ssh-keygen -t rsa 2. 鍵の収納先を聞かれるので リターンを押す ( 以前に別の鍵を作成してそれを使っている場合は ファイル名を変更しないと上書きしてしまうので注意 ) 3. 鍵を使うためのパスワードを聞かれるので 自分の好きなパスワードを入れる ( パスフレーズと呼ぶ ) 4. もう一度 上記のパスフレーズを入れる 5. 鍵が生成される

7 鍵の利用 (1/2) 1. 生成した鍵は以下に入っている.ssh/ 2. 以下を入力する $ cd.ssh/ 3. 以下を入力すると ファイルが見える ( 以下は例 ) $ ls id_rsa id_rsa.pub known_hosts 以下が生成した鍵ファイル id_rsa : 秘密鍵 id_rsa.pub : 公開鍵

8 鍵の利用 (2/2) 4. 以下を入力して 公開鍵を表示する $ cat id_rsa.pub < 公開鍵が表示される > 5. ssh-rsa で始まる部分を マウスでカットアンドペーストし 公開鍵の登録に使う (.u-tokyo.ac.jp まで )

9 公開鍵の登録 (1/2) 1. Web ブラウザ (Safari) を起動 2. 以下のポータルサイトのアドレスを入力する 3. ユーザ名 にセンターから配布された 利用者番号 を入力する 4. パスワード に センターから配布された 初期パスワード を入力する記載されている文字列はパスワードではないので注意 次ページを参照 5. Login ボタンを押すと 初期パスワード を変更するよう指示されるので 新しいパスワードを入力して変更する鍵を作成した際のパスフレーズとは別の文字列を使うこと

10 正しいパスワードの確認とログイン 表示されている文字列の奇数番号 (1, 3, 5, 7, 9, 11, 13, 15) の 8 文字列をつなぎ合わせたもの 例 : P9aesWsbw6oZrrd5 Password

11 ポータル画面 ( ログイン前 ) 利用者番号とパスワードを入力

12 公開鍵の登録 (2/2) 5. パスワードの変更が完了したら 利用者番号と新しいパスワードを入力して Login ボタンを押す 6. ログインメッセージが出る 7. ( Change Language メニューで言語を変更 ) 8. 左側メニューの 公開鍵アップロード をクリック 9. 画面に 公開鍵をカットアンドペーストする 10. 作成 ボタンを押す

13 言語の変更 Change Language で日本語に変更できます Japanese (JA_JP.UTF-8 ) を選んで Change を押す 終わったら ブラウザを再読み込み 1. ここをクリック 3. ここをクリック 2. ここを選択

14 ここをクリック ポータル画面 ( 日本語選択後 )

15 ポータル画面 ( 公開鍵登録 ) 1. ここに公開鍵をペースト 2. ペースト後 クリック

16 ポータル画面 ( 公開鍵登録成功 ) ペーストした鍵が表示されていれば OK

17 Reedbush へログイン ターミナルから 以下を入力 $ ssh reedbush-u.cc.u-tokyo.ac.jp -l t24xxx -l はハイフンと小文字の L t24xxx は利用者番号 (t+ 数字 ) 接続するかと聞かれるので yes を入力する 鍵作成時に自分で決めたパスフレーズを入力する 成功するとログインできる鍵の名前が id_rsa じゃない場合や.ssh/ に無い場合はオプション -i で鍵を指定できる ログイン時は必ず /home/gt24/t24xxx/ に入る

18 Reedbush のデータをローカル PC に取り込む ローカル PC(ECCS) のターミナルで scp コマンドを使う $ scp t24xxx@reedbush-u.cc.u-tokyo.ac.jp:~/a.f90./ t24xxx は利用者番号 上の例は Reedbush-U 上のホームディレクトリにある a.f90 をローカル PC のカレントディレクトリに取ってくる ディレクトリごとダウンロードする場合は -r を指定 $ scp r t24xxx@reedbush-u.cc.u-tokyo.ac.jp:~/sample./ SAMPLE ディレクトリをディレクトリごとダウンロード

19 ローカル PC のファイルを Reedbush に置く 同様にローカル PC(ECCS) のターミナルで scp コマンドを使う $ scp./a.f90 t24xxx@reedbush-u.cc.u-tokyo.ac.jp: t24xxx は利用者番号 上の例はローカル PC のカレントディレクトリにある a.f90 を Reedbush-U 上のホームディレクトリに置く ディレクトリごとアップロードする場合は -r を指定 $ scp r./sample t24xxx@reedbush-u.cc.u-tokyo.ac.jp: SAMPLE ディレクトリをディレクトリごとアップロード

20 GUI によるファイル操作 ( 主に Windows ユーザ向け ) FileZilla や WinSCP を使えば手元のパソコンと Reedbush 間のファイル転送を GUI 操作で行うことができる FileZilla Download Filezilla Client からダウンロード サイトマネージャにてプロトコルを SFTP に設定 ログオンの種類を鍵ファイルにする (Putty 形式の公開鍵ファイルが必要 puttygen によって変換すると良い ) WinSCP プロトコルを SFTP または SCP に設定する ホスト設定画面の設定から SSH- 認証を選び 秘密鍵を指定する (OpenSSH 形式 Putty 形式の両方に対応 )

21 異なるパソコンの公開鍵登録 1. 同様の手順により 異なるパソコンで公開鍵を作成 2. 公開鍵のアップロード メニューの中で 複数登録することが可能

22 Reedbush における注意点 ログイン時に始めに入る /home ファイルシステムは容量が小さく ( 最大 2GB) ログインに必要な設定ファイルだけを置くための場所です /home に置いたファイルは計算ノードから参照できません ジョブの実行もできません ログイン後は /lustre ファイルシステムを利用してください ホームディレクトリ :/home/gt24/t24xxx cd コマンドで移動できます Lustre ディレクトリ :/lustre/gt24/t24xxx cdw コマンドで移動できます

23 Reedbush-U における計算の仕方

24 Reedbush-U 1 ノードの構成 メモリ 128GB メモリ 128GB DDR4 DDR4 DDR4 DDR4 76.8GB/s 76.8GB/s DDR4 DDR4 DDR4 DDR4 Intel Xeon E v4 (Broadwell-EP) 18 コア QPI QPI Intel Xeon E v4 (Broadwell-EP) 18 コア 1 ノード当たり 36 コア 256GB 420 ノード 76.8GB/s G3 x16 Infiniband EDR HCA 一般的なスーパーコンピュータでは ノード単位で計算資源を数えることが多い Reedbush-U の場合 1 ノード当たり 36 コア 256GB(18 コア 128GB が 2 つ ) これが全部で 420 ノードある ノード内は共有メモリ型計算機なので OpenMP による並列化が可能 ノード間で並列化する際は MPI によるデータ通信が必要 ( 分散メモリ型計算機 )

25 Reedbush-U で利用できるコンパイラ Intelコンパイラ Fortranコンパイラ :ifort ( 逐次実行 ) :mpiifort (MPI 実行,Intel MPI) Cコンパイラ :icc ( 逐次実行 ) :mpiicc (MPI 実行,Intel MPI) C++ コンパイラ :icpc ( 逐次実行 ) :mpiicpc (MPI 実行,Intel MPI) ソースファイルをコンパイルして実行ファイルを作成した後にそれを実行するには ジョブ を投げる必要がある

26 Reedbush-U スーパーコンピュータシステムでのジョブ実行形態 Reedbush-U に限らず スパコン環境では以下の 2 通りがほとんど インタラクティブジョブ実行 ( 本実習では利用不可 ) PC での実行のように コマンドを入力して実行 スパコン環境では あまり一般的でない あくまでもデバッグ用 大規模実行はできない Reedbush-U では 以下に限定 1 ノード (36 コア ) 30 分まで 4 ノード (144 コア ) 10 分まで バッチジョブ実行 バッチジョブシステムに処理を依頼して実行する スパコン環境では一般的な方法 大規模実行用 一般利用では 最大 128 ノード (4,608 コア ) 24 時間まで 本実習では最大 8 ノード (288 コア ) 10 分まで

27 バッチ処理とは? 一般的なスパコン環境で大規模計算を行う場合 通常 インタラクティブ実行 ( コマンドラインで実行すること ) はできません ジョブはバッチ処理で実行します キュー (Queue): 待ち行列 バッチキュー ジョブの依頼 バッチ処理システムがジョブを取り出す 実行 ユーザ スパコン

28 バッチキューの設定の仕方 バッチ処理はAltair 社のバッチシステムPBS Professionalで管理され ている 以下 主要なコマンドの説明 ジョブの投入 :qsub < ジョブスクリプトファイル名 > 自分が投入したジョブの状況確認 :rbstat 投入ジョブの削除 :qdel < ジョブID> バッチキューの状態を見る :rbstat --rsc バッチキューの詳細構成を見る :rbstat --rsc -x 投げられているジョブ数を見る :rbstat b 過去の投入履歴を見る :rbstat H 同時に投入できる数 / 実行できる数を見る :rbstat --limit

29 Job スクリプトのサンプルの説明 C 言語,Fortran 共通 #!/bin/bash #PBS -q u-lecture #PBS W group_list=gt24 #PBS -l select=8:mpiprocs=4:ompthreads=9 #PBS -l walltime=00:10:00 cd $PBS_O_WORKDIR. /etc/profile.d/modules.sh mpirun./a.out リソースグループ名 :u-lecture 授業時間中は u-lecture4 利用グループ名 :gt24 利用ノード数 1 ノード当たりの MPI プロセス数 実行時間制限 :10 分 1 プロセス当たり OpenMP スレッド数 カレントディレクトリ設定 環境変数設定 ( 必ず記入しておく ) 上の例では ジョブを 32 プロセス 9 スレッドの 288 並列 ( コア ) で実行 (1 ノード当たり 4 プロセス 9 スレッドでそれが 8 ノード分 ) Reedbush-U は 1 ノード当たり 36 コア

30 本講義でのキュー名 ジョブスクリプトの #PBS -q の部分に記載するキューの種類 本演習時間中のキュー名 : u-lecture4 最大 8 ノード (288 コア ),10 分まで 本演習時間以外 (24 時間 ) のキュー名 : u-lecture 利用条件は上と同じ

31 サンプルプログラムの起動 1. 並列版 Hello プログラムの実行

32 UNIX コマンド備忘録 (1/3) emacs エディタの起動 : emacs 編集ファイル名 ^x ^s (^ は control を押しながら ) : テキストの保存 ^x ^c : 終了 (^z で終了すると スパコンの負荷が上がる 絶対にしないこと ) ^g : 訳がわからなくなったとき ^k : カーソルより行末まで消す 消した行は一時的に記憶される ^y :^k で消した行を 現在のカーソルの場所にコピー ^s 文字列 : 文字列の箇所まで移動 ( 検索 ) ^M x goto-line : 指定した行まで移動 (^M は ESC キーを押して離す )

33 UNIX コマンド備忘録 (2/3) rm ファイル名 : ファイルを消す ls : 現在いるフォルダの中身を見る cd ディレクトリ名 : ディレクトリに移動する cd.. : 一つ上のディレクトリへ移動する cd : ホームディレクトリへ行く cat ファイル名 : ファイルの中身を見る make :Makefileがある場合 実行ファイルを作る make clean : 実行ファイルを消す (cleanがmakefile 内で定義されていないと実行できない )

34 UNIX コマンド備忘録 (3/3) less ファイル名 : ファイルの中身を見る (cat では画面がいっぱいになってしますとき ) スペースキー :1 画面スクロール / 文字列 : 文字列の箇所まで移動 q : 終了 ( 訳がわからなくなったとき )

35 サンプルプログラム名 C 言語版 Fortran 版共通ファイル : Samples.tar tarで展開後 C 言語とFortranのディレクトリが作られる C/ :C 言語用 F/ :Fortran 用 上記ファイルが置いてある場所 /lustre/gt24/t24000

36 並列版 Hello プログラムをコンパイル (1/2) 1. cdwコマンドを実行してlustreファイルシステムへ移動 2. サンプルプログラムの場所 /lustre/gt24/t24000にある Samples.tarを自分のディレクトリにコピーする $ cp /lustre/gt24/t24000/samples.tar./ 3. Samples.tarを展開する $ tar xvf Samples.tar 4. Samplesディレクトリへ移動 $ cd Samples C 言語 : $ cd C Fortran : $ cd F 5. Helloディレクトリへ移動 $ cd Hello

37 並列版 Hello プログラムをコンパイル (2/2) 6. ソースファイルをコンパイルする すでにcompileファイルという実行ファイルが用意されているので それを実行する $./compile ( 以下のコマンドでもコンパイル可 ) C 言語 :mpiicc hello.c o hello Fortran :mpiifort hello.f o hello 7. 実行ファイル (hello) ができていることを確認する $ ls

38 並列版 Hello プログラムの実行 ( ピュア MPI) このサンプルの Job スクリプトは hello.bash です サンプルでは キュー名が u-lecture, グループ名が gt00 になっています $ emacs hello.bash で キュー名とグループ名をそれぞれ書き換えてください u-lecture4 gt24

39 並列版 Hello プログラムの実行 ( ピュア MPI) 1. Hello ディレクトリの中で以下を実行 $ qsub hello.bash 2. 自分の導入されたジョブを確認 $ rbstat 3. 実行が終了すると 以下のファイルが生成される hello.bash.exxxxxx hello.bash.oxxxxxx (xxxxxx は JobID) 4. 上記の標準出力ファイルを見てみる cat hello.bash.oxxxxxx 5. Hello parallel world! が 36 プロセス 8 ノード =288 表示されていたら実行成功

40 バッチジョブ実行時の標準出力と標準エラー出力 バッチジョブの実行が終了すると 標準出力ファイルと標準エラー出力ファイルがジョブ投入時のディレクトリに作成される 標準出力ファイルにはジョブ実行中の標準出力 標準エラー出力ファイルにはジョブ実行中のエラーメッセージが出力される ジョブ名.oXXXXX --- 標準出力ファイルジョブ名.eXXXXX --- 標準エラー出力ファイル (XXXXX はジョブ投入時に表示されるジョブの JobID)

41 並列版 Hello プログラム (C 言語 ) #include <stdio.h> #include <mpi.h> このプログラムは 全 PE で起動される int main(int argc, char *argv[]){ int myid,nprc,ierr; ierr=mpi_init(&argc,&argv); ierr=mpi_comm_rank(mpi_comm_world,&myid); ierr=mpi_comm_size(mpi_comm_world,&nprc); MPI の初期化 printf("hello parallel world! MyID: %d %d n",myid, nprc); 自分の rank ID を取得 : 各プロセスで値は異なる } ierr=mpi_finalize(); return 0; MPI の終了 全体のプロセッサ台数を取得 : 各プロセスで値は同じ ( 演習環境では最大 288)

42 並列版 Hello プログラム (Fortran) program main implicit none include "mpif.h" integer::myid,nprc,ierr call mpi_init(ierr) call mpi_comm_rank(mpi_comm_world,myid,ierr) call mpi_comm_size(mpi_comm_world,nprc,ierr) print *, "Hello parallel world! MyID:", myid, nprc call mpi_finalize(ierr) stop end program main このプログラムは 全 PE で起動される MPI の初期化 MPI の終了 自分の rank ID を取得 : 各プロセスで値は異なる 全体のプロセッサ台数を取得 : 各プロセスで値は同じ ( 演習環境では最大 288)

43 略語と MPI 用語 MPI は プロセス 間の通信を行います プロセスは プロセッサ ( もしくは コア ) に 1 対 1 で割り当てられる 今後 MPI プロセス と書くのは長いので PE(Processer Elements の略 ) と書くことも 本来はプロセッサやコアの意味 ランク (Rank, MyID) 各 MPI プロセス の 識別番号 のこと 通常 MPI では MPI_Comm_rank 関数で設定される変数で, 0~ 全 PE 数 -1 の数値が入る 全 MPI プロセス数を知るには MPI_Comm_size 関数を使う

44 MPI の起動と Rank の関係 ソースファイルをコンパイルして a.out を作成後 例えばジョブスクリプトで 4MPI 並列を指定 #PBS -l select=1:mpiprocs=4 myid 0 myid 1 myid 2 myid 3 $ qsub hello.bash 各プロセスでは 同じプログラムが動く が データが異なる 大規模なデータを分割し, 各部分について各プロセス ( プロセッサ ) が計算 通信以外は逐次実行と同じ というのが理想 a.out a.out a.out a.out

45 mpi.h, mpif.h #include<stdio.h> #include<mpi.h> int main(int argc, char *argv[]){ int myid,nprc,ierr; ierr=mpi_init(&argc, &argv); ierr=mpi_comm_rank(mpi_comm_world,&myid); ierr=mpi_comm_size(mpi_comm_world,&nprc); } printf( Hello World %d %d n,myid,nprc); ierr=mpi_finalize(); C 言語 MPI に関連した様々なパラメータの定義と初期値が記述 変数名は MPI_ で始まっている ここで定められている変数は,MPI 関数 / サブルーチンの引数として使用する以外は陽に値を変更してはいけない ユーザは MPI_ で始まる変数を独自に設定しないのが無難 program main implicit none include mpif.h integer::myid,nprc,ierr call mpi_init(ierr) call mpi_comm_rank(mpi_comm_world,myid,ierr) call mpi_comm_size(mpi_comm_world,nprc,ierr) print *, Hello World,myid,nprc call mpi_finalize(ierr) end program main Fortran

46 MPI_Init MPI を起動する 他の MPI 関数 / サブルーチンより前にコールする必要がある 全実行文の前に置くことを勧める call MPI_Init(ierr) - ierr 整数 Out 完了コード program main implicit none Fortran include mpif.h integer::myid,nprc,ierr call mpi_init(ierr) call mpi_comm_rank(mpi_comm_world,irank,ierr) call mpi_comm_size(mpi_comm_world,isize,ierr) print *, Hello World,myid,nprc call mpi_finalize(ierr) end program main

47 MPI_Finalize MPI を終了する 他の MPI 関数 / サブルーチンより後にコールする必要がある 全実行文の後に置くことを勧める これを忘れると大変なことになる場合が多いので忘れず呼び出すこと 実行が終わったはずなのに終わってない call MPI_Finalize(ierr) - ierr 整数 Out 完了コード program main implicit none Fortran include mpif.h integer::myid,nprc,ierr call mpi_init(ierr) call mpi_comm_rank(mpi_comm_world,irank,ierr) call mpi_comm_size(mpi_comm_world,isize,ierr) print *, Hello World,myid,nprc call mpi_finalize(ierr) end program main

48 MPI_Comm_rank コミュニケータ comm で指定されたグループ内におけるプロセス ID が rank に戻る 必須ではないが, 利用することは多い call MPI_Comm_rank(comm, rank, ierr) - comm 整数 In コミュニケータを指定 - Rank 整数 Out commで指定されたグループにおけるプロセスid 0から始まる ( 最大はisize-1) - ierr 整数 Out 完了コード program main implicit none Fortran include mpif.h integer::myid,nprc,ierr call mpi_init(ierr) call mpi_comm_rank(mpi_comm_world,irank,ierr) call mpi_comm_size(mpi_comm_world,isize,ierr) print *, Hello World,myid,nprc call mpi_finalize(ierr) end program main

49 コミュニケータについて call MPI_Comm_rank(MPI_COMM_WORLD, irank, ierr) 通信を実施するためのプロセスのグループを示す MPI において, 通信を実施する単位として必ず指定する必要がある mpiexec で起動した全プロセスは, デフォルトで MPI_COMM_WORLD というコミュニケータのグループに属している 複数のコミュニケータを使用し, 異なったプロセス数を割り当てることによって, 複雑な処理を実行することも可能 例えば, 計算用グループ, 可視化用グループ, この授業では MPI_COMM_WORLD のみで OK

50 MPI_Comm_size コミュニケータ comm で指定されたグループに含まれるプロセス数の合計が size に戻る 必須ではないが, 利用することは多い call MPI_Comm_size(comm, size, ierr) - comm 整数 In コミュニケータを指定 - size 整数 Out commで指定されたグループに含まれるプロセス数の合計 - ierr 整数 Out 完了コード program main implicit none Fortran include mpif.h integer::myid,nprc,ierr call mpi_init(ierr) call mpi_comm_rank(mpi_comm_world,irank,ierr) call mpi_comm_size(mpi_comm_world,isize,ierr) print *, Hello World,myid,nprc call mpi_finalize(ierr) end program main

51 MPI プロセスを異常終了する MPI_Abort call MPI_Abort(comm, errcode, ierr) - comm 整数 In コミュニケータを指定 - errcode 整数 Out エラーコード - ierr 整数 Out 完了コード

52 MPI_Wtime 時間計測用の関数 短い時間を計測する場合の精度はいまいち良くない time = MPI_Wtime() - time 倍精度実数 Out 過去のある時間からの経過秒数 C 言語 double Stime, Etime; Stime = MPI_Wtime(); for(i=0;i<100000;i++){ <work> } Etime = MPI_Wtime(); printf( %d %lf n,irank, Etime-Stime); Fortran double precision::stime, Etime Stime = MPI_Wtime() do i=1, <work> enddo Etime = MPI_Wtime() print *, irank, Etime-Stime

53 MPI_Wtick MPI_Wtime での時間計測精度の確認 実装 ( ハードウェア, コンパイラ ) によって異なる time = MPI_Wtick() - time 倍精度実数 Out 時間計測精度 ( 単位 : 秒 ) C 言語 double time; time = MPI_Wtick(); printf( %d %lf n,irank, time); Fortran double precision::time time = MPI_Wtick() print *, irank, time

54 MPI_Barrier コミュニケータ comm で指定されたグループに含まれるプロセスの同期を取る コミュニケータ comm 内の全てのプロセスがこの関数 / サブルーチンを通らない限り, 次のステップには進まない 主にデバッグ用に使用 オーバーヘッドが大きいので, 実用計算では使用しないことをお勧めする call MPI_Barrier(comm, ierr) - comm 整数 In コミュニケータを指定 - ierr 整数 Out 完了コード

55 サンプルプログラムの起動 2. 行列 ベクトル積プログラムの実行

56 サンプルプログラムの説明 Hello/ 並列版 Hello プログラム Mat-vec/ 行列 ベクトル積の計算プログラム Wa1/ 逐次転送方法による総和演算プログラム Wa2/ 二分木通信方式による総和演算プログラム

57 行列 ベクトル積の計算プログラム (Mat-vec) 実行結果が (C 言語 ) (Fortran) N = Elapsed time = [sec.] [MFLOPS] OK! N = Elapsed time[sec.] = MFLOPS = OK! のような結果が出たら OK

58 サンプルプログラムの説明 (C 言語 ) #define N (Fortran) integer,parameter::n=10000 Nを変更すると 行列サイズを変更できます (C 言語 ) #define debug 1 (Fortran) integer,parameter::debug=1 1 としてコンパイルすると 演算結果が正しいことがチェックできます

59 レポート課題 (I) 1. サンプルプログラムを並列化せよ このとき 行列 A およびベクトル x y のデータは 全 PE で N N のサイズを確保してよい 2. サンプルプログラムを並列化せよ このとき 行列 A は 初期状態では 各 PE に割り当てられた分の領域しか確保してはいけない

60 レポート課題 (I) の注意 本課題では MPI 通信関数は不要です このサンプルプログラムでは 演算結果検証部分 (debug=1 にした場合に実行される部分 ) が並列化されていないため MatVec 関数のみを並列化しても 検証部でエラーとなります 検証部分も 計算されたデータに各 PE で対応するように 並列化してください 検証部分においても 行列 - ベクトル積と同様のループとなります

61 本実習プログラムの TIPS myid, nprc は大域変数です myid (= 自分の ID) および nprc(= 全プロセス数 ) の変数は大域変数です MyMatVec 関数内で 引数設定や宣言なしに 参照できます myid, nprc の変数を使う必要があります MyMatVec 関数を並列化するには myid および nprc 変数を利用しないと 並列化ができません

62 並列化の考え方 (C 言語 ) SIMD アルゴリズムの考え方 (4PE の場合 ) n 行列 A for ( j=0; j<n/4; j++) { 内積 ( j, i ) } PE0 各 PE で重複して所有する for ( j=0; j<n; j++) { 内積 ( j, i ) } n for ( j=n/4; j<(n/4)*2; j++) { 内積 ( j, i ) } PE1 for ( j=(n/4)*2; j<(n/4)*3; j++) { 内積 ( j, i ) } PE2 for ( j=(n/4)*3; j<n; j++) { 内積 ( j, i ) } ベクトル x PE3

63 並列化の考え方 (Fortran 言語 ) SIMD アルゴリズムの考え方 (4PE の場合 ) n 行列 A PE0 do j=1, N/4 内積 ( j, i ) enddo 各 PE で重複して所有する do j=1, N 内積 ( j, i ) enddo n PE1 PE2 PE3 do j=n/4+1, (N/4)*2 内積 ( j, i ) enddo do j=(n/4)*2+1, (N/4)*3 内積 ( j, i ) enddo do j=(n/4)*3+1, N 内積 ( j, i ) enddo ベクトル x

64 初心者が注意すること 各 PE では 独立した配列が個別に確保されます PE0 PE1 PE2 PE3 A[N][N] A[N][N] A[N][N] A[N][N] myid 変数は MPI_Comm_rank() 関数が呼ばれた段階で 各 PE 固有の値になっています PE0 PE1 PE2 PE3 myid = 0 myid = 1 myid = 2 myid = 3

65 並列化の方針 (C 言語 ) 1. 全 PE で行列 A を N N の大きさ ベクトル x y を N の大きさ 確保してよいとする 2. 各 PE は 担当の範囲のみ計算するように ループの開始値と終了値を変更する ブロック分散方式では 以下になる (N が nprc で割り切れる場合 ) ib = N / nprc; for ( nj=myid*ib; nj<(myid+1)*ib; nj++) { } 3. (2 の並列化が完全に終了したら ) 各 PE で担当のデータ部分しか行列を確保しないように変更する 上記のループは 以下のようになる for ( nj=0; nj<ib; nj++) { }

66 並列化の方針 (Fortran 言語 ) 1. 全 PE で行列 A を N N の大きさ ベクトル x y を N の大きさ 確保してよいとする 2. 各 PE は 担当の範囲のみ計算するように ループの開始値と終了値を変更する ブロック分散方式では 以下になる (N が nprc で割り切れる場合 ) ib = N / nprc do nj=myid*ib+1, (myid+1)*ib. enddo 3. (2 の並列化が完全に終了したら ) 各 PE で担当のデータ部分しか行列を確保しないように変更する 上記のループは 以下のようになる do nj=1, ib. enddo

67 並列化の方針 ( 行列 - ベクトル積 )(C 言語 ) 全 PE で N N 行列を持つ場合 PE0 for ( nj=0; nj<(n/4); nj++) { 内積 ( nj, ni ) } for ( nj=(n/4)*2; nj<(n/4)*3; nj++) { 内積 ( nj, ni ) } PE2 PE1 for ( nj=(n/4)*3; nj<n; nj++) { 内積 ( nj, ni ) } for ( nj=(n/4); nj<(n/4)*2; nj++) { 内積 ( nj, ni ) } PE3 各 PE で使われない領域が出るが 担当範囲指定がしやすいので実装がしやすい

68 並列化の方針 ( 行列 - ベクトル積 )(Fortran 言語 ) 全 PE で N N 行列を持つ場合 PE0 do nj=1, N/4 内積 ( nj, ni ) enddo do nj=(n/4)*2+1, (N/4)*3 内積 ( nj, ni ) enddo PE2 PE1 do nj=n/4+1, (N/4)*2 内積 ( nj, ni ) enddo do nj=(n/4)*3+1, N 内積 ( nj, ni ) enddo 各 PE で使われない領域が出るが 担当範囲指定がしやすいので実装がしやすい PE3

69 並列化の方針 ( 行列 - ベクトル積 ) この方針では y=ax のベクトル y は 以下のように一部分しか計算されないことに注意! PE0 = = PE2 = PE1 = PE3

70 並列化時の注意 演習環境は 最大 288PE です 並列化は < できた > と思ってもバグっていることが多い! このサンプルの検証部分 (debug=1 の時に実行される部分 ) は PE0 がベクトル y の要素すべてを所有することが前提となっています 出力結果を考慮して検証部分も並列化してください N を小さくして printf で結果 ( ベクトル y) を目視することも デバックになります しかし N を目視できないほど大きくする場合にバグることがあります 目視のみデバックは 経験上お勧めしません 数学ライブラリ開発では できるだけ数学 ( 線形代数 ) の知識を利用した方法で 理論的な解と結果を検証することをお勧めします

71 サンプルプログラムの起動 3. 総和演算プログラムの実行

72 サンプルプログラムの説明 Hello/ 並列版 Hello プログラム Mat-vec/ 行列 ベクトル積の計算プログラム Wa1/ 逐次転送方法による総和演算プログラム Wa2/ 二分木通信方式による総和演算プログラム

73 総和演算プログラム (Wa1, 逐次転送方式 ) 各 MPI プロセスが所有するデータを 全プロセスで加算し あるプロセス 1 つが結果を所有するという処理を考える 素朴な方法 ( 逐次転送方式 ) 1. (rankid が 0 でなければ ) 左隣のプロセスからデータを受信 2. 左隣のプロセスからデータが来ていたら 1. 受信する 2. < 自分のデータ > と < 受信データ > を加算する 3. (255 番でなければ ) 右隣のプロセスに <2 の結果 > を送信する 4. 処理を終了する 実装上の注意 左隣とは (myid-1) の ID をもつプロセス 右隣とは (myid+1) の ID をもつプロセス myid=0 のプロセスは左隣はないので 受信はしない myid=p-1 のプロセスは右隣はないので 送信はしない

74 逐次転送方式 ( バケツリレー方式 ) による加算 所有データ 所有データ所有データ所有データ CPU0 CPU1 CPU2 CPU3 送信送信送信 = = = 6 最終結果

75 1 対 1 通信利用例 (Wa1, 逐次転送方式 C 言語 ) void main(int argc, char* argv[]) { 受信用システム配列の確保 MPI_Status istatus; dsendbuf=(double)myid; drecvbuf=0.0; if(myid!=0){ ierr=mpi_recv(&drecvbuf,1,mpi_double,myid-1,0,mpi_comm_world,&istatus); } 自分より一つ少ない ID 番号 (myid-1) から double 型データ 1 つを受信し drecvbuf 変数に代入 } dsendbuf=dsendbuf+drecvbuf; if(myid!=nprc-1){ ierr=mpi_send(&dsendbuf,1,mpi_double,myid+1,0,mpi_comm_world); } if(myid==nprc-1) printf("total=%4.2lf n",dsendbuf); 自分より一つ多い ID 番号 (myid+1) に dsendbuf 変数に入っている double 型データ 1 つを送信

76 1 対 1 通信利用例 (Wa1, 逐次転送方式 Fortran) program main integer istatus(mpi_status_size) dsendbuf=dble(myid) drecvbuf=0.0d0 if(myid/=0) then call mpi_recv(drecvbuf,1,mpi_double_precision,myid-1,0,& mpi_comm_world,istatus,ierr) endif dsendbuf=dsendbuf+drecvbuf if(myid/=nprc-1) then call mpi_send(dsendbuf,1,mpi_double_precision,myid+1,0,& mpi_comm_world,ierr) endif if(myid==nprc-1) then print *,"Total = ",dsendbuf endif end program main 受信用システム配列の確保 自分より一つ少ない ID 番号 (myid-1) から double precision 型データ 1 つを受信し drecvbuf 変数に代入 自分より一つ多い ID 番号 (myid+1) に dsendbuf 変数に入っている double precision 型データ 1 つを送信

77 総和演算プログラム (Wa2, 二分木通信方式 ) 二分木通信方式 (256 プロセスでの計算であることに注意 ) 1. nj = 1; 2. for (ni=0; ni < log2(nprc); ni++) 3. if ( (myid & nj) == nj) (myid nj) 番プロセスからデータを受信 ; 自分のデータと 受信データを加算する ; nj = nj * 2; 4. else (myid + nj) 番プロセスに データを転送する ; 処理を終了する ;

78 総和演算プログラム (Wa2, 二分木通信方式 ) 3 段目 =log2(8) 段目 段目 段目

79 総和演算プログラム (Wa2, 二分木通信方式 ) 実装上の工夫 要点 : プロセス番号の 2 進数表記の情報を利用する 第 ni 段において 受信するプロセスの条件は 以下で書ける : myid & nj が nj と一致ここで nj = 2^(ni-1) つまり プロセス番号の 2 進数表記で右から ni 番目のビットが立っているプロセスが 送信することにする また 送信元のプロセス番号は 以下で書ける : myid + nj つまり 通信が成立するプロセス番号の間隔は 2^(ni-1) 二分木なので 送信プロセスについては 上記の逆が成り立つ

80 総和演算プログラム (Wa2, 二分木通信方式 ) 逐次転送方式の通信回数明らかに nprocs-1 回 二分木通信方式の通信回数 見積もりの前提 各段で行われる通信は 完全に並列で行われる ( 通信の衝突は発生しない ) 段数の分の通信回数となる つまり log2(nprocs) 回 両者の通信回数の比較 プロセッサ台数が増すと 通信回数の差 (= 実行時間 ) がとても大きくなる 1024 プロセス構成では 1023 回対 10 回! でも 必ずしも二分木通信方式がよいとは限らない ( 通信衝突の多発 )

81 レポート課題 (II) 3. 逐次転送方式 2 分木通信方式の実行時間を計測 (MPI_Wtime 関数の利用 ) し どの方式が何台のプロセッサ台数で有効となるかを明らかにせよ また その理由について 考察せよ 4. 二分木通信方式について プロセッサ台数が 2 のべき乗でないときにも動作するように プログラムを改良せよ 5. MPI と OpenMP とは何か? それぞれについて説明せよ

82 基本的な MPI 関数 / サブルーチン

83 C Fortran MPI_Recv(1/2) ierr = MPI_Recv(recvbuf, icount, idatatype, isource, itag, icomm, istatus); call MPI_Recv(recvbuf, icount, idatatype, isource, itag, icomm, istatus, ierr) recvbuf : 受信バッファの先頭番地を指定 icount : 整数型 受信バッファのデータ要素数を指定 idatatype : 整数型 受信バッファのデータの型を指定 (C 言語 ) MPI_CHAR ( 文字型 ) MPI_INT ( 整数型 ) MPI_FLOAT ( 実数型 ) MPI_DOUBLE( 倍精度実数型 ) (Fortran) MPI_CHARACTER, MPI_INTEGER, MPI_REAL, MPI_DOUBLE_PRECISION, MPI_COMPLEX( 複素数型 ) isource : 整数型 受信したいメッセージを送信するrankIDを指定

84 MPI_Recv(2/2) itag icomm : 整数型 受信したいメッセージに付いているタグの値を指定 : 整数型 PE 集団を認識する番号であるコミュニケータを指定 通常ではMPI_COMM_WORLDを指定すればよい istatus :MPI_Status 型 ( 整数型の配列 ) 受信状況に関する情報が入る 必ず専用の型宣言をした配列を確保すること C 言語 : MPI_Status istatus; Fortran: integer istatus(mpi_status_size) ierr : 整数型 戻り値 エラーコードが入る

85 MPI_Send C Fortran ierr = MPI_Send(sendbuf, icount, idatatype, idest, itag, icomm); call MPI_Send(sendbuf, icount, idatatype, idest, itag, icomm, ierr) sendbuf : 送信バッファの先頭番地を指定 icount : 整数型 送信バッファのデータ要素数を指定 idatatype : 整数型 送信バッファのデータの型を指定 idest : 整数型 受信したいメッセージを送信するrankIDを指定 itag : 整数型 受信したいメッセージに付いているタグの値を指定 icomm : 整数型 PE 集団を認識する番号であるコミュニケータを指定 通常ではMPI_COMM_WORLDを指定すればよい ierr : 整数型 戻り値 エラーコードが入る

86 MPI_Send-Recv の概念 (1 対 1 通信 ) PE0 PE1 PE2 PE3 MPI_Send MPI_Recv

87 MPI における 1 対 1 通信の方法 MPI_Send, MPI_Recv はいわゆる ブロッキング (Blocking) 通信を行うもので, デッドロック (dead lock) を引き起こしやすい 受信 (Recv) の完了が確認されないと, 送信 (Send) が終了しない もともと secure な通信を保障するために,MPI の仕様に取り入れられたものであるが, 実用上は不便 アプリケーションレベルで使用されることは少ないように ( 私は ) 思う MPI_Send, MPI_Recv については, そういう機能がある ということを知っておけばよい

88 MPI における 1 対 1 通信の方法 MPI_Isend, MPI_Irecv という ブロッキングしない (nonblocking) MPI 関数 / サブルーチンと, 同期のための MPI_Waitall を組み合わせる 前回の資料を参照 MPI_Sendrecv という関数 / サブルーチンもある

89 C Fortran MPI_Bcast ierr = MPI_Bcast(sendbuf, icount, idatatype, iroot, icomm); call MPI_Bcast(sendbuf, icount, idatatype, iroot, icomm, ierr) sendbuf : 送信および受信バッファの先頭番地を指定 icount : 整数型 送信バッファのデータ要素数を指定 idatatype: 整数型 送信バッファのデータの型を指定 iroot : 整数型 送信したいメッセージがあるrankIDを指定する 全プロセスで同じ値を指定する必要がある icomm : 整数型 PE 集団を認識する番号であるコミュニケータを指定する ierr : 整数型 エラーコードが入る

90 MPI_Bcast の概念 ( 集団通信 ) PE0 PE1 PE2 PE3 MPI_Bcast() MPI_Bcast() MPI_Bcast() MPI_Bcast() iroot 全 PE が同じように関数を呼ぶこと!!

91 Reduction 演算について 加算 乗算 最大値 最小値などのように 各プロセスが持つデータを入力として 1 個の出力データを求める演算 MPI_Reduce 関数 :Reduction 演算の結果を ある一つのプロセスが所有 PE1 PE0 PE2 操作 PE0 MPI_Allreduce 関数 :Reduction 演算の結果を 全てのプロセスが所有 PE0 操作 PE0 PE1 PE2 PE1 PE2

92 C Fortran MPI_Reduce(1/2) ierr = MPI_Reduce(sendbuf, recvbuf, icount, idatatype, iop, iroot, icomm); call MPI_Reduce(sendbuf, recvbuf, icount, idatatype, iop, iroot, icomm, ierr) sendbuf : 送信バッファの先頭番地を指定 recvbuf : 受信バッファの先頭番地を指定 irootで指定したプロセスのみで書き込みがなされる送信バッファと受信バッファは 同一であってはならないすなわち 異なる配列を確保しなくてはならない icount : 整数型 送信バッファのデータ要素数を指定 idatatype: 整数型 送信バッファのデータの型を指定

93 MPI_Reduce(2/2) iop : 整数型 演算の種類を指定 MPI_SUM( 総和 ) MPI_PROD( 積 ) MPI_MAX( 最大 ) MPI_MIN( 最小 ) MPI_MAXLOC( 最大とその位置 ) MPI_MINLOC( 最小とその位置 ) など iroot : 整数型 結果を受け取るプロセスの icomm 内の rankid を指定する全ての icomm 内のプロセスで同じ値を指定する必要がある icomm : 整数型 PE 集団を認識する番号であるコミュニケータを指定する ierr : 整数型 エラーコードが入る

94 MPI_Reduce の概念 ( 集団通信 ) PE0 PE1 PE2 PE3 MPI_Reduce() MPI_Reduce() MPI_Reduce() MPI_Reduce() iroot データ1 データ2 データ3 データ4 iop( 指定された演算 )

95 C Fortran MPI_Allreduce ierr = MPI_Allreduce(sendbuf, recvbuf, icount, idatatype, iop, icomm); call MPI_Allreduce(sendbuf, recvbuf, icount, idatatype, iop, icomm, ierr) sendbuf : 送信バッファの先頭番地を指定 recvbuf : 受信バッファの先頭番地を指定 送信バッファと受信バッファは 同一であってはならない すなわち 異なる配列を確保しなくてはならない icount : 整数型 送信バッファのデータ要素数を指定 idatatype: 整数型 送信バッファのデータの型を指定 iop : 整数型 演算の種類を指定 icomm : 整数型 PE 集団を認識する番号であるコミュニケータを指定 ierr : 整数型 エラーコードが入る

96 MPI_Allreduce の概念 ( 集団通信 ) PE0 PE1 PE2 PE3 MPI_Allreduce() MPI_Allreduce() MPI_Allreduce() MPI_Allreduce() データ0 データ1 データ2 データ3 iop( 指定された演算 ) 演算済みデータの放送

97 Reduction 演算の性能について Reduction 演算は 1 対 1 通信と比較して遅い プログラム中で無駄に多用すべきではない MPI_Allreduce は MPI_Reduce に比べ遅い MPI_Allreduce は 放送処理が入る MPI_Reduce でいいならなるべくそっちを使う

98 C Fortran MPI_Gather(1/2) ierr = MPI_Gather(sendbuf, isendcount, isendtype, recvbuf, irecvcount, irecvtype, iroot, icomm); call MPI_Gather(sendbuf, isendcount, isendtype, recvbuf, irecvcount, irecvtype, iroot, icomm, ierr) sendbuf : 送信バッファの先頭番地を指定 isendcount: 整数型 送信バッファのデータ要素数を指定 isendtype : 整数型 送信バッファのデータの型を指定 recvbuf : 受信バッファの先頭番地を指定 irootで指定したプロセスのみで書き込みがなされる送信バッファと受信バッファは 同一であってはならないすなわち 異なる配列を確保しなくてはならない irecvcount: 整数型 受信バッファのデータ要素数を指定この要素数は 1プロセス当たりの送信データ数を指定すること MPI_Gather 関数では各プロセスで異なる数のデータを収集することはできないので 同じ値を指定すること

99 MPI_Gather(2/2) irecvtype: 整数型 受信バッファのデータ型を指定する iroot : 整数型 収集データを受け取るプロセスの icomm 内でのrankIDを指定する 全てのicomm 内のプロセスで同じ値を指定する必要がある icomm : 整数型 PE 集団を認識する番号であるコミュニケータを指定する ierr : 整数型 エラーコードが入る

100 MPI_Gather の概念 ( 集団通信 ) PE0 PE1 PE2 PE3 MPI_Gather() MPI_Gather() MPI_Gather() MPI_Gather() iroot データA データB データC データD 収集処理 データA データB データC データD

101 C MPI_Scatter(1/2) ierr = MPI_Scatter(sendbuf, isendcount, isendtype, recvbuf, irecvcount, irecvtype, iroot, icomm); Fortran call MPI_Scatter(sendbuf, isendcount, isendtype, recvbuf, irecvcount, irecvtype, iroot, icomm, ierr) sendbuf : 送信バッファの先頭番地を指定 isendcount: 整数型 送信バッファのデータ要素数を指定この要素数は 1プロセス当たりに送られる送信データ数を指定すること MPI_Scatter 関数では各プロセスで異なる数のデータを分散することはできないので 同じ値を指定すること isendtype : 整数型 送信バッファのデータの型を指定 irootで指定したプロセスのみ有効 recvbuf : 受信バッファの先頭番地を指定送信バッファと受信バッファは 同一であってはならないすなわち 異なる配列を確保しなくてはならない irecvcount: 整数型 受信バッファのデータ要素数を指定

102 MPI_Scatter(2/2) irecvtype: 整数型 受信領域のデータ型を指定する iroot : 整数型 収集データを受け取るプロセスの icomm 内でのrankIDを指定する 全てのicomm 内のプロセスで同じ値を指定する必要がある icomm : 整数型 PE 集団を認識する番号であるコミュニケータを指定する ierr : 整数型 エラーコードが入る

103 MPI_Scatter の概念 ( 集団通信 ) PE0 PE1 PE2 PE3 MPI_Scatter() MPI_Scatter() MPI_Scatter() MPI_Scatter() iroot データA データB データC データD 分配処理 データ A データ B データ C データ D

Reedbush-Uアカウントの発行

Reedbush-Uアカウントの発行 計算科学概論 ( 第 2 回 ):4 月 16 日 ( 月 ) Reedbush スーパーコンピュータシステム の利用と MPI プログラムの実行 松本正晴 大学院情報理工学系研究科コンピュータ科学専攻 本日の講義資料 ITC-LMSの授業スライドにある 計算科学概論 0409.pdf ( 前回分の資料 ) と 計算科学概論 0416.pdf ( 今回の資料 ) を各自ダウンロードしてください https://itc-lms.ecc.u-tokyo.ac.jp/portal/login

More information

Reedbush 利用の手引き 2 ノートパソコンの設定 : 公開鍵の生成 登録 ネットワーク環境に接続してから行ってください

Reedbush 利用の手引き 2 ノートパソコンの設定 : 公開鍵の生成 登録 ネットワーク環境に接続してから行ってください Reedbush 利用の手引き 1 お試しアカウント付き 並列プログラミング講習会 Reedbush 利用の手引き 東京大学情報基盤センター Reedbush 利用の手引き 2 ノートパソコンの設定 : 公開鍵の生成 登録 ネットワーク環境に接続してから行ってください Reedbush 利用の手引き 3 鍵の作成 1. ターミナルを起動する 2. 以下を入力する $ ssh- keygen t rsa

More information

Oakforest-PACS 利用の手引き 2 ノートパソコンの設定 : 公開鍵の生成 登録

Oakforest-PACS 利用の手引き 2 ノートパソコンの設定 : 公開鍵の生成 登録 Oakforest-PACS 利用の手引き 1 お試しアカウント付き 並列プログラミング講習会 Oakforest-PACS 利用の手引き 東京大学情報基盤センター Oakforest-PACS 利用の手引き 2 ノートパソコンの設定 : 公開鍵の生成 登録 Oakforest-PACS 利用の手引き 3 鍵の作成 1. ターミナルを起動する 2. 以下を入力する $ ssh-keygen t rsa

More information

内容に関するご質問は まで お願いします [Oakforest-PACS(OFP) 編 ] 第 85 回お試しアカウント付き並列プログラミング講習会 ライブラリ利用 : 科学技術計算の効率化入門 スパコンへのログイン テストプログラム起動 東京大学情報基盤セ

内容に関するご質問は まで お願いします [Oakforest-PACS(OFP) 編 ] 第 85 回お試しアカウント付き並列プログラミング講習会 ライブラリ利用 : 科学技術計算の効率化入門 スパコンへのログイン テストプログラム起動 東京大学情報基盤セ 内容に関するご質問は ida@cc.u-tokyo.ac.jp まで お願いします [Oakforest-PACS(OFP) 編 ] 第 85 回お試しアカウント付き並列プログラミング講習会 ライブラリ利用 : 科学技術計算の効率化入門 スパコンへのログイン テストプログラム起動 東京大学情報基盤センター特任准教授伊田明弘 1 講習会 : ライブラリ利用 [FX10] スパコンへのログイン ファイル転送

More information

Microsoft PowerPoint - KHPCSS pptx

Microsoft PowerPoint - KHPCSS pptx KOBE HPC サマースクール 2018( 初級 ) 9. 1 対 1 通信関数, 集団通信関数 2018/8/8 KOBE HPC サマースクール 2018 1 2018/8/8 KOBE HPC サマースクール 2018 2 MPI プログラム (M-2):1 対 1 通信関数 問題 1 から 100 までの整数の和を 2 並列で求めなさい. プログラムの方針 プロセス0: 1から50までの和を求める.

More information

第8回講義(2016年12月6日)

第8回講義(2016年12月6日) 2016/12/6 スパコンプログラミング (1) (Ⅰ) 1 行列 - 行列積 (2) 東京大学情報基盤センター准教授塙敏博 2016 年 12 月 6 日 ( 火 ) 10:25-12:10 2016/11/29 講義日程 ( 工学部共通科目 ) 1. 9 月 27 日 ( 今日 ): ガイダンス 2. 10 月 4 日 l 並列数値処理の基本演算 ( 座学 ) 3. 10 月 11 日 : スパコン利用開始

More information

Microsoft PowerPoint - 演習2:MPI初歩.pptx

Microsoft PowerPoint - 演習2:MPI初歩.pptx 演習 2:MPI 初歩 - 並列に計算する - 2013 年 8 月 6 日 神戸大学大学院システム情報学研究科計算科学専攻横川三津夫 MPI( メッセージ パッシング インターフェース ) を使おう! [ 演習 2 の内容 ] はじめの一歩課題 1: Hello, world を並列に出力する. 課題 2: プロセス 0 からのメッセージを受け取る (1 対 1 通信 ). 部分に分けて計算しよう課題

More information

NUMAの構成

NUMAの構成 メッセージパッシング プログラミング 天野 共有メモリ対メッセージパッシング 共有メモリモデル 共有変数を用いた単純な記述自動並列化コンパイラ簡単なディレクティブによる並列化 :OpenMP メッセージパッシング 形式検証が可能 ( ブロッキング ) 副作用がない ( 共有変数は副作用そのもの ) コストが小さい メッセージパッシングモデル 共有変数は使わない 共有メモリがないマシンでも実装可能 クラスタ

More information

Microsoft PowerPoint - 阪大CMSI pptx

Microsoft PowerPoint - 阪大CMSI pptx 内容に関する質問は katagiri@cc.nagaoya-u.ac.jp まで 第 2 回 MPI の基礎 名古屋大学情報基盤センター 片桐孝洋 1 講義日程と内容について (1 学期 : 木曜 3 限 ) 第 1 回 : プログラム高速化の基礎 2017 年 4 月 13 日 イントロダクション ループアンローリング キャッシュブロック化 数値計算ライブラリの利用 その他第 2 回 :MPIの基礎

More information

演習準備 2014 年 3 月 5 日神戸大学大学院システム情報学研究科森下浩二 1 RIKEN AICS HPC Spring School /3/5

演習準備 2014 年 3 月 5 日神戸大学大学院システム情報学研究科森下浩二 1 RIKEN AICS HPC Spring School /3/5 演習準備 2014 年 3 月 5 日神戸大学大学院システム情報学研究科森下浩二 1 演習準備の内容 神戸大 FX10(π-Computer) 利用準備 システム概要 ログイン方法 コンパイルとジョブ実行方法 MPI 復習 1. MPIプログラムの基本構成 2. 並列実行 3. 1 対 1 通信 集団通信 4. データ 処理分割 5. 計算時間計測 2 神戸大 FX10(π-Computer) 利用準備

More information

演習準備

演習準備 演習準備 2014 年 3 月 5 日神戸大学大学院システム情報学研究科森下浩二 1 演習準備の内容 神戸大 FX10(π-Computer) 利用準備 システム概要 ログイン方法 コンパイルとジョブ実行方法 MPI 復習 1. MPIプログラムの基本構成 2. 並列実行 3. 1 対 1 通信 集団通信 4. データ 処理分割 5. 計算時間計測 2 神戸大 FX10(π-Computer) 利用準備

More information

<4D F736F F F696E74202D D F95C097F D834F E F93FC96E5284D F96E291E85F8DE391E52E >

<4D F736F F F696E74202D D F95C097F D834F E F93FC96E5284D F96E291E85F8DE391E52E > SX-ACE 並列プログラミング入門 (MPI) ( 演習補足資料 ) 大阪大学サイバーメディアセンター日本電気株式会社 演習問題の構成 ディレクトリ構成 MPI/ -- practice_1 演習問題 1 -- practice_2 演習問題 2 -- practice_3 演習問題 3 -- practice_4 演習問題 4 -- practice_5 演習問題 5 -- practice_6

More information

コードのチューニング

コードのチューニング ハイブリッド並列 八木学 ( 理化学研究所計算科学研究機構 ) 謝辞 松本洋介氏 ( 千葉大学 ) KOBE HPC Spring School 2017 2017 年 3 月 14 日神戸大学計算科学教育センター MPI とは Message Passing Interface 分散メモリのプロセス間の通信規格(API) SPMD(Single Program Multi Data) が基本 -

More information

Microsoft PowerPoint _MPI-01.pptx

Microsoft PowerPoint _MPI-01.pptx 計算科学演習 Ⅰ MPI を いた並列計算 (I) 神戸大学大学院システム情報学研究科谷口隆晴 yaguchi@pearl.kobe-u.ac.jp この資料は昨年度担当の横川先生の資料を参考にさせて頂いています. 2016/06/23 MPI を用いた並列計算 (I) 1 講義概要 分散メモリ型計算機上のプログラミング メッセージ パシング インターフェイス (Message Passing Interface,MPI)

More information

スライド 1

スライド 1 目次 2.MPI プログラミング入門 この資料は, スーパーコン 10 で使用したものである. ごく基本的な内容なので, 現在でも十分利用できると思われるものなので, ここに紹介させて頂く. ただし, 古い情報も含まれているので注意が必要である. 今年度版の解説は, 本選の初日に配布する予定である. 1/20 2.MPI プログラミング入門 (1) 基本 説明 MPI (message passing

More information

about MPI

about MPI 本日 (4/16) の内容 1 並列計算の概要 並列化計算の目的 並列コンピュータ環境 並列プログラミングの方法 MPI を用いた並列プログラミング 並列化効率 2 並列計算の実行方法 Hello world モンテカルロ法による円周率計算 並列計算のはじまり 並列計算の最初の構想を イギリスの科学者リチャードソンが 1922 年に発表 < リチャードソンの夢 > 64000 人を円形の劇場に集めて

More information

PowerPoint プレゼンテーション

PowerPoint プレゼンテーション 計算科学演習 I 第 8 回講義 MPI を用いた並列計算 (I) 2013 年 6 月 6 日 システム情報学研究科計算科学専攻 山本有作 今回の講義の概要 1. MPI とは 2. 簡単な MPI プログラムの例 (1) 3. 簡単な MPI プログラムの例 (2):1 対 1 通信 4. 簡単な MPI プログラムの例 (3): 集団通信 共有メモリ型並列計算機 ( 復習 ) 共有メモリ型並列計算機

More information

Microsoft PowerPoint - 第10回講義(2015年12月22日)-1 .pptx

Microsoft PowerPoint - 第10回講義(2015年12月22日)-1 .pptx 非同期通信 東京大学情報基盤センター准教授片桐孝洋 1 2015 年 12 月 22 日 ( 火 )10:25-12:10 講義日程 ( 工学部共通科目 ) 10 月 6 日 : ガイダンス 1. 10 月 13 日 並列数値処理の基本演算 ( 座学 ) 2. 10 月 20 日 : スパコン利用開始 ログイン作業 テストプログラム実行 3. 10 月 27 日 高性能演算技法 1 ( ループアンローリング

More information

Microsoft PowerPoint - 講義:コミュニケータ.pptx

Microsoft PowerPoint - 講義:コミュニケータ.pptx コミュニケータとデータタイプ (Communicator and Datatype) 2019 年 3 月 15 日 神戸大学大学院システム情報学研究科横川三津夫 2019/3/15 Kobe HPC Spring School 2019 1 講義の内容 コミュニケータ (Communicator) データタイプ (Datatype) 演習問題 2019/3/15 Kobe HPC Spring School

More information

課題 S1 解説 Fortran 編 中島研吾 東京大学情報基盤センター

課題 S1 解説 Fortran 編 中島研吾 東京大学情報基盤センター 課題 S1 解説 Fortran 編 中島研吾 東京大学情報基盤センター 内容 課題 S1 /a1.0~a1.3, /a2.0~a2.3 から局所ベクトル情報を読み込み, 全体ベクトルのノルム ( x ) を求めるプログラムを作成する (S1-1) file.f,file2.f をそれぞれ参考にする 下記の数値積分の結果を台形公式によって求めるプログラムを作成する

More information

スライド 1

スライド 1 本日 (4/25) の内容 1 並列計算の概要 並列化計算の目的 並列コンピュータ環境 並列プログラミングの方法 MPI を用いた並列プログラミング 並列化効率 2 並列計算の実行方法 Hello world モンテカルロ法による円周率計算 並列計算のはじまり 並列計算の最初の構想を イギリスの科学者リチャードソンが 1922 年に発表 < リチャードソンの夢 > 64000 人を円形の劇場に集めて

More information

講習会 :MPI 基礎 2 講習会概略 開催日 : 2016 年 9 月 12 日 ( 月 ) 10:30-17: 年 9 月 13 日 ( 火 ) 10:00-17:00 場所 : 東京大学情報基盤センター 4 階 413 遠隔会義室 講習会プログラム : 9 月 12 日 ( 月

講習会 :MPI 基礎 2 講習会概略 開催日 : 2016 年 9 月 12 日 ( 月 ) 10:30-17: 年 9 月 13 日 ( 火 ) 10:00-17:00 場所 : 東京大学情報基盤センター 4 階 413 遠隔会義室 講習会プログラム : 9 月 12 日 ( 月 講習会 :MPI 基礎 1 第 63 回お試しアカウント付き並列プログラミング講習会 MPI 基礎 : 並列プログラミング入門 東京大学情報基盤センター 内容に関するご質問は hanawa @ cc.u-tokyo.ac.jp まで お願いします 講習会 :MPI 基礎 2 講習会概略 開催日 : 2016 年 9 月 12 日 ( 月 ) 10:30-17:00 2016 年 9 月 13 日 (

More information

コードのチューニング

コードのチューニング MPI による並列化実装 ~ ハイブリッド並列 ~ 八木学 ( 理化学研究所計算科学研究センター ) KOBE HPC Spring School 2019 2019 年 3 月 14 日 MPI とは Message Passing Interface 分散メモリのプロセス間の通信規格(API) SPMD(Single Program Multi Data) が基本 - 各プロセスが 同じことをやる

More information

情報処理概論(第二日目)

情報処理概論(第二日目) 実習資料 Linux 入門講習会 九州大学情報基盤研究開発センター 注意 : この内容は wisdom.cc.kyushu-u.ac.jp の任意の ID で利用できますが, ファイルの削除等を含んでいるので各コマンドの意味を理解するまでは講習会用 ID で利用することをお勧めします. 1 実習 1 ログイン ファイル操作 ディレクトリの作成 ファイルの移動, コピー, 削除 ログアウト 2 ログイン

More information

演習1: 演習準備

演習1: 演習準備 演習 1: 演習準備 2013 年 8 月 6 日神戸大学大学院システム情報学研究科森下浩二 1 演習 1 の内容 神戸大 X10(π-omputer) について システム概要 ログイン方法 コンパイルとジョブ実行方法 OpenMP の演習 ( 入門編 ) 1. parallel 構文 実行時ライブラリ関数 2. ループ構文 3. shared 節 private 節 4. reduction 節

More information

Microsoft PowerPoint - 演習1:並列化と評価.pptx

Microsoft PowerPoint - 演習1:並列化と評価.pptx 講義 2& 演習 1 プログラム並列化と性能評価 神戸大学大学院システム情報学研究科横川三津夫 yokokawa@port.kobe-u.ac.jp 2014/3/5 RIKEN AICS HPC Spring School 2014: プログラム並列化と性能評価 1 2014/3/5 RIKEN AICS HPC Spring School 2014: プログラム並列化と性能評価 2 2 次元温度分布の計算

More information

Microsoft PowerPoint - 講義:片方向通信.pptx

Microsoft PowerPoint - 講義:片方向通信.pptx MPI( 片方向通信 ) 09 年 3 月 5 日 神戸大学大学院システム情報学研究科計算科学専攻横川三津夫 09/3/5 KOBE HPC Spring School 09 分散メモリ型並列計算機 複数のプロセッサがネットワークで接続されており, れぞれのプロセッサ (PE) が, メモリを持っている. 各 PE が自分のメモリ領域のみアクセス可能 特徴数千から数万 PE 規模の並列システムが可能

More information

PowerPoint プレゼンテーション

PowerPoint プレゼンテーション 計算機実習 Ⅰ FORTRAN 担当 2018.05.29 本日の課題 プログラムの基本ルールを理解し 以下が含まれるプログラムを作成する (1) 文法の基礎 ( フローチャートなど ) (2) 変数宣言 (3) 入出力 (4) 四則演算 (5) 組込関数 (6) 判定文 (7) リダイレクション PROGRAM MAIN INTEGER I, J, K REAL A, B, C CHARACTER

More information

講習会 :MPI 基礎 2 講習会概略 開催日 : 2017 年 3 月 6 日 ( 月 ) 10:30-17: 年 3 月 7 日 ( 火 ) 10:00-17:00 場所 : 東京大学情報基盤センター 4 階 413 遠隔会義室 講習会プログラム : 3 月 6 日 ( 月 ) 1

講習会 :MPI 基礎 2 講習会概略 開催日 : 2017 年 3 月 6 日 ( 月 ) 10:30-17: 年 3 月 7 日 ( 火 ) 10:00-17:00 場所 : 東京大学情報基盤センター 4 階 413 遠隔会義室 講習会プログラム : 3 月 6 日 ( 月 ) 1 講習会 :MPI 基礎 1 第 72 回お試しアカウント付き並列プログラミング講習会 MPI 基礎 : 並列プログラミング入門 東京大学情報基盤センター 内容に関するご質問は hanawa @ cc.u-tokyo.ac.jp まで お願いします 講習会 :MPI 基礎 2 講習会概略 開催日 : 2017 年 3 月 6 日 ( 月 ) 10:30-17:00 2017 年 3 月 7 日 ( 火

More information

1. 作業フロー 公開鍵 / 秘密鍵の生成 スパコンゲートウェイノードへの ログイン時に使用する鍵の作成 公開鍵の設置 スパコンゲートウェイノードへの ログイン時に使用する公開鍵をスパコンに登録 SSH 接続確認 スパコンゲートウェイノード / インタラクティブノードへのログイン 初期パスワードの変

1. 作業フロー 公開鍵 / 秘密鍵の生成 スパコンゲートウェイノードへの ログイン時に使用する鍵の作成 公開鍵の設置 スパコンゲートウェイノードへの ログイン時に使用する公開鍵をスパコンに登録 SSH 接続確認 スパコンゲートウェイノード / インタラクティブノードへのログイン 初期パスワードの変 Mac 環境での遺伝研スパコンシステムログイン手順 目次 1. 作業フロー... 2 2. 公開鍵 / 秘密鍵の生成... 3 3. 公開鍵の設置... 6 4. SSH 接続確認... 10 5. アカウント登録証に記載されているパスワードの変更... 13 6. スパコンへのデータ転送 (FileZilla 編 )... 14 7. スパコンへのデータ転送 ( ターミナル編 )... 19 8.

More information

TSUBAME利用手引き

TSUBAME利用手引き TSUBAME3.0 利用の手引き TSUBAME ポータル編 2018/10/30 東京工業大学学術国際情報センター共同利用推進室 Copyright (C) 2010-2018 GSIC All Rights Reserved. TSUBAME ポータル利用の手引き もご参照ください http://www.t3.gsic.titech.ac.jp/docs/tsubame3.0_portal_users_guide.html

More information

Microsoft PowerPoint _MPI-03.pptx

Microsoft PowerPoint _MPI-03.pptx 計算科学演習 Ⅰ ( 第 11 回 ) MPI を いた並列計算 (III) 神戸大学大学院システム情報学研究科横川三津夫 yokokawa@port.kobe-u.ac.jp 2014/07/03 計算科学演習 Ⅰ:MPI を用いた並列計算 (III) 1 2014/07/03 計算科学演習 Ⅰ:MPI を用いた並列計算 (III) 2 今週の講義の概要 1. 前回課題の解説 2. 部分配列とローカルインデックス

More information

情報処理概論(第二日目)

情報処理概論(第二日目) 実習資料 Linux 入門講習会 九州大学情報基盤研究開発センター 注意 : この内容は najima.cc.kyushu-u.ac.jp の任意の ID で利用できますが, ファイルの削除等を含んでいるので各コマンドの意味を理解するまでは講習会用 ID で利用することをお勧めします. 1 実習 1 ログイン ファイル操作 ディレクトリの作成 ファイルの移動, コピー, 削除 ログアウト 2 ログイン

More information

情報処理概論(第二日目)

情報処理概論(第二日目) 実習資料 Linux 入門講習会 九州大学情報基盤研究開発センター 注意 : この内容は najima.cc.kyushu-u.ac.jp の任意の ID で利用できますが, ファイルの削除等を含んでいるので各コマンドの意味を理解するまでは講習会用 ID で利用することをお勧めします. 1 実習 1 ログイン ファイル操作 ディレクトリの作成 ファイルの移動, コピー, 削除 ログアウト 2 ログイン

More information

課題 S1 解説 C 言語編 中島研吾 東京大学情報基盤センター

課題 S1 解説 C 言語編 中島研吾 東京大学情報基盤センター 課題 S1 解説 C 言語編 中島研吾 東京大学情報基盤センター 内容 課題 S1 /a1.0~a1.3, /a2.0~a2.3 から局所ベクトル情報を読み込み, 全体ベクトルのノルム ( x ) を求めるプログラムを作成する (S1-1) file.f,file2.f をそれぞれ参考にする 下記の数値積分の結果を台形公式によって求めるプログラムを作成する

More information

FX10利用準備

FX10利用準備 π-computer(fx10) 利用準備 2018 年 3 月 14 日理化学研究所計算科学研究機構八木学 1 KOBE HPC Spring School 2018 2018/3/14 内容 本スクールの実習で利用するスーパーコンピュータ神戸大学 π-computer (FX10) について システム概要 ログイン準備 2 神戸大学 π-computer: システム概要 富士通 PRIMEHPC

More information

講義の流れ 並列プログラムの概要 通常のプログラムと並列プログラムの違い 並列プログラム作成手段と並列計算機の構造 OpenMP による並列プログラム作成 処理を複数コアに分割して並列実行する方法 MPI による並列プログラム作成 ( 午後 ) プロセス間通信による並列処理 処理の分割 + データの

講義の流れ 並列プログラムの概要 通常のプログラムと並列プログラムの違い 並列プログラム作成手段と並列計算機の構造 OpenMP による並列プログラム作成 処理を複数コアに分割して並列実行する方法 MPI による並列プログラム作成 ( 午後 ) プロセス間通信による並列処理 処理の分割 + データの ( 財 ) 計算科学振興財団 大学院 GP 大学連合による計算科学の最先端人材育成 第 1 回社会人向けスパコン実践セミナー資料 29 年 2 月 17 日 13:15~14:45 九州大学情報基盤研究開発センター 南里豪志 1 講義の流れ 並列プログラムの概要 通常のプログラムと並列プログラムの違い 並列プログラム作成手段と並列計算機の構造 OpenMP による並列プログラム作成 処理を複数コアに分割して並列実行する方法

More information

並列計算導入.pptx

並列計算導入.pptx 並列計算の基礎 MPI を用いた並列計算 並列計算の環境 並列計算 複数の計算ユニット(PU, ore, Pなど を使用して 一つの問題 計算 を行わせる 近年 並列計算を手軽に使用できる環境が急速に整いつつある >通常のP PU(entral Processing Unit)上に計算装置であるoreが 複数含まれている Intel ore i7 シリーズ: 4つの計算装置(ore) 通常のプログラム

More information

PowerPoint Presentation

PowerPoint Presentation 工学部 6 7 8 9 10 組 ( 奇数学籍番号 ) 担当 : 長谷川英之 情報処理演習 第 7 回 2010 年 11 月 18 日 1 今回のテーマ 1: ポインタ 変数に値を代入 = 記憶プログラムの記憶領域として使用されるものがメモリ ( パソコンの仕様書における 512 MB RAM などの記述はこのメモリの量 ) RAM は多数のコンデンサの集合体 : 電荷がたまっている (1)/ いない

More information

スライド 1

スライド 1 ver. 2018/4/13 プログラミング 計算機利用上の Tips 補足資料 分類 項目 ページ 計算機利用 ホスト計算機への接続方法 Unix (Linux) の基本的なコマンド容量制限についてターミナルで文字を大きくする方法 xtermで文字を大きくする方法 Fortran プログラミングについて最近あった事例 : コンパイル 実行時のエラーコンパイルオプションプログラムは正しそうなのに エラーが出る場合データファイルは正しそうなのに

More information

演習 II 2 つの講義の演習 奇数回 : 連続系アルゴリズム 部分 偶数回 : 計算量理論 部分 連続系アルゴリズム部分は全 8 回を予定 前半 2 回 高性能計算 後半 6 回 数値計算 4 回以上の課題提出 ( プログラム + 考察レポート ) で単位

演習 II 2 つの講義の演習 奇数回 : 連続系アルゴリズム 部分 偶数回 : 計算量理論 部分 連続系アルゴリズム部分は全 8 回を予定 前半 2 回 高性能計算 後半 6 回 数値計算 4 回以上の課題提出 ( プログラム + 考察レポート ) で単位 演習 II ( 連続系アルゴリズム ) 第 1 回 : MPI 須田研究室 M2 本谷徹 motoya@is.s.u-tokyo.ac.jp 2012/10/05 2012/10/18 補足 訂正 演習 II 2 つの講義の演習 奇数回 : 連続系アルゴリズム 部分 偶数回 : 計算量理論 部分 連続系アルゴリズム部分は全 8 回を予定 前半 2 回 高性能計算 後半 6 回 数値計算 4 回以上の課題提出

More information

東大センターにおけるスーパーコンピューター利用入門

東大センターにおけるスーパーコンピューター利用入門 SR11000 システムへのログイン方法の変更について ( 再掲 ) システム運用係 1. 概要 2009 年 4 月以降, これまでとは異なり, ログイン自体にはパスワードを使用せず SSH 鍵による認証 を行います また,SSHはVersion2 のみを有効とします そのため, 初回ログイン時にのみ鍵の生成とシステムへの登録作業が必要となります おおまかな流れは次のようになります (1) Windows

More information

Microsoft PowerPoint MPI.v...O...~...O.e.L.X.g(...Q..)

Microsoft PowerPoint MPI.v...O...~...O.e.L.X.g(...Q..) MPI プログラミング Information Initiative Center, Hokkaido Univ. MPI ライブラリを利用した分散メモリ型並列プログラミング 分散メモリ型並列処理 : 基礎 分散メモリマルチコンピュータの構成 プロセッサエレメントが専用のメモリ ( ローカルメモリ ) を搭載 スケーラビリティが高い 例 :HITACHI SR8000 Interconnection

More information

PowerPoint プレゼンテーション

PowerPoint プレゼンテーション 2018/10/05 竹島研究室創成課題 第 2 回 C 言語演習 変数と演算 東京工科大学 加納徹 前回の復習 Hello, world! と表示するプログラム 1 #include 2 3 int main(void) { 4 printf("hello, world! n"); 5 return 0; 6 } 2 プログラム実行の流れ 1. 作業ディレクトリへの移動 $ cd

More information

<4D F736F F F696E74202D C097F B A E B93C782DD8EE682E890EA97705D>

<4D F736F F F696E74202D C097F B A E B93C782DD8EE682E890EA97705D> 並列アルゴリズム 2005 年後期火曜 2 限青柳睦 Aoyagi@cc.kyushu-u.ac.jp http//server-500.cc.kyushu-u.ac.jp/ 11 月 29( 火 ) 7. 集団通信 (Collective Communication) 8. 領域分割 (Domain Decomposition) 1 もくじ 1. 序並列計算機の現状 2. 計算方式およびアーキテクチュアの分類

More information

ex04_2012.ppt

ex04_2012.ppt 2012 年度計算機システム演習第 4 回 2012.05.07 第 2 回課題の補足 } TSUBAMEへのログイン } TSUBAMEは学内からのログインはパスワードで可能 } } } } しかし 演習室ではパスワードでログインできない設定 } 公開鍵認証でログイン 公開鍵, 秘密鍵の生成 } ターミナルを開く } $ ssh-keygen } Enter file in which to save

More information

プログラミング基礎

プログラミング基礎 C プログラミング Ⅰ 授業ガイダンス C 言語の概要プログラム作成 実行方法 授業内容について 授業目的 C 言語によるプログラミングの基礎を学ぶこと 学習内容 C 言語の基礎的な文法 入出力, 変数, 演算, 条件分岐, 繰り返し, 配列,( 関数 ) C 言語による簡単な計算処理プログラムの開発 到達目標 C 言語の基礎的な文法を理解する 簡単な計算処理プログラムを作成できるようにする 授業ガイダンス

More information

情報処理概論(第二日目)

情報処理概論(第二日目) 1 並列プログラミング超入門講習会 九州大学情報基盤研究開発センター MPI コース 2 並列計算機の構成 計算ノード ネットワーク CPU コア メモリ アクセラレータ (GPU 等 ) 例 : スーパーコンピュータシステム ITO サブシステム B ノード数 CPU 数 / ノードコア数 / CPU GPU 数 / ノード 128 2 18 4 MPI (Message Passing Interface)

More information

Microsoft PowerPoint - S1-ref-F.ppt [互換モード]

Microsoft PowerPoint - S1-ref-F.ppt [互換モード] 課題 S1 解説 Fortran 言語編 RIKEN AICS HPC Summer School 2014 中島研吾 ( 東大 情報基盤センター ) 横川三津夫 ( 神戸大 計算科学教育センター ) MPI Programming 課題 S1 (1/2) /a1.0~a1.3, /a2.0~a2.3 から局所ベクトル情報を読み込み, 全体ベクトルのノルム ( x ) を求めるプログラムを作成する

More information

Microsoft Word - 計算科学演習第1回3.doc

Microsoft Word - 計算科学演習第1回3.doc スーパーコンピュータの基本的操作方法 2009 年 9 月 10 日高橋康人 1. スーパーコンピュータへのログイン方法 本演習では,X 端末ソフト Exceed on Demand を使用するが, 必要に応じて SSH クライアント putty,ftp クライアント WinSCP や FileZilla を使用して構わない Exceed on Demand を起動し, 以下のとおり設定 ( 各自のユーザ

More information

memo

memo 数理情報工学演習第一 C プログラミング演習 ( 第 5 回 ) 2015/05/11 DEPARTMENT OF MATHEMATICAL INFORMATICS 1 今日の内容 : プロトタイプ宣言 ヘッダーファイル, プログラムの分割 課題 : 疎行列 2 プロトタイプ宣言 3 C 言語では, 関数や変数は使用する前 ( ソースの上のほう ) に定義されている必要がある. double sub(int

More information

MPI コミュニケータ操作

MPI コミュニケータ操作 コミュニケータとデータタイプ 辻田祐一 (RIKEN AICS) 講義 演習内容 MPI における重要な概念 コミュニケータ データタイプ MPI-IO 集団型 I/O MPI-IO の演習 2 コミュニケータ MPI におけるプロセスの 集団 集団的な操作などにおける操作対象となる MPI における集団的な操作とは? 集団型通信 (Collective Communication) 集団型 I/O(Collective

More information

目次 1. 教育ネットひむかファイル転送サービスについて ファイル転送サービスの利用方法 ファイル転送サービスを利用する ( ひむか内 ) ファイル転送サービスへのログイン ひむか内 PCでファイルを送受信する

目次 1. 教育ネットひむかファイル転送サービスについて ファイル転送サービスの利用方法 ファイル転送サービスを利用する ( ひむか内 ) ファイル転送サービスへのログイン ひむか内 PCでファイルを送受信する 教育ネットひむか ファイル転送サービス ユーザーマニュアル 目次 1. 教育ネットひむかファイル転送サービスについて... 2 1.1 ファイル転送サービスの利用方法... 2 2. ファイル転送サービスを利用する ( ひむか内 )... 3 2.1 ファイル転送サービスへのログイン... 3 2.2 ひむか内 PCでファイルを送受信する... 4 2.3 ひむか内 PCで外部 PCから送信されたファイルを受信する...

More information

3.Cygwin で日本語を使いたい Cygwin で以下のコマンドを実行すると それ以降 メッセージが日本語になります export LANG=ja_JP.UTF-8 これは 文字コードを日本語の UTF-8 に設定することを意味しています UTF-8 は Cygwin で標準の文字コードで, 多

3.Cygwin で日本語を使いたい Cygwin で以下のコマンドを実行すると それ以降 メッセージが日本語になります export LANG=ja_JP.UTF-8 これは 文字コードを日本語の UTF-8 に設定することを意味しています UTF-8 は Cygwin で標準の文字コードで, 多 Cygwin 使いこなしマニュアル 2011/10/17 1.Cygwin の起動 Cygwin のインストールが完了したら 一般ユーザーで Windows にログインし Cygwin を起動してみましょう 下の図は ユーザー名 densan でログインして Cygwin を起動した後 いくつかコマンドを実行してみたところです 2.Cygwin のファイルはどこにある? Windows から Cygwin

More information

(Microsoft PowerPoint \211\211\217K3_4\201i\216R\226{_\211\272\215\342\201j.ppt [\214\335\212\267\203\202\201[\203h])

(Microsoft PowerPoint \211\211\217K3_4\201i\216R\226{_\211\272\215\342\201j.ppt [\214\335\212\267\203\202\201[\203h]) RIKEN AICS Summer School 演習 3 4 MPI による並列計算 2012 年 8 月 8 日 神戸大学大学院システム情報学研究科山本有作理化学研究所計算科学研究機構下坂健則 1 演習の目標 講義 6 並列アルゴリズム基礎 で学んだアルゴリズムのいくつかを,MPI を用いて並列化してみる これを通じて, 基本的な並列化手法と,MPI 通信関数の使い方を身に付ける 2 取り上げる例題と学習項目

More information

Fundamental MPI 1 概要 MPI とは MPI の基礎 :Hello World 全体データと局所データタ グループ通信 (Collective Communication) 1 対 1 通信 (Point-to-Point Communication)

Fundamental MPI 1 概要 MPI とは MPI の基礎 :Hello World 全体データと局所データタ グループ通信 (Collective Communication) 1 対 1 通信 (Point-to-Point Communication) MPI 超 入門 (FORTRAN 編 ) 東京大学情報基盤センター Fundamental MPI 1 概要 MPI とは MPI の基礎 :Hello World 全体データと局所データタ グループ通信 (Collective Communication) 1 対 1 通信 (Point-to-Point Communication) Fundamental MPI 2 MPI とは (1/2)

More information

Windows 環境での遺伝研スパコンシステムログイン手順 目次 1. 作業フロー 公開鍵 / 秘密鍵の生成 公開鍵の設置 SSH 接続確認 アカウント登録証に記載されているパスワードの変更 スパコンへのデータ転送 (

Windows 環境での遺伝研スパコンシステムログイン手順 目次 1. 作業フロー 公開鍵 / 秘密鍵の生成 公開鍵の設置 SSH 接続確認 アカウント登録証に記載されているパスワードの変更 スパコンへのデータ転送 ( Windows 環境での遺伝研スパコンシステムログイン手順 目次 1. 作業フロー... 2 2. 公開鍵 / 秘密鍵の生成... 3 3. 公開鍵の設置... 5 4. SSH 接続確認... 8 5. アカウント登録証に記載されているパスワードの変更... 12 6. スパコンへのデータ転送 (WinSCP 編 )... 13 7. スパコンへのデータ転送 (Aspera Connect(Web

More information

MPI 超 入門 (FORTRAN 編 ) 東京大学情報基盤センター C 言語編は以下 /ohshima/seminars/t2k201111/ (MPI による並列アプリケーション開発入門 2)

MPI 超 入門 (FORTRAN 編 ) 東京大学情報基盤センター C 言語編は以下   /ohshima/seminars/t2k201111/ (MPI による並列アプリケーション開発入門 2) MPI 超 入門 (FORTRAN 編 ) 東京大学情報基盤センター C 言語編は以下 http://www.cspp.cc.u-tokyo.ac.jp /ohshima/seminars/t2k201111/ (MPI による並列アプリケーション開発入門 2) Fundamental MPI 1 概要 MPI とは MPI の基礎 :Hello World 全体データと局所データ グループ通信 (Collective

More information

Microsoft Word - 3new.doc

Microsoft Word - 3new.doc プログラミング演習 II 講義資料 3 ポインタ I - ポインタの基礎 1 ポインタとは ポインタとはポインタは, アドレス ( データが格納されている場所 ) を扱うデータ型です つまり, アドレスを通してデータを間接的に処理します ポインタを使用する場合の, 処理の手順は以下のようになります 1 ポインタ変数を宣言する 2 ポインタ変数へアドレスを割り当てる 3 ポインタ変数を用いて処理 (

More information

演習1

演習1 神戸市立工業高等専門学校電気工学科 / 電子工学科専門科目 数値解析 2019.5.10 演習 1 山浦剛 (tyamaura@riken.jp) 講義資料ページ http://r-ccs-climate.riken.jp/members/yamaura/numerical_analysis.html Fortran とは? Fortran(= FORmula TRANslation ) は 1950

More information

講 習 会 概 略 開 催 日 : 2013 年 3 月 24 日 ( 月 )10:30-18:00 2013 年 3 月 25 日 ( 火 )10:30-18:00 場 所 : 東 京 大 学 情 報 基 盤 センター 4 階 413 遠 隔 講 義 室 講 習 会 プログラム: 3 月 24 日

講 習 会 概 略 開 催 日 : 2013 年 3 月 24 日 ( 月 )10:30-18:00 2013 年 3 月 25 日 ( 火 )10:30-18:00 場 所 : 東 京 大 学 情 報 基 盤 センター 4 階 413 遠 隔 講 義 室 講 習 会 プログラム: 3 月 24 日 内 容 に 関 するご 質 問 は katagiri @ cc.u-tokyo.ac.jp まで お 願 いします 第 35 回 お 試 しアカウント 付 き 並 列 プログラミング 講 習 会 ライブラリ 利 用 : 高 性 能 プログラミング 初 級 入 門 東 京 大 学 情 報 基 盤 センター 3 講 習 会 概 略 開 催 日 : 2013 年 3 月 24 日 ( 月 )10:30-18:00

More information

2. FileZilla のインストール 2.1. ダウンロード 次の URL に接続し 最新版の FileZilla をダウンロードします URL: なお バージョンが異なるとファイル名が

2. FileZilla のインストール 2.1. ダウンロード 次の URL に接続し 最新版の FileZilla をダウンロードします URL:   なお バージョンが異なるとファイル名が 作成 : 平成 18 年 2 月 28 日 修正 : 平成 29 年 5 月 26 日 SFTP を使用したファイル転送方法について 目 次 1. はじめに... 1 2. FileZilla のインストール... 2 2.1. ダウンロード... 2 2.2. インストール... 2 3. FileZilla の使用... 7 3.1. 起動... 7 3.2. 設定... 8 3.3. 接続...

More information

書式に示すように表示したい文字列をダブルクォーテーション (") の間に書けば良い ダブルクォーテーションで囲まれた文字列は 文字列リテラル と呼ばれる プログラム中では以下のように用いる プログラム例 1 printf(" 情報処理基礎 "); printf("c 言語の練習 "); printf

書式に示すように表示したい文字列をダブルクォーテーション () の間に書けば良い ダブルクォーテーションで囲まれた文字列は 文字列リテラル と呼ばれる プログラム中では以下のように用いる プログラム例 1 printf( 情報処理基礎 ); printf(c 言語の練習 ); printf 情報処理基礎 C 言語についてプログラミング言語は 1950 年以前の機械語 アセンブリ言語 ( アセンブラ ) の開発を始めとして 現在までに非常に多くの言語が開発 発表された 情報処理基礎で習う C 言語は 1972 年にアメリカの AT&T ベル研究所でオペレーションシステムである UNIX を作成するために開発された C 言語は現在使われている多数のプログラミング言語に大きな影響を与えている

More information

コードのチューニング

コードのチューニング OpenMP による並列化実装 八木学 ( 理化学研究所計算科学研究センター ) KOBE HPC Spring School 2019 2019 年 3 月 14 日 スレッド並列とプロセス並列 スレッド並列 OpenMP 自動並列化 プロセス並列 MPI プロセス プロセス プロセス スレッドスレッドスレッドスレッド メモリ メモリ プロセス間通信 Private Private Private

More information

2 T 1 N n T n α = T 1 nt n (1) α = 1 100% OpenMP MPI OpenMP OpenMP MPI (Message Passing Interface) MPI MPICH OpenMPI 1 OpenMP MPI MPI (trivial p

2 T 1 N n T n α = T 1 nt n (1) α = 1 100% OpenMP MPI OpenMP OpenMP MPI (Message Passing Interface) MPI MPICH OpenMPI 1 OpenMP MPI MPI (trivial p 22 6 22 MPI MPI 1 1 2 2 3 MPI 3 4 7 4.1.................................. 7 4.2 ( )................................ 10 4.3 (Allreduce )................................. 12 5 14 5.1........................................

More information

TSUBAME利用手引き

TSUBAME利用手引き TSUBAME2.5 利用の手引き TSUBAME2.5 利用ポータル編 2017/05/16 学術国際情報センター 共同利用推進室 Copyright (C) 2010-2017 GSIC All Rights Reserved. http://tsubame.gsic.titech.ac.jp/ja の 各種利用の手引き から TSUBAME2.5 利用ポータル利用の手引き も参照してください

More information

Microsoft Word - appli_SMASH_tutorial_2.docx

Microsoft Word - appli_SMASH_tutorial_2.docx チュートリアル SMASH version 2.2.0 (Linux 64 ビット版 ) 本チュートリアルでは 量子化学計算ソフトウェア SMASH バージョン 2.2.0 について ソフトウェアの入手 / 実行モジュール作成 / 計算実行 / 可視化処理までを例示します 1. ソフトウェアの入手以下の URL よりダウンロードします https://sourceforge.net/projects/smash-qc/files/smash-2.2.0.tgz/download

More information

C/C++ FORTRAN FORTRAN MPI MPI MPI UNIX Windows (SIMD Single Instruction Multipule Data) SMP(Symmetric Multi Processor) MPI (thread) OpenMP[5]

C/C++ FORTRAN FORTRAN MPI MPI MPI UNIX Windows (SIMD Single Instruction Multipule Data) SMP(Symmetric Multi Processor) MPI (thread) OpenMP[5] MPI ( ) snozawa@env.sci.ibaraki.ac.jp 1 ( ) MPI MPI Message Passing Interface[2] MPI MPICH[3],LAM/MPI[4] (MIMDMultiple Instruction Multipule Data) Message Passing ( ) (MPI (rank) PE(Processing Element)

More information

UNIX 初級講習会 (第一日目)

UNIX 初級講習会 (第一日目) 情報処理概論 工学部物質科学工学科応用化学コース機能物質化学クラス 第 3 回 2005 年 4 月 28 日 計算機に関する基礎知識 Fortranプログラムの基本構造 文字や数値を画面に表示する コンパイル時のエラーへの対処 ハードウェアとソフトウェア ハードウェア 計算, 記憶等を行う機械 ソフトウェア ハードウェアに対する命令 データ ソフトウェア ( 命令 ) がないとハードウェアは動かない

More information

PowerPoint プレゼンテーション

PowerPoint プレゼンテーション 講座を行う前に 自己紹介 僕と上回生について 1 年生同士で少しお話しよう! オリエンテーションの宿題 アルゴロジック http://home.jeita.or.jp/is/highschool/algo/index3.html どこまでできましたか? あまりできなかった人はこれから全部クリアしよう! 2016 年度 C 言語講座 第一回目 2016/6/11 fumi 今回の目標 プログラムを書いて実行するやり方を覚える

More information

untitled

untitled I 9 MPI (II) 2012 6 14 .. MPI. 1-3 sum100.f90 4 istart=myrank*25+1 iend=(myrank+1)*25 0 1 2 3 mpi_recv 3 isum1 1 isum /tmp/120614/sum100_4.f90 program sum100_4 use mpi implicit none integer :: i,istart,iend,isum,isum1,ip

More information

memo

memo 計数工学プログラミング演習 ( 第 3 回 ) 2017/04/25 DEPARTMENT OF MATHEMATICAL INFORMATICS 1 内容 ポインタの続き 引数の値渡しと参照渡し 構造体 2 ポインタで指されるメモリへのアクセス double **R; 型 R[i] と *(R+i) は同じ意味 意味 R double ** ポインタの配列 ( の先頭 ) へのポインタ R[i]

More information

インテル(R) Visual Fortran コンパイラ 10.0

インテル(R) Visual Fortran コンパイラ 10.0 インテル (R) Visual Fortran コンパイラー 10.0 日本語版スペシャル エディション 入門ガイド 目次 概要インテル (R) Visual Fortran コンパイラーの設定はじめに検証用ソースファイル適切なインストールの確認コンパイラーの起動 ( コマンドライン ) コンパイル ( 最適化オプションなし ) 実行 / プログラムの検証コンパイル ( 最適化オプションあり ) 実行

More information

MPI によるプログラミング概要 Fortran 編 中島研吾 東京大学情報基盤センター

MPI によるプログラミング概要 Fortran 編 中島研吾 東京大学情報基盤センター MPI によるプログラミング概要 Fortran 編 中島研吾 東京大学情報基盤センター 1 並列計算の意義 目的 並列計算機の使用によって, より大規模で詳細なシミュレーションを高速に実施することが可能になり, 新しい科学の開拓が期待される 並列計算の目的 高速 大規模 大規模 の方が 新しい科学 という観点からのウェイトとしては高い しかし, 高速 ももちろん重要である + 複雑 理想 :Scalable

More information

C プログラミング演習 1( 再 ) 2 講義では C プログラミングの基本を学び 演習では やや実践的なプログラミングを通して学ぶ

C プログラミング演習 1( 再 ) 2 講義では C プログラミングの基本を学び 演習では やや実践的なプログラミングを通して学ぶ C プログラミング演習 1( 再 ) 2 講義では C プログラミングの基本を学び 演習では やや実践的なプログラミングを通して学ぶ 今回のプログラミングの課題 次のステップによって 徐々に難易度の高いプログラムを作成する ( 参照用の番号は よくわかる C 言語 のページ番号 ) 1. キーボード入力された整数 10 個の中から最大のものを答える 2. 整数を要素とする配列 (p.57-59) に初期値を与えておき

More information

Microsoft PowerPoint - MPIprog-F1.ppt [互換モード]

Microsoft PowerPoint - MPIprog-F1.ppt [互換モード] MPI によるプログラミング概要 ( その 1) Fortran 言語編 RIKEN AICS HPC Summer School 2015 中島研吾 ( 東大 情報基盤センター ) 横川三津夫 ( 神戸大 計算科学教育センター ) 1 本 school の目的 並列計算機の使用によって, より大規模で詳細なシミュレーションを高速に実施することが可能になり, 新しい科学の開拓が期待される 並列計算の目的

More information

Microsoft PowerPoint - MPIprog-C1.ppt [互換モード]

Microsoft PowerPoint - MPIprog-C1.ppt [互換モード] MPI によるプログラミング概要 ( その 1) C 言語編 RIKEN AICS HPC Summer School 2015 中島研吾 ( 東大 情報基盤センター ) 横川三津夫 ( 神戸大 計算科学教育センター ) 1 本 school の目的 並列計算機の使用によって, より大規模で詳細なシミュレーションを高速に実施することが可能になり, 新しい科学の開拓が期待される 並列計算の目的 高速

More information

プログラミング実習I

プログラミング実習I プログラミング実習 I 05 関数 (1) 人間システム工学科井村誠孝 m.imura@kwansei.ac.jp 関数とは p.162 数学的には入力に対して出力が決まるもの C 言語では入出力が定まったひとまとまりの処理 入力や出力はあるときもないときもある main() も関数の一種 何かの仕事をこなしてくれる魔法のブラックボックス 例 : printf() 関数中で行われている処理の詳細を使う側は知らないが,

More information

Fundamental MPI 1 概要 MPI とは MPI の基礎 :Hello World 全体データと局所データ グループ通信 (Collective Communication) 1 対 1 通信 (Point-to-Point Communication)

Fundamental MPI 1 概要 MPI とは MPI の基礎 :Hello World 全体データと局所データ グループ通信 (Collective Communication) 1 対 1 通信 (Point-to-Point Communication) MPI 超 入門 (C 言語編 ) 東京大学情報基盤センター FORTRAN 編は以下 http://www.cspp.cc.u-tokyo.ac.jp /ohshima/seminars/t2k201111/ (MPI による並列アプリケーション開発入門 2) Fundamental MPI 1 概要 MPI とは MPI の基礎 :Hello World 全体データと局所データ グループ通信 (Collective

More information

cp-7. 配列

cp-7. 配列 cp-7. 配列 (C プログラムの書き方を, パソコン演習で学ぶシリーズ ) https://www.kkaneko.jp/cc/adp/index.html 金子邦彦 1 本日の内容 例題 1. 月の日数配列とは. 配列の宣言. 配列の添え字. 例題 2. ベクトルの内積例題 3. 合計点と平均点例題 4. 棒グラフを描く配列と繰り返し計算の関係例題 5. 行列の和 2 次元配列 2 今日の到達目標

More information

Total View Debugger 利用の手引 東京工業大学学術国際情報センター version 1.0

Total View Debugger 利用の手引 東京工業大学学術国際情報センター version 1.0 Total View Debugger 利用の手引 東京工業大学学術国際情報センター 2015.04 version 1.0 目次 Total View Debugger 利用の手引き 1 1. はじめに 1 1.1 利用できるバージョン 1 1.2 概要 1 1.3 マニュアル 1 2. TSUBAME での利用方法 2 2.1 Total View Debugger の起動 2 (1) TSUBAMEにログイン

More information

Microsoft PowerPoint - 計算機言語 第7回.ppt

Microsoft PowerPoint - 計算機言語 第7回.ppt 計算機言語第 7 回 長宗高樹 目的 関数について理解する. 入力 X 関数 f 出力 Y Y=f(X) 関数の例 関数の型 #include int tasu(int a, int b); main(void) int x1, x2, y; x1 = 2; x2 = 3; y = tasu(x1,x2); 実引数 printf( %d + %d = %d, x1, x2, y);

More information

2012 6 1 MPI 1995 8 2002 2003 ( 2) MPI http://accc.riken.jp/hpc/training.html iii 1 1 1-1.......................................... 2 1-2........................................... 4 2 9 2-1...............................................

More information

k_seminar_hands_on_for_linux_beginner.pptx

k_seminar_hands_on_for_linux_beginner.pptx 京 初級者向けハンズオン Linux 初心者向け資料 一般財団法人高度情報科学技術研究機構神戸センター 2017 年 5 月 16 日 2 Linux 初心者の方へ ハンズオン講習会では RIST FX10(OSはLinuxベース ) を使って 実習して頂きます Linuxに不慣れであまり自信がない方は 必須となる以下に示すコマンドについて 機能と使用方法を事前にご確認下さい cat cd cp ls

More information

memo

memo 計数工学プログラミング演習 ( 第 1 回 ) 2016/04/05 DEPARTMENT OF MATHEMATICAL INFORMATICS 1 担当メンバー : 担当 : 担当教員 : 定兼 ( 数理 2 研 ) 補佐 : 松島 ( 数理 6 研 ) 学生アシスタント : 鈴木, 石山, 中村 担当へのコンタクト e メールアドレス ( 演習についての一般的な相談 ): miprogramming2016+general@gmail.com

More information

Hphi実行環境導入マニュアル_v1.1.1

Hphi実行環境導入マニュアル_v1.1.1 HΦ の計算環境構築方法マニュアル 2016 年 7 月 25 日 東大物性研ソフトウェア高度化推進チーム 目次 VirtualBox を利用した HΦ の導入... 2 VirtualBox を利用した MateriAppsLive! の導入... 3 MateriAppsLive! への HΦ のインストール... 6 ISSP スパコンシステム B での HΦ の利用方法... 8 各種ファイルの置き場所...

More information

Prog1_10th

Prog1_10th 2012 年 6 月 20 日 ( 木 ) 実施ポインタ変数と文字列前回は, ポインタ演算が用いられる典型的な例として, ポインタ変数が 1 次元配列を指す場合を挙げたが, 特に,char 型の配列に格納された文字列に対し, ポインタ変数に配列の 0 番の要素の先頭アドレスを代入して文字列を指すことで, 配列そのものを操作するよりも便利な利用法が存在する なお, 文字列リテラルは, その文字列が格納されている領域の先頭アドレスを表すので,

More information

MPI によるプログラミング概要 C 言語編 中島研吾 東京大学情報基盤センター

MPI によるプログラミング概要 C 言語編 中島研吾 東京大学情報基盤センター MPI によるプログラミング概要 C 言語編 中島研吾 東京大学情報基盤センター 1 並列計算の意義 目的 並列計算機の使用によって, より大規模で詳細なシミュレーションを高速に実施することが可能になり, 新しい科学の開拓が期待される 並列計算の目的 高速 大規模 大規模 の方が 新しい科学 という観点からのウェイトとしては高い しかし, 高速 ももちろん重要である + 複雑 理想 :Scalable

More information

スライド 1

スライド 1 計算科学演習 MPI 基礎 学術情報メディアセンター 情報学研究科 システム科学専攻 中島浩 目次 プログラミングモデル SPMD 同期通信 / 非同期通信 MPI 概論 プログラム構造 Communicator & rank データ型 タグ 一対一通信関数 1 次元分割並列化 : 基本 基本的考え方 配列宣言 割付 部分領域交換 結果出力 1 次元分割並列化 : 高速化 通信 計算のオーバーラップ

More information

Microsoft PowerPoint - kougi4.ppt

Microsoft PowerPoint - kougi4.ppt C の実行モデル 自由落下距離 前回の授業の 例題 1 の復習と重要事項 の確認 地上で物を落とし始めた後の自由落下距離を 求める 重力加速度 g は 9.8 とする 自由落下距離を求めるために, プログラム中に, 計算式 y = ( 9.8 / 2.0 ) * x * x を書く C++ ソースファイルの編集 編集画面 編集中のファイル名 関係するファイルなどが表示される ビルド結果などが表示される画面

More information

Maser - User Operation Manual

Maser - User Operation Manual Maser 3 Cell Innovation User Operation Manual 2013.4.1 1 目次 1. はじめに... 3 1.1. 推奨動作環境... 3 2. データの登録... 4 2.1. プロジェクトの作成... 4 2.2. Projectへのデータのアップロード... 8 2.2.1. HTTPSでのアップロード... 8 2.2.2. SFTPでのアップロード...

More information

PowerPoint Presentation

PowerPoint Presentation プログラミング基礎 第 2 週 (4,5,6 回 ) 2011-10-07 出村公成 この資料の再配布を禁止します 予定 プログラミング入門 (45 分 ) 変数 入出力 分岐 演習 (90 分 ) タッチタイプ練習 統合開発環境 Codeblocksの使い方 教科書例題の打ち込みと実行 プログラミング入門 C 言語の簡単な例を体験 変数 入出力 分岐 プログラムの例リスト 2.1 改 #include

More information

Fundamental MPI 1 概要 MPI とは MPI の基礎 :Hello World 全体データと局所データタ グループ通信 (Collective Communication) 1 対 1 通信 (Point-to-Point Communication)

Fundamental MPI 1 概要 MPI とは MPI の基礎 :Hello World 全体データと局所データタ グループ通信 (Collective Communication) 1 対 1 通信 (Point-to-Point Communication) MPI 超 入門 (C 言語編 ) 東京大学情報基盤センター FOTRAN 編は以下 http://nkl.cc.u-tokyo.ac.jp/seminars/t2kfvm/mpiprogf.pdf tokyo pdf Fundamental MPI 1 概要 MPI とは MPI の基礎 :Hello World 全体データと局所データタ グループ通信 (Collective Communication)

More information

ビジネスサーバ設定マニュアル_ssh_ftp編(VPS・Pro)

ビジネスサーバ設定マニュアル_ssh_ftp編(VPS・Pro) ビジネスサーバ シリーズ設定マニュアル ~ VPS Pro SSH/FTP 編 ~ 本マニュアルの内容は サービス利用開始にあたっての設定用資料としてご利用いただくことを目的としております 第 1.0 版 株式会社 NTT ぷらら 本ご案内に掲載している料金等は消費税相当額を含んでおりません 2010 年 1 月現在 1 変更履歴 日時 変更箇所等 備考 2010.01.29 第 1.0 版 ( 初版

More information

目次 1. 目次 2. Cygwinインストール (1) 3. Cygwinインストール (2) 4. 公開鍵の作成 5. 利用支援ポータルへのアクセス 6. パスワード変更 ( 初回の場合 ) 7. パスワード変更成功画面 8. 利用支援ポータルへの再ログイン 9. 言語の変更 10. 公開鍵の登

目次 1. 目次 2. Cygwinインストール (1) 3. Cygwinインストール (2) 4. 公開鍵の作成 5. 利用支援ポータルへのアクセス 6. パスワード変更 ( 初回の場合 ) 7. パスワード変更成功画面 8. 利用支援ポータルへの再ログイン 9. 言語の変更 10. 公開鍵の登 Reedbush Quick Start Guide 東京大学情報基盤センター 2018 年 9 月 21 日改版 目次 1. 目次 2. Cygwinインストール (1) 3. Cygwinインストール (2) 4. 公開鍵の作成 5. 利用支援ポータルへのアクセス 6. パスワード変更 ( 初回の場合 ) 7. パスワード変更成功画面 8. 利用支援ポータルへの再ログイン 9. 言語の変更 10.

More information

¥Ñ¥Ã¥±¡¼¥¸ Rhpc ¤Î¾õ¶·

¥Ñ¥Ã¥±¡¼¥¸ Rhpc ¤Î¾õ¶· Rhpc COM-ONE 2015 R 27 12 5 1 / 29 1 2 Rhpc 3 forign MPI 4 Windows 5 2 / 29 1 2 Rhpc 3 forign MPI 4 Windows 5 3 / 29 Rhpc, R HPC Rhpc, ( ), snow..., Rhpc worker call Rhpc lapply 4 / 29 1 2 Rhpc 3 forign

More information

untitled

untitled RIKEN AICS Summer School 3 4 MPI 2012 8 8 1 6 MPI MPI 2 allocatable 2 Fox mpi_sendrecv 3 3 FFT mpi_alltoall MPI_PROC_NULL 4 FX10 /home/guest/guest07/school/ 5 1 A (i, j) i+j x i i y = Ax A x y y 1 y i

More information

目 目 用方 用 用 方

目 目 用方 用 用 方 大 生 大 工 目 目 用方 用 用 方 用 方 MS-MPI MPI.NET MPICH MPICH2 LAM/MPI Ver. 2 2 1 2 1 C C++ Fortan.NET C# C C++ Fortan 用 行 用 用 用 行 用 言 言 言 行 生 方 方 一 行 高 行 行 文 用 行 If ( rank == 0 ) { // 0 } else if (rank == 1) {

More information

120802_MPI.ppt

120802_MPI.ppt CPU CPU CPU CPU CPU SMP Symmetric MultiProcessing CPU CPU CPU CPU CPU CPU CPU CPU CPU CPU CPU CPU CP OpenMP MPI MPI CPU CPU CPU CPU CPU CPU CPU CPU CPU CPU MPI MPI+OpenMP CPU CPU CPU CPU CPU CPU CPU CP

More information

2018/10/18 講習会 :MPI 基礎 1 第 105 回お試しアカウント付き並列プログラミング講習会 MPI 基礎 : 並列プログラミング入門 東京大学情報基盤センター 内容に関するご質問は cc.u-tokyo.ac.jp まで お願いします

2018/10/18 講習会 :MPI 基礎 1 第 105 回お試しアカウント付き並列プログラミング講習会 MPI 基礎 : 並列プログラミング入門 東京大学情報基盤センター 内容に関するご質問は cc.u-tokyo.ac.jp まで お願いします 講習会 :MPI 基礎 1 第 105 回お試しアカウント付き並列プログラミング講習会 MPI 基礎 : 並列プログラミング入門 東京大学情報基盤センター 内容に関するご質問は ymiki @ cc.u-tokyo.ac.jp まで お願いします 講習会 :MPI 基礎 2 講習会概略 開催日 : 2018 年 10 月 18 日 ( 木 ) 10:00-17:00 場所 : 東京大学情報基盤センター

More information