Microsoft PowerPoint - 演習2:MPI初歩.pptx
|
|
|
- すずり おとべ
- 8 years ago
- Views:
Transcription
1 演習 2:MPI 初歩 - 並列に計算する 年 8 月 6 日 神戸大学大学院システム情報学研究科計算科学専攻横川三津夫
2 MPI( メッセージ パッシング インターフェース ) を使おう! [ 演習 2 の内容 ] はじめの一歩課題 1: Hello, world を並列に出力する. 課題 2: プロセス 0 からのメッセージを受け取る (1 対 1 通信 ). 部分に分けて計算しよう課題 3:2 個のベクトルの内積を求める. 課題 4: 結果を配布する. 課題 5: 並列数を変えてみよう. π(= ) を計算しよう. 課題 6: MPI の基本的な関数 ( サブルーチン ) を復習しながら進めます. 解説では,Fortran 言語によるプログラムを用います.C 言語版の資料は後半にあります. 演習用のプログラムファイルは, 以下のディレクトリに置いてありますので, 利用して下さい. Fortran 言語版 /tmp/school/ex2/fortran/ C 言語版 /tmp/school/ex2/c/ 2013/8/6 RIKEN AICS HPC Summer School 2013:MPI 初歩 1
3 Fortran 言語編 2013/8/6 RIKEN AICS HPC Summer School 2013:MPI 初歩 2
4 復習 MPI プログラムの基本構成 program main use mpi implicit none integer :: nprocs, myrank, ierr call mpi_init( ierr ) call mpi_comm_size( MPI_COMM_WORLD, nprocs, ierr ) call mpi_comm_rank( MPI_COMM_WORLD, myrank, ierr ) MPI を使うおまじない MPI で使う変数の宣言 MPI の初期化 ( おまじない 2) MPI で使うプロセス数を nprocs に取得自分のプロセス番号を myrank に取得 ( この部分に並列実行するプログラムを書く ) call mpi_finalize( ierr ) MPI の終了処理 ( おまじない 3) end program main それぞれのプロセスが何の計算をするかは,myrank の値で場合分けし, うまく仕事が割り振られるようにする. ( このファイルは,/tmp/school/ex2/fortran/skelton.f90 にあります ) 2013/8/6 RIKEN AICS HPC Summer School 2013:MPI 初歩 3
5 復習 MPI プログラムの基本構成 ( 説明 ) call mpi_init( ierr ) MPI の初期化を行う.MPI プログラムの最初に必ず書く. call mpi_comm_size( MPI_COMM_WORLD, nprocs, ierr ) MPI の全プロセス数を取得し,2 番目の引数 nprocs( 整数型 ) に取得する. MPI_COMM_WORLD はコミュニケータと呼ばれ, 最初に割り当てられるすべてのプロセスの集合 call mpi_comm_rank( MPI_COMM_WORLD, myrank, ierr ) 自分のプロセス番号 (0 から nprocs 1 のどれか ) を,2 番目の引数 myrank ( 整数型 ) に取得する. call mpi_finalize( ierr ) MPI の終了処理をする.MPI プログラムの最後に必ず書く. 2013/8/6 RIKEN AICS HPC Summer School 2013:MPI 初歩 4
6 課題 1 Hello, world を並列に出力する. プログラム hello.f90 を利用し, Hello, world from ( プロセス番号 ) を表示する並列プログラムを作成しなさい. 1 hello.f90 に,2 ページ MPI プログラムの基本構成 を参考にし, 並列化する. 2 print 文に, 自分のプロセス番号 (myrank) を出力するよう修正する. 3 プログラムを作成したら, コンパイルし,4 プロセスで実行せよ. 実行結果の例 必ずしも, プロセスの順番に出力されるとは限らない. Hello, world from 1 Hello, world from 0 Hello, world from 3 Hello, world from 2 ( このファイルは,/tmp/school/ex2/fortran/hello.f90 にあります ) 2013/8/6 RIKEN AICS HPC Summer School 2013:MPI 初歩 5
7 π- コンピュータでのプログラムの実行手順 1 プログラム作成 : エディタを用いてプログラム (xxx.f90) を作成 ( 修正 ) 2 プログラムのコンパイル :# mpifrtpx xxx.f90 入力コマンドです. a.out が作られる. 3 ジョブスクリプトを作成 : エディタを用いて,job.sh を作成 4 ジョブを投入 : # pjsub ( ジョブスクリプトファイル名 ) [INFO] PJM xxxx pjsub JOB nnnnn submitted. 注意 nnnnn がジョブ番号 ( ジョブに与えられたシステム内で唯一の番号 ) 5 ジョブ状態の確認 : # pjstat 6 結果の確認 : job.sh.onnnnn を確認する. 2013/8/6 RIKEN AICS HPC Summer School 2013:MPI 初歩 6
8 ジョブスクリプトファイル例 (job.sh) #!/bin/bash #PJM L rscgrp=school #PJM L node=8 #PJM L elapse=00:03:00 mpiexec n 4./a.out おまじない 1 おまじない 2: 実行キューの指定 利用する計算ノード数 (24 まで可能 ) 計算時間の予測値 ( 実際の計算時間よりも少し大きく ) MPI プログラムの実行. この例では,MPI プロセス数が 4 であることに注意 他の課題においても, このジョブスクリプトを適宜, 修正のこと. ( このファイルは,/tmp/school/ex2/fortran/job.sh にあります ) 2013/8/6 RIKEN AICS HPC Summer School 2013:MPI 初歩 7
9 復習 1 対 1 通信 送信関数 ( 送り出し側 ) mpi_send( buff, count, datatype, dest, tag, comm, ierr ) buff: 送信するデータの変数名 ( 先頭アドレス ) count: 送信するデータの数 ( 整数型 ) datatype: 送信するデータの型 MPI_INTEGER, MPI_DOUBLE_PRECISION, MPI_CHARACTER など dest: 送信先のプロセス番号 tag: comm: メッセージ識別番号. 送るデータを区別するための番号 コミュニケータ ( 例えば,MPI_COMM_WORLD) ierr: 戻りコード ( 整数型 ) 2013/8/6 RIKEN AICS HPC Summer School 2013:MPI 初歩 8
10 復習 1 対 1 通信 受信関数 ( 受け取り側 ) mpi_recv( buff, count, datatype, source, tag, comm, status, ierr ) buff: 受信するデータのための変数名 ( 先頭アドレス ) count: 受信するデータの数 ( 整数型 ) datatype: 受信するデータの型 MPI_INTEGER, MPI_DOUBLE_PRECISION, MPI_CHARACTER など source: 送信してくる相手のプロセス番号 tag: comm: メッセージ識別番号. 送られて来たデータを区別するための番号 コミュニケータ ( 例えば,MPI_COMM_WORLD) status: 受信の状態を格納するサイズ MPI_STATUS_SIZE の配列 ( 整数型 ) ierr: 戻りコード ( 整数型 ) 2013/8/6 RIKEN AICS HPC Summer School 2013:MPI 初歩 9
11 課題 2 プロセス 0 からのメッセージを受け取る (1 対 1 通信 ) MPI プロセス番号 0 から受け取ったメッセージに自分のプロセス番号を追加して表示するプログラムを作成せよ. プロセス 0 の処理と他のプロセスの処理は,myrank の値による場合分けを行う. プロセス番号 0 の処理 1 送るメッセージを作る. メッセージの長さはきめておく. - 例えば, Hello, world from (17 文字 ) 2 mpi_send 関数で他のプロセスにメッセージを送る. 他のプロセスの処理 1 プロセス番号 0 から送られてくるメッセージを,mpi_recv 関数で受け取る. 2 送られたメッセージに自分のプロセス番号を追加して出力する. 実行結果の例 Hello, world from 1 Hello, world from 3 Hello, world from /8/6 RIKEN AICS HPC Summer School 2013:MPI 初歩 10
12 課題 3 2 個のベクトルの内積を求める. 次のプログラムは,2 個のベクトルの内積を計算するプログラムである. 並列化せよ. また, 並列化したプログラムにおいて, 赤で示した部分に相当する部分の計算時間を計測せよ. program InnerProduct implicit none integer :: i integer, parameter :: n=10000 real(kind=8) :: v(n), w(n) real(kind=8) :: ipr do i = 1, n v(i) = dsin(i*0.1d0) w(i) = dcos(i*0.1d0) enddo ipr = 0.0d0 do i = 1, n ipr = ipr + v(i)*w(i) enddo print *, ipr end program InnerProduct ベクトルの長さ ( 定数 ) 2 個のベクトルを格納する配列の宣言 2 個のベクトルを設定 倍精度のsin 関数倍精度のcos 関数 2 個のベクトルの内積を計算 計算結果の出力 ( このファイルは,/tmp/school/ex2/fortran/ipr.f90 にあります ) 2013/8/6 RIKEN AICS HPC Summer School 2013:MPI 初歩 11
13 課題 3 のヒント 1 各プロセスで部分和を計算する. n 個のデータを p 個のプロセスで分割した時の第 i プロセス (i は 0 から p 1) の部分和の区間は,[(i*n)/p+1, ((i+1)*n)/p] になる. ただし, この演習では, n は p で割り切れるものとする. 第 i プロセスの番号は,myrank と同じになることに注意. 例えば,n=10000 のベクトルを4 個のプロセスで計算する場合 プロセス0: の部分和を計算 プロセス1: の部分和を計算 プロセス2: の部分和を計算 プロセス3: の部分和を計算 2 プロセス 1,2,3 は,mpi_send 関数で, 部分和をプロセス 0 に送る. 3 プロセス 0 は, 他のプロセスから送られた部分和を mpi_recv 関数で受け取り, 自分の部分和と足し合わせ, 最終的な総和を計算し, 出力する. プロセス 0 の処理と他のプロセスの処理は,myrank の値による場合分けを行う. 2013/8/6 RIKEN AICS HPC Summer School 2013:MPI 初歩 12
14 課題 3 のヒント 計算時間の計測をする方法 real(kind=8) :: time0, time2 call mpi_barrier( MPI_COMM_WORLD, ierr ) time0 = mpi_wtime() 計測のための変数を倍精度実数で宣言する. MPI_barrier 関数で, 開始の足並みを揃える. mpi_wtime 関数で開始時刻を time0 に設定 ( 計測する部分 ) call mpi_barrier( MPI_COMM_WORLD, ierr ) time1 = mpi_wtime() (time1 time0 を出力する ) 全プロセスで終了の足並みを揃える. mpi_wtime 関数で終了時刻を time1 に設定 time1 time0 が計測した部分の計算時間となる. mpi_barrier(comm, ierr ) comm: コミュニケータ ( 例えば,MPI_COMM_WORLD) ierr: 戻りコード ( 整数型 ) var = mpi_wtime() 2013/8/6 RIKEN AICS HPC Summer School 2013:MPI 初歩 13
15 復習 集団通信 - reduction mpi_reduce( sendbuff, recvbuff, count, datatype, op, root, comm, ierr ) comm で指定されたすべてのプロセスからデータを root が集め, 演算 (op) を適用する. sendbuff: 送信するデータの変数名 ( 先頭アドレス ) recvbuff: 受信するデータの変数名 ( 先頭アドレス ) count: データの個数 ( 整数型 ) datatype: 送信するデータの型 MPI_INTEGER, MPI_DOUBLE_PRECISION, MPI_CHARACTER など op: 集まってきたデータに適用する演算の種類 MPI_SUM( 総和 ),MPI_PROD( 掛け算 ),MPI_MAX( 最大値 ) など root: comm: データを集める MPI プロセス番号 コミュニケータ ( 例えば,MPI_COMM_WORLD) ierr: 戻りコード ( 整数型 ) 2013/8/6 RIKEN AICS HPC Summer School 2013:MPI 初歩 14
16 復習 集団通信 - broadcast mpi_bcast( buff, count, datatype, root, comm, ierr ) root が持つ buff の値を,comm で指定された他のプロセスの buff に配布する. buff: 送り主 (root) が送信するデータの変数名 ( 先頭アドレス ) 他のMPIプロセスは, 同じ変数名でデータを受け取る. count: データの個数 ( 整数型 ) datatype: 送信するデータの型 MPI_INTEGER, MPI_DOUBLE_PRECISION, MPI_CHARACTER など root: 送り主のMPIプロセス番号 comm: コミュニケータ ( 例えば,MPI_COMM_WORLD) ierr: 戻りコード ( 整数型 ) 2013/8/6 RIKEN AICS HPC Summer School 2013:MPI 初歩 15
17 復習 集団通信 - reduction mpi_allreduce( sendbuff, recvbuff, count, datatype, op, comm, ierr ) mpi_reduce と mpi_bcast を同時に行える関数. すべてのプロセスで同じ結果 ( 総和など ) が得られる. sendbuff: 送信するデータの変数名 ( 先頭アドレス ) recvbuff: 受信するデータの変数名 ( 先頭アドレス ) count: データの個数 ( 整数型 ) datatype: 送信するデータの型 MPI_INTEGER, MPI_DOUBLE_PRECISION, MPI_CHARACTER など op: 集まってきたデータに適用する演算の種類 MPI_SUM( 総和 ),MPI_PROD( 掛け算 ),MPI_MAX( 最大値 ) など comm: コミュニケータ ( 例えば,MPI_COMM_WORLD) ierr: 戻りコード ( 整数型 ) 2013/8/6 RIKEN AICS HPC Summer School 2013:MPI 初歩 16
18 課題 4 結果を配布する 課題 4 1 課題 3 で作成した並列プログラムについて, 1 mpi_reduce を使って書き換えなさい. ただし, 計算結果の総和は, プロセス 0 で求めることにすること. 2 mpi_bcast を用いてプロセス 0 で求めた総和を, すべてのプロセスに配布しなさい. 3 各プロセスで総和を出力し, 正しく計算が出来ていることを確認しなさい. 課題 4 2 課題 4 1 と同様のことを,mpi_allreduce を使って書き換え, 結果が正しいこ とを確認しなさい. 2013/8/6 RIKEN AICS HPC Summer School 2013:MPI 初歩 17
19 課題 5 並列数を変えてみよう. 並列計算の目的は, 計算時間を短縮することである. 課題 4 1 で作成したプログラムを用い, 並列数を変えて計算時間を計測しなさい. また, 以下の表を完成させ, どのくらい計算時間が短縮されるか確かめなさい. 並列数 n 計算時間 T(n) ( 秒 ) 速度向上率 T(n)/T(1) (n=1の計算時間 T(1) との比 ) /8/6 RIKEN AICS HPC Summer School 2013:MPI 初歩 18
20 課題 6 π(= ) を計算しよう. 次の π を求めるプログラムを並列化しなさい. また, 並列数を変えて時間を計測し, 課題 5 で作成した表と同様の表を作成しなさい. program pi implicit none integer, parameter :: n= integer :: i real(kind=8) :: x, dx, p dx = 1.0d0/dble(n) p = 0.0d0 do i = 1, n x = dble(i)*dx p = p + 4.0d0/(1.0d0 + x*x)*dx enddo π 4 1 print *, p end program pi 総和部分を部分和に分けて, 最終的に総和を求めるプログラムにする. ( このファイルは,/tmp/school/ex2/fortran/pi.f90 にあります ) 2013/8/6 RIKEN AICS HPC Summer School 2013:MPI 初歩 19
21 C 言語編 2013/8/6 RIKEN AICS HPC Summer School 2013:MPI 初歩 20
22 復習 MPI プログラムの基本構成 #include mpi.h int main( int argc, char **argv ) { int nprocs, myrank; MPI_init( &argc, &argv ); MPI_Comm_size( MPI_COMM_WORLD, &nprocs ); MPI_Comm_rank( MPI_COMM_WORLD, &myrank ); MPI を使うおまじない MPI で使う変数の宣言 MPI の初期化 ( おまじない 2) MPI で使うプロセス数を nprocs に取得自分のプロセス番号を myrank に取得 ( この部分に並列実行するプログラムを書く ) } MPI_Finalize() ; return 0 ; MPI の終了処理 ( おまじない 3) それぞれのプロセスが何の計算をするかは,myrank の値で場合分けし, うまく仕事が割り振られるようにする. ( このファイルは,/tmp/school/ex2/c/skelton.c にあります ) 2013/8/6 RIKEN AICS HPC Summer School 2013:MPI 初歩 21
23 復習 MPI プログラムの基本構成 ( 説明 ) int MPI_Init(int *argc, char ***argv ) MPI の初期化を行う.MPI プログラムの最初に必ず書く. int MPI_Comm_size( MPI_Comm comm, int *nprocs ) MPI の全プロセス数を取得し,2 番目の引数 nprocs( 整数型 ) に取得する. MPI_COMM_WORLD はコミュニケータと呼ばれ, 最初に割り当てられるすべてのプロセスの集合 int MPI_Comm_rank( MPI_Comm comm, int *myrank ) 自分のプロセス番号 (0 から nprocs 1 のどれか ) を,2 番目の引数 myrank ( 整数型 ) に取得する. int MPI_Finalize(void) MPI の終了処理をする.MPI プログラムの最後に必ず書く. 2013/8/6 RIKEN AICS HPC Summer School 2013:MPI 初歩 22
24 課題 1 Hello, world を並列に出力する. プログラム hello.c を利用し, Hello, world from ( プロセス番号 ) を表示する並列プログラムを作成しなさい. 1 hello.c に,21 ページ MPI プログラムの基本構成 を参考にし, 並列化する. 2 printf 文に, 自分のプロセス番号 (myrank) を出力するよう修正する. 3 プログラムを作成したら, コンパイルし,4 プロセスで実行せよ. 実行結果の例 必ずしも, プロセスの順番に出力されるとは限らない. Hello, world from 2 Hello, world from 3 Hello, world from 0 Hello, world from 1 ( このファイルは,/tmp/school/ex2/c/hello.c にあります ) 2013/8/6 RIKEN AICS HPC Summer School 2013:MPI 初歩 23
25 π- コンピュータでのプログラムの実行手順 1 プログラム作成 : エディタを用いてプログラム (xxx.c) を作成 ( 修正 ) 2 プログラムのコンパイル :# mpifccpx xxx.c lmpi ( lm) 入力コマンドです. a.out が作られる. 3 ジョブスクリプトを作成 : エディタを用いて,job.sh を作成 4 ジョブを投入 : # pjsub ( ジョブスクリプトファイル名 ) [INFO] PJM xxxx pjsub JOB nnnnn submitted. 注意 nnnnn がジョブ番号 ( ジョブに与えられたシステム内で唯一の番号 ) 5 ジョブ状態の確認 : # pjstat 6 結果の確認 : job.sh.onnnnn を確認する. 2013/8/6 RIKEN AICS HPC Summer School 2013:MPI 初歩 24
26 ジョブスクリプトファイル例 (job.sh) #!/bin/bash #PJM L rscgrp=school #PJM L node=8 #PJM L elapse=00:03:00 mpiexec n 4./a.out おまじない 1 おまじない 2: 実行キューの指定 利用する計算ノード数 (24 まで可能 ) 計算時間の予測値 ( 実際の計算時間よりも少し大きく ) MPI プログラムの実行. この例では,MPI プロセス数が 4 であることに注意 他の課題においても, このジョブスクリプトを適宜, 修正のこと. ( このファイルは,/tmp/school/ex2/c/job.sh にあります ) 2013/8/6 RIKEN AICS HPC Summer School 2013:MPI 初歩 25
27 復習 1 対 1 通信 送信関数 ( 送り出し側 ) int MPI_Send(void *buff, int count, MPI_Datatype datatype, int dest, int tag, MPI_Comm comm) buff: 送信するデータの変数名 ( 先頭アドレス ) count: 送信するデータの個数 datatype: 送信するデータの型 MPI_CHAR, MPI_INT, MPI_DOUBLE など dest: 送信先のMPIプロセス番号 tag: comm: メッセージ識別番号. 送るデータを区別するための番号 コミュニケータ ( 例えば,MPI_COMM_WORLD) 関数の戻りコードは, エラーコード 2013/8/6 RIKEN AICS HPC Summer School 2013:MPI 初歩 26
28 復習 1 対 1 通信 受信関数 ( 受け取り側 ) int MPI_Recv(void *buff, int count, MPI_Datatype datatype, int source, int tag, MPI_Comm comm, MPI_Status *status) buff: 送信するデータの変数名 ( 先頭アドレス ) count: 送信するデータの個数 datatype: 送信するデータの型 MPI_CHAR, MPI_INT, MPI_DOUBLE など source: 送信先のMPIプロセス番号 tag: comm: メッセージ識別番号. 送るデータを区別するための番号 コミュニケータ ( 例えば,MPI_COMM_WORLD) status: 状況オブジェクト.MPI_Send にはないので注意. 関数の戻りコードは, エラーコード 2013/8/6 RIKEN AICS HPC Summer School 2013:MPI 初歩 27
29 課題 2 プロセス 0 からのメッセージを受け取る (1 対 1 通信 ) プロセス番号 0 から受け取ったメッセージに自分のプロセス番号を追加して表示するプログラムを作成せよ. プロセス 0 の処理と他のプロセスの処理は,myrank の値による場合分けを行う. プロセス 0 の処理 1 送るメッセージを作る. メッセージの長さはきめておく. - 例えば, Hello, world from (17 文字 ) 2 MPI_Send 関数で他のプロセスにメッセージを送る. 他のプロセスの処理 1 プロセス 0 から送られてくるメッセージを,MPI_Recv 関数で受け取る. 2 送られたメッセージに自分のプロセス番号を追加して出力する. 実行結果の例 Hello, world from 1 Hello, world from 3 Hello, world from 2 参考 文字列の扱い #include string.h char str[18]; strcpy( str, Hello, world from ) ; 2013/8/6 RIKEN AICS HPC Summer School 2013:MPI 初歩 28
30 課題 3 2 個のベクトルの内積を求める. 次のプログラムは,2 個のベクトルの内積を計算するプログラムである. 並列化せよ. また, 並列化したプログラムにおいて, 赤で示した部分に相当する部分の計算時間を計測せよ. #include stdio.h #inlucde math.h int main( int argc, char **argv ) { int i; const int n=10000; double v[n], w[n]; double ipr; for( i=0; i<n; i++ ){ v[i] = sin( 0.1*(i+1) ); w[i] = cos( 0.1*(i+1) ); } for( ipr=0.0, i=0; i<n; i++ ){ ipr += v[i]*v[i] } printf( Inner product = %20.15lf n, ipr); return 0; ベクトルの長さ ( 定数 ) 2 個のベクトルを格納する配列の宣言 2 個のベクトルを設定倍精度の sin 関数倍精度の cos 関数 2 個のベクトルの内積を計算 計算結果の出力 } ( このファイルは,/tmp/school/ex2/c/ipr.c にあります ) 2013/8/6 RIKEN AICS HPC Summer School 2013:MPI 初歩 29
31 課題 3 のヒント 1 各プロセスで部分和を計算する. n 個のデータを p 個のプロセスで分割した時の第 i プロセス (i は 0 から p 1) の部分和の区間は,[(i*n)/p+1, ((i+1)*n)/p] になる. ただし, この演習では, n は p で割り切れるものとする. 第 i プロセスは,myrank と同じ値であることに注意. 例えば,n=10000 のベクトルを4 個のプロセスで計算する場合 プロセス0: の部分和を計算 プロセス1: の部分和を計算 プロセス2: の部分和を計算 プロセス3: の部分和を計算 2 プロセス 1,2,3 は,MPI_Send 関数で, 部分和をプロセス 0 に送る. 3 プロセス 0 は, 他のプロセスから送られた部分和を MPI_Recv 関数で受け取り, 自分の部分和と足し合わせ, 最終的な総和を計算し, 出力する. プロセス 0 の処理と他のプロセスの処理は,myrank の値による場合分けを行う. 2013/8/6 RIKEN AICS HPC Summer School 2013:MPI 初歩 30
32 課題 3 のヒント 計算時間の計測をする方法 double time0, time2 ; MPI_Barrier( MPI_COMM_WORLD ); time0 = MPI_Wtime(); 計測のための変数を倍精度実数で宣言する. MPI_Barrier 関数で, 開始の足並みを揃える. MPI_Wtime 関数で開始時刻を time0 に設定 ( 計測する部分 ) MPI_Barrier( MPI_COMM_WORLD ); time1 = MPI_Wtime(); (time1 time0 を出力する ) 全プロセスで終了の足並みを揃える. MPI_Wtime 関数で終了時刻を time1 に設定 time1 time0 が計測した部分の計算時間となる. int MPI_Barrier(MPI_Comm comm) : コミュニケータ間で同期を取る. comm: コミュニケータ ( 例えば,MPI_COMM_WORLD) double MPI_Wtime(void) : time の現行値 ( 秒数 ) を倍精度浮動小数点で返す 2013/8/6 RIKEN AICS HPC Summer School 2013:MPI 初歩 31
33 復習 集団通信 - reduction int MPI_Reduce(void *sendbuff, void *recvbuff, int count, MPI_Datatype datatype, MPI_Op op, int root, MPI_Comm comm) comm で指定されたすべてのプロセスからデータを root が集め, 演算 (op) を適用する. sendbuff: 送信するデータの変数名 ( 先頭アドレス ) recvbuff: 受信するデータの変数名 ( 先頭アドレス ) count: データの個数 datatype: 送信するデータの型 MPI_INT, MPI_DOUBLE, MPI_CHAR など op: 集まってきたデータに適用する演算の種類 MPI_SUM( 総和 ),MPI_PROD( 掛け算 ),MPI_MAX( 最大値 ) など root: データを集めるMPIプロセス番号 comm: コミュニケータ ( 例えば,MPI_COMM_WORLD) 関数の戻りコードは, エラーコードを表す. 2013/8/6 RIKEN AICS HPC Summer School 2013:MPI 初歩 32
34 復習 集団通信 - broadcast int MPI_Bcast(void *buff, int count, MPI_Datatype datatype, int root, MPI_Comm comm) root が持つ buff の値を,comm で指定された他のプロセスの buff に配布する. buff: 送り主 (root) が送信するデータの変数名 ( 先頭アドレス ) 他の MPI プロセスは, 同じ変数名でデータを受け取る. count: データの個数 datatype: 送信するデータの型 MPI_INT, MPI_DOUBLE, MPI_CHAR など root: 送り主のMPIプロセス番号 comm: コミュニケータ ( 例えば,MPI_COMM_WORLD) 関数の戻りコードは, エラーコードを表す. 2013/8/6 RIKEN AICS HPC Summer School 2013:MPI 初歩 33
35 復習 集団通信 - reduction int MPI_Allreduce( void *sendbuff, void *recvbuff, int count, MPI_Datatype datatype, MPI_Op op, MPI_Comm comm ) MPI_Reduce と MPI_Bcast を同時に行える関数. すべてのプロセスで同じ結果 ( 総和など ) が得られる. sendbuff: 送信するデータの変数名 ( 先頭アドレス ) recvbuff: 受信するデータの変数名 ( 先頭アドレス ) count: データの個数 datatype: 送信するデータの型 MPI_INT, MPI_DOUBLE, MPI_CHAR など op: 集まってきたデータに適用する演算の種類 MPI_SUM( 総和 ),MPI_PROD( 掛け算 ),MPI_MAX( 最大値 ) など comm: コミュニケータ ( 例えば,MPI_COMM_WORLD) 関数の戻りコードは, エラーコードを表す. 2013/8/6 RIKEN AICS HPC Summer School 2013:MPI 初歩 34
36 課題 4 結果を配布する 課題 4 1 課題 3 で作成した並列プログラムについて, 1 MPI_Reduce を使って書き換えなさい. ただし, 計算結果の総和は, プロセス 0 で求めることにすること. 2 MPI_Bcast を用いてプロセス 0 で求めた総和を, すべてのプロセスに配布しなさい. 3 各プロセスで総和を出力し, 正しく計算が出来ていることを確認しなさい. 課題 4 2 課題 4 1 と同様のことを,MPI_Allreduce を使って書き換え, 結果が正しいこ とを確認しなさい. 2013/8/6 RIKEN AICS HPC Summer School 2013:MPI 初歩 35
37 課題 5 並列数を変えてみよう. 並列計算の目的は, 計算時間を短縮することである. 課題 4 1 で作成したプログラムを用い, 並列数を変えて計算時間を計測しなさい. また, 以下の表を完成させ, どのくらい計算時間が短縮されるか確かめなさい. 並列数 n 計算時間 T(n) ( 秒 ) 速度向上率 T(n)/T(1) (n=1の計算時間 T(1) との比 ) /8/6 RIKEN AICS HPC Summer School 2013:MPI 初歩 36
38 課題 6 π(= ) を計算しよう. 次の π を求めるプログラムを並列化しなさい. また, 並列数を変えて時間を計測し, 課題 5 で作成した表と同様の表を作成しなさい. #include stdio.h int main( int argc, char **argv ) { int i; const int n= ; double dx, x, pi; dx = 1.0/n; for( pi=0.0, i=1; i<=n; i++ ){ x = i*dx; pi += 4.0*dx/(1.0+x*x); } π 4 1 } printf( pi = %20.14lf^n, pi ); return 0; 総和部分を部分和に分けて, 最終的に総和を求めるプログラムにする. ( このファイルは,/tmp/school/ex2/c/pi.c にあります ) 2013/8/6 RIKEN AICS HPC Summer School 2013:MPI 初歩 37
演習準備
演習準備 2014 年 3 月 5 日神戸大学大学院システム情報学研究科森下浩二 1 演習準備の内容 神戸大 FX10(π-Computer) 利用準備 システム概要 ログイン方法 コンパイルとジョブ実行方法 MPI 復習 1. MPIプログラムの基本構成 2. 並列実行 3. 1 対 1 通信 集団通信 4. データ 処理分割 5. 計算時間計測 2 神戸大 FX10(π-Computer) 利用準備
Microsoft PowerPoint - 講義:片方向通信.pptx
MPI( 片方向通信 ) 09 年 3 月 5 日 神戸大学大学院システム情報学研究科計算科学専攻横川三津夫 09/3/5 KOBE HPC Spring School 09 分散メモリ型並列計算機 複数のプロセッサがネットワークで接続されており, れぞれのプロセッサ (PE) が, メモリを持っている. 各 PE が自分のメモリ領域のみアクセス可能 特徴数千から数万 PE 規模の並列システムが可能
Microsoft PowerPoint - 演習1:並列化と評価.pptx
講義 2& 演習 1 プログラム並列化と性能評価 神戸大学大学院システム情報学研究科横川三津夫 [email protected] 2014/3/5 RIKEN AICS HPC Spring School 2014: プログラム並列化と性能評価 1 2014/3/5 RIKEN AICS HPC Spring School 2014: プログラム並列化と性能評価 2 2 次元温度分布の計算
±é½¬£²¡§£Í£Ð£É½éÊâ
2012 8 7 1 / 52 MPI Hello World I ( ) Hello World II ( ) I ( ) II ( ) ( sendrecv) π ( ) MPI fortran C wget http://www.na.scitec.kobe-u.ac.jp/ yaguchi/riken2012/enshu2.zip unzip enshu2.zip 2 / 52 FORTRAN
Microsoft PowerPoint _MPI-03.pptx
計算科学演習 Ⅰ ( 第 11 回 ) MPI を いた並列計算 (III) 神戸大学大学院システム情報学研究科横川三津夫 [email protected] 2014/07/03 計算科学演習 Ⅰ:MPI を用いた並列計算 (III) 1 2014/07/03 計算科学演習 Ⅰ:MPI を用いた並列計算 (III) 2 今週の講義の概要 1. 前回課題の解説 2. 部分配列とローカルインデックス
untitled
RIKEN AICS Summer School 3 4 MPI 2012 8 8 1 6 MPI MPI 2 allocatable 2 Fox mpi_sendrecv 3 3 FFT mpi_alltoall MPI_PROC_NULL 4 FX10 /home/guest/guest07/school/ 5 1 A (i, j) i+j x i i y = Ax A x y y 1 y i
Microsoft PowerPoint - S1-ref-F.ppt [互換モード]
課題 S1 解説 Fortran 言語編 RIKEN AICS HPC Summer School 2014 中島研吾 ( 東大 情報基盤センター ) 横川三津夫 ( 神戸大 計算科学教育センター ) MPI Programming 課題 S1 (1/2) /a1.0~a1.3, /a2.0~a2.3 から局所ベクトル情報を読み込み, 全体ベクトルのノルム ( x ) を求めるプログラムを作成する
演習 II 2 つの講義の演習 奇数回 : 連続系アルゴリズム 部分 偶数回 : 計算量理論 部分 連続系アルゴリズム部分は全 8 回を予定 前半 2 回 高性能計算 後半 6 回 数値計算 4 回以上の課題提出 ( プログラム + 考察レポート ) で単位
演習 II ( 連続系アルゴリズム ) 第 1 回 : MPI 須田研究室 M2 本谷徹 [email protected] 2012/10/05 2012/10/18 補足 訂正 演習 II 2 つの講義の演習 奇数回 : 連続系アルゴリズム 部分 偶数回 : 計算量理論 部分 連続系アルゴリズム部分は全 8 回を予定 前半 2 回 高性能計算 後半 6 回 数値計算 4 回以上の課題提出
2 T 1 N n T n α = T 1 nt n (1) α = 1 100% OpenMP MPI OpenMP OpenMP MPI (Message Passing Interface) MPI MPICH OpenMPI 1 OpenMP MPI MPI (trivial p
22 6 22 MPI MPI 1 1 2 2 3 MPI 3 4 7 4.1.................................. 7 4.2 ( )................................ 10 4.3 (Allreduce )................................. 12 5 14 5.1........................................
目 目 用方 用 用 方
大 生 大 工 目 目 用方 用 用 方 用 方 MS-MPI MPI.NET MPICH MPICH2 LAM/MPI Ver. 2 2 1 2 1 C C++ Fortan.NET C# C C++ Fortan 用 行 用 用 用 行 用 言 言 言 行 生 方 方 一 行 高 行 行 文 用 行 If ( rank == 0 ) { // 0 } else if (rank == 1) {
演習1: 演習準備
演習 1: 演習準備 2013 年 8 月 6 日神戸大学大学院システム情報学研究科森下浩二 1 演習 1 の内容 神戸大 X10(π-omputer) について システム概要 ログイン方法 コンパイルとジョブ実行方法 OpenMP の演習 ( 入門編 ) 1. parallel 構文 実行時ライブラリ関数 2. ループ構文 3. shared 節 private 節 4. reduction 節
WinHPC ppt
MPI.NET C# 2 2009 1 20 MPI.NET MPI.NET C# MPI.NET C# MPI MPI.NET 1 1 MPI.NET C# Hello World MPI.NET.NET Framework.NET C# API C# Microsoft.NET java.net (Visual Basic.NET Visual C++) C# class Helloworld
main() {... } main() { main() { main() {......... } } } main() { main() { main() {......... } } } main() { if(rank==)... } main() { if(rank==)... } main() { if(rank==x)... } P(N) P(N) / P(M) * ( M / N
86
86 86 86 main() {... } main() { main() { main() {......... } } } 86 main() { main() { main() {......... } } } main() { if(rank==)... } main() { if(rank==)... } main() { if(rank==x)... } 86 P(N) P(N) /
<4D F736F F F696E74202D D F95C097F D834F E F93FC96E5284D F96E291E85F8DE391E52E >
SX-ACE 並列プログラミング入門 (MPI) ( 演習補足資料 ) 大阪大学サイバーメディアセンター日本電気株式会社 演習問題の構成 ディレクトリ構成 MPI/ -- practice_1 演習問題 1 -- practice_2 演習問題 2 -- practice_3 演習問題 3 -- practice_4 演習問題 4 -- practice_5 演習問題 5 -- practice_6
<4D F736F F F696E74202D C097F B A E B93C782DD8EE682E890EA97705D>
並列アルゴリズム 2005 年後期火曜 2 限青柳睦 [email protected] http//server-500.cc.kyushu-u.ac.jp/ 11 月 29( 火 ) 7. 集団通信 (Collective Communication) 8. 領域分割 (Domain Decomposition) 1 もくじ 1. 序並列計算機の現状 2. 計算方式およびアーキテクチュアの分類
コードのチューニング
MPI による並列化実装 ~ ハイブリッド並列 ~ 八木学 ( 理化学研究所計算科学研究センター ) KOBE HPC Spring School 2019 2019 年 3 月 14 日 MPI とは Message Passing Interface 分散メモリのプロセス間の通信規格(API) SPMD(Single Program Multi Data) が基本 - 各プロセスが 同じことをやる
情報処理概論(第二日目)
1 並列プログラミング超入門講習会 九州大学情報基盤研究開発センター MPI コース 2 並列計算機の構成 計算ノード ネットワーク CPU コア メモリ アクセラレータ (GPU 等 ) 例 : スーパーコンピュータシステム ITO サブシステム B ノード数 CPU 数 / ノードコア数 / CPU GPU 数 / ノード 128 2 18 4 MPI (Message Passing Interface)
untitled
I 9 MPI (II) 2012 6 14 .. MPI. 1-3 sum100.f90 4 istart=myrank*25+1 iend=(myrank+1)*25 0 1 2 3 mpi_recv 3 isum1 1 isum /tmp/120614/sum100_4.f90 program sum100_4 use mpi implicit none integer :: i,istart,iend,isum,isum1,ip
Microsoft PowerPoint - MPIprog-F1.ppt [互換モード]
MPI によるプログラミング概要 ( その 1) Fortran 言語編 RIKEN AICS HPC Summer School 2015 中島研吾 ( 東大 情報基盤センター ) 横川三津夫 ( 神戸大 計算科学教育センター ) 1 本 school の目的 並列計算機の使用によって, より大規模で詳細なシミュレーションを高速に実施することが可能になり, 新しい科学の開拓が期待される 並列計算の目的
(Microsoft PowerPoint \211\211\217K3_4\201i\216R\226{_\211\272\215\342\201j.ppt [\214\335\212\267\203\202\201[\203h])
RIKEN AICS Summer School 演習 3 4 MPI による並列計算 2012 年 8 月 8 日 神戸大学大学院システム情報学研究科山本有作理化学研究所計算科学研究機構下坂健則 1 演習の目標 講義 6 並列アルゴリズム基礎 で学んだアルゴリズムのいくつかを,MPI を用いて並列化してみる これを通じて, 基本的な並列化手法と,MPI 通信関数の使い方を身に付ける 2 取り上げる例題と学習項目
Microsoft PowerPoint 並列アルゴリズム04.ppt
並列アルゴリズム 2005 年後期火曜 2 限 青柳睦 [email protected] http://server-500.cc.kyushu-u.ac.jp/ 11 月 8 日 ( 火 ) 5. MPI の基礎 6. 並列処理の性能評価 1 もくじ 1. 序並列計算機の現状 2. 計算方式およびアーキテクチュアの分類 3. 並列計算の目的と課題 4. 数値計算における各種の並列化
並列計算導入.pptx
並列計算の基礎 MPI を用いた並列計算 並列計算の環境 並列計算 複数の計算ユニット(PU, ore, Pなど を使用して 一つの問題 計算 を行わせる 近年 並列計算を手軽に使用できる環境が急速に整いつつある >通常のP PU(entral Processing Unit)上に計算装置であるoreが 複数含まれている Intel ore i7 シリーズ: 4つの計算装置(ore) 通常のプログラム
PowerPoint プレゼンテーション
2018/10/05 竹島研究室創成課題 第 2 回 C 言語演習 変数と演算 東京工科大学 加納徹 前回の復習 Hello, world! と表示するプログラム 1 #include 2 3 int main(void) { 4 printf("hello, world! n"); 5 return 0; 6 } 2 プログラム実行の流れ 1. 作業ディレクトリへの移動 $ cd
¥Ñ¥Ã¥±¡¼¥¸ Rhpc ¤Î¾õ¶·
Rhpc COM-ONE 2015 R 27 12 5 1 / 29 1 2 Rhpc 3 forign MPI 4 Windows 5 2 / 29 1 2 Rhpc 3 forign MPI 4 Windows 5 3 / 29 Rhpc, R HPC Rhpc, ( ), snow..., Rhpc worker call Rhpc lapply 4 / 29 1 2 Rhpc 3 forign
openmp1_Yaguchi_version_170530
並列計算とは /OpenMP の初歩 (1) 今 の内容 なぜ並列計算が必要か? スーパーコンピュータの性能動向 1ExaFLOPS 次世代スハ コン 京 1PFLOPS 性能 1TFLOPS 1GFLOPS スカラー機ベクトル機ベクトル並列機並列機 X-MP ncube2 CRAY-1 S-810 SR8000 VPP500 CM-5 ASCI-5 ASCI-4 S3800 T3E-900 SR2201
内容に関するご質問は まで お願いします [Oakforest-PACS(OFP) 編 ] 第 85 回お試しアカウント付き並列プログラミング講習会 ライブラリ利用 : 科学技術計算の効率化入門 スパコンへのログイン テストプログラム起動 東京大学情報基盤セ
内容に関するご質問は [email protected] まで お願いします [Oakforest-PACS(OFP) 編 ] 第 85 回お試しアカウント付き並列プログラミング講習会 ライブラリ利用 : 科学技術計算の効率化入門 スパコンへのログイン テストプログラム起動 東京大学情報基盤センター特任准教授伊田明弘 1 講習会 : ライブラリ利用 [FX10] スパコンへのログイン ファイル転送
Fundamental MPI 1 概要 MPI とは MPI の基礎 :Hello World 全体データと局所データタ グループ通信 (Collective Communication) 1 対 1 通信 (Point-to-Point Communication)
MPI 超 入門 (FORTRAN 編 ) 東京大学情報基盤センター Fundamental MPI 1 概要 MPI とは MPI の基礎 :Hello World 全体データと局所データタ グループ通信 (Collective Communication) 1 対 1 通信 (Point-to-Point Communication) Fundamental MPI 2 MPI とは (1/2)
C/C++ FORTRAN FORTRAN MPI MPI MPI UNIX Windows (SIMD Single Instruction Multipule Data) SMP(Symmetric Multi Processor) MPI (thread) OpenMP[5]
MPI ( ) [email protected] 1 ( ) MPI MPI Message Passing Interface[2] MPI MPICH[3],LAM/MPI[4] (MIMDMultiple Instruction Multipule Data) Message Passing ( ) (MPI (rank) PE(Processing Element)
44 6 MPI 4 : #LIB=-lmpich -lm 5 : LIB=-lmpi -lm 7 : mpi1: mpi1.c 8 : $(CC) -o mpi1 mpi1.c $(LIB) 9 : 10 : clean: 11 : -$(DEL) mpi1 make mpi1 1 % mpiru
43 6 MPI MPI(Message Passing Interface) MPI 1CPU/1 PC Cluster MPICH[5] 6.1 MPI MPI MPI 1 : #include 2 : #include 3 : #include 4 : 5 : #include "mpi.h" 7 : int main(int argc,
char int float double の変数型はそれぞれ 文字あるいは小さな整数 整数 実数 より精度の高い ( 数値のより大きい より小さい ) 実数 を扱う時に用いる 備考 : 基本型の説明に示した 浮動小数点 とは数値を指数表現で表す方法である 例えば は指数表現で 3 書く
変数 入出力 演算子ここまでに C 言語プログラミングの様子を知ってもらうため printf 文 変数 scanf 文 if 文を使った簡単なプログラムを紹介した 今回は変数の詳細について習い それに併せて使い方が増える入出力処理の方法を習う また 演算子についての復習と供に新しい演算子を紹介する 変数の宣言プログラムでデータを取り扱う場合には対象となるデータを保存する必要がでてくる このデータを保存する場所のことを
PowerPoint Presentation
工学部 6 7 8 9 10 組 ( 奇数学籍番号 ) 担当 : 長谷川英之 情報処理演習 第 7 回 2010 年 11 月 18 日 1 今回のテーマ 1: ポインタ 変数に値を代入 = 記憶プログラムの記憶領域として使用されるものがメモリ ( パソコンの仕様書における 512 MB RAM などの記述はこのメモリの量 ) RAM は多数のコンデンサの集合体 : 電荷がたまっている (1)/ いない
Fundamental MPI 1 概要 MPI とは MPI の基礎 :Hello World 全体データと局所データタ グループ通信 (Collective Communication) 1 対 1 通信 (Point-to-Point Communication)
MPI 超 入門 (C 言語編 ) 東京大学情報基盤センター FOTRAN 編は以下 http://nkl.cc.u-tokyo.ac.jp/seminars/t2kfvm/mpiprogf.pdf tokyo pdf Fundamental MPI 1 概要 MPI とは MPI の基礎 :Hello World 全体データと局所データタ グループ通信 (Collective Communication)
コマンドラインから受け取った文字列の大文字と小文字を変換するプログラムを作成せよ 入力は 1 バイトの表示文字とし アルファベット文字以外は変換しない 1. #include <stdio.h> 2. #include <ctype.h> /*troupper,islower,isupper,tol
コマンドラインから受け取った文字列の大文字と小文字を変換するプログラムを作成せよ 入力は 1 バイトの表示文字とし アルファベット文字以外は変換しない 1. #include 2. #include /*troupper,islower,isupper,tolowerを使うため宣言*/ 3. 4. int get_n(char *); 5. void replace(char
PowerPoint プレゼンテーション
講座を行う前に 自己紹介 僕と上回生について 1 年生同士で少しお話しよう! オリエンテーションの宿題 アルゴロジック http://home.jeita.or.jp/is/highschool/algo/index3.html どこまでできましたか? あまりできなかった人はこれから全部クリアしよう! 2016 年度 C 言語講座 第一回目 2016/6/11 fumi 今回の目標 プログラムを書いて実行するやり方を覚える
memo
数理情報工学演習第一 C プログラミング演習 ( 第 5 回 ) 2015/05/11 DEPARTMENT OF MATHEMATICAL INFORMATICS 1 今日の内容 : プロトタイプ宣言 ヘッダーファイル, プログラムの分割 課題 : 疎行列 2 プロトタイプ宣言 3 C 言語では, 関数や変数は使用する前 ( ソースの上のほう ) に定義されている必要がある. double sub(int
PowerPoint Presentation
プログラミング基礎 第 2 週 (4,5,6 回 ) 2011-10-07 出村公成 この資料の再配布を禁止します 予定 プログラミング入門 (45 分 ) 変数 入出力 分岐 演習 (90 分 ) タッチタイプ練習 統合開発環境 Codeblocksの使い方 教科書例題の打ち込みと実行 プログラミング入門 C 言語の簡単な例を体験 変数 入出力 分岐 プログラムの例リスト 2.1 改 #include
Microsoft PowerPoint - 阪大CMSI pptx
内容に関する質問は [email protected] まで 第 2 回 MPI の基礎 名古屋大学情報基盤センター 片桐孝洋 1 講義日程と内容について (1 学期 : 木曜 3 限 ) 第 1 回 : プログラム高速化の基礎 2017 年 4 月 13 日 イントロダクション ループアンローリング キャッシュブロック化 数値計算ライブラリの利用 その他第 2 回 :MPIの基礎
Microsoft PowerPoint - MPIprog-F1.ppt [互換モード]
MPIによるプログラミング 概 要 (その1) Fortran 言 語 編 RIKEN AICS HPC Summer School 2014 中 島 研 吾 ( 東 大 情 報 基 盤 センター) 横 川 三 津 夫 ( 神 戸 大 計 算 科 学 教 育 センター) 1 本 schoolの 目 的 並 列 計 算 機 の 使 用 によって,より 大 規 模 で 詳 細 なシミュレー ションを 高
Microsoft PowerPoint - MPIprog-F2.ppt [互換モード]
MPI によるプログラミング概要 ( その ) Fortran 言語編 RIKEN AICS HPC Summer School 01 中島研吾 ( 東大 情報基盤センター ) 横川三津夫 ( 神戸大学 計算科学教育センター ) 1 概要 MPI とは MPI の基礎 :Hello World 全体データと局所データ グループ通信 (Collective Communication) 1 対 1 通信
2012 6 1 MPI 1995 8 2002 2003 ( 2) MPI http://accc.riken.jp/hpc/training.html iii 1 1 1-1.......................................... 2 1-2........................................... 4 2 9 2-1...............................................
MPI によるプログラミング概要 Fortran 編 中島研吾 東京大学情報基盤センター
MPI によるプログラミング概要 Fortran 編 中島研吾 東京大学情報基盤センター 1 並列計算の意義 目的 並列計算機の使用によって, より大規模で詳細なシミュレーションを高速に実施することが可能になり, 新しい科学の開拓が期待される 並列計算の目的 高速 大規模 大規模 の方が 新しい科学 という観点からのウェイトとしては高い しかし, 高速 ももちろん重要である + 複雑 理想 :Scalable
120802_MPI.ppt
CPU CPU CPU CPU CPU SMP Symmetric MultiProcessing CPU CPU CPU CPU CPU CPU CPU CPU CPU CPU CPU CPU CP OpenMP MPI MPI CPU CPU CPU CPU CPU CPU CPU CPU CPU CPU MPI MPI+OpenMP CPU CPU CPU CPU CPU CPU CPU CP
2007年度 計算機システム演習 第3回
2014 年度 実践的並列コンピューティング 第 10 回 MPI による分散メモリ並列プログラミング (3) 遠藤敏夫 [email protected] 1 MPI プログラムの性能を考える 前回までは MPI プログラムの挙動の正しさを議論 今回は速度性能に注目 MPIプログラムの実行時間 = プロセス内計算時間 + プロセス間通信時間 計算量 ( プロセス内 ) ボトルネック有無メモリアクセス量
MPI によるプログラミング概要 C 言語編 中島研吾 東京大学情報基盤センター
MPI によるプログラミング概要 C 言語編 中島研吾 東京大学情報基盤センター 1 並列計算の意義 目的 並列計算機の使用によって, より大規模で詳細なシミュレーションを高速に実施することが可能になり, 新しい科学の開拓が期待される 並列計算の目的 高速 大規模 大規模 の方が 新しい科学 という観点からのウェイトとしては高い しかし, 高速 ももちろん重要である + 複雑 理想 :Scalable
Microsoft PowerPoint - lec10.ppt
今日の内容, とポインタの組み合わせ, 例題 1. 住所録例題 2. と関数とは. を扱う関数. 例題 3. のリスト とポインタの組み合わせ 今日の到達目標 自分で を定義する 自分で定義したについて, 配列やポインタを作成する データ型 基本データ型 char 文字 (1 文字 ) int 整数 double 浮動小数など その他のデータ型配列 データの並び ( 文字列も, 文字の並び ) ポインタ
C プログラミング演習 1( 再 ) 2 講義では C プログラミングの基本を学び 演習では やや実践的なプログラミングを通して学ぶ
C プログラミング演習 1( 再 ) 2 講義では C プログラミングの基本を学び 演習では やや実践的なプログラミングを通して学ぶ 今回のプログラミングの課題 次のステップによって 徐々に難易度の高いプログラムを作成する ( 参照用の番号は よくわかる C 言語 のページ番号 ) 1. キーボード入力された整数 10 個の中から最大のものを答える 2. 整数を要素とする配列 (p.57-59) に初期値を与えておき
書式に示すように表示したい文字列をダブルクォーテーション (") の間に書けば良い ダブルクォーテーションで囲まれた文字列は 文字列リテラル と呼ばれる プログラム中では以下のように用いる プログラム例 1 printf(" 情報処理基礎 "); printf("c 言語の練習 "); printf
情報処理基礎 C 言語についてプログラミング言語は 1950 年以前の機械語 アセンブリ言語 ( アセンブラ ) の開発を始めとして 現在までに非常に多くの言語が開発 発表された 情報処理基礎で習う C 言語は 1972 年にアメリカの AT&T ベル研究所でオペレーションシステムである UNIX を作成するために開発された C 言語は現在使われている多数のプログラミング言語に大きな影響を与えている
Microsoft Word - Cプログラミング演習(12)
第 12 回 (7/9) 4. いくつかのトピック (5)main 関数の引数を利用したファイル処理 main 関数は, 起動する環境から引数を受け取ることができる 例えば 次に示すように,main 関数に引数を用いたプログラムを作成する 01 /* sample */ 02 /* main 関数の引数 */ 03 #include 04 05 main(int argc, char
Microsoft PowerPoint - MPIprog-C2.ppt [互換モード]
MPI によるプログラミング概要 ( その ) C 言語編 RIKEN AICS HPC Summer School 01 中島研吾 ( 東大 情報基盤センター ) 横川三津夫 ( 神戸大学 計算科学教育センター ) 1 概要 MPI とは MPI の基礎 :Hello World 全体データと局所データ グループ通信 (Collective Communication) 1 対 1 通信 (Peer-to-Peer
PowerPoint プレゼンテーション
計算機実習 Ⅰ FORTRAN 担当 2018.05.29 本日の課題 プログラムの基本ルールを理解し 以下が含まれるプログラムを作成する (1) 文法の基礎 ( フローチャートなど ) (2) 変数宣言 (3) 入出力 (4) 四則演算 (5) 組込関数 (6) 判定文 (7) リダイレクション PROGRAM MAIN INTEGER I, J, K REAL A, B, C CHARACTER
