サイバーメディアセンター 大規模計算機システムの利用

Similar documents
サイバーメディアセンター 大規模計算機システムの利用

スパコンに通じる並列プログラミングの基礎

FX10利用準備

Microsoft Word - HOKUSAI_system_overview_ja.docx

Reedbush 利用の手引き 2 ノートパソコンの設定 : 公開鍵の生成 登録 ネットワーク環境に接続してから行ってください

<4D F736F F F696E74202D D F95C097F D834F E F93FC96E5284D F96E291E85F8DE391E52E >

スパコンに通じる並列プログラミングの基礎

Hphi実行環境導入マニュアル_v1.1.1

Microsoft PowerPoint - スハ?コン利用入門_ _UNIX利用の基礎知識.pptx

目次 LS-DYNA 利用の手引き 1 1. はじめに 利用できるバージョン 概要 1 2. TSUBAME での利用方法 使用可能な LS-DYNA の実行 4 (1) TSUBAMEにログイン 4 (2) バージョンの切り替え 4 (3) インタラ

Microsoft Word - appli_SMASH_tutorial_2.docx

openmp1_Yaguchi_version_170530

スパコンに通じる並列プログラミングの基礎

<4D F736F F F696E74202D E3F FC96E55F F554E CC8AEE D8EAF2E B8CDD8AB B83685D>

新スーパーコンピュータ 「ITOシステム」利用講習会

Microsoft Word - koubo-H26.doc

九州大学がスーパーコンピュータ「高性能アプリケーションサーバシステム」の本格稼働を開始

PowerPoint Presentation

情報処理概論(第二日目)

Oakforest-PACS 利用の手引き 2 ノートパソコンの設定 : 公開鍵の生成 登録

H28 年度 SX-ACE 高速化技法の基礎 ( 演習用資料 ) 2016 年 6 月 16 日大阪大学サイバーメディアセンター日本電気株式会社

RICCについて

予算上限値到達時ジョブ投入停止機能 データ収集日表示 ノード時間積表示 ジョブ課金情報 予算上限値到達でジョブ投入停止機能を有すること 最後に課金情報を集計した日時を表示すること 使用計算資源を使用ノード数と時間の積として表示すること ジョブ単位での課金情報を表示できること 1 3 基本予算管理利用

演習1: 演習準備

PowerPoint プレゼンテーション

$ cmake --version $ make --version $ gcc --version 環境が無いあるいはバージョンが古い場合は yum などを用いて導入 最新化を行う 4. 圧縮ファイルを解凍する $ tar xzvf gromacs tar.gz 5. cmake を用

PowerPoint プレゼンテーション

スライド 1

PowerPoint プレゼンテーション

演習準備

情報処理概論(第二日目)

第 3 回情報基礎演習 UNIX / Linux: ファイルシステム シェルを理解しよう! 谷口貴志 Panda に login し 情報基礎演習クラスの VDI から Ubuntu に接続し Linux に login した後, 左 上の Activity 端末のアイオン をクリック 端末 を立ち

Microsoft Word - ユーザ向け利用の手引き_v0.3.doc

1重谷.PDF

スライド 1

Microsoft Word Proself-guide4STD+Prof.docx

情報教育システムの BYOD( 持込みパソコン ) の利用について サイバーメディアセンター情報教育システムでは BYOD( 持込みパソコン ) で情報教育端末の仮想デスクトップを使用できます 自分の Windows や MAC のパソコンから情報教育の授業を受けたり 自宅のパソコンで情報教育端末の

PowerPoint プレゼンテーション

TSUBAME利用講習会

並列計算導入.pptx

内容に関するご質問は まで お願いします [Oakforest-PACS(OFP) 編 ] 第 85 回お試しアカウント付き並列プログラミング講習会 ライブラリ利用 : 科学技術計算の効率化入門 スパコンへのログイン テストプログラム起動 東京大学情報基盤セ

情報処理概論(第二日目)

ERDAS IMAGINE における処理速度の向上 株式会社ベストシステムズ PASCO CORPORATION 2015

当社の紹介 社名 代表取締役会長 代表取締役社長 株式会社森村設計 [ 英文社名 :P.T.Morimura & Associates, Ltd.] 森村武雄 森村潔 設立 本社 主な業務 1965 年 2 月 23 日 東京都目黒区中目黒 1 丁目 8 番 8 号 MEGURO F2 BUILDI

“nice to meet you”

TSUBAME2.5 利用講習会 平成 26 年度版 (Rev ) 東京工業大学学術国際情報センター共同利用推進室 Copyright (C) GSIC All Rights Reserved.

製品開発の現場では 各種のセンサーや測定環境を利用したデータ解析が行われ シミュレーションや動作検証等に役立てられています しかし 日々収集されるデータ量は増加し 解析も複雑化しており データ解析の負荷は徐々に重くなっています 例えば自動車の車両計測データを解析する場合 取得したデータをそのまま解析

この時お使いの端末の.ssh ディレクトリ配下にある known_hosts ファイルから fx.cc.nagoya-u.ac.jp に関する行を削除して再度ログインを行って下さい

ホームページ公開方法

スライド 1

Microsoft Word - Activ 利用の手引きVer2.0.doc

Microsoft Word - PS1800E-DownloadGuide_J.docx

設定仕様書

サービス内容 サービス内容 アルファメールダイレクトのサービス内容 機能 対応環境についてご案内します 基本サービス 管理者機能 アルファメールダイレクトをご利用になる前に まず管理者の方がメールアドレスの登録や 必要な設定を行います すべての設定は ホームページ上の専用フォームから行います < 主

Microsoft PowerPoint - 講習 _kido.pptx[読み取り専用]

Microsoft PowerPoint - install_NGSsokushu_windows(ver2.1).pptx

TSUBAME2.0 における GPU の 活用方法 東京工業大学学術国際情報センター丸山直也第 10 回 GPU コンピューティング講習会 2011 年 9 月 28 日

LS-DYNA 利用の手引 第 1 版 東京工業大学学術国際情報センター 2017 年 9 月 25 日

目次 1. 教育ネットひむかファイル転送サービスについて ファイル転送サービスの利用方法 ファイル転送サービスを利用する ( ひむか内 ) ファイル転送サービスへのログイン ひむか内 PCでファイルを送受信する

Webhard_Users manual

about MPI

輸出する際の注意事項本製品 ( ソフトウェアを含む ) は 外国為替および外国貿易法で規定される規制貨物 ( または役務 ) に該当することがあります その場合 日本国外へ輸出する場合には日本国政府の輸出許可が必要です なお 輸出許可申請手続きにあたり資料等が必要な場合には お買い上げの販売店または

KTest

共通フィルタの条件を設定する 迷惑メール検知 (SpamAssassin) の設定 迷惑メール検知 (SpamAssassin) とは.

スライド 1

1. アクセスナンバーでのログイン アクセスナンバーとは 平成 28 年 3 月以前にご加入されたお客様は PC 端末設定表 に記載のご契約時のアカウント名 ( 左部 追加ではないアドレス ) とパスワードが アクセスナンバーとパスワードになります なおメールアドレスを変更され

Maser - User Operation Manual

コードのチューニング

システムソリューションのご紹介

目次 < 項目 > < ページ > 1.ispLEVER の種類 3 2.LaticeSemiconductor 社 HP へアクセス 4 3. ユーザ登録方法 5 4.ispLEVERClassic のダウンロード 8 5.ispLEVERClassic のインストール 11 6.Active-H

1. 作業フロー 公開鍵 / 秘密鍵の生成 スパコンゲートウェイノードへの ログイン時に使用する鍵の作成 公開鍵の設置 スパコンゲートウェイノードへの ログイン時に使用する公開鍵をスパコンに登録 SSH 接続確認 スパコンゲートウェイノード / インタラクティブノードへのログイン 初期パスワードの変

ファイルサーバ ご利用の手引き 第 1.0 版 2008 年 2 月 14 日 近畿大学総合情報システム部 (KUDOS)

本仕様はプロダクトバージョン Ver 以降に準じています

東北大学金属材料研究所 並列計算 インフォマティクスサーバ マニュアル 2019 年 10 月 3 日 東北大学金属材料研究所計算材料学センター

本仕様はプロダクトバージョン Ver 以降に準じています

<4D F736F F F696E74202D20838A B E AC888D D836A B81698A7790B691CE899E

TSUBAME利用手引き

Windows XP から Windows 7 へのアップグレード

< B838B CC8F898AFA90DD92E82E786C73>

TSUBAME3.0利用説明会

Microsoft Word - BRマニュアル教員用new.docx

Intel MPI Library Linux

目次 1. 目次 2. Cygwinインストール (1) 3. Cygwinインストール (2) 4. 公開鍵の作成 5. 利用支援ポータルへのアクセス 6. パスワード変更 ( 初回の場合 ) 7. パスワード変更成功画面 8. 利用支援ポータルへの再ログイン 9. 言語の変更 10. 公開鍵の登

拓殖大学総合情報センター 学生 Web メール (Office365) 操作マニュアル 目 次 1. Office365 の Web メール 2 2. 利用上の制約事項 送受信メールサイズ制限 メールボックス利用制限 2 3. Office365 のサインイン サインアウト

資料3 今後のHPC技術に関する研究開発の方向性について(日立製作所提供資料)

スライド 1

HULFT 技術サポートサイト お問い合わせ入力操作説明

4 自己登録 の画面が表示されたら 送信 をクリックします 5 アクションが完了しました : 成功 が表示されたら 画面を下にスクロールし 画面右下隅の OK をクリックします 6Windows 用または Mac 用のキャンパスクラウドエージェントをクリックしてダウ ンロードしてください 8 ダウン

Microsoft PowerPoint PCクラスタワークショップin京都.ppt

Microsoft Word Webmail

アルファメールプラチナのについてご案内します この度は アルファメールプラチナをお申し込みいただきまして 誠にありがとうございます 本冊子は アルファメールプラチナをご利用いただく方 ( 一般利用者 ) 向けの内容で構成されております お客様のご利用環境によってはご紹介した画面や操作とは異なる場合が

Microsoft PowerPoint - 【HULFT】効果的なHULFT活用講座(①機能編)( )2.pptx

システム設計書

目次 < 項目 > < ページ > 1.ispLEVER の種類 3 2.LaticeSemiconductor 社 HP へアクセス 4 3. ユーザ登録方法 5 4.ispLEVERStarter のダウンロード 8 5.ispLEVERStarter のインストール 11 6.Active-H

大学ファイルサーバー ( 共有フォルダ ) について 大学ファイルサーバー ( 共有フォルダ ) への利用について... 2 共有フォルダの説明... 3 共有フォルダ構成... 3 教職員共有フォルダ... 3 学生共有フォルダ... 4 教職員 / 学生個人フォルダ... 4 大学ファイルサーバ

サービス内容 サービス内容 ここでは サービス内容についてご案内します このたびは 本サービスをお申し込みいただきまして 誠にありがとうございます この手引きは サービスをご利用いただく方 ( 一般利用者 ) 向けの内容で構成されております お客様のご利用環境によってはご紹介した画面や操作とは異なる

目次 ログインページ 3 成果公開申告 A 成果公開の予定のみを申告する場合ページ 4 B 成果公開の実績がすでにある場合ページ 7 申告内容更新 C 申告した内容を修正する場合ページ 16 D 事務局から修正依頼があった場合ページ 21 状況確認 E 認定状況の確認ページ 23 認定対象成果 が当

PowerPoint Presentation

manaba course 出席機能 操作マニュアル

Total View Debugger 利用の手引 東京工業大学学術国際情報センター version 1.0

Transcription:

サイバーメディアセンター 大規模計算機システムの利用 大阪大学情報推進部情報基盤課

本日のプログラム I. システムのご紹介 II. 利用方法の解説 実習 i. システムへの接続 ii. プログラムの作成 コンパイル iii. ジョブスクリプトの作成 iv. ジョブスクリプトの投入 III. 利用を希望する方へ 2/56

SX-ACE NEC 製のベクトル型スーパーコンピュータ ノード毎 1 クラスタ (512 ノード ) 総合 (3 クラスタ ) CPU 数 1 512 1536 コア数 4 2048 6144 演算性能 276 GFLOPS 141 TFLOPS 423 TFLOPS ベクトル性能 256 GFLOPS 131 TFLOPS 393 TFLOPS メモリ 64GB 32TB 96TB 3/56

VCC ( 大規模可視化対応 PC クラスタ ) NEC 製のスカラ型クラスタシステム GPU 計算や可視化装置との連動が可能 1ノード 総合 (66ノード) CPU 数 2 132 コア数 20 1320 演算性能 0.4 TFlops 26.0 Tflops メモリ 64 GB 4.160 TB GPU 59 枚 (69.03 Tflops) 2017/4 増設 1ノード 総合 (3ノード) CPU 数 2 6 コア数 28 84 演算性能 1.5 TFlops 4.7 Tflops メモリ 64 GB 192 GB 4/56

HCC ( 汎用コンクラスタ ) NEC 製のスカラ型クラスタシステム 学生用の端末 PC としても使用している 2017 年 9 月末サービス終了 豊中地区吹田地区箕面地区 1 ノード 全体 1 ノード全体 1 ノード全体 CPU 数 2 536 2 338 2 276 演算性能 28.8 GFLOPS 7.7 TFLOPS 28.8 GFLOPS 4.9 TFLOPS 28.8 GFLOPS 4.0 TFLOPS メモリ 4GB 1.1TB 4GB or 12GB 1.2TB 4GB 0.6TB ノード数 268 ノード 169 ノード 138 ノード 全ノード数 575 ノード 5/56

フロントエンド端末 プログラムのコンパイルや計算結果の確認を行うための作業用端末 フロントエンド端末から各計算機に対して 処理の実行を指示 詳細は後述 計算機自体へのログインは原則禁止 ( 一部例外有 ) 6/56

Octopus (HCC の後継機 ) 総演算性能 :1.446 PFLOPS ( 予定 ) フロントエンドノード Intel SKL x 2, 192GB (3 ノード ) 汎用計算 CPU ノード Intel SKL x 2, 192GB (155~280 ノード ) インターコネクト InfiniBand EDR (100Gbps) 並列ファイルシステム DDN Lustre (3 PB) 大容量主記憶計算ノード Intel SKL x 8, 6TB (2 ノード ) GPU ノード Intel SKL x 2, 192GB, NVIDIA P100 x 4 (16 ノード ) Xeon Phi ノード Intel KNL x 1, 192GB (36~ ノード ) 2017 年末サービス開始予定 7/56

システム全体図 8/56

本日のプログラム I. システムのご紹介 II. 利用方法の解説 実習 i. システムへの接続 ii. プログラムの作成 コンパイル iii. ジョブスクリプトの作成 iv. ジョブスクリプトの投入 III. 利用を希望する方へ 9/56

利用方法の解説 実習 本項では初心者を対象に 大規模計算機システムの利用方法を解説します 途中 実習も行います 配布したアカウントは講習会後もしばらく利用可能 ご自宅からでもシステムに接続できます 10/56

利用の流れ ユーザー フロントエンド端末 システムへの接続 計算機 プログラム作成 コンパイル ジョブスクリプト作成 ジョブスクリプト投入 11/56

本日のプログラム I. システムのご紹介 II. 利用方法の解説 実習 i. システムへの接続 ii. プログラムの作成 コンパイル iii. ジョブスクリプトの作成 iv. ジョブスクリプトの投入 III. 利用を希望する方へ 12/56

システムへの接続 ログインは SSH (Secure Shell) 接続 Win: TeraTerm など, Mac: ターミナルを使用 接続先は login.hpc.cmc.osaka-u.ac.jp 参考 ファイル転送は SFTP 接続 接続先は ftp.hpc.cmc.osaka-u.ac.jp ユーザー ログインサーバ フロントエンド端末 SSH login.hpc.cmc.osaka-u.ac.jp 4 台あり ログインユーザの少ない端末に自動で振り分ける 13/56

本日のプログラム I. システムのご紹介 II. 利用方法の解説 実習 i. システムへの接続 ii. プログラムの作成 コンパイル iii. ジョブスクリプトの作成 iv. ジョブスクリプトの投入 III. 利用を希望する方へ 14/56

プログラムの作成 計算機を利用するために まずプログラムを作成する必要があります 今回はプログラムを用意しました 当センターの計算機で使用可能な言語 Fortran 言語 C 言語 C++ 言語 プログラムの書き方 については特に説明しません 15/56

コンパイル プログラムを 機械が実行できる形式 に 変換すること 16/56

コンパイルの種類 セルフコンパイル コンパイルした環境と同じ環境で実行 コンパイル a.out 実行 Linux 端末 実行形式 Linux 端末 クロスコンパイル コンパイルした環境とは別の環境で実行 コンパイル a.out 実行 フロントエンド端末 実行形式 計算機 当センターでは クロスコンパイル を使用 17/56

コンパイルの方法 コンパイルを行う際のコマンド Fortran 言語 C 言語 C++ 言語 SX クロスコンパイラ (SX-ACE 用 ) Intel コンパイラ (HCC,VCC 用 ) sxf90 sxc++ ifort icc icpc コマンド例 (SX-ACE 用 Fortran プログラム ) $ sxf90 program.f 実行形式ファイル a.out が生成 18/56

コンパイルオプション コンパイル時にオプションを指定することで様々な機能を使用することが可能 $ sxf90 program.f -option オプションの一例 -o [filename] : 実行形式のファイル名を指定指定しない場合は a.out が出力 -Rn : 翻訳リスト出力 ( n には 0~5 を指定 ) 最適化等によるプログラムの変形内容を出力 -ftrace : 簡易性能解析機能ジョブスクリプトに setenv F_FTRACE YES の指定が必要プログラム実行後に解析ファイルを出力 19/56

コンパイルオプション ( 参考 ) オプションの一例 -P [suboption] : 並列化オプション 並列化処理を使用する場合に指定 suboption には auto openmp multi 等を指定可能 -C [suboption] : 最適化オプション ベクトル化 最適化のレベル指定 suboption には hopt vopt vsafe ssafe debug を指定可 詳しい解説は下記の講習会にて行います SX-ACE 高速化技法の基礎日時 : 2017 年 6 月 19 日 ( 月 ) 13:30-17:30 残席わずか! 20/56

演習 1( コンパイル ) 1. 演習用プログラムを取得してください ( 例 ) $ cp /sc/cmc/apl/kousyu/nyumon/sample.f ~/ 2. sample.f を SX 用にコンパイルしてください ( 例 ) $ sxf90 -o sx.out sample.f 3. sample.f を HCC,VCC 用にコンパイルしてください ( 例 ) $ ifort -o pcc.out sample.f 文字入力時は [Tab] キーでの補完機能を活用してください 21/56

本日のプログラム I. システムのご紹介 II. 利用方法の解説 実習 i. システムへの接続 ii. プログラムの作成 コンパイル iii. ジョブスクリプトの作成 iv. ジョブスクリプトの投入 III. 利用を希望する方へ 22/56

計算機の利用方法 会話型 ( インタラクティブ利用 ) コマンド等を通してコンピュータに直接命令し リアルタイムで処理を実行 操作として手軽 一括処理型 ( バッチ利用 ) コンピュータにまとめて処理を命令し実行 処理の命令が終われば ログアウトしても OK 23/56

会話型 原則として利用不可 旧 SXでは会話型が利用可能だった SX-ACEでは利用不可 ただし会話型風に一括処理利用する機能はあり フロントエンド端末での計算実行も禁止 基本的に 一括処理型 で利用 24/56

一括処理型 処理を ジョブスクリプト に記述 スクリプトに基づき計算機が処理を実行 SX で a.out というプログラムを実行したい 計算機が空き次第実行指示 ジョブスクリプトを作成 実行 ユーザー 送信 ジョブスケジューラ ジョブの投入が終わればログアウトしてもよい 終了次第 実行結果がファイル出力される 25/56

ジョブスクリプト ジョブスクリプトの構成 リソースや環境設定 :#PBSから始まるNQSオプション計算機に実行させる処理の記述 : シェルスクリプト ジョブスクリプトの例 #!/bin/csh リソース 環境設定の指定 #PBS q ACE #PBS l elapstim_req=1:00:00,memsz_job=60gb cd $PBS_O_WORKDIR./a.out > result.txt 計算機に実行させる処理の記述 26/56

リソース 環境設定の指定 NQSII オプション ( 以下 ) でリソースや環境の設定を行う オプション説明 #PBS -q ジョブクラスを指定し 計算に使用する計算機やリソースを指定する #PBS -l 使用する資源値 memsz_job : 1ノードあたりのメモリ量 elapstim_req : ジョブの経過時間 cpunum_job : 1ノード当たりのCPU 数 #PBS -m 計算の処理状態に変化が起きたときメール通知を行う a : ジョブが異常終了したとき b : ジョブが開始したとき e : ジョブが終了したとき #PBS -M メールの通知先アドレスを指定する #PBS -v 環境変数の指定 (setenvではなくこちらを使うことを推奨する) #PBS -T MPI 実行時に指定 mpisx : MPI/SX 利用時 intmpi : IntelMPI 利用時 #PBS -b 使用するノード数 必須! 27/56

ジョブクラス一覧 (SX-ACE) 使用する計算機 リソースはジョブクラスで指定 NQSII オプション #PBS -q の後に続けて記述 ジョブクラス 利用可能経過時間 利用可能最大 Core 数 利用可能メモリ 同時利用可能ノード数 ACE 24 時間 1024Core (4Core 256 ノード ) 1.5TB (60GB 256 ノード ) 256 ノード DBG 20 分 32Core (4Core 8 ノード ) 480GB (60GB 8 ノード ) 8 ノード 28/56

ジョブクラス一覧 (HCC) ジョブクラス 利用可能経過時間 利用可能 CPU 数 利用可能メモリ 同時利用可能ノード数 H-single 最大 300 時間程度 2CPU (2CPU 1 ノード ) 4GB (4GB 1 ノード ) 1 ノード H-small 最大 300 時間程度 32CPU (2CPU 16 ノード ) 64GB (4GB 16 ノード ) 2~16 ノード H-large 最大 300 時間程度 128CPU (2CPU 64 ノード ) 256GB (4GB 64 ノード ) 17~64 ノード H-mem+ 最大 300 時間程度 64CPU (2CPU 32 ノード ) 384GB (12GB 32 ノード ) 1~32 ノード 29/56

ジョブクラス一覧 (VCC) ジョブクラス 利用可能経過時間 利用可能最大 Core 数 利用可能メモリ 同時利用可能ノード数 VCC 120 時間 336 時間 640Core (20Core 32 ノード ) 40Core (20Core 2 ノード ) 1920GB (60GB 32 ノード ) 120GB (60GB 2 ノード ) 32 ノード 2 ノード V1C+ 120 時間 28Core (28Core 1 ノード ) 60GB (60GB 1 ノード ) 1 ノード ( 増設ノードで実行 ) V1C-hybrid 120 時間 20Core (20Core 1 ノード ) 60GB (60GB 1 ノード ) 1 ノード ( 通常 or 増設ノードで実行 ) GVC (GPU 利用 ) 120 時間 180Core (20Core 9 ノード ) 540GB (60GB 9 ノード ) 9 ノード 30/56

計算機に実行させる処理の記述 ファイルやディレクトリの実行 操作を記述記述方法はシェルスクリプト よく使用する NQSII 用の環境変数 $PBS_O_WORKDIR : ジョブ投入時のディレクトリが設定される 標準出力 / 標準エラー出力の容量制限 SX-ACE:100MB VCC:100MB HCC:10MB これ以上出力したい場合はリダイレクション (>) を利用 処理の記述の最終行に改行を入れること! 未入力の場合 その行のコマンドが実行されない 31/56

ジョブスクリプト解説 ジョブクラスの指定 #!/bin/csh #PBS q ACE CPU 数 経過時間 メモリサイズの指定コンマ後にスペースを入れないよう注意! #PBS l elapstim_req=1:00:00,memsz_job=60gb cd $PBS_O_WORKDIR ジョブ投入時のディレクトリへ移動./a.out > result.txt a.out を実行し 結果を result.txt に出力する ( リダイレクション ) 32/56

演習 2( ジョブスクリプト ) 1. 演習用スクリプトを取得してください ( 例 )$ cp /sc/cmc/apl/kousyu/nyumon/sample.nqs ~/ 2. sample.nqs を元に SX-ACE 用のジョブスクリプトを作成してください ( 例 ) $ cp sample.nqs sx.nqs $ emacs sx.nqs -nw ジョブクラスは DBG を使用してください 33/56

本日のプログラム I. システムのご紹介 II. 利用方法の解説 実習 i. システムへの接続 ii. プログラムの作成 コンパイル iii. ジョブスクリプトの作成 iv. ジョブスクリプトの投入 III. 利用を希望する方へ 34/56

実行までの流れ ジョブスクリプトはジョブスケジューラが受け付ける ジョブスケジューラが各計算機にジョブの実行を指示 ジョブスクリプト内処理の実行を指示 実行 ジョブの投入ジョブスクリプトの送信 フロントエンド端末 ジョブスケジューラ 35/56

スケジューラとは あらかじめ管理者によって設定された資源割当ポリシーに従い ジョブを計算資源に割り当てる スケジューラ 主な役割 クラスタを構成する計算機 ( ノード ) の静的情報 を把握 ディスク容量 メモリ容量 CPU 性能 etc ノード毎の資源使用率を定期的に監視 管理ユーザより実行したいジョブ要求を受信ジョブを実行するのに適切なノードを選定ジョブ実行に伴う入出力データのファイル転送 36/56

スケジューラとは 当センターではバックフィル型を採用 特徴 ジョブの実行開始時間のマップを作成する マップに載れば 実行開始時間と経過時間が保障される 実行中は指定したリソースを占有して割当てる 37/56

スケジューラのイメージ 0:00 ジョブが実行を開始する時間 1:00 2:00 3:00 4:00 5:00 6:00 node1 JOB4 使用するノード node2 node3 node4 JOB1 JOB2 JOB5 JOB6 node5 JOB3 38/56

ジョブの投入方法 フロントエンド端末からジョブを投入 コマンド $ qsub [ ジョブスクリプトファイル ] ( 参考 ) 特殊な投入方法リクエスト連携 : 順番通りにジョブを実行したい場合に利用 $ qsub [JobScript1] [JobScript2] 順番無く複数のジョブを同時に投入する場合は上記のようにしないよう注意 39/56

投入済みジョブの確認方法 ジョブの状態を確認することが可能 コマンド $ qstat 実行結果 RequestID ReqName UserName Queue STT Memory CPU Elapse --------------------------------------------------------------------------------------------------------------- 12345.cmc nqs-test a61234 ACE RUN 8.72G 830.66 208 ジョブの状態 待ち状態では QUE 実行が始まると RUN となる 実行時間 CPU : 実際にジョブが消費した時間複数 CPU 指定の場合は 全 CPU を累積表示 Elapse : ジョブが実行されてからの経過時間 40/56

投入済みジョブの確認方法 ジョブの予約状況の確認することが可能 コマンド $ sstat 実行結果 RequestID ReqName UserName Queue Pri STT PlannedStartTime ------------------------------------------------------------------------------------------------------------------------------ 12345.cmc nqs-test a61234 ACE -1.5684/ -1.5684 ASG 2015-06-16 00:01:23 状態監視 実行時刻が決まると ASG 表示になる 混雑具合や優先度により 実行時間の決定 までの待ち時間が異なるが 一旦実行時間が決定されるとその時刻にジョブ実行が始まる 実行開始時刻 システムメンテナンスやトラブル時は再スケジュールされることをご了承ください 41/56

投入済みジョブの操作方法 ジョブのキャンセル コマンド $ qdel [RequestID] 実行結果 $ qdel 12345.cmc Request 12345.cmc was deleted. 42/56

実行結果の確認方法 実行結果や実行エラーは指定しない限り 標準出力 となる 標準出力はジョブスクリプト名.o リクエスト ID 標準エラー出力はジョブスクリプト名.e リクエスト ID というファイル名で自動出力される cat や less コマンドでファイルの内容を出力し確認 $ cat nqs.o12345 リダイレクション (./a.out > result.txt) を使った場合は そちらも確認 意図通りの結果が表示されていれば計算は成功 43/56

演習 3( ジョブスクリプトの投入 ) 1. 作成したジョブスクリプトを使用してジョブを投入 $ qsub sx.nqs 2. 投入したジョブの状態を確認 $ sstat $ qstat 3. 結果ファイルの確認 $ cat sx.nqs.o12345 $ cat sx.nqs.e12345 早く終わった方は VCC や HCC にもジョブを投入してみましょう 44/56

より高度な利用に向けて 利用の参考になる Web ページ サイバーメディアセンター大規模計算機システム Web ページ http://www.hpc.cmc.osaka-u.ac.jp/system/manual/ 利用方法 http://www.hpc.cmc.osaka-u.ac.jp/system/manual/ FAQ http://www.hpc.cmc.osaka-u.ac.jp/faq/ お問い合わせ http://www.hpc.cmc.osaka-u.ac.jp/support/contact/auto_form/ 研究成果 http://www.hpc.cmc.osaka-u.ac.jp/researchlist/ 45/56

より高度な利用に向けて 本日以降に実施予定の講習会 講習会名日時場所 SX-ACE 高速化技法の基礎 並列コンピュータ高速化技法の基礎 ( VCC,HCC 向け ) SX-ACE 並列プログラミング入門 (MPI) SX-ACE 並列プログラミング入門 (HPF) 6 月 19 日 ( 月 ) 13:30-17:30 6 月 20 日 ( 火 ) 13:30-16:30 6 月 26 日 ( 月 ) 10:00-16:30 6 月 27 日 ( 火 ) 13:30-16:30 サイバーメディアセンター吹田本館 2 階中会議室 サイバーメディアセンター吹田本館 2 階中会議室 サイバーメディアセンター吹田本館 2 階中会議室 サイバーメディアセンター吹田本館 2 階中会議室 毎年 2 回開催! 46/56

本日のプログラム I. システムのご紹介 II. 利用方法の解説 実習 i. システムへの接続 ii. プログラムの作成 コンパイル iii. ジョブスクリプトの作成 iv. ジョブスクリプトの投入 III. 利用を希望する方へ 47/56

利用を希望する方へ 本センターの大規模計算機システムは どなたでも利用可能です! 大学院生 教員 研究者 大阪大学 他大学 民間企業 利用負担金が必要になります 48/56

利用負担金 SX-ACE 共有利用 SX-ACE 占有利用 VCC 共有利用 VCC 占有利用 ディスク容量追加オプション (1TB 単位 ) HCC 共有利用 HCC& ディスク 500GB は SX-ACE VCC の利用者に無償で提供しています 2017 年 9 月末サービス終了 49/56

計算機の提供方法 共有利用 ノード時間 単位でノードを利用 利用者全員で一定数のノードを共有 大規模なノード間並列を試せる 待ち時間 が発生する 占有利用 年度 / 月 単位でノードを利用 他の利用者のグループとノードを共有しない 大規模なノード間並列は試し難い 待ち時間 が発生しない 50/56

ノード時間 とは ノード時間 = 計算に使用するノード数 計算時間 ( 単位 : 時間 ) ( 例 ) 1ノードで3 時間の計算 3ノード時間消費 30ノードで5 時間の計算 150ノード時間消費 100ノードで1 時間の計算 100ノード時間消費 1ノードで100 時間の計算 100ノード時間消費 51/56

ノード時間 とは node node 512 ノード node node node node ノード時間は 4 ノード ( 計算終了時間 - 計算開始時間 ) です node node 512 ノード node node node node 1 ノード 4 コア ノード内で使用するコアを限定しても ノード時間は変わりません 52/56

利用可能なアプリケーション AVS/Express * IDL * VisIt Gaussian09 * GROMACS LAMMPS OpenFOAM Relion (VCC で提供 ) MSC Software Marc / Mentat * Dytran * Patran * Adams * Nastran * ( フロントエンド端末で提供 ) * のついたアプリケーションは学内向けにメディア貸出サービスを実施しています 53/56

まずは試用制度をお試しください 3 カ月間下記資源をご提供 無料 SX-ACE VCC 共有利用 共有利用 500 ノード時間 500 ノード時間 ディスク 500GB 付き! 全てのアプリケーションも利用可能です 54/56

利用申請方法 大規模計算機システムの利用申請は随時受け付け中です! 申請は年度単位 (4 月から翌年 3 月まで ) です申請は WEB フォームから受け付けています 詳細は下記のページをご覧ください! 一般利用 ( 学術利用 ) 試用制度による利用 http://osku.jp/u094 http://osku.jp/e029 55/56

大規模計算機システムに関するご質問は 大阪大学情報推進部情報基盤課研究系システム班 system@cmc.osaka-u.ac.jp までお気軽にご連絡ください! 56/56