TSUBAME3.0利用の手引き

Size: px
Start display at page:

Download "TSUBAME3.0利用の手引き"

Transcription

1 第 22 版 2018 年 12 月 3 日

2 目次 1. TSUBAME3.0 概要 システム概念 計算ノードの構成 ソフトウェア構成 ストレージ構成 3 2. システム利用環境 アカウントの取得 ログイン方法 パスワード管理 ログインシェルの変更 TSUBAME ポイントの確認 ストレージサービス (CIFS) 6 3. ユーザ利用環境 利用環境の切換え方法 利用可能な module 環境の表示 module 環境の設定情報表示 module 環境のロード module 環境の表示 module 環境のアンロード module 環境の初期化 バッチスクリプト内での利用 Intel コンパイラ コンパイルの主なオプション コンパイルの推奨最適化オプション Intel 64 アーキテクチャーのメモリモデル指定 並列化 スレッド並列 (OpenMP と自動並列化 ) プロセス並列 (MPI) GPU 環境 インタラクティブ バッチキューへのジョブ投入 対応アプリケーション CUDA 対応の MPI NVIDIA GPUDirect GPUDirect RDMA 15 i

3 GPU の COMPUTE MODE の変更 ジョブスケジューリングシステム 利用可能な資源タイプ ジョブの投入 バッチジョブの流れ ジョブスクリプト ジョブスクリプトの記述例シングルジョブ /GPU ジョブ ジョブスクリプトの記述例 SMP 並列 ジョブスクリプトの記述例 MPI 並列 ジョブスクリプトの記述例プロセス並列 / スレッド並列 ( ハイブリッド ) ジョブの投入 ジョブの状態確認 ジョブの削除 ジョブの結果確認 アレイジョブ インタラクティブジョブの投入 インタラクティブノードを利用した X 転送 シグナル通知 / チェックポイント 予約実行 ストレージの利用 Home ディレクトリ 高速ストレージ領域 ローカルスクラッチ領域 共有スクラッチ領域 SSH ログイン ISV アプリケーション ANSYS Fluent ABAQUS ABAQUS CAE Marc & Mentat / Dytran Marc & Mentat / Dytran の概要 Marc & Mentat / Dytran のマニュアル Marc の使用方法 Mentat の使用方法 Nastran Patran 48 ii

4 5.8. Gaussian GaussView AMBER AMBER の概要 AMBER の使用方法 Materials Studio ライセンス接続設定方法 ライセンス利用状況の確認方法 Materials Studio の起動方法 Discovery Studio ライセンス接続設定方法 ライセンス利用状況の確認方法 Discovery Studio の起動方法 Mathematica Maple AVS/Express AVS/Express PCE LS-DYNA LS-DYNA の概要 LS-DYNA の使用方法 LS-PrePost LS-PrePost の概要 LS-PrePost の使用方法 COMSOL Schrodinger MATLAB Arm Forge フリーウェア 量子化学 /MD 関連ソフトウェア GAMESS Tinker GROMACS LAMMPS NAMD CP2K CFD 関連ソフトウェア OpenFOAM 機械学習 ビックデータ解析関連ソフトウェア 84 iii

5 CuDNN NCCL Caffe Chainer TensorFlow R Apache Hadoop 可視化関連ソフトウェア POV-Ray ParaView VisIt その他フリーウェア gimp gnuplot tgif ImageMagick platex2e Java SDK PETSc fftw singularity 90 改定履歴 92 iv

6 1. TSUBAME3.0 概要 1.1. システム概念 本システムは 東京工業大学における種々の研究 開発部門から利用可能な共有計算機です 本システムの倍精度総理論演算性能は 12.15PFLOPS 総主記憶容量は 135TiB 磁気ディスク容量は 15.9PB です 各計算ノード及びストレージシステムは Omni-Path による高速ネットワークに接続され また現在は 10Gbps の速度でインターネットに接続 将来的には SINET5 を経由し 10Gbps の速度でインターネットに接続されます (2017 年 8 月時点 ) TSUBAME3.0 の全体概念を以下に示します 図 1-1 TSUBAME3.0 の概念図 1

7 1.2. 計算ノードの構成 本システムの計算ノードは SGI ICE XA 540 ノードで構成されたブレード型大規模クラスタシステムです 1 台の計算ノードには Intel Xeon E v4(2.4ghz 14core) を 2 基搭載し 総コア数は 15,120 コアとなります また 主記憶容量は計算ノードあたり 256GiB を搭載し 総主記憶容量は 135TiB となります 各計算ノードは Intel Omni-Path インタフェースを 4 ポート有しており Omni-Path スイッチによりファットツリーで接続されます 図 1-2 SGI ICE XA TSUBAME3.0 のマシンの基本スペックは次の通りです. 表 1-1 計算ノードの構成 演算部名計算ノード 540 台 CPU Intel Xeon E v4 2.4GHz 2CPU ノード構成 (1 台あたり ) コア数 / スレッド 14 コア / 28 スレッド 2CPU メモリ 256GiB GPU NVIDIA TESLA P100 for NVlink-Optimized Servers 4 SSD インターコネクト Intel Omni-Path HFI 100Gbps 4 2TB 2

8 1.3. ソフトウェア構成 本システムのオペレーティングシステム (OS) は 下記の環境を有しています SUSE Linux Enterprise Server 12 SP2 OS 構成は サービス実行形態に応じて動的に変更されます また 本システムで利用可能なアプリケーションソフトウェアに関しては 6. ISV アプリケーション 7. フリーウェア を参照ください 1.4. ストレージ構成 本システムでは 様々なシミュレーション結果を保存するための高速 大容量のストレージを備えています 計算ノードでは高速ストレージ領域として Lustre ファイルシステムにより Home ディレクトリは GPFS+cNFS によりファイル共有されています また 各計算ノードにローカルスクラッチ領域として 2TB の SSD が搭載されています 本システムで利用可能な 各ファイルシステムの一覧を以下に示します 表 1-2 TSUBAME3.0 のファイルシステム 用途 マウント 容量 ファイルシステム 備考 Home ディレクトリ /home 共有アプリケーション配備 /apps 40TB GPFS+cNFS 高速ストレージ領域 1 /gs/hs0 4.8PB Lustre 高速ストレージ領域 2 /gs/hs1 4.8PB Lustre 高速ストレージ領域 3 /gs/hs2 4.8PB Lustre ローカルスクラッチ領域 /scr 各ノード 1.9TB xfs(ssd) 3

9 2. システム利用環境 2.1. アカウントの取得 本システムを利用するには 予め利用申請を行い ユーザ ID を取得する必要があります 学外利用者 学内利用者 臨時利用者の場合で新規利用申請の方法が異なります それぞれの利用者区分 についての操作は TSUBAME3.0 ポータル利用説明書を参照ください 2.2. ログイン方法 ログインノードにアクセスするためには ログインに使う SSH 公開鍵をアップロードする必要があります 公開鍵の登録の操作は TSUBAME3.0 ポータル利用説明書を参照ください 本システムを利用するには まずログインノードにログインする必要があります ログインノードへのログインは ロードバランサによる自動振り分けが行われます 利用イメージを以下に示します ユーザログインログイン処理ジョブ投入 バッチジョブ実行 ロードバランサによる振り分け ログイン用アドレスにアクセス login.t3.gsic.titech.ac.jp ログイン処理部 ( ログインノード ) login0.t3.gsic.titech.ac.jp login1.t3.gsic.titech.ac.jp 計算ノード 計算ノード 図 2-1 計算機の利用イメージ ログイン先には SSH で接続します また ファイル転送は SFTP で接続します login.t3.gsic.titech.ac.jp 任意のログインノードにログインしたい場合は 以下のホスト名 (FQDN) を指定してください login0.t3.gsic.titech.ac.jp login1.t3.gsic.titech.ac.jp 4

10 Linux/Mac/Windows(Cygwin) から X 転送オプションを有効にして接続するには以下の例のようになります 例 ) アカウント名が gsic_user 秘密鍵が ~/.ssh/t3-key の場合 $ ssh gsic_user@login.t3.gsic.titech.ac.jp -i ~/.ssh/t3-key -YC 最初にログインする際 クライアントの設定によっては以下のようなメッセージが出ることが有ります その場合は yes と入力してください The authenticity of host ' login0.t3.gsic.titech.ac.jp ( )' can't be established. ECDSA key fingerprint is SHA256:RImxLoC4tBjIYQljwIImCKshjef4w7Pshjef4wtBj Are you sure you want to continue connecting (yes/no)? ログインノードには プロセスあたり 4GB のメモリ制限があります プログラムの実行は ジョブスケ ジューラを経由して実行してください ジョブスケジューラに関しては 4. ジョブスケジューリングシス テム を参照ください 2.3. パスワード管理 本システムのユーザアカウントは LDAP サーバで管理され システム内の認証は SSH の鍵認証で行っています このため 計算ノードの利用にあたってパスワードを意識する必要はありませんが 学内から高速ストレージへのアクセスなどパスワードが必要になるケースがあります パスワードの変更が必要になる場合は TSUBAME3.0 利用ポータルから行ってください パスワードのルールについては TSUBAME3.0 利用ポータルのパスワード設定のページをご覧ください 2.4. ログインシェルの変更 ユーザ登録の時点で各ユーザアカウントのログインシェルは bash となっています デフォルトのログインシェルを変更するには chsh コマンドを利用ください 利用可能なログインシェルは bash,csh,ksh,tcsh,zsh となります 引数なしの chsh コマンドで利用可能なログインシェルを確認することができます $ chsh Usage: chsh shell(/bin/bash /bin/csh /bin/sh /bin/ksh /bin/tcsh /bin/zsh). 以下は ログインシェルを tcsh に変更する例です $ chsh /bin/tcsh Please input Web Portal Password(not SSH Passphrase) Enter LDAP Password: xxxxxx <-- パスワードを入力してください Changing shell succeded!! 5

11 2.5. TSUBAME ポイントの確認 コマンドでの TSUBAME ポイントの確認は t3-user-info group point コマンドにて確認できます 以下は TESTGROUP の TSUBAME ポイントを確認する例です $ t3-user-info group point -g TESTGROUP gid group_name point xxxx TESTGROUP 参加している TESTGROUP の TUBAME ポイントが ポイントある状況が確認できます 2.6. ストレージサービス (CIFS) TSUBAME3.0 では 高速ストレージ領域に対して学内の Windows/Mac 端末から CIFS によるアクセスが可能で す 以下のアドレスでアクセスすることができます \\gshs.t3.gsic.titech.ac.jp アカウントは TSUBAME3.0 のアカウント パスワードはポータルで設定したパスワードになります Windows からアクセスする際には 以下のように TSUBAME ドメインを指定してください ユーザー名 TSUBAME\<TSUBAME3.0 アカウント名 > パスワード <TSUBAME3.0 アカウントのパスワード > /gs/hs0 /gs/hs1 /gs/hs2 に対応して T3_HS0 T3_HS1 T3_HS2 となっています グループディスクと して購入したディレクトリへアクセスしてください 6

12 3. ユーザ利用環境 3.1. 利用環境の切換え方法 本システムでは module コマンドを使用することでコンパイラやアプリケーション利用環境の切り替えを 行うことができます 利用可能な module 環境の表示 利用可能な module 環境は module avail または module ava で確認できます $ module avail 読み込めるバージョンについては TSUBAME 計算サービス Web ページのシステム構成 > アプリケーションソ フトウェアをご確認下さい [ アプリケーションソフトウェア ] module 環境の設定情報表示 module 環境の設定情報を確認したい場合 module whatis モジュール名 を実行します $ module whatis intel/ intel/ : Intel Compiler version (parallel_studio_xe_2017) and MKL module 環境のロード module 環境をロードしたい場合 module load モジュール名 を実行します $ module load intel/ バッチスクリプトにおいてロードする module は コンパイル時と同様のものをロードしてください module 環境の表示 現在使用している module 環境を確認したい場合 module list を実行します $ module list Currently Loaded Modulefiles: 1) intel/ ) cuda/

13 3.1.5.module 環境のアンロード ロードした module 環境をアンロードしたい場合 module unload モジュール名 を実行します $ module list Currently Loaded Modulefiles: 1) intel/ ) cuda/ $ module unload cuda $ module list Currently Loaded Modulefiles: 1) intel/ module 環境の初期化 ロードした module 環境を初期化したい場合 module purge を実行します $ module list Currently Loaded Modulefiles: 1) intel/ ) cuda/ $ module purge $ module list No Modulefiles Currently Loaded バッチスクリプト内での利用 バッチスクリプト内で module コマンドを実行する場合 以下のとおり バッチスクリプト内で module コ マンドの初期設定を行う必要があります 実行シェルが sh, bash の場合. /etc/profile.d/modules.sh module load intel/ 実行シェルが csh, tcsh の場合 source /etc/profile.d/modules.csh module load intel/

14 3.3. Intel コンパイラ 本システムではコンパイラとして Intel コンパイラ PGI コンパイラおよび GNU コンパイラが利用できま す Intel コンパイラの各コマンドは以下のとおりです 表 3-1 コマンド名とコマンド形式 コマンド 言語 コマンド形式 ifort Fortran 77/90/95 $ ifort [ オプション ] source_file icc C $ icc [ オプション ] source_file icpc C++ $ icpc [ オプション ] source_file 利用する際は module コマンドで intel を読み込んでください --help オプションを指定して頂くとコン パイラオプションの一覧が表示されます コンパイルの主なオプション コンパイルの最適化オプションを以下に示します 表 3-2 コンパイラの主なオプションオプション説明 -O0 すべての最適化を無効にします -O1 最適化を有効にします コードサイズを大きくするだけで高速化に影響を与えるような一部の最適化を無効にします -O2 最適化を有効にします 一般的に推奨される最適化レベルです ベクトル化は O2 以上のレベルで有効になります O オプションを指定しない場合 デフォルトでこちらが指定されます -O3 O2 よりも積極的に最適化を行い 融合 アンロールとジャムのブロック IF 文の折りたたみなど より強力なループ変換を有効にします -xcore-avx2 Intel プロセッサー向けの Intel アドバンスト ベクトル エクステンション 2 (Intel AVX2) Intel AVX SSE4.2 SSE4.1 SSSE3 SSE3 SSE2 SSE 命令を生成します Intel AVX2 命令セット対応の Intel プロセッサー向けに最適化します -xsse4.2 Intel プロセッサー向けの Intel SSE4 高効率および高速な文字列処理命令 Intel SSE4 ベクトル化コンパイラ命令およびメディア アクセラレーター命令 および Intel SSSE3 SSE3 SSE2 SSE 命令を生成します Intel SSE4.2 命令セット対応の Intel プロセッサー向けに最適化します -xssse3 Intel プロセッサー向けの Intel SSSE3 SSE3 SSE2 SSE 命令を生成します Intel 9

15 -qopt-report=n -fp-model precise -g -traceback SSSE3 命令セット対応の Intel プロセッサー向けに最適化します x オプションを指定しない場合 デフォルトでこちらが指定されます 最適化レポートを生成します デフォルトでは レポートは.optrpt 拡張子を持つファイルに出力されます nには 0 ( レポートなし ) から5 ( 最も詳しい ) の詳細レベルを指定します デフォルトは 2 です 浮動小数点演算のセマンティクスを制御します 浮動小数点データの精度に影響する最適化を無効にし 中間結果をソースで定義された精度まで丸めます -g オプションはオブジェクト ファイルのサイズを大きくするシンボリック デバッグ情報をオブジェクト ファイルに生成するようにコンパイラに指示します このオプションは ランタイム時に致命的なエラーが発生したとき ソースファイルのトレースバック情報を表示できるように オブジェクト ファイル内に補足情報を生成するようにコンパイラに指示します 致命的なエラーが発生すると コールスタックの 16 進アドレス ( プログラム カウンター トレース ) とともに ソースファイル ルーチン名 および行番号の相関情報が表示されます マップファイルとエラーが発生したときに表示されるスタックの 16 進アドレスを使用することで エラーの原因を特定できます このオプションを指定すると 実行プログラムのサイズが増えます コンパイルの推奨最適化オプション コンパイルの推奨最適化オプションを以下に示します 本システムに搭載している Intel Xeon E v4 は Intel AVX2 命令セットに対応していますので -xcore-avx2 オプションを指定することができます -xcore-avx2 を指定すると コンパイラがソースコードを解析し 最適な AVX2 AVX SSE 命令を生成します 推奨最適化オプションは積極的な最適化を行い かつ安全なオプションです 最適化のために計算の順序を変更する可能性があり 結果に誤差が生じる場合があります 表 3-3 推奨最適化オプションオプション説明 -O3 O2 最適化を行い 融合 アンロールとジャムのブロック IF 文の折りたたみなど より強力なループ変換を有効にします -xcore-avx2 Intel プロセッサー向けの Intel アドバンスト ベクトル エクステンション 2 (Intel AVX2) Intel AVX SSE4.2 SSE4.1 SSSE3 SSE3 SSE2 SSE 命令を生成します Intel AVX2 命令セット対応の Intel プロセッサー向けに最適化します 10

16 上記のオプションを使用することにより プログラムの性能が悪化した場合 最適化のレベルを -O2 に下 げるかベクトル化のオプションを変更してください また 結果が一致していない場合 浮動小数点のオプ ションも試してみてください Intel 64 アーキテクチャーのメモリモデル指定 次のいずれかのメモリモデルを使用して実行バイナリを作成します 表 3-4 メモリモデル メモリモデル small (-mcmodel=small) medium (-mcmodel=medium) large (-mcmodel=large) 説明コードとデータのすべてのアクセスが 命令ポインター (IP) 相対アドレス指定で行われるように コードとデータはアドレス空間の最初の 2GB までに制限されます -mcmodel オプションを指定しない場合 デフォルトでこちらが指定されます コードはアドレス空間の最初の 2GB までに制限されますが データは制限されません コードは IP 相対アドレス指定でアクセスできますが データのアクセスは絶対アドレス指定を使用する必要があります コードもデータも制限されません コードもデータもアクセスは絶対アドレス指定を使用します IP 相対アドレス指定は 32 ビットのみ必要ですが 絶対アドレス指定は 64 ビット必要です これは コードサイズとパフォーマンスに影響します (IP 相対アドレス指定の方が多少速くアクセスできます ) プログラム内の共通ブロック グローバルデータ 静的データの合計が 2GB を越えるとき リンク時に次のエラーメッセージが出力されます <some lib.a library>(some.o): In Function <function>: : relocation truncated to fit: R_X86_64_PC32 <some symbol> : relocation truncated to fit: R_X86_64_PC32 <some symbol> この場合は -mcmodel=medium と -shared-intel を指定してコンパイル / リンクして下さい medium メモリ モデルまたは large メモリモデルを指定した場合 Intel のランタイム ライブラリの適切なダイナミッ ク バージョンが使用されるように -shared-intel コンパイラ オプションも指定する必要があります 3.4. 並列化 スレッド並列 (OpenMP と自動並列化 ) OpenMP 自動並列化によるスレッド並列によりプログラムの高速化ができます 11

17 OpenMP 自動並列化を使用する場合のコマンド形式を以下に示します 表 3-5 コマンド形式 (OpenMP/ 自動並列化 ) 言語 コマンド形式 OpenMP Fortran 77/90/95 $ ifort -qopenmp [ オプション ] source_file C $ icc -qopenmp [ オプション ] source_file C++ $ icpc -qopenmp [ オプション ] source_file 自動並列化 Fortran 77/90/95 $ ifort -parallel [ オプション ] source_file C $ icc -parallel [ オプション ] source_file C++ $ icpc -parallel [ オプション ] source_file -qopt-report-phase=openmp オプションを使用することで OpenMP 最適化フェーズのレポートを作成することができます -qopt-report-phase=par オプションを使用することで自動並列化フェーズのレポートを作成することができます プロセス並列 (MPI) Fortran/C/C++ プログラムに MPI ライブラリをリンクし プロセス並列プログラムを作成 / 実行すること ができます MPI を使用する場合のコマンド形式を以下に示します 利用する際は module コマンドで各 MPI を読み込んでください 表 3-6 コマンド形式 (MPI) MPI ライブラリ 言語 コマンド形式 Intel MPI Fortran 77/90/95 $ mpiifort [ オプション ] source_file C $ mpiicc [ オプション ] source_file C++ $ mpiicpc [ オプション ] source_file Open MPI Fortran 77/90/95 $ mpifort [ オプション ] source_file C $ mpicc [ オプション ] source_file C++ $ mpicxx [ オプション ] source_file SGI MPT Fortran 77/90/95 $ mpif90 [ オプション ] source_file C $ mpicc [ オプション ] source_file C++ $ mpicxx [ オプション ] source_file 12

18 3.5. GPU 環境 本システムでは GPU(NVIDIA TESLA P100) の利用環境を提供しております インタラクティブ バッチキューへのジョブ投入 ログインノード (login0,1) には GPU を搭載しておらず コンパイル リンクのみ実行可能です インタラクティブでの実行 デバックについては バッチシステムを使用して実行可能です 詳細については 4. ジョブスケジューリングシステムを参照ください 対応アプリケーション 現在の GPU 対応アプリケーションは次の通りです ( 現在 ) ABAQUS ABAQUS 利用の手引 ( 別冊 ) を参照ください NASTRAN NASTRAN 利用の手引 ( 別冊 ) を参照ください ANSYS ANSYS 利用の手引 ( 別冊 ) を参照ください AMBER AMBER 利用の手引 ( 別冊 ) を参照ください Maple Maple 利用の手引 ( 別冊 ) を参照ください Mathematica Mathematica 利用の手引 ( 別冊 ) を参照ください MATLAB --- MATLAB 利用の手引 ( 別冊 ) を参照ください Allinea Forge --- Allinea Forge 利用の手引 ( 別冊 ) を参照ください PGI Compiler --- PGI コンパイラ利用の手引 ( 別冊 ) を参照ください 他のアプリケーションにつきまても 順次展開してまいります CUDA 対応の MPI CUDA 版に対応した MPI 環境を用意しております OpenMPI + gcc 環境 # CUDA Open MPI 環境の読込 (gcc は デフォルトで設定されています ) module load cuda openmpi/2.1.2 OpenMPI + pgi 環境 # CUDA PGI 環境の読込 ( 最初にコンパイラ環境を読み込みます ) module load cuda pgi 13

19 # Open MPI 環境の読込 ( コンパイラに応じた OpenMPI の環境が設定されます ) module load openmpi/2.1.2 OpenMPI + pgi 環境 (PGI バンドル版 ) # CUDA PGI 環境の読込 ( 最初にコンパイラ環境を読み込みます ) module load cuda pgi # Open MPI 環境の読込 module load openmpi/2.1.2-pgi2017 PGI バンドル版においては バッチシステムからとの連携がない為 実行時にホストリストを指定する必要があります 以下にジョブスクリプト例を示します #!/bin/sh #$ -cwd #$ -l f_node=10 #$ -l h_rt=1:00:00 #$ -N test. /etc/profile.d/modules.sh module load cuda pgi module load openmpi/2.1.2-pgi2017 grep ^r $PE_HOSTFILE awk '{print $1,$2}' >./hostlist mpirun --hostfile./hostlist --mca oob_tcp_if_include ib0 --mca btl_tcp_if_include ib0 -npernode 4 -n 40 -x LD_LIBRARY_PATH -x PATH./a.out OpenMPI + Intel 環境 # CUDA Intel 環境の読込 ( 最初にコンパイラ環境を読み込みます ) module load cuda intel # Open MPI 環境の読込 ( コンパイラに応じた OpenMPI の環境が設定されます ) module load openmpi/ NVIDIA GPUDirect 現在 NVIDIA GPUDirect (GPUDIRECT FAMILY) としては 4 つの機能 (GPUDIRECT SHARED GPU SYSMEM GPUDIRECT P2P GPUDIRECT RDMA GPUDIRECT ASYNC) があります ( 現在 ) このうち TSUBAME3.0 では GPUDIRECT SHARED GPU SYSMEM GPUDIRECT P2P GPUDIRECT RDMA をサポートしております 14

20 GPUDIRECT SHARED GPU SYSMEM(Version1) MPI の送受信バッファに CUDA pinned メモリやデバイスメモリのアドレスを直接指定することができる機能です デバイスメモリのアドレスを指定した場合には実際にはデータがホストメモリ上のバッファを経由して転送されます GPUDIRECT P2P(Version2) PCI-Express NVLink を経由した GPU 間の直接データ転送 (P2P) の機能です TSUBAME 3.0 では ノードあたり 4GPU を搭載しておりますが 1 つの CPU あたり PLX switch を介して 2 つの GPU に接続しております 4GPU 間は 高速な NVLink で接続されています GPUDIRECT RDMA(Version3) ホストメモリを介することなく GPU とインターコネクト間 (TSUBAME3.0 では Intel Omni-Path) で直接データ転送 (RDMA) をすることにより異なるノードの GPU 間の高速なデータ転送を実現する機能です GPUDIRECT ASYNC ホストメモリを介することなく GPU とインターコネクト間で非同期通信する機能です 現在 TSUBAME3.0 のの Intel Omni-Path では 未対応です 参考 ) GPUDirect については 以下の URL も参照ください GPUDirect RDMA す OpenMPI での GPUDirect RDMA の実行方法を以下に示します 以下 2 ノード MPI 2 での実行例になりま # mpirun -mca pml cm -mca mtl psm2 -np 2 -npernode 1 -bind-to core -cpu-set 0 -x CUDA_VISIBLE_DEVICES=0 -x PSM2_CUDA=1 -x PSM2_GPUDIRECT=1 -x LD_LIBRARY_PATH -x PATH [ プログラム ] CUDA_VISIBLE_DEVICES --- GPU の指定 PSM2_CUDA --- Omni-Path での CUDA 有効 PSM2_GPUDIRECT --- GPUDirect RDMA 有効 15

21 3.5.6.GPU の COMPUTE MODE の変更 資源タイプ F の f_node を利用した場合 GPU の COMPUTE MODE を変更することが出来ます GPU の COMPUTE MODE を変更するには ジョブスクリプトの中で f_node を指定した上で #$ -v GPU_COMPUTE_MODE=< 利用するモード > を指定してください 利用可能なモードは以下の 3 つです モード説明 0 DEFAULT モード 1 つの GPU を複数のプロセスから同時に利用できる 1 EXCLUSIVE_PROCESS モード 1 つの GPU を 1 プロセスのみが利用できる 1 プロセスから複数スレッドの利用は可能 2 PROHIBITED モード GPU へのプロセス割り当てを禁止する 以下はスクリプトの例となります #!/bin/sh #$ -cwd #$ -l f_node=1 #$ -l h_rt=1:00:00 #$ -N gpumode #$ -v GPU_COMPUTE_MODE=1 /usr/bin/nvidia-smi インタラクティブで利用する場合 qrsh は以下のような形となります $ qrsh -g [TSUBAME3 グループ ] -l f_node=1 -l h_rt=0:10:00 -pty yes -v TERM v GPU_COMPUTE_MODE=1 /bin/bash 16

22 4. ジョブスケジューリングシステム 本システムのジョブスケジューリングには シングルジョブ 並列ジョブを優先度や必要なリソースに従 い効率的にスケジューリングする UNIVA Grid Engine を採用しています 4.1. 利用可能な資源タイプ 本システムでは計算ノードを論理的に分割した資源タイプを利用して システムリソースを確保します ジョブ投入の際には 資源タイプをいくつ使うかを指定します ( 例 :-l f_node=2) 利用できる資源タイプ の一覧を以下に示します 表 4-1TSUBAME3 の資源タイプ一覧 使用物理 資源タイプ 資源タイプ名 メモリ (GB) GPU 数 CPU コア数 F f_node H h_node Q q_node C1 s_core C4 q_core G1 s_gpu 使用物理 CPU コア数 メモリ (GB) GPU 数 は 各資源タイプ 1 つあたりの使用可能な量です [ 資源タイプ名 ] =[ 個数 ] で同じ資源タイプを複数指定できます 資源タイプの組み合わせはできません 実行可能時間の最大値は 24 時間です TSUBAME3 では 同時に実行可能なジョブ数 や 実行可能な総スロット数 など各種制限値があります ( スロット = 資源タイプ毎に設定されている物理 CPU コア数 x 利用ノード数 (qstat コマンドの slots と同等 )) 現在の制限値の一覧は以下の URL で確認できます 利用状況に応じて随時変更する可能性がありますのでご注意ください 17

23 4.2. ジョブの投入 本システムでジョブを実行するには ログインノードへログインして qsub コマンドを実行します バッチジョブの流れ ジョブを投入するためにはジョブスクリプトを作成し投入します または コマンドラインにキュー名な どを指定してジョブを投入することもできます 投入コマンドは qsub です 表 4-2 バッチジョブの流れ順序説明 1 ジョブスクリプトの作成 2 qsub を使用しジョブを投入 3 qstat などを使用しジョブの状態確認 4 必要に応じて qdel を使用しジョブのキャンセル 5 ジョブの結果確認 qsub コマンドは 課金情報 (TSUBAME3 ポイント ) を確認し ジョブを受け付けます ジョブスクリプト ジョブスクリプトの記述方法を以下に示します #!/bin/sh #$ -cwd #$ -l [ 資源タイプ名 ] =[ 個数 ] #$ -l h_rt=[ 経過時間 ] #$ -p [ プライオリティ ] [module の初期化 ] [ プログラミング環境のロード ] [ プログラム実行 ] 資源タイプの指定などはコマンドラインで指定するか またはスクリプトファイルの最初のコメントブロ ック (#$) に記述することで有効になります 資源タイプ 実行時間は必須項目になるため必ず指定するよ うにしてください 18

24 qsub コマンドの主なオプションを以下に示します 表 4-3qsub コマンドの主なオプションオプション説明 -l [ 資源タイプ名 ] =[ 個数 ] 資源タイプを指定します ( 必須 ) -l h_rt=[ 経過時間 ] Wall time( 経過時間 ) を指定します [[HH:]MM:]SS で指定することができま ( 必須 ) す HH:MM:S や MM:SS や SS のように指定することができます -N ジョブ名を指定します ( 指定しない場合はスクリプトファイル名 ) -o 標準出力ファイル名を指定します -e 標準エラー出力ファイル名を指定します -j y 標準エラー出力を標準出力ファイルに統合します -m ジョブについての情報をメールで送信する条件を指定します a バッチシステムによりジョブが中止された場合 b ジョブの実行が開始された場合 e ジョブの実行が終了した場合 abe のように組み合わせることも可能です -M 送信先メールアドレスを指定します -p ジョブの実行優先度を指定します -3,-4 を指定すると通常よりも高い課金 ( プレミアムオプション ) 係数が適用されます 設定値の-5,-4,-3 は課金規則の優先度 0,1,2 に対応します -5 : 標準の実行優先度です. ( デフォルト ) -4 : 実行優先度は-5 より高く,-3 より低くなります. -3 : 最高の実行優先度となります. -t タスク ID の範囲を指定します 開始番号 - 終了番号 [: ステップサイズ ] で指定することができます -hold_jid 依存関係にあるジョブ ID を指定します 指定された依存ジョブが終了しなければ 発行ジョブは実行されません -ar 予約ノードを利用する際に予約 AR ID を指定します 本システムではジョブ投入環境の環境変数渡しの -V オプションは利用できません ご注意ください 19

25 ジョブスクリプトの記述例シングルジョブ /GPU ジョブ シングルジョブ ( 並列化されていないジョブ ) を実行する時に作成するバッチスクリプトの例を以下に示します GPU を使用するジョブも利用する GPU で利用する module の読み込み以外はシングルジョブと同様になります #!/bin/sh # カレントディレクトリでジョブを実行する場合に指定 #$ -cwd #$ -l f_node=1 # 実行時間を指定 #$ -l h_rt=1:00:00 #$ -N serial # Module コマンドの初期化. /etc/profile.d/modules.sh # CUDA 環境の読込 module load cuda # Intel Compiler 環境の読込 module load intel./a.out 20

26 ジョブスクリプトの記述例 SMP 並列 SMP 並列ジョブを実行する時に作成するバッチスクリプトの例を以下に示します 計算ノードはハイパー スレッディングが有効になっています 使用するスレッド数につきましては, 明示的に指定してください #!/bin/sh #$ -cwd # 資源タイプ F 1 ノードを使用 #$ -l f_node=1 #$ -l h_rt=1:00:00 #$ -N openmp. /etc/profile.d/modules.sh module load cuda module load intel # ノード内に 28 スレッドを配置 export OMP_NUM_THREADS=28./a.out 21

27 ジョブスクリプトの記述例 MPI 並列 MPI 並列ジョブを実行する時に作成するバッチスクリプトの例を以下に示します 使用する MPI 環境により使い分けをお願いします OpenMPI でスレーブノードにライブラリ環境変数を渡たすには -x LD_LIBRARY_PATH を利用する必要があります Intel MPI 環境 #!/bin/sh #$ -cwd # 資源タイプ F 4 ノードを使用 #$ -l f_node=4 #$ -l h_rt=1:00:00 #$ -N flatmpi. /etc/profile.d/modules.sh module load cuda module load intel # Intel MPI 環境の読込 module load intel-mpi # ノードあたり 8 プロセス MPI 全 32 プロセスを使用 mpiexec.hydra -ppn 8 -n 32./a.out OpenMPI 環境 #!/bin/sh #$ -cwd # 資源タイプ F 4 ノードを使用 #$ -l f_node=4 #$ -l h_rt=1:00:00 #$ -N flatmpi. /etc/profile.d/modules.sh module load cuda module load intel # Open MPI 環境の読込 module load openmpi # ノードあたり 8 プロセス MPI 全 32 プロセスを使用 mpirun -npernode 8 -n 32 -x LD_LIBRARY_PATH./a.out 22

28 SGI MPT 環境 #!/bin/sh #$ -cwd # 資源タイプ F 4 ノードを使用 #$ -l f_node=4 #$ -l h_rt=1:00:00 #$ -N flatmpi. /etc/profile.d/modules.sh module load cuda module load intel # SGI MPT 環境の読込 module load mpt # ノードあたり 8 プロセス MPI 全 32 プロセスを使用 mpiexec_mpt -ppn 8 -n 32./a.out 投入したジョブに対して割り当てられているノードリストは $PE_HOSTFILE にファイルが格納されます $ echo $PE_HOSTFILE /var/spool/uge/r6i0n4/active_jobs/4564.1/pe_hostfile $ cat /var/spool/uge/r6i0n4/active_jobs/4564.1/pe_hostfile r6i0n4 28 all.q@r6i0n4 <NULL> r6i3n5 28 all.q@r6i3n5 <NULL> 23

29 ジョブスクリプトの記述例プロセス並列 / スレッド並列 ( ハイブリッド ) プロセス並列 / スレッド並列 ( ハイブリッド ) のジョブを実行する時に作成するバッチスクリプトの例を以下に示します 使用する MPI 環境により使い分けをお願いします OpenMPI でスレーブノードにライブラリ環境変数を渡たすには -x LD_LIBRARY_PATH を利用する必要があります Intel MPI 環境 #!/bin/sh #$ -cwd # 資源タイプ F 4 ノードを使用 #$ -l f_node=4 #$ -l h_rt=1:00:00 #$ -N hybrid. /etc/profile.d/modules.sh module load cuda module load intel module load intel-mpi # ノード内に 28 スレッドを配置 export OMP_NUM_THREADS=28 # ノードあたり MPI 1 プロセス 全 4 プロセスを使用 mpiexec.hydra -npernode 1 -n 4./a.out OpenMPI 環境 #!/bin/sh #$ -cwd # 資源タイプ F 4 ノードを使用 #$ -l f_node=4 #$ -l h_rt=1:00:00 #$ -N hybrid. /etc/profile.d/modules.sh module load cuda module load intel module load openmpi # ノード内に 28 スレッドを配置 export OMP_NUM_THREADS=28 # ノードあたり MPI 1 プロセス 全 4 プロセスを使用 mpirun -ppn 1 -n 4 -x LD_LIBRARY_PATH./a.out 24

30 ジョブの投入 ジョブを実行するために バッチリクエストを事前に作成する必要があります qsub コマンドにジョブ投入スクリプトを指定することで ジョブがキューイングされ実行されます qsub コマンドを使用してジョブを投入する例を以下に示します $ qsub -g [TSUBAME3 グループ ] スクリプト名 表 4-4 ジョブ投入時のオプションオプション説明 -g TSUBAME3 グループ名を指定します スクリプトの中ではなく qsub コマンドのオプションとしてつけてください グループ指定が未指定の場合は資源タイプ 2 つまで 経過時間 10 分間まで 優先度 -5 の お試し実行 となります ジョブの状態確認 qstat コマンドはジョブ状態表示コマンドです $ qstat [ オプション ] qstat コマンドの主なオプションを以下に示します 表 4-5 qstat コマンドのオプション オプション 説明 -r ジョブのリソース情報を表示します -j [ ジョブ ID] ジョブに関する追加情報を表示します qstat コマンドの実行結果を以下に示します $ qstat job-idprior nameuser statesubmit/start at queuejclass slotsja-task-id sample.sh testuser r 02/12/ :48:10 all.q@r8i6n1a.default32 省略 25

31 qstat コマンドの表示内容を以下に示します 表 4-6 qstat コマンドの表示内容 表示項目 Job-ID prior name user state submit/start at queue jclass slots ja-task-id 説明ジョブ ID を表示します 優先度を表示します ジョブ名を表示します ジョブのオーナーを表示します ジョブのステータスを表示します r 実行中 qw 待機中 h ホールド中 d 削除中 t 移動中 s サスペンド状態 一時停止 S サスペンド状態 キューのサスペンド状態 T サスペンド状態 制限超過によるサスペンド E エラー状態投入 / 開始日時を表示します キュー名を表示します ジョブクラス名を表示します 利用しているスロット数を表示します ( スロット = 資源タイプ毎に設定されている物理 CPU コア数 x 利用ノード数 ) アレイジョブに関してタスク ID を表示します ジョブの削除 バッチジョブを削除する場合には qdel コマンドを使用します $ qdel [ ジョブ ID] 以下にジョブを qdel した結果を示します $ qstat job-idprior nameuser statesubmit/start at queuejclass slotsja-task-id sample.sh testuser r 02/12/ :48:10 all.q@r8i6n1a.default32 $ qdel 307 testuser has registered the job 307 for deletion 26

32 $ qstat job-idprior nameuser statesubmit/start at queuejclass slotsja-task-id ジョブの結果確認 UGE のジョブの標準出力はジョブを実行したディレクトリの スクリプトファイル名.o ジョブ ID というフ ァイルに保管されます また 標準エラー出力は スクリプトファイル名.e ジョブ ID です アレイジョブ ジョブスクリプト内に含まれる操作をパラメータ化して繰り返し実行する機能としてアレイジョブ機能があります アレイジョブで実行される各ジョブをタスクと呼び タスク ID によって管理されます またタスク ID を指定しないジョブ ID は タスク ID 全部を範囲とします タスク番号の指定は qsub コマンドのオプションもしくはジョブスクリプト内で定義します 投入オプションは -t 開始番号 - 終了番号 : ステップサイズとして指定します ステップサイズが 1 の場合は省略可能です 以下に例を示します # ジョブスクリプト内にて以下を指定 #$ t 2-10:2 上記例 (2-10:2) では 開始番号 2 終了番号 10 ステップサイズ 2 (1 つ飛ばしのインデックス ) が指定され タスク番号 の 5 つのタスクによって構成されます 各タスクのタスク番号は $SGE_TASK_ID という環境変数に設定されるため この環境変数をジョブスクリプト内で利用することで パラメータスタディが可能となります 結果ファイルはジョブ名の後ろにタスク ID が付いた形で出力されます また 実行前 / 実行中に特定のタスク ID を削除したい場合には 以下のように qdel の-t オプションを使用します $ qdel[ ジョブ ID] t [ タスク ID] 4.3. インタラクティブジョブの投入 本システムのジョブスケジューラでは インタラクティブにプログラムやシェルスクリプトを実行する機 能を有しています インタラクティブジョブを実行するためには qrsh コマンドを使用し -l で資源タイプ 経過時間を指定します qrsh でジョブ投入後 ジョブがディスパッチされるとコマンドプロンプトが返って 27

33 きます exit にてインタラクティブジョブを終了します インタラクティブジョブの使用方法を以下に示し ます $ qrsh -g [TSUBAME3 グループ ] -l [ 資源タイプ ]=[ 個数 ] -l h_rt=[ 経過時間 ] -g オプションのグループ指定が未指定の場合は資源タイプ 2 つまで 経過時間 10 分間まで 優先度 -5 の お試し実行 となります 資源タイプ F 1 ノード数 経過時間 10 分を指定した例 $ qrsh -g [TSUBAME3 グループ ] -l f_node=1 -l h_rt=0:10:00 Directory: /home/4/t3-test00 Mon Jul 24 02:51:18 JST インタラクティブノードを利用した X 転送 qrsh で接続したノードから直接 X 転送を行う場合は 下記の手順にて接続ください (1) X 転送を有効にしてログインノードに ssh (2) X 転送を有効にして qrsh コマンドの実行 コマンド実行例例では 2 時間接続で 割り当てノードとして r0i0n0 が割り当てられた場合を想定しております 割り当てノードはコマンド実行時に空いているノードですので 明示的にノードを指定することはできません #qrsh の実行 $ qrsh -g [TSUBAME3 グループ ] -l s_core=1 -l h_rt=2:0:0 -pty yes -display $DISPLAY -v TERM /bin/bash Thu Sep 21 08:17:19 JST 2017 r0i0n0:~> module load < 読み込みたいアプリケーション > r0i0n0:~> < 実行したいアプリケーションの実行コマンド > 28

34 4.4. シグナル通知 / チェックポイント ジョブが -notify オプションとともにサブミットされた場合 サスペンド (SIGSTOP)/ 終了 (SIGKILL) の停止信号が送られる前に警告シグナル (SIGUSR1 SIGUSR2) をジョブに送信することができます 本システムでは遅延時間は 60 秒に設定されています # ジョブスクリプト内にて以下を指定 #$ notify 以下の例ではジョブスケジューラからの SIGKILL が来た際に再キューイング (exit 99) を行い 計算プログラムから再実行を行います #!/bin/sh # 他の指定については記載を省略 #$ -notify # SIGUSR2 シグナルをトラップ trap 'exit 99' SIGUSR2 # リスタートの場合処理をスキップ if [ $RESTARTED = 0 ]; then # 前処理プログラムの実行./preprogram.exe fi # 計算プログラムの実行./mainprogram.exe ジョブが-ckpt オプションとともにサブミットされた場合は チェックポインティングに対応したアプリケーションではジョブの状態を保存し ジョブが休止または中断した際にこの時点から再開する処理をすることができます # ジョブスクリプト内にて以下を指定 #$ ckpt user c オプション qsub コマンドの関連オプションを以下に示します オプション説明 -ckpt user チェックポイント環境の名前 -c ジョブのチェックポイントがトリガされる状態遷移を指定します s ジョブホストの実行デーモンが停止した場合にチェックポイントを設定します m キューで定義された min_cpu_interval の間隔でチェックポイントを 29

35 設定します 現在の設定は 5 分です x ジョブがサスペンドされた場合にチェックポイントを設定します sx のように組み合わせることも可能です 以下の例ではジョブホストの停止 ジョブのサスペンド ジョブホストの不明状態の際に再キューイングを行い 計算プログラムから再実行を行います #!/bin/sh # 他の指定については記載を省略 #$ -ckpt user #$ -c sx # 1 回目の実行 / リスタートの場合の処理を記載 if [ $RESTARTED = 0 ]; then./preprogram.exe # 前処理プログラムの実行 fi./mainprogram.exe # 計算プログラムの実行 また DMTCP を使用した場合は以下の例のようになります #!/bin/sh # 他の指定については記載を省略 #$ -ckpt user #$ -c sx module load dmtcp export DMTCP_CHECKPOINT_DIR=< イメージの保存先 > export DMTCP_COORD_HOST=`hostname` export DMTCP_CHECKPOINT_INTERVAL=< チェックポイント取得間隔 > dmtcp_coordinator --quiet --exit-on-last --daemon 2>&1 # DMTCP の実行 # 1 回目の実行 / リスタートの場合の処理を記載 if [ $RESTARTED = 0 ]; then dmtcp_launch./a.out # DMTCP 経由でプログラムの実行 else $DMTCP_CHECKPOINT_DIR/dmtcp_restart_script.sh # イメージからのリスタート fi DMTCP については以下のページを参照ください 30

36 4.5. 予約実行 計算ノードを予約することにより 24 時間を越えるジョブ の実行が可能です 72 ノードを超えるジョブ に関しては TSUBAME3 における各種制限値の制約を受けるため 大規模ジョブを投入の場合はお問い合わせください 予約実行の流れは以下のようになります 表 4-7 予約実行の流れ順序説明 1 TSUBAME ポータルから予約の実行 2 TSUBAME ポータルから予約状況の確認 キャンセル 3 予約ノードに対して qsub を使用しジョブを投入 4 必要に応じて qdel を使用しジョブのキャンセル 5 ジョブの結果確認 ポータルからの予約の実行 予約状況の確認 予約のキャンセルに関して TSUBAME3.0 ポータル利用説明書 をご参照ください 予約時間になりましたら 予約グループのアカウントでジョブの実行ができるようになります 予約 ID である AR ID を指定したジョブ投入の例を以下に示します $ qsub -g [TSUBAME3 グループ ] ar [AR ID] スクリプト名 予約実行で利用できる資源タイプは f_node,h_node,q_node になります q_core,s_core,s_gpu は利用できません ジョブ投入後のジョブの状態確認は qstat コマンド ジョブの削除は qdel コマンドを使用します また スクリプトの書式は通常実行時のものと同じになります 31

37 4.6. ストレージの利用 本システムでは Home ディレクトリ以外にも高速ストレージ領域の Lustre ファイルシステム ローカル スクラッチ領域の SSD 領域 SSD をまとめて作成する共有スクラッチ領域の BeeGFS On Demand といった様々 な並列ファイルシステムを利用することができます Home ディレクトリ HOME ディレクトリはユーザあたり 25GiB を利用できます 使用容量は t3-user-info disk home コマンドにて確認できます 以下は TESTUSER の HOME ディレクトリの容量を確認する例です $ t3-user-info disk home uid name b_size(gb) b_quota(gb) i_files i_quota xxxx TESTUSER GB のクォータ制限のうち 7GB 利用し inode 制限については 200 万のクォータ制限のうち 約 10 万 利用している状況が確認できます 高速ストレージ領域 高速ストレージ領域は Lustre ファイルシステムで構成され グループディスクとして購入することで利用 することができます グループディスクの購入方法は TSUBAME3.0 ポータル利用説明書 をご参照ください グループディスクの使用容量は t3-user-info disk group コマンドにて確認できます 以下は TESTGROUP のグループディスクの容量を確認する例です $ t3-user-info disk group g TESTGROUP /gs/hs0 /gs/hs1 /gs/hs2 gid group_name size(tb) quota(tb) file(m) quota(m) size(tb) quota(tb) file(m) quota(m) size(tb) quota(tb) file(m) quota(m) xxxx TESTGROUP 指定した TESTGROUP グループでは /gs/hs1 のみ購入し 100TB のクォータ制限のうち 約 60TB 利用し inode 制限については 2 億のクォータ制限のうち 750 万利用している状況が確認できます 32

38 ローカルスクラッチ領域 SSD をローカルスクラッチ領域として使用することができます 利用する際には $TMPDIR にローカルスクラッチ領域のパスが設定されます ジョブスクリプトの中で 作業領域のパスを指定することにより参照可能です ローカルスクラッチ領域は各計算ノードの個別領域となり共有されていないため ジョブスクリプト内からのインとアウトをローカルホストにステージングする必要があります 下記の例では 使用する計算ノードが 1 ノードの場合に ホームディレクトリからローカルスクラッチ領域にインプットデータセットをコピーし 結果をホームディレクトリに返します ( 複数ノードは対応していません ) #!/bin/sh # 計算に必要な入力ファイルのコピー cp rp $HOME/datasets $TMPDIR/ # 入力 出力を指定する計算プログラムの実行./a.out $TMPDIR/datasets $TMPDIR/results # 必要な結果ファイルのコピー cp rp $TMPDIR/results $HOME/results 共有スクラッチ領域 資源タイプ F の f_node を利用したバッチスクリプトの場合のみ 確保した複数の計算ノードの SSD をオンデマンドに共有ファイルシステムとして作成する BeeGFS On Demand を利用できます BeeGFS On Demand を有効にするには ジョブスクリプトの中で f_node を指定した上で #$ -v USE_BEEOND=1 を指定してください BeeGFS On Demand は計算ノード上の /beeond にマウントされます 以下はスクリプトの例となります #!/bin/sh #$ -cwd #$ -l f_node=4 #$ -l h_rt=1:00:00 #$ -N flatmpi #$ -v USE_BEEOND=1. /etc/profile.d/modules.sh module load cuda module load intel module load intel-mpi mpiexec.hydra -ppn 8 -n 32./a.out 33

39 インタラクティブで利用する場合 qrsh は以下のような形となります 利用しない場合と比べ ディスクの マウント処理に少し時間を要します $ qrsh -g [TSUBAME3 グループ ] -l f_node=2 -l h_rt=0:10:00 -pty yes -v TERM v USE_BEEOND=1 /bin/bash BeeGFS On Demand 共有スクラッチ領域はジョブで確保されたタイミングで作成されるため ジョブスクリプト内からのインとアウトを /beeond にステージングする必要があります 下記の例では ホームディレクトリから BeeGFS On Demand 共有スクラッチ領域にインプットデータセットをコピーし 結果をホームディレクトリに返します #!/bin/sh # 計算に必要な入力ファイルのコピー cp rp $HOME/datasets /beeond/ # 入力 出力を指定する計算プログラムの実行./a.out $TMPDIR/datasets /beeond/results # 必要な結果ファイルのコピー cp rp /beeond/results $HOME/results 34

40 4.7. SSH ログイン 資源タイプ f_node でジョブを行ったノードには直接 ssh でログインできます 確保したノードは以下の手順により 確認することができます qstat -j 1463 ============================================================== job_number: 1463 jclass: NONE exec_file: job_scripts/1463 submission_time: 07/29/ :15: owner: t3-test00 uid: 1804 group: tsubame-users0 gid: 1800 supplementary group: tsubame-users0, t3-test-group00 sge_o_home: /home/4/t3-test00 sge_o_log_name: t3-test00 sge_o_path: /apps/t3/sles12sp2/uge/latest/bin/lx-amd64:/apps/t3/sles12sp2/uge/latest/bin/lx-amd64:/home/4/t3 -test00/bin:/usr/local/bin:/usr/bin:/bin:/usr/bin/x11:/usr/games sge_o_shell: /bin/bash sge_o_workdir: /home/4/t3-test00/koshino sge_o_host: login0 account: cwd: /home/4/t3-test00 hard resource_list: h_rt=600,f_node=1,gpu=4 mail_list: t3-test00@login0 notify: FALSE job_name: flatmpi priority: 0 jobshare: 0 env_list: RGST_PARAM_01=0,RGST_PARAM_02=1804,RGST_PARAM_03=1800,RGST_PARAM_04=2,RGST_PARAM_05=0,RGST_PARAM _06=0,RGST_PARAM_07=0,RGST_PARAM_08=0,RGST_PARAM_09=0,RGST_PARAM_10=600,RGST_PARAM_11=0 script_file: flatmpi.sh parallel environment: mpi_f_node range: 56 35

41 department: defaultdepartment binding: NONE mbind: NONE submit_cmd: qsub flatmpi.sh start_time 1: 07/29/ :15: job_state 1: r exec_host_list 1: r8i6n3:28, r8i6n4:28 <-- 確保したノード r8i6n3 r8i6n4 granted_req. 1: f_node=1, gpu=4 usage 1: wallclock=00:00:00, cpu=00:00:00, mem= GBs, io= GB, iow=0.000 s, ioops=0, vmem=n/a, maxvmem=n/a binding 1: r8i6n3=0,0:0,1:0,2:0,3:0,4:0,5:0,6:0,7:0,8:0,9:0,10:0,11:0,12:0,13:1,0:1,1:1,2:1,3:1,4:1,5:1,6:1,7:1,8:1,9:1,10:1,11:1,12:1,13, r8i6n4=0,0:0,1:0,2:0,3:0,4:0,5:0,6:0,7:0,8:0,9:0,10:0,11:0,12:0,13:1,0:1,1:1,2:1,3:1,4:1,5:1,6:1,7:1,8:1,9:1,10:1,11:1,12:1,13 resource map 1: f_node=r8i6n3=(0), f_node=r8i6n4=(0), gpu=r8i6n3=( ), gpu=r8i6n4=( ) scheduling info: (Collecting of scheduler job information is turned off) 36

42 5. ISV アプリケーション ライセンス契約上 ISV アプリケーションを利用できる利用者は限られます 東工大に所属する 1. 学生証 職員証 以外の利用者は以下に挙げるアプリケーション以外の ISV アプリケーションを利用できません 1. Gaussian/Gauss View 2. AMBER 3. Intel Compiler 4. PGI Compiler 5. Arm Forge ISV アプリケーションの一覧表を以下に示します ソフトウェア名 ANSYS Fluent ABAQUS ABACUS CAE Marc & Mentant / Dytran Nastran Patran Gaussian GaussView AMBER Materials Studio Discovery Studio Mathematica Maple AVS/Express AVS/Express PCE LS-DYNA LS-PrePost COMSOL Schrodinger MATLAB Arm Forge Intel Compiler PGI Compiler 概要解析ソフトウェア解析ソフトウェア解析ソフトウェア解析ソフトウェア解析ソフトウェア解析ソフトウェア解析ソフトウェア量子化学計算プログラム量子化学計算プログラムプリポストツール分子動力学計算プログラム化学シミュレーションソフトウェア化学シミュレーションソフトウェア数式処理ソフトウェア数式処理ソフトウェア可視化ソフトウェア可視化ソフトウェア解析ソフトウェア解析ソフトウェアプリポストツール解析ソフトウェア化学シミュレーションソフトウェア数値計算ソフトウェアデバッガコンパイラコンパイラ 37

43 5.1. ANSYS GUI での利用手順を以下に示します $ module load ansys $ launcher CLI での利用手順を以下に示します $ module load ansys $ mapdl mapdl コマンドの代わりに以下のコマンドも使用できます (ANSYS18.2 の場合 バージョンによって異なります ) $ ansys182 exit と入力すると終了します 入力ファイルを指定すると非対話的に実行されます 実行例 1 $ mapdl [options] < inputfile > outputfile 実行例 2 $ mapdl [options] -i inputfile -o outputfile 38

44 バッチキューシステムを使用する場合は シェルスクリプトを作成し CLI で以下のように実行します sample.sh を使用する場合 $ qsub sample.sh スクリプト例 :MPI 並列処理 #!/bin/bash #$ -cwd #$ -V #$ -l f_node=2 #$ -l h_rt=0:10:0. /etc/profile.d/modules.sh module load ansys mapdl -b -dis -np 56 < inputfile > outputfile スクリプト例 :GPU 使用 #!/bin/bash #$ -cwd #$ -V #$ -l f_node=1 #$ -l h_rt=0:10:0. /etc/profile.d/modules.sh module load ansys mapdl -b -dis -np 28 -acc nvidia -na 4 < inputfile > outputfile ANSYS のライセンス利用状況を以下のコマンドで確認できます $ lmutil lmstat -S ansyslmd -c 27001@lice0:27001@remote:27001@t3ldap1 39

45 5.2. Fluent Fluent は熱流体解析アプリケーションです 利用手順を以下に示します GUI での起動手順を以下に示します $ module load ansys $ fluent 40

46 CLI での起動手順を以下に示します $ module load ansys $ fluent -g exit と入力すると終了します journal ファイルを使用してインタラクティブに実行する場合は以下のようにコマンドを実行します journal ファイル名が fluentbench.jou 3D の場合 $fluent 3d -g -i fluentbench.jou バッチキューシステムを使用する場合は シェルスクリプトを作成し CLI で以下のように実行します sample.sh を利用する場合 $ qsub sample.sh 41

47 スクリプト例 :MPI 並列処理 (f_node 利用時 ) #!/bin/bash #$ -cwd #$ -V #$ -l f_node=2 #$ -l h_rt=0:10:0. /etc/profile.d/modules.sh module load ansys JOURNAL=journalfile OUTPUT=outputfile VERSION=3d fluent -mpi=intel -g ${VERSION} -cnf=${pe_hostfile} -i ${JOURNAL} > ${OUTPUT} 2>&1 スクリプト例 :MPI 並列処理 (h_node 利用時 ) #!/bin/bash #$ -cwd #$ -V #$ -l h_node=1 #$ -l h_rt=0:10:0. /etc/profile.d/modules.sh module load ansys JOURNAL=journalfile OUTPUT=outputfile VERSION=3d fluent -ncheck -mpi=intel -g ${VERSION} -cnf=${pe_hostfile} -i ${JOURNAL} > ${OUTPUT} 2>&1 f_node 以外の利用では資源をまたぐ設定ができないため #$ -l { 資源名 }=1 ( 例えば h_node では #$ -l h_node=1) とし コマンド中に -ncheck オプションを入れてください Fluent のライセンス利用状況を以下のコマンドで確認できます $ lmutil lmstat -S ansyslmd -c 27001@lice0:27001@remote:27001@t3ldap1 42

48 5.3. ABAQUS インタラクティブでの利用手順を以下に示します $ module load abaqus $ abaqus job=inputfile [options] バッチキューシステムを使用する場合は シェルスクリプトを作成し CLI で以下のように実行します sample.sh を利用する場合 $ qsub sample.sh スクリプト例 :MPI 並列処理 #!/bin/bash #$ -cwd #$ -V #$ -l q_core=1 #$ -l h_rt=0:10:0. /etc/profile.d/modules.sh module load abaqus # ABAQUS settings. INPUT=s2a ABAQUS_VER=2017 ABAQUS_CMD=abq${ABAQUS_VER} SCRATCH=${TMPDIR} NCPUS=4 ${ABAQUS_CMD} interactive \ job=${input} \ cpus=${ncpus} \ scratch=${scratch} \ mp_mode=mpi > ${INPUT}.`date '+%Y%m%d%H%M%S'`log 2>&1 43

49 5.4. ABAQUS CAE ABAQUS CAE の利用手順を以下に示します $ module load abaqus $ abaqus cae メニューバーの File > Exit をクリックすると終了します 44

50 5.5. Marc & Mentat / Dytran Marc & Mentat / Dytran の概要 各製品の概要はエムエスシーソフトウェア株式会社の Web サイトをご参照ください Marc: Dytran: Marc & Mentat / Dytran のマニュアル 下記ドキュメントをご参照ください Marc & Mentat Docs (mscsoftware.com) Dytran Docs (mscsoftware.com) Marc の使用方法 インタラクティブでの利用手順を以下に示します 使用したいバージョンに適宜読み替えてご実行ください $ module load intel intel-mpi cuda marc_mentat/2017 サンプルファイル (e2x1.dat) の場合 $ cp /apps/t3/sles12sp2/isv/msc/marc/marc2017/demo/e2x1.dat./ $ marc -jid e2x Mentat の使用方法 Mentat の起動手順を以下に示します 使用したいバージョンに適宜読み替えてご実行ください $ module load intel intel-mpi cuda marc_mentat/2017 $ mentat 45

51 メニューバーの File > Exit をクリックすると終了します Mentat のライセンス利用状況を以下のコマンドで確認できます $ lmutil lmstat -S MSC -c 27004@lice0:27004@remote:27004@t3ldap1 46

52 5.6. Nastran 使用したいバージョンに適宜読み替えてご実行ください Nastran の起動手順を以下に示します $ module load nastran/ サンプルファイル (um24.dat) の場合 $ cp /apps/t3/sles12sp2/isv/msc/msc_nastran/20171/msc20171/nast/demo/um24.dat./ $ nast20171 um24 Nastran のバッチ投入手順を以下に示します サンプルファイル (parallel.sh) の場合 $ qsub parallel.sh スクリプト例 :CPU 並列処理 #!/bin/bash #$ -cwd #$ -l q_core=1 #$ -l h_rt=0:10:00 #$ -V export NSLOTS=4. /etc/profile.d/modules.sh module load cuda openmpi nastran/ mpirun -np $NSLOTS \ nast20171 parallel=$nslots um24 Nastran のライセンス利用状況を以下のコマンドで確認できます $ lmutil lmstat -S MSC -c 27004@lice0:27004@remote:27004@t3ldap1 47

53 5.7. Patran Patran の起動手順を以下に示します 使用したいバージョンに適宜読み替えてご実行ください $ module load patran/ $ pat2017 終了する際は File>EXIT Patran のライセンス利用状況を以下のコマンドで確認できます $ lmutil lmstat -S MSC -c 27004@lice0:27004@remote:27004@t3ldap1 48

54 5.8. Gaussian インタラクティブな利用手順を以下に示します GPU を利用するモジュールを読み込む場合 ( 環境変数 GAUSS_CDEF 及び GAUSS_GDEF を自動設定します ) $ module load gaussian16/revision_gpu $ g16 inputfile revision には使用するリビジョンを指定してください Gaussian16 Rev.B01 の場合は以下の通りです $ module load gaussian16/b01_gpu デフォルトモジュールを読み込む場合 ( 環境変数 GAUSS_CDEF/GAUSS_GDEF は設定されません ) H30 年 9 月現時点のデフォルトモジュールは GPU 向け環境変数を自動設定しない B01 ですが 次回のメンテナンス時にはデフォルトモジュールを GPU 向けの B01_gpu に変更予定です $ module load gaussian16 $ g16 inputfile Linda 並列版モジュールを読み込む場合 $ module load gaussian16_linda $ g16 inputfile バッチキューシステムを使用する場合は シェルスクリプトを作成し CLI で以下のように実行します sample.sh を使用する場合 $ qsub sample.sh スクリプト例 : ノード内並列処理 Glycine の構造最適化および振動解析 (IR+ ラマン強度 ) を計算する場合のサンプルスクリプトです 下記の glycine.sh glycine.gjf を同一ディレクトリ上に配置し 下記コマンドを実行することで計算ができます 計算後に glycine.log glycine.chk が生成されます 解析結果の確認については GaussView にてご説明します $ qsub glycine.sh glycine.sh #!/bin/bash #$ -cwd #$ -l f_node=1 #$ -l h_rt=0:10:0 #$ -V 49

55 . /etc/profile.d/modules.sh module load gaussian16 g16 glycine.gjf glycine.gjf %chk=glycine.chk %cpu=0-27 環境変数 GAUSS_CDEF/GAUSS_GDEF を自動設定するモジュールを読み込んだ場合は不要 %gpucpu=0-3=0,1,2,3 GPU を使用しない場合や環境変数を自動設定するモジュールを読み込んだ場合は不要 %mem=120gb #P opt=(calcfc,tight,rfo) freq=(raman) glycine Test Job 0 2 N H H H C H C H H H H H O H O H H H

56 5.9. GaussView GaussView は Gaussian の結果を可視化するアプリケーションです GaussView の利用手順を以下に示します $ module load gaussian16 gaussview $ gview.exe メニューバーから File > Exit をクリックすると終了します 解析例 :glycine.log Gaussian の項にてサンプルとして例示しているスクリプトを実行した結果ファイルの解析を例にご説明します $ module load gaussian16 gaussview $ gview.exe glycine.log 51

57 Result から解析結果の確認が可能です Result>Summary にて計算の概要 Result>ChageDistribution で電荷情報 Vibration から振動解析の結果を確認できます サンプルでは振動解析を行っているので Vibration ダイアログの StartAnimation から振動の様子を確認できます 52

58 5.10. AMBER AMBER の概要 AMBER は本来タンパク質 核酸の分子動力学計算のために開発されたプログラムですが 最近では糖用のパラメータも開発され 化学 生物系の研究のために益々有用なツールとなってきました ご自分の研究で利用する場合は マニュアルや関連する論文等の使用例をよく調べて AMBER が採用しているモデルや理論の限界 応用範囲等を把握しておくことが必要です 現在 AMBER はソースコードを無制限にコピーすることはできませんが 東工大内部で利用することは可能なので これを基にさらに発展した手法を取り込むことも可能です AMBER の使用方法 使用したいバージョンに適宜読み替えてご実行ください (1) インタラクティブでの逐次処理の場合の利用手順を以下に示します $ module load amber/16 $ sander [-O A] -i mdin -o mdout -p prmtop -c inpcrd -r restrt (2) インタラクティブでの並列処理 (sander.mpi) の場合の利用手順を以下に示します $ module load amber/16 $ mpirun -np -[ 並列数 ] sander.mpi [-O A] -i mdin -o mdout -p prmtop -c inpcrd -r restrt (3) インタラクティブでの GPU 逐次処理 (pmemd.cuda) の場合の利用手順を以下に示します $ module load amber/16_cuda $ pmemd.cuda [-O] -i mdin -o mdout -p prmtop -c inpcrd -r restrt (4) インタラクティブでの GPU 並列処理 (pmemd.cuda.mpi) の場合の利用手順を以下に示します $ module load amber/16_cuda $ mpirun -np -[ 並列数 ] pmemd.cuda.mpi [-O] -i mdin -o mdout -p prmtop -c inpcrd -r restrt (5) バッチキューシステムの場合の利用手順を以下に示します parallel.sh を利用する場合 $ qsub parallel.sh スクリプト例 :CPU 並列処理 #!/bin/bash #$ -cwd #$ -l f_node=2 53

59 #$ -l h_rt=0:10:00 #$ -V export NSLOTS=56 in=./mdin out=./mdout_para inpcrd=./inpcrd top=./top cat <<eof > $in Relaxtion of trip cage using &cntrl imin=1,maxcyc=5000,irest=0, ntx=1, nstlim=10, dt=0.001, ntc=1, ntf=1, ioutfm=1 ntt=9, tautp=0.5, tempi=298.0, temp0=298.0, ntpr=1, ntwx=20, ntb=0, igb=8, nkija=3, gamma_ln=0.01, cut=999.0,rgbmax=999.0, idistr=0 / eof. /etc/profile.d/modules.sh module load amber/16 mpirun -np $NSLOTS \ sander.mpi -O -i $in -c $inpcrd -p $top -o $out < /dev/null /bin/rm -f $in restrt スクリプト例 :GPU 並列処理 #!/bin/bash #$ -cwd #$ -l f_node=2 #$ -l h_rt=0:10:0 54

60 #$ -V export NSLOTS=56 in=./mdin out=./mdout inpcrd=./inpcrd top=./top cat <<eof > $in FIX (active) full dynamics ( constraint dynamics: constant volume) &cntrl ntx = 7, irest = 1, ntpr = 100, ntwx = 0, ntwr = 0, ntf = 2, ntc = 2, tol = , cut = 8.0, nstlim = 500, dt = , nscm = 250, ntt = 0, lastist = , lastrst = , / eof. /etc/profile.d/modules.sh module load amber/16_cuda mpirun -np $NSLOTS \ pmemd.cuda.mpi -O -i $in -c $inpcrd -p $top -o $out < /dev/null /bin/rm -f $in restrt 55

61 5.11. Materials Studio ライセンス接続設定方法 スタートメニューからすべてのプログラム > BIOVIA > Licensing > License Administrator を 管理者として実行します [Connections] を開き [Set] をクリックして Set License Server ダイアログを開きます Redundant servers にチェックを入れ ホスト名とポート番号を下図のように入力し [OK] をクリックしま す 56

62 Server Status が Connected と表示されれば設定完了です Materials Studio を利用するためには 2 ホスト以上のライセンスサーバーへの接続が確立している必要 があります ライセンス利用状況の確認方法 (1) Windows での確認方法スタートメニューからすべてのプログラム > BIOVIA > Licensing > License Administrator > Utilities (FLEXlm LMTOOLs) を実行します [Service/License File] タブを開き [Configulation using License File] を選択します MSI_LICENSE_FILE と表示されていることを確認します 57

63 [Server Status] タブを開き [Perform Status Enqurity] をクリックすると ライセンスの利用状況が表示されます 特定のライセンスのみを表示したい場合は [Individual Feature] に表示したいライセンス名を入力して [Perform Status Enqurity] を実行します (2) ログインノード上での確認方法 以下のコマンドを実行すると 利用状況が表示されます $ lmutil lmstat -S msi -c 27005@lice0,27005@remote,27005@t3ldap Materials Studio の起動方法 Materials Studio がインストールされた Windows 環境においてスタートメニューを表示し BIOVIA > Materials Studio 2017 R2 をクリックして起動します 58

64 5.12. Discovery Studio ライセンス接続設定方法 スタートメニューからすべてのプログラム > BIOVIA > Licensing > License Administrator を 管理者として実行します [Connections] を開き [Set] をクリックして Set License Server ダイアログを開きます Redundant servers にチェックを入れ ホスト名とポート番号を下図のように入力し [OK] をクリックしま す 59

65 Server Status が Connected と表示されれば設定完了です Discovery Studio を利用するためには 2 ホスト以上のライセンスサーバーへの接続が確立している必要 があります ライセンス利用状況の確認方法 (1) Windows での確認方法スタートメニューからすべてのプログラム > BIOVIA > Licensing > License Administrator > Utilities (FLEXlm LMTOOLs) を実行します [Service/License File] タブを開き [Configulation using License File] を選択します MSI_LICENSE_FILE と表示されていることを確認します 60

66 [Server Status] タブを開き [Perform Status Enqurity] をクリックすると ライセンスの利用状況が表示されます 特定のライセンスのみを表示したい場合は [Individual Feature] に表示したいライセンス名を入力して [Perform Status Enqurity] を実行します (2) ログインノード上での確認方法 以下のコマンドを実行すると 利用状況が表示されます $ lmutil lmstat -S msi -c 27005@lice0,27005@remote,27005@t3ldap Discovery Studio の起動方法 Discovery Studio がインストールされた Windows 環境においてスタートメニューを表示し BIOVIA > Discovery Studio 2017 R2 64-bit Client をクリックして起動します 61

67 5.13. Mathematica CLI での起動手順を示します $ module load mathematica $ math Mathematica Kernel for Linux x86 (64-bit) Copyright Wolfram Research, Inc. In[1]:= Quit と入力すると終了します GUI での起動手順を以下に示します $ module load mathematica $ Mathematica 終了する場合は ノートブックのメニューバーから [File] を選択し Exit をクリックします 62

68 63

69 5.14. Maple Maple は数式処理 数値計算アプリケーションです Maple の利用方法の例を以下に示します 使用したいバージョンに適宜読み替えてご実行ください CLI での起動手順を以下に示します $ module load maple/ $ maple \^/ Maple 2016 (X86 64 LINUX)._ \ / _. Copyright (c) Maplesoft, a division of Waterloo Maple Inc \ MAPLE / All rights reserved. Maple is a trademark of < > Waterloo Maple Inc. Type? for help. > quit と入力すると終了します GUI での起動手順を以下に示します $ module load maple/ $ xmaple 64

70 メニューバーの File > Exit をクリックすると終了します Maple のライセンス利用状況を以下のコマンドで確認できます $ lmutil lmstat -S maplelmg -c 27007@lice0:27007@remote:27007@t3ldap1 65

71 5.15. AVS/Express AVS/Express の利用手順を以下に示します $ module load avs/8.4 $ xp ハードウェアアクセラレーションを無効にして起動する場合は-nohw オプションを付けて実行してください メニューバーの File > Exit をクリックすると終了します 以下のコマンドでライセンス利用状況を確認できます $ w3m 66

72 5.16. AVS/Express PCE AVS/Express PCE の利用手順を以下に示します $ module load avs/8.4 $ para_start メニューバーの File > Exit をクリックすると終了します 以下のコマンドでライセンス利用状況を確認できます $ w3m 67

73 5.17. LS-DYNA LS-DYNA の概要 LS-DYNA は 陽解法により構造物の大変形挙動を時刻履歴で解析するプログラムで 衝突 / 衝撃解析 落下解析 塑性加工解析 貫通 / 亀裂 / 破壊解析などに威力を発揮し これらの分野では世界有数の導入実績を誇る信頼性の高いプログラムです LS-DYNA の使用方法 LS-DYNA はバッチジョブで利用します 利用手順を以下に示します 使用したいバージョンに適宜読み替えてご実行ください SMP 単精度版 run_smps_r9.1.0.sh を実行する場合 $ qsub run_smps_r9.1.0.sh SMP 倍精度版 run_smpd_r9.1.0.sh を実行する場合 $ qsub run_smpd_r9.1.0.sh MPP 単精度版 run_mpps_r node-avx2.sh を実行する場合 $ qsub run_mpps_r node-avx2.sh MPP 倍精度版 run_mppd_r node-avx2.sh を実行する場合 $ qsub run_mppd_r node-avx2.sh スクリプト例 :SMP 単精度版 #!/bin/bash #$ -cwd #$ -V #$ -l h_node=1 #$ -l h_rt=0:10:0 68

74 . /etc/profile.d/modules.sh module load cuda/ module load lsdyna/r9.1.0 export exe=smpdynas export NCPUS=4 export OMP_NUM_THREADS=${NCPUS} export INPUT=airbag_deploy.k ${exe} i=${input} ncpus=${ncpus} スクリプト例 :SMP 倍精度版 #!/bin/bash #$ -cwd #$ -V #$ -l h_node=1 #$ -l h_rt=0:10:0. /etc/profile.d/modules.sh module load cuda/ module load lsdyna/r9.1.0 export exe=smpdynad export NCPUS=4 export OMP_NUM_THREADS=${NCPUS} export INPUT=airbag_deploy.k ${exe} i=${input} ncpus=${ncpus} スクリプト例 :MPP 単精度版 #!/bin/bash #$ -cwd #$ -V #$ -l h_node=1 #$ -l h_rt=0:10:0 69

75 . /etc/profile.d/modules.sh module load cuda/ module load lsdyna/r9.1.0 mpt/2.16 export exe=mppdynas_avx2 export dbo=l2as_avx2 export NCPUS=4 export OMP_NUM_THREADS=1 export INPUT=airbag_deploy.k export MPI_BUFS_PER_PROC=512 export MPI_REMSH=ssh mpiexec_mpt -v -np 4 dplace -s1 ${exe} i=${input} ncpus=${ncpus} ${dbo} binout* スクリプト例 :MPP 倍精度版 #!/bin/bash #$ -cwd #$ -V #$ -l h_node=1 #$ -l h_rt=0:30:0. /etc/profile.d/modules.sh module load cuda/ module load lsdyna/r9.1.0 mpt/2.16 export exe=mppdynad_avx2 export dbo=l2ad_avx2 export NCPUS=4 export OMP_NUM_THREADS=1 export INPUT=airbag_deploy.k export MPI_BUFS_PER_PROC=512 export MPI_REMSH=ssh 70

76 mpiexec_mpt -v -np 4 dplace -s1 ${exe} i=${input} ncpus=${ncpus} ${dbo} binout* スクリプトは 利用者の環境に合わせて変更してください 上記スクリプト例では インプットファイルは シェルスクリプト内で INPUT=inputfile として指定しています LS-DYNA のライセンス利用状況は以下のコマンドで確認できます $ lstc_qrun 71

77 5.18. LS-PrePost LS-PrePost の概要 LS-PrePost は LS-DYNA と合わせて無償提供されている先進的なプリポストツールになります ユーザインターフェースは効率的かつ直感的に扱えるようにデザインされています LS-PrePost は高速なレンダリングと XY プロットを実現するために OpenGL グラフィックスを利用します LS-PrePost の使用方法 LS-PrePost の起動手順を以下に示します $ module load lsprepost/4.3 $ lsprepost Livermore Software Technology Corporation L S - P R E P O S T Advanced Pre- and Post-Processor for LS-DYNA LS-PrePost(R) V Jul2017 LSTC Copyright (C) All Rights Reserved OpenGL version 3.0 Mesa

78 メニューバーの File>Exit をクリックすると終了します 73

79 5.19. COMSOL COMSOL の利用手順を以下に示します $ module load comsol $ comsol メニューバーの File > Exit をクリックすると終了します COMSOL のライセンス利用状況を以下のコマンドで確認できます $ lmutil lmstat -S LMCOMSOL -c 27009@lice0:27009@remote:27009@t3ldap1 74

80 5.20. Schrodinger Schrodinger の利用手順を以下に示します Ligprep の CLI 実行例 : $ module load schrodinger/feb-17 SMILES 形式の入力ファイルを使用し,MAE 形式で出力する場合 $ ligprep -ismiinputfile -omaeoutputfile GUI で利用する場合は Maestro を起動します $ module load schrodinger/feb-17 $ maestro メニューバーの File > Exit をクリックすると終了します Schrodinger のライセンス利用状況を以下のコマンドで確認できます $ lmutil lmstat -S SCHROD -c 27010@lice0:27010@remote:27010@t3ldap1 75

81 5.21. MATLAB MATLAB は行列計算などの数値計算やデータの可視化をすることのできるアプリケーションです MATLAB の利用方法の例を以下に示します $ module load matlab $ matlab CLI での使用手順について $ module load matlab $ matlab -nodisplay 終了するには exit を入力します MATLAB のライセンス利用状況を以下のコマンドで確認できます $ lmutil lmstat -S MLM -c 27014@lice0:27014@remote:27014@t3ldap1 76

82 5.22. Arm Forge Arm Forge の利用方法を以下に示します $ module load forge $ forge メニューバーの File > Exit をクリックすると終了します 77

83 6. フリーウェア フリーウェアの一覧表を以下に示します 表 6-1 フリーウェア一覧 ソフトウェア名 概要 GAMESS ソルバ シミュレータ Tinker ソルバ シミュレータ GROMACS ソルバ シミュレータ LAMMPS ソルバ シミュレータ NAMMD ソルバ シミュレータ CP2K ソルバ シミュレータ OpenFOAM ソルバ シミュレータ 可視化 CuDNN GPU ライブラリ NCCL GPU ライブラリ Caffe DeepLearning フレームワーク Chainer DeepLearning フレームワーク TensorFlow DeepLearning フレームワーク R インタプリタ (Rmpi,rpud に対応 ) Apache Hadoop 分散データ処理ツール POV-Ray 可視化 ParaView 可視化 VisIt 可視化 Gimp ツール ( 可視化 ) Gnuplot 可視化 Tgif 描画ツール ImageMagick 画像処理ツール TeX Live TeX ディストリビューション java SDK 開発環境 PETSc リニアシステムソルバ ライブラリ Fftw 高速フーリエ変換ライブラリ 78

84 6.1. 量子化学 /MD 関連ソフトウェア GAMESS GAMESS はオープンソースの第一原理分子量子化学計算アプリケーションです バッチキューシステムを利用した GAMESS の利用方法の例を以下に示します #!/bin/bash #$ -cwd #$ -l f_node=1 #$ -l h_rt=0:10:0 #$ -N gamess. /etc/profile.d/modules.sh module load intel intel-mpi gamess cat $PE_HOSTFILE awk '{print $1}' > $TMPDIR/machines cd $GAMESS_DIR./rungms exam08 mpi 4 4 詳細な説明は以下に記載されています Tinker Tinker はバイオポリマーの為の特別な機能を備えた 分子動力学の為のモデリングソフトウェアです バッチキューシステムを利用した Tinker の利用方法の例を以下に示します #!/bin/bash #$ -cwd #$ -l f_node=1 #$ -l h_rt=0:10:0 #$ -N tinker. /etc/profile.d/modules.sh module load intel tinker cp -rp $TINKER_DIR/example $TMPDIR cd $TMPDIR/example dynamic waterbox.xyz -k waterbox.key cp -rp $TMPDIR/example $HOME 79

85 詳細な説明は以下に記載されています GROMACS GROMACS は分子動力学しミュレーションとエネルギー最小化を行う為のエンジンです バッチキューシステムを利用した GROMACS の利用方法の例を以下に示します #!/bin/bash #$ -cwd #$ -l f_node=1 #$ -l h_rt=0:10:0 #$ -N gromacs. /etc/profile.d/modules.sh module load cuda intel-mpi gromacs cp -rp $GROMACS_DIR/examples/water_GMX50_bare.tar.gz $TMPDIR cd $TMPDIR tar xf water_gmx50_bare.tar.gz cd water-cut1.0_gmx50_bare/3072 gmx_mpi grompp -f pme.mdp OMP_NUM_THREADS=2 mpirun -np 4 gmx_mpi mdrun cp -rp $TMPDIR/water-cut1.0_GMX50_bare $HOME 詳細な説明は以下に記載されています 80

LS-DYNA 利用の手引 第 1 版 東京工業大学学術国際情報センター 2017 年 9 月 25 日

LS-DYNA 利用の手引 第 1 版 東京工業大学学術国際情報センター 2017 年 9 月 25 日 LS-DYNA 利用の手引 第 1 版 東京工業大学学術国際情報センター 2017 年 9 月 25 日 目次 1. はじめに 1 1.1. 利用できるバージョン 1 1.2. 概要 1 1.3. マニュアル 1 2. TSUBAME3 での利用方法 2 2.1. LS-DYNA の実行 2 2.1.1. TSUBAME3 にログイン 2 2.1.2. バージョンの切り替え 2 2.1.3. インタラクティブノードでの

More information

TSUBAME3.0利用の手引き

TSUBAME3.0利用の手引き 2019-09-03 Page 1 1. TSUBAME3.0 概要 1.1. システム概念 本システムは 東京工業大学における種々の研究 開発部門から利用可能な共有計算機です 本システムの倍精度総理論演算性能は12.15PFLOPS 総主記憶容量は 135TiB 磁気ディスク容量は15.9PBです 各計算ノード及びストレージシステムは Omni-Pathによる高速ネットワークに接続され また現在は20Gbpsの速度でインターネットに接続

More information

TSUBAME3.0利用説明会

TSUBAME3.0利用説明会 TSUBAME3.0 利用講習会 www.t3.gsic.titech.ac.jp 平成 29 年度版 (Rev.20180223) 東京工業大学学術国際情報センター共同利用推進室 Copyright (C) 2018 GSIC All Rights Reserved. TSUBAME3.0 利用講習会 1 CONTENTS 歴史 概要 ハードウェア ソフトウェア仕様 利用法 ( ログイン ) 利用可能アプリケーション~module~

More information

TSUBAME3.0利用説明会

TSUBAME3.0利用説明会 TSUBAME3.0 利用講習会 www.t3.gsic.titech.ac.jp 平成 30 年度版 (Rev.20181207) 東京工業大学学術国際情報センター共同利用推進室 Copyright (C) 2018 GSIC All Rights Reserved. TSUBAME3.0 利用講習会 1 CONTENTS 歴史 概要 ハードウェア ソフトウェア仕様 利用開始とログイン 利用可能アプリケーション~module~

More information

TSUBAME3.0利用説明会

TSUBAME3.0利用説明会 TSUBAME3.0 利用講習会 www.t3.gsic.titech.ac.jp 平成 31 年度版 (Rev.20190412) 東京工業大学学術国際情報センター共同利用推進室 Copyright (C) 2019 GSIC All Rights Reserved. TSUBAME3.0 利用講習会 1 CONTENTS 歴史 概要 ハードウェア ソフトウェア仕様 利用開始とログイン 利用可能アプリケーション~module~

More information

目次 LS-DYNA 利用の手引き 1 1. はじめに 利用できるバージョン 概要 1 2. TSUBAME での利用方法 使用可能な LS-DYNA の実行 4 (1) TSUBAMEにログイン 4 (2) バージョンの切り替え 4 (3) インタラ

目次 LS-DYNA 利用の手引き 1 1. はじめに 利用できるバージョン 概要 1 2. TSUBAME での利用方法 使用可能な LS-DYNA の実行 4 (1) TSUBAMEにログイン 4 (2) バージョンの切り替え 4 (3) インタラ LS-DYNA 利用の手引 東京工業大学学術国際情報センター 2016.04 version 1.10 目次 LS-DYNA 利用の手引き 1 1. はじめに 1 1.1 利用できるバージョン 1 1.2 概要 1 2. TSUBAME での利用方法 1 2.1 使用可能な 1 2.2 LS-DYNA の実行 4 (1) TSUBAMEにログイン 4 (2) バージョンの切り替え 4 (3) インタラクティブ実行

More information

TSUBAME利用手引き

TSUBAME利用手引き TSUBAME3.0 利用の手引き TSUBAME ポータル編 2018/10/30 東京工業大学学術国際情報センター共同利用推進室 Copyright (C) 2010-2018 GSIC All Rights Reserved. TSUBAME ポータル利用の手引き もご参照ください http://www.t3.gsic.titech.ac.jp/docs/tsubame3.0_portal_users_guide.html

More information

Microsoft Word - ユーザ向け利用の手引き_v0.3.doc

Microsoft Word - ユーザ向け利用の手引き_v0.3.doc 京 データポスト処理システム 利用の手引 0.3 版 改版履歴版 更新日付 内容 0.1 2012/4/11 新規作成 0.2 2012/9/6 ログインサーバ名の変更に伴う修正パスワード認証を禁止し 公開鍵認証のみ可能にしたことによる変更本手引きの題目の変更 2 章の名称を変更 京 経由の利用方法 多段接続に関する記述を追加計算ノードでの公開鍵の登録を Fowardagent を行うことで代えられる旨を追加

More information

GridEngineユーザーマニュアル

GridEngineユーザーマニュアル 目次 1 インストール概要... 2 2 コマンド例... 3 3 出荷設定... 6 4 ジョブの投入例... 8 付録 A... 10 A.1 HPC システムズお問い合わせ先... 10 Copyright HPC SYSTEMS Inc. All Rights Reserved. 1 1 インストール概要 (1) パッケージ http://gridscheduler.sourceforge.net/

More information

Microsoft Word - appli_SMASH_tutorial_2.docx

Microsoft Word - appli_SMASH_tutorial_2.docx チュートリアル SMASH version 2.2.0 (Linux 64 ビット版 ) 本チュートリアルでは 量子化学計算ソフトウェア SMASH バージョン 2.2.0 について ソフトウェアの入手 / 実行モジュール作成 / 計算実行 / 可視化処理までを例示します 1. ソフトウェアの入手以下の URL よりダウンロードします https://sourceforge.net/projects/smash-qc/files/smash-2.2.0.tgz/download

More information

インテル(R) Visual Fortran コンパイラ 10.0

インテル(R) Visual Fortran コンパイラ 10.0 インテル (R) Visual Fortran コンパイラー 10.0 日本語版スペシャル エディション 入門ガイド 目次 概要インテル (R) Visual Fortran コンパイラーの設定はじめに検証用ソースファイル適切なインストールの確認コンパイラーの起動 ( コマンドライン ) コンパイル ( 最適化オプションなし ) 実行 / プログラムの検証コンパイル ( 最適化オプションあり ) 実行

More information

Microsoft Word - HOKUSAI_system_overview_ja.docx

Microsoft Word - HOKUSAI_system_overview_ja.docx HOKUSAI システムの概要 1.1 システム構成 HOKUSAI システムは 超並列演算システム (GWMPC BWMPC) アプリケーション演算サーバ群 ( 大容量メモリ演算サーバ GPU 演算サーバ ) と システムの利用入口となるフロントエンドサーバ 用途の異なる 2 つのストレージ ( オンライン ストレージ 階層型ストレージ ) から構成されるシステムです 図 0-1 システム構成図

More information

Total View Debugger 利用の手引 東京工業大学学術国際情報センター version 1.0

Total View Debugger 利用の手引 東京工業大学学術国際情報センター version 1.0 Total View Debugger 利用の手引 東京工業大学学術国際情報センター 2015.04 version 1.0 目次 Total View Debugger 利用の手引き 1 1. はじめに 1 1.1 利用できるバージョン 1 1.2 概要 1 1.3 マニュアル 1 2. TSUBAME での利用方法 2 2.1 Total View Debugger の起動 2 (1) TSUBAMEにログイン

More information

TSUBAME2.5 利用の手引き TSUBAME2.5 利用ポータル編 2014/12/03 学術国際情報センター 共同利用推進室 Copyright (C) GSIC All Rights Reserved.

TSUBAME2.5 利用の手引き TSUBAME2.5 利用ポータル編 2014/12/03 学術国際情報センター 共同利用推進室 Copyright (C) GSIC All Rights Reserved. TSUBAME2.5 利用の手引き TSUBAME2.5 利用ポータル編 2014/12/03 学術国際情報センター 共同利用推進室 Copyright (C) 2010-2014 GSIC All Rights Reserved. http://tsubame.gsic.titech.ac.jp/ja の 各種利用の手引き から TSUBAME2.5 利用ポータル利用の手引き も参照してください

More information

PowerPoint プレゼンテーション

PowerPoint プレゼンテーション 東京工業大学 TSUBAME3.0 の紹介 東京工業大学学術国際情報センター共同利用推進室渡邊寿雄 kyoyo@gsic.titech.ac.jp H30/09/28 平成 31 年度 HPCI システム利用研究課題募集第 4 回説明会 TSUBAME の歴史 2006 TSUBAME1.0 85TFlops/1.1PB アジア No.1!! みんなのスパコン 2013/9 TSUBAME2.5 5.7PFlops/7.1PB

More information

東北大学金属材料研究所 並列計算 インフォマティクスサーバ マニュアル 2019 年 10 月 3 日 東北大学金属材料研究所計算材料学センター

東北大学金属材料研究所 並列計算 インフォマティクスサーバ マニュアル 2019 年 10 月 3 日 東北大学金属材料研究所計算材料学センター 東北大学金属材料研究所 並列計算 インフォマティクスサーバ マニュアル 2019 年 10 月 3 日 東北大学金属材料研究所計算材料学センター 目次 1 並列計算 インフォマティクスサーバ概要... 1-2 1.1 構成 スペック... 1-3 1.2 サーバ構成... 1-3 2 ログイン方法... 2-4 2.1 可視化サーバへのログイン方法... 2-5 2.2 プライベートインフォマティクスサーバ

More information

インテル® Parallel Studio XE 2019 Composer Edition for Fortran Windows : インストール・ガイド

インテル® Parallel Studio XE 2019 Composer Edition for Fortran Windows : インストール・ガイド インテル Parallel Studio XE 2019 Composer Edition for Fortran Windows インストール ガイド エクセルソフト株式会社 Version 1.0.0-20180918 目次 1. はじめに....................................................................................

More information

TSUBAME利用手引き

TSUBAME利用手引き TSUBAME2.5 利用の手引き TSUBAME2.5 利用ポータル編 2017/05/16 学術国際情報センター 共同利用推進室 Copyright (C) 2010-2017 GSIC All Rights Reserved. http://tsubame.gsic.titech.ac.jp/ja の 各種利用の手引き から TSUBAME2.5 利用ポータル利用の手引き も参照してください

More information

Gromacsユーザーマニュアル

Gromacsユーザーマニュアル 目次 1 Gromacs について... 2 2 Gromacs インストール概要... 3 3 Gromacs 実行例... 5 4 既知の問題点... 6 付録 A... 7 A.1 HPC システムズお問い合わせ先... 7 Copyright HPC SYSTEMS Inc. All Rights Reserved. 1 1 Gromacs について Gromacs はグローニンゲン大学で開発された分子動力学シミュレーションのソフトウェアパッケージです

More information

新スーパーコンピュータ 「ITOシステム」利用講習会

新スーパーコンピュータ 「ITOシステム」利用講習会 1 新スーパーコンピュータ ITO システム 利用講習会 九州大学情報基盤研究開発センター 2017 年 10 月 ITO システムの構成 2 3 ITO システムの特徴 最新ハードウェア技術 Intel Skylake-SP NVIDIA Pascal + NVLink Mellanox InfiniBand EDR 対話的な利用環境の拡充 合計 164 ノードのフロントエンド ノード当たりメモリ量

More information

Hphi実行環境導入マニュアル_v1.1.1

Hphi実行環境導入マニュアル_v1.1.1 HΦ の計算環境構築方法マニュアル 2016 年 7 月 25 日 東大物性研ソフトウェア高度化推進チーム 目次 VirtualBox を利用した HΦ の導入... 2 VirtualBox を利用した MateriAppsLive! の導入... 3 MateriAppsLive! への HΦ のインストール... 6 ISSP スパコンシステム B での HΦ の利用方法... 8 各種ファイルの置き場所...

More information

$ cmake --version $ make --version $ gcc --version 環境が無いあるいはバージョンが古い場合は yum などを用いて導入 最新化を行う 4. 圧縮ファイルを解凍する $ tar xzvf gromacs tar.gz 5. cmake を用

$ cmake --version $ make --version $ gcc --version 環境が無いあるいはバージョンが古い場合は yum などを用いて導入 最新化を行う 4. 圧縮ファイルを解凍する $ tar xzvf gromacs tar.gz 5. cmake を用 本マニュアルの目的 Linux サーバー版 Gromacs インストールマニュアル 2015/10/28 本マニュアルでは 単独ユーザが独占的に Linux サーバー (CentOS 6.6) を使用して Gromacs ジョブを実行するための環境構築方法と Winmostar のリモートジョブ機能による計算手順を示しています つまり複数ユーザが共同使用する計算サーバー等は対象外です そのため計算環境は全てユーザのホームディレクトリ配下で行う構築することを想定しています

More information

インテル® Parallel Studio XE 2019 Composer Edition for Fortran Windows 日本語版 : インストール・ガイド

インテル® Parallel Studio XE 2019 Composer Edition for Fortran Windows 日本語版 : インストール・ガイド インテル Parallel Studio XE 2019 Composer Edition for Fortran Windows 日本語版インストール ガイド エクセルソフト株式会社 Version 2.1.0-20190405 目次 1. はじめに.................................................................................

More information

Reedbush 利用の手引き 2 ノートパソコンの設定 : 公開鍵の生成 登録 ネットワーク環境に接続してから行ってください

Reedbush 利用の手引き 2 ノートパソコンの設定 : 公開鍵の生成 登録 ネットワーク環境に接続してから行ってください Reedbush 利用の手引き 1 お試しアカウント付き 並列プログラミング講習会 Reedbush 利用の手引き 東京大学情報基盤センター Reedbush 利用の手引き 2 ノートパソコンの設定 : 公開鍵の生成 登録 ネットワーク環境に接続してから行ってください Reedbush 利用の手引き 3 鍵の作成 1. ターミナルを起動する 2. 以下を入力する $ ssh- keygen t rsa

More information

appli_HPhi_install

appli_HPhi_install 2018/3/7 HΦ version 3.0.0 インストール手順書 (Linux 64 ビット版 ) 目次 1. アプリケーション概要...- 1-2. システム環境...- 1-3. 必要なツール ライブラリのインストール...- 1-1 cmake...- 2-2 numpy...- 3-4. アプリケーションのインストール...- 4-5. 動作確認の実施...- 5 - 本手順書は HΦ

More information

Microsoft Word - appli_OpenMX_install.docx

Microsoft Word - appli_OpenMX_install.docx OpenMX version 3.8.3 インストール手順書 (Linux 64 ビット版 ) 目次 1. アプリケーション概要... 1 2. システム環境... 1 3. アプリケーションのインストール... 1 4. 動作確認の実施... 4 本手順書は OpenMX の入手からインストールまでを説明した資料です 2018/3/7 1. アプリケーション概要 本手順書が対象としているアプリケーションは以下の通りです

More information

TSUBAME2.5 利用講習会 平成 26 年度版 (Rev ) 東京工業大学学術国際情報センター共同利用推進室 Copyright (C) GSIC All Rights Reserved.

TSUBAME2.5 利用講習会 平成 26 年度版 (Rev ) 東京工業大学学術国際情報センター共同利用推進室 Copyright (C) GSIC All Rights Reserved. TSUBAME2.5 利用講習会 平成 26 年度版 (Rev.20141203) 東京工業大学学術国際情報センター共同利用推進室 Copyright (C) 2010-2014 GSIC All Rights Reserved. CONTENTS 概要 ( 仕様 ) 情報源 (FAQ URL) 利用法 ( ログイン ) 仮パスワード変更と公開鍵の設定 ファイルシステム ( ディレクトリ ) 利用可能アプリケーション

More information

TSUBAME利用講習会

TSUBAME利用講習会 TSUBAME2.5 利用講習会 平成 29 年度版 (Rev.20170817) 東京工業大学学術国際情報センター共同利用推進室 Copyright (C) 2010-2017 GSIC All Rights Reserved. CONTENTS 概要 ( 仕様 ) 情報源 (FAQ URL) 利用法 ( ログイン ) 仮パスワード変更と公開鍵の設定 ファイルシステム ( ディレクトリ ) 利用可能アプリケーション

More information

1. 作業フロー 公開鍵 / 秘密鍵の生成 スパコンゲートウェイノードへの ログイン時に使用する鍵の作成 公開鍵の設置 スパコンゲートウェイノードへの ログイン時に使用する公開鍵をスパコンに登録 SSH 接続確認 スパコンゲートウェイノード / インタラクティブノードへのログイン 初期パスワードの変

1. 作業フロー 公開鍵 / 秘密鍵の生成 スパコンゲートウェイノードへの ログイン時に使用する鍵の作成 公開鍵の設置 スパコンゲートウェイノードへの ログイン時に使用する公開鍵をスパコンに登録 SSH 接続確認 スパコンゲートウェイノード / インタラクティブノードへのログイン 初期パスワードの変 Mac 環境での遺伝研スパコンシステムログイン手順 目次 1. 作業フロー... 2 2. 公開鍵 / 秘密鍵の生成... 3 3. 公開鍵の設置... 6 4. SSH 接続確認... 10 5. アカウント登録証に記載されているパスワードの変更... 13 6. スパコンへのデータ転送 (FileZilla 編 )... 14 7. スパコンへのデータ転送 ( ターミナル編 )... 19 8.

More information

この時お使いの端末の.ssh ディレクトリ配下にある known_hosts ファイルから fx.cc.nagoya-u.ac.jp に関する行を削除して再度ログインを行って下さい

この時お使いの端末の.ssh ディレクトリ配下にある known_hosts ファイルから fx.cc.nagoya-u.ac.jp に関する行を削除して再度ログインを行って下さい 20150901 FX10 システムから FX100 システムへの変更点について 共通... 1 Fortran の変更点... 2 C/C++ の変更点... 4 C の変更点... 5 C++ の変更点... 7 共通 1. プログラミング支援ツールの更新 -FX システムについて旧バージョンのプログラミング支援ツールは利用できません 下記からダウンロードの上新規インストールが必要です https://fx.cc.nagoya-u.ac.jp/fsdtfx100/install/index.html

More information

PowerPoint プレゼンテーション

PowerPoint プレゼンテーション Computer simulations create the future 2015 年度第 1 回 AICS 公開ソフト講習会 K MapReduce ハンズオン 滝澤真一朗松田元彦丸山直也 理化学研究所計算科学研究機構プログラム構成モデル研究チーム 1 RIKEN ADVANCED INSTITUTE FOR COMPUTATIONAL SCIENCE KMR の導入方法を学ぶ 目的 KMRRUN

More information

Oakforest-PACS 利用の手引き 2 ノートパソコンの設定 : 公開鍵の生成 登録

Oakforest-PACS 利用の手引き 2 ノートパソコンの設定 : 公開鍵の生成 登録 Oakforest-PACS 利用の手引き 1 お試しアカウント付き 並列プログラミング講習会 Oakforest-PACS 利用の手引き 東京大学情報基盤センター Oakforest-PACS 利用の手引き 2 ノートパソコンの設定 : 公開鍵の生成 登録 Oakforest-PACS 利用の手引き 3 鍵の作成 1. ターミナルを起動する 2. 以下を入力する $ ssh-keygen t rsa

More information

目次 1. 目次 2. Cygwinインストール (1) 3. Cygwinインストール (2) 4. 公開鍵の作成 5. 利用支援ポータルへのアクセス 6. パスワード変更 ( 初回の場合 ) 7. パスワード変更成功画面 8. 利用支援ポータルへの再ログイン 9. 言語の変更 10. 公開鍵の登

目次 1. 目次 2. Cygwinインストール (1) 3. Cygwinインストール (2) 4. 公開鍵の作成 5. 利用支援ポータルへのアクセス 6. パスワード変更 ( 初回の場合 ) 7. パスワード変更成功画面 8. 利用支援ポータルへの再ログイン 9. 言語の変更 10. 公開鍵の登 Reedbush Quick Start Guide 東京大学情報基盤センター 2018 年 9 月 21 日改版 目次 1. 目次 2. Cygwinインストール (1) 3. Cygwinインストール (2) 4. 公開鍵の作成 5. 利用支援ポータルへのアクセス 6. パスワード変更 ( 初回の場合 ) 7. パスワード変更成功画面 8. 利用支援ポータルへの再ログイン 9. 言語の変更 10.

More information

サイバーメディアセンター 大規模計算機システムの利用

サイバーメディアセンター 大規模計算機システムの利用 サイバーメディアセンター 大規模計算機システムの利用 大阪大学情報推進部情報基盤課 本日のプログラム I. システムのご紹介 II. 利用方法の解説 実習 i. システムへの接続 ii. プログラムの作成 コンパイル iii. ジョブスクリプトの作成 iv. ジョブスクリプトの投入 III. 利用を希望する方へ SX-ACE NEC 製のベクトル型スーパーコンピュータ ノード毎 1 クラスタ (512

More information

PowerPoint Presentation

PowerPoint Presentation 製品ソフトウェアのセットアップ手順 UNIX/Linux 編 1. セットアップファイルの選択開発環境 / 実行環境 / バージョン /Hotfix/ インストール先 OS 2. 対象セットアップファイルのダウンロード開発環境の場合は 2 つのファイルが対象 3. ソフトウェア要件の確認 4. ソフトウェアのインストール 5. ライセンスの認証 1 1. セットアップファイルの選択 選択項目選択肢該当チェック

More information

予算上限値到達時ジョブ投入停止機能 データ収集日表示 ノード時間積表示 ジョブ課金情報 予算上限値到達でジョブ投入停止機能を有すること 最後に課金情報を集計した日時を表示すること 使用計算資源を使用ノード数と時間の積として表示すること ジョブ単位での課金情報を表示できること 1 3 基本予算管理利用

予算上限値到達時ジョブ投入停止機能 データ収集日表示 ノード時間積表示 ジョブ課金情報 予算上限値到達でジョブ投入停止機能を有すること 最後に課金情報を集計した日時を表示すること 使用計算資源を使用ノード数と時間の積として表示すること ジョブ単位での課金情報を表示できること 1 3 基本予算管理利用 別紙 2 審査基準 大分類 1: 事業専用計算機資源環境の構築 大分類 2: 事業専用計算機資源環境の提供 大分類小分類機能項目仕様 1 1 Web GUI 基本機能 1 2 グループ 利用者登録 セキュリティ対策 クライアント OS グループ ID グループ名 備考欄 利用者 ID メールアドレス 氏名 備考欄 パスワード WebGUI の基本機能に関して以下の全ての機能を有すること ア ) セキュリティ対策として

More information

OpenAM 9.5 インストールガイド オープンソース ソリューション テクノロジ ( 株 ) 更新日 : 2013 年 7 月 19 日 リビジョン : 1.8

OpenAM 9.5 インストールガイド オープンソース ソリューション テクノロジ ( 株 ) 更新日 : 2013 年 7 月 19 日 リビジョン : 1.8 OpenAM 9.5 インストールガイド オープンソース ソリューション テクノロジ ( 株 ) 更新日 : 2013 年 7 月 19 日 リビジョン : 1.8 目次 1. はじめに 1 1.1 本文書の目的... 1 1.2 前提条件... 1 1.3 略語...1 2. 事前準備 2 2.1 ホスト名の名前解決... 2 3. Linix 版パッケージ 3 3.1 システム要件... 3 3.1.1

More information

Maple 12 Windows版シングルユーザ/ネットワークライセンス

Maple 12 Windows版シングルユーザ/ネットワークライセンス Maple Network Tools インストール 設定手順書 更新日 2017/07/27 はじめに この手順書は Windows 32bit Windows 64bit Mac OS Linux に対応しております 詳しい動作環境については こちらを参照願います http://www.cybernet.co.jp/maple/product/system/maple.html この手順書の説明画面は

More information

1

1 汎用生態リスク評価管理ツール (AIST-MeRAM) インストールマニュアル Windows Vista 編 2014 年 12 月 25 日独立行政法人産業技術総合研究所安全科学研究部門 目次 1. 動作環境... 2 2. インストール... 3 2.1. 初めてのインストール (WEB ページ利用 )... 4 2.2. 旧バージョンからのバージョンアップインストール (WEB ページ利用

More information

SAMBA Stunnel(Windows) 編 1. インストール 1 セキュア SAMBA の URL にアクセスし ログインを行います xxx 部分は会社様によって異なります xxxxx 2 Windows 版ダウンロード ボ

SAMBA Stunnel(Windows) 編 1. インストール 1 セキュア SAMBA の URL にアクセスし ログインを行います   xxx 部分は会社様によって異なります xxxxx 2 Windows 版ダウンロード ボ 操作ガイド Ver.2.3 目次 1. インストール... - 2-2. SAMBA Stunnel 利用... - 8-2.1. 接続確認... - 8-2.2. 編集... - 11-2.3. インポート... - 14-2.4. 削除... - 15-2.5 フォルダショートカットの作成... - 16-3. 動作環境... - 18-4. 参考資料 ( 接続状況が不安定な場合の対処方法について

More information

PC にソフトをインストールすることによって OpenVPN でセキュア SAMBA へ接続することができます 注意 OpenVPN 接続は仮想 IP を使用します ローカル環境にて IP 設定が被らない事をご確認下さい 万が一仮想 IP とローカル環境 IP が被るとローカル環境内接続が行えなくな

PC にソフトをインストールすることによって OpenVPN でセキュア SAMBA へ接続することができます 注意 OpenVPN 接続は仮想 IP を使用します ローカル環境にて IP 設定が被らない事をご確認下さい 万が一仮想 IP とローカル環境 IP が被るとローカル環境内接続が行えなくな 操作ガイド Ver.2.3 目次 1. インストール... - 2-2. SAMBA Remote 利用... - 9-2.1. 接続確認... - 9-2.2. 自動接続... - 11-2.3. 編集... - 13-2.4. インポート... - 16-2.5. 削除... - 18-2.6. 参考資料 ( 接続状況が不安定な場合の対処方法について )... - 19-2.6.1. サービスの再起動...

More information

Microsoft PowerPoint - 1_コンパイラ入門セミナー.ppt

Microsoft PowerPoint - 1_コンパイラ入門セミナー.ppt インテルコンパイラー 入門セミナー [ 対象製品 ] インテル C++ コンパイラー 9.1 Windows* 版インテル Visual Fortran コンパイラー 9.1 Windows* 版 資料作成 : エクセルソフト株式会社 Copyright 1998-2007 XLsoft Corporation. All Rights Reserved. 1 インテル コンパイラー入門 本セミナーの内容

More information

TSUBAME2.0 における GPU の 活用方法 東京工業大学学術国際情報センター丸山直也第 10 回 GPU コンピューティング講習会 2011 年 9 月 28 日

TSUBAME2.0 における GPU の 活用方法 東京工業大学学術国際情報センター丸山直也第 10 回 GPU コンピューティング講習会 2011 年 9 月 28 日 TSUBAME2.0 における GPU の 活用方法 東京工業大学学術国際情報センター丸山直也第 10 回 GPU コンピューティング講習会 2011 年 9 月 28 日 目次 1. TSUBAMEのGPU 環境 2. プログラム作成 3. プログラム実行 4. 性能解析 デバッグ サンプルコードは /work0/gsic/seminars/gpu- 2011-09- 28 からコピー可能です 1.

More information

目次 ANSYS (Fluent, Mechanical) 利用の手引き 1 1. はじめに 利用できるバージョン 利用できる機能 マニュアル 1 (1) 製品に同梱されたマニュアル 1 (2) ANSYS 社サポートページにログインしての情報閲覧 1 (3) T

目次 ANSYS (Fluent, Mechanical) 利用の手引き 1 1. はじめに 利用できるバージョン 利用できる機能 マニュアル 1 (1) 製品に同梱されたマニュアル 1 (2) ANSYS 社サポートページにログインしての情報閲覧 1 (3) T ANSYS(Fluent, Mechanical) 利用の手引 東京工業大学学術国際情報センター 2017.06 version 1.20 目次 ANSYS (Fluent, Mechanical) 利用の手引き 1 1. はじめに 1 1.1 利用できるバージョン 1 1.2 利用できる機能 1 1.3 マニュアル 1 (1) 製品に同梱されたマニュアル 1 (2) ANSYS 社サポートページにログインしての情報閲覧

More information

任意の間隔での FTP 画像送信イベントの設定方法 はじめに 本ドキュメントでは AXIS ネットワークカメラ / ビデオエンコーダにおいて任意の間隔で画像を FTP サー バーへ送信するイベントの設定手順を説明します 設定手順手順 1:AXIS ネットワークカメラ / ビデオエンコーダの設定ページ

任意の間隔での FTP 画像送信イベントの設定方法 はじめに 本ドキュメントでは AXIS ネットワークカメラ / ビデオエンコーダにおいて任意の間隔で画像を FTP サー バーへ送信するイベントの設定手順を説明します 設定手順手順 1:AXIS ネットワークカメラ / ビデオエンコーダの設定ページ はじめに 本ドキュメントでは AXIS ネットワークカメラ / ビデオエンコーダにおいて任意の間隔で画像を FTP サー バーへ送信するイベントの設定手順を説明します 設定手順手順 1:AXIS ネットワークカメラ / ビデオエンコーダの設定ページにアクセスする 1.Web ブラウザを起動します FW v6.50 以下の場合は Internet Explorer を FW v7.10 以降の場合は

More information

HULFT の通信をよりセキュアに HULFT と SSH Tectia を組み合わせたセキュアで強力なファイル転送 Compatibility Note 2008 年 9 月 株式会社セゾン情報システムズの企業内 企業間通信ミドルウェアである HULFT は ファイル転送のアプリケーションとして

HULFT の通信をよりセキュアに HULFT と SSH Tectia を組み合わせたセキュアで強力なファイル転送 Compatibility Note 2008 年 9 月 株式会社セゾン情報システムズの企業内 企業間通信ミドルウェアである HULFT は ファイル転送のアプリケーションとして HULFT の通信をよりセキュアに HULFT と SSH Tectia を組み合わせたセキュアで強力なファイル転送 Compatibility Note 2008 年 9 月 株式会社セゾン情報システムズの企業内 企業間通信ミドルウェアである HULFT は ファイル転送のアプリケーションとして 主に流通業 製造業で大きなシェアを誇るパッケージソフトウェアです SSH Tectia ソリューションを

More information

独立行政法人 鉄道建設 運輸施設整備支援機構 電子入札システム 初期設定マニュアル 2019 年 4 月

独立行政法人 鉄道建設 運輸施設整備支援機構 電子入札システム 初期設定マニュアル 2019 年 4 月 独立行政法人 鉄道建設 運輸施設整備支援機構 電子入札システム 初期設定マニュアル 2019 年 4 月 目次 1. はじめに... 1 1.1 初期設定の流れ... 1 2. 初期設定... 2 2.1 機器 ( パソコン 回線 ) 等の準備... 2 2.2 IC カード等の準備... 3 2.3 IC カード等のセットアップ... 3 2.4 Java ポリシーの設定... 3 2.5 その他の設定...

More information

プレポスト【解説】

プレポスト【解説】 コース名 : シェルの機能とプログラミング ~UNIX/Linux の効率的使用を目指して ~ 1 UNIX および Linux の主な構成要素は シェル コマンド カーネルです プロセスとは コマンドやプログラムを実行する単位のことなので プロセスに関する記述は誤りです UNIX および Linux のユーザーインターフェースは シェル です コマンドを解釈するという機能から コマンドインタープリタであるともいえます

More information

Windows 環境での遺伝研スパコンシステムログイン手順 目次 1. 作業フロー 公開鍵 / 秘密鍵の生成 公開鍵の設置 SSH 接続確認 アカウント登録証に記載されているパスワードの変更 スパコンへのデータ転送 (

Windows 環境での遺伝研スパコンシステムログイン手順 目次 1. 作業フロー 公開鍵 / 秘密鍵の生成 公開鍵の設置 SSH 接続確認 アカウント登録証に記載されているパスワードの変更 スパコンへのデータ転送 ( Windows 環境での遺伝研スパコンシステムログイン手順 目次 1. 作業フロー... 2 2. 公開鍵 / 秘密鍵の生成... 3 3. 公開鍵の設置... 5 4. SSH 接続確認... 8 5. アカウント登録証に記載されているパスワードの変更... 12 6. スパコンへのデータ転送 (WinSCP 編 )... 13 7. スパコンへのデータ転送 (Aspera Connect(Web

More information

サイバーメディアセンター 大規模計算機システムの利用

サイバーメディアセンター 大規模計算機システムの利用 サイバーメディアセンター 大規模計算機システムの利用 大阪大学情報推進部情報基盤課 本日のプログラム I. システムのご紹介 II. 利用方法の解説 実習 i. システムへの接続 ii. プログラムの作成 コンパイル iii. ジョブスクリプトの作成 iv. ジョブスクリプトの投入 III. 利用を希望する方へ 2/56 SX-ACE NEC 製のベクトル型スーパーコンピュータ ノード毎 1 クラスタ

More information

ADempiere (3.5)

ADempiere (3.5) ADempiere (3.5) インストールマニュアル ADempiere Community Contents 改定履歴... 3 1 はじめに... 4 2 動作環境... 4 3 事前準備... 5 3.1 Java JDK のセットアップ... 5 3.1.1 Java JDK のダウンロード... 5 3.1.2 Java JDK のインストール... 5 3.1.1 Java JDK のパス設定...

More information

SLAMD導入手順

SLAMD導入手順 SLAMD 導入手順 2007 年 5 月 日本 LDAP ユーザ会 関口薫 目次 1 はじめに...1 1.1 目的...1 1.2 SLAMD とは...1 1.3 ソフトウェア環境...2 2 LDAP サーバのインストール 設定...2 2.1 SLAMD の設定...2 2.2 OpenLDAP の設定...3 3 SLAMD サーバのインストール 設定...3 3.1 JDK のインストール...3

More information

iStorage ソフトウェア VMware vCenter Plug-in インストールガイド

iStorage ソフトウェア VMware vCenter Plug-in インストールガイド istorage ソフトウェア VMware vcenter Plug-in インストールガイド はじめに このインストールガイドでは WebSAM Storage VMware vcenter Plug-in のインストールに関して説明しています 本製品は VMware vcenter Server と連携する製品のため VMware vcenter Server が稼働するサーバへインストー ルします

More information

目次 Patran 利用の手引き 1 1. はじめに 利用できるバージョン 概要 1 機能概要 マニュアル テクニカルサポートIDの取得について 3 2. Patran の利用方法 Patran の起動 3 (1) TSUBAMEにログイン

目次 Patran 利用の手引き 1 1. はじめに 利用できるバージョン 概要 1 機能概要 マニュアル テクニカルサポートIDの取得について 3 2. Patran の利用方法 Patran の起動 3 (1) TSUBAMEにログイン Patran 利用の手引 東京工業大学学術国際情報センター 2017.04 version 1.13 目次 Patran 利用の手引き 1 1. はじめに 1 1.1 利用できるバージョン 1 1.2 概要 1 機能概要 1 1.3 マニュアル 2 1.4 テクニカルサポートIDの取得について 3 2. Patran の利用方法 3 2.1 Patran の起動 3 (1) TSUBAMEにログイン

More information

π-VizStudio User Manual

π-VizStudio User Manual -VizStudio User Manual 2018-07-26 -CAVE -VizStudio () -CAVE -VizStudio User Manual -VizStudio -CAVE -VizStudio User Manual -VizStudio -VizStudio Manual -VizStudio -CAVE -VizStudio Admin Manual -CAVE -VizStudio

More information

Torqueユーザーマニュアル

Torqueユーザーマニュアル 目次 1 インストール概要... 2 2 コマンド例... 3 3 出荷設定... 6 4 ジョブの投入例... 8 5 ドキュメント... 11 付録 A... 12 A.1 HPC システムズお問い合わせ先... 12 Copyright HPC SYSTEMS Inc. All Rights Reserved. 1 1 インストール概要 (1) パッケージ http://www.adaptive.computing.com

More information

SAMBA Stunnel(Mac) 編 1. インストール 1 セキュア SAMBA の URL にアクセスし ログインを行います xxxxx 部分は会社様によって異なります xxxxx 2 Mac OS 版ダウンロー

SAMBA Stunnel(Mac) 編 1. インストール 1 セキュア SAMBA の URL にアクセスし ログインを行います   xxxxx 部分は会社様によって異なります xxxxx 2 Mac OS 版ダウンロー 操作ガイド Ver.2.3 目次 1. インストール... - 2-2. SAMBA Stunnel 利用... - 5-2.1. 接続確認... - 5-2.2. 編集... - 9-2.3. インポート... - 12-2.4. 削除... - 14-3. 動作環境... - 15-4. 参考資料 ( 接続状況が不安定な場合の対処方法について )... - 16-4.1. サービスの再起動...

More information

製品組み込み手順書 Oracle Tuxedo (Linux版)  

製品組み込み手順書 Oracle Tuxedo (Linux版)   製品組込み手順書 Oracle Tuxedo (Linux 版 ) 作成日 : Aug 13, 2009 更新日 : May 18, 2009 版 : 1.1 製品組込み手順書 Oracle Tuxedo (Linux 版 ) 目次 はじめに... 1 目的...1 環境...1 関連文書...1 作業概要... 2 作業内容...2 作業フロー...2 作業ステップ詳細...2 管理対象...3

More information

2. 動的コンテンツとは動的コンテンツとは Web ブラウザからの要求に応じて動的に Web ページや画像などを生成する Web コンテンツのことをいいます Web で利用するサーチエンジンやアクセスカウンタ等は この仕組みを用いています 動的コンテンツは大きく次の二つに分類されます (1) Web

2. 動的コンテンツとは動的コンテンツとは Web ブラウザからの要求に応じて動的に Web ページや画像などを生成する Web コンテンツのことをいいます Web で利用するサーチエンジンやアクセスカウンタ等は この仕組みを用いています 動的コンテンツは大きく次の二つに分類されます (1) Web 作成 : 平成 15 年 01 月 29 日 修正 : 平成 30 年 02 月 13 日 動的コンテンツ利用手引き (CGI PHP) 目 次 1. はじめに... 1 2. 動的コンテンツとは... 2 3. 動的コンテンツを作成する前に... 2 3.1. 危険性について... 2 3.2. 遵守事項... 2 3.3. 免責事項... 3 4. 利用方法... 4 4.1. CGI を使う...

More information

HDC-EDI Manager Ver レベルアップ詳細情報 < 製品一覧 > 製品名バージョン HDC-EDI Manager < 対応 JavaVM> Java 2 Software Development Kit, Standard Edition 1.4 Java 2

HDC-EDI Manager Ver レベルアップ詳細情報 < 製品一覧 > 製品名バージョン HDC-EDI Manager < 対応 JavaVM> Java 2 Software Development Kit, Standard Edition 1.4 Java 2 レベルアップ詳細情報 < 製品一覧 > 製品名バージョン HDC-EDI Manager 2.2.0 < 対応 JavaVM> Java 2 Software Development Kit, Standard Edition 1.4 Java 2 Platform Standard Edition Development Kit 5.0 Java SE Development Kit 6 < 追加機能一覧

More information

ServerView RAID Manager VMware vSphere ESXi 6 インストールガイド

ServerView RAID Manager VMware vSphere ESXi 6 インストールガイド ServerView RAID Manager VMware vsphere ESXi 6 インストールガイド 2018 年 11 月 27 日富士通株式会社 アレイを構築して使用する場合 RAID 管理ツールの ServerView RAID Manager を使用します VMware vsphere ESXi 6.x ( 以後 ESXi 6 または ESXi と略します ) サーバで ServerView

More information

SAMBA Remote(Mac) 編 PC にソフトをインストールすることによって OpenVPN でセキュア SAMBA へ接続することができます 注意 OpenVPN 接続は仮想 IP を使用します ローカル環境にて IP 設定が被らない事をご確認下さい 万が一仮想 IP とローカル環境 IP

SAMBA Remote(Mac) 編 PC にソフトをインストールすることによって OpenVPN でセキュア SAMBA へ接続することができます 注意 OpenVPN 接続は仮想 IP を使用します ローカル環境にて IP 設定が被らない事をご確認下さい 万が一仮想 IP とローカル環境 IP 操作ガイド Ver.2.3 目次 1. インストール... - 2-2. SAMBA Remote 利用... - 5-2.1. 接続確認... - 5-2.2. 自動接続... - 10-2.3. 編集... - 12-2.4. インポート... - 15-2.5. 削除... - 17-2.6. 参考資料 ( 接続状況が不安定な場合の対処方法について )... - 18-2.6.1. サービスの再起動...

More information

ServerView ESXi CIM Provider VMware vSphere ESXi 6.5 インストールガイド

ServerView ESXi CIM Provider VMware vSphere ESXi 6.5 インストールガイド 2017 年 1 月 11 日富士通株式会社 ServerView ESXi CIM Provider VMware vsphere ESXi 6.5 インストールガイド VMware vsphere ESXi 6.5 をインストールしたサーバを監視 管理する場合 ServerView ESXi CIM Provider を使用するか またはリモートマネジメントコントローラを使用した サーバ監視 管理を行うことができます

More information

How_to_use_integritycheck

How_to_use_integritycheck Linux セキュリティフルエディション完全性検査ご利用ガイド はじめに本書では エフセキュア Linux セキュリティフルエディション の完全性検査の利用方法について説明します 1. 用語についての説明完全性検査の機能で使用される用語について以下に説明します 既知のファイル : 完全性検査の対象となっているファイルのことです デフォルトで /bin の下のファイルなどが登録されています ベースライン

More information

目次 1 はじめに 製品に含まれるコンポーネント 動作環境... 4 オペレーティング システム... 4 Microsoft Visual Studio* 製品 製品のダウンロード 製品版をインストールする場合 評価版を

目次 1 はじめに 製品に含まれるコンポーネント 動作環境... 4 オペレーティング システム... 4 Microsoft Visual Studio* 製品 製品のダウンロード 製品版をインストールする場合 評価版を インテル Parallel Studio XE 2018 Composer Edition for Fortran Windows* インストール ガイド Rev. 2. 0 (2017/11/22) エクセルソフト株式会社 www.xlsoft.com 目次 1 はじめに... 3 2 製品に含まれるコンポーネント... 3 3 動作環境... 4 オペレーティング システム... 4 Microsoft

More information

TSUBAME 2.0利用ガイダンス

TSUBAME 2.0利用ガイダンス 新スーパーコンピュータ TSUBAME 2.0 利用ガイダンス 11/10( 水 ) 更新 東京工業大学 学術国際情報センター 1 TSUBAME の歴史 2006 TSUBAME 1.0 85TFlops/1.1PB アジア No.1 みんなのスパコン x86 CPU+ アクセラレータ 2007 TSUBAME 1.1 100TFlops/1.6PB ストレージ アクセラレータ増強 2008 TSUBAME

More information

「ビジネスサーバ」シリーズ設定マニュアル

「ビジネスサーバ」シリーズ設定マニュアル ビジネスサーバ シリーズ設定マニュアル ~ Standard SSH/FTP 編 ~ 本マニュアルの内容は サービス利用開始にあたっての設定用資料としてご利用いただくことを目的としております 第 1.0 版 株式会社 NTT ぷらら 本ご案内に掲載している料金等は消費税相当額を含んでおりません 2010 年 1 月現在 1 変更履歴 日時 変更箇所等 備考 2010.01.25 第 1.0 版 (

More information

Microsoft Word - XOOPS インストールマニュアルv12.doc

Microsoft Word - XOOPS インストールマニュアルv12.doc XOOPS インストールマニュアル ( 第 1 版 ) 目次 1 はじめに 1 2 XOOPS のダウンロード 2 3 パッケージの解凍 4 4 FFFTP によるファイルアップロード手順 5 5 ファイルアップロード後の作業 11 6 XOOPS のインストール 15 7 インストール後の作業 22 8 XOOPS ログイン後の作業 24 愛媛県総合教育センター情報教育研究室 Ver.1.0.2

More information

1

1 汎用生態リスク評価管理ツール (AIST-MeRAM) インストールマニュアル Windows 8 編 2014 年 12 月 25 日独立行政法人産業技術総合研究所安全科学研究部門 目次 1. 動作環境... 2 2. インストール... 3 2.1. 初めてのインストール (WEB ページ利用 )... 4 2.2. 旧バージョンからのバージョンアップインストール (WEB ページ利用 )...

More information

スライド 1

スライド 1 2012/3/21 新 スパコン 利 用 者 説 明 会 (UGE 概 説 ) Univa Grid Engine(UGE)とは グリッドコンピューティングシステムを 構 築 するソフトウェア バッチジョブシ ステムとして 機 能 する Sun Grid Engine6.2U5(オープンソー ス 版 としては 最 後 のバージョン)から 派 生 した 商 用 製 品 開 発 にはGrid Engineの

More information

ERDAS IMAGINE における処理速度の向上 株式会社ベストシステムズ PASCO CORPORATION 2015

ERDAS IMAGINE における処理速度の向上 株式会社ベストシステムズ PASCO CORPORATION 2015 ERDAS IMAGINE における処理速度の向上 株式会社ベストシステムズ 本セッションの目的 本セッションでは ERDAS IMAGINEにおける処理速度向上を目的として機器 (SSD 等 ) 及び並列処理の比較 検討を行った 1.SSD 及び RAMDISK を利用した処理速度の検証 2.Condorによる複数 PCを用いた並列処理 2.1 分散並列処理による高速化試験 (ERDAS IMAGINEのCondorを使用した試験

More information

Upload path ファイル送信先ディレクトリのパスを指定します ホームディレクトリに画像を送信する場合は空白のまま サブディレクトリに画像を送信する場合はディレクトリ名を指定します さらに下位のディレクトリを指定する場合は \ マークを利用します 例 ) ホームディレクトリ以下の camera

Upload path ファイル送信先ディレクトリのパスを指定します ホームディレクトリに画像を送信する場合は空白のまま サブディレクトリに画像を送信する場合はディレクトリ名を指定します さらに下位のディレクトリを指定する場合は \ マークを利用します 例 ) ホームディレクトリ以下の camera はじめに 本ドキュメントでは AXIS ネットワークカメラ / ビデオエンコーダのファームウエアバージョン 5.5x 以降で 任意の間隔で画像を FTP サーバへ送信するための設定手順を説明します 設定手順手順 1:AXIS ネットワークカメラ / ビデオエンコーダの設定ページにアクセスする 1. Internet Explorer などの Web ブラウザを起動します 2. Web ブラウザの URL

More information

新OS使用時の留意事項

新OS使用時の留意事項 2014 年 3 月富士通株式会社 新 OS 使用時の留意事項 Fujitsu Software Interstage Print Manager( 以降 Interstage Print Manager) の動作オペレーティングシステムに以下をサポートします Windows 8 Windows 8.1 2012 2012 R2 この動作環境においても従来と同等の機能をご利用になれますが ご利用に関しての留意事項について説明します

More information

ビジネスサーバ設定マニュアル_ssh_ftp編(VPS・Pro)

ビジネスサーバ設定マニュアル_ssh_ftp編(VPS・Pro) ビジネスサーバ シリーズ設定マニュアル ~ VPS Pro SSH/FTP 編 ~ 本マニュアルの内容は サービス利用開始にあたっての設定用資料としてご利用いただくことを目的としております 第 1.0 版 株式会社 NTT ぷらら 本ご案内に掲載している料金等は消費税相当額を含んでおりません 2010 年 1 月現在 1 変更履歴 日時 変更箇所等 備考 2010.01.29 第 1.0 版 ( 初版

More information

Microsoft Word - nvsi_050110jp_netvault_vtl_on_dothill_sannetII.doc

Microsoft Word - nvsi_050110jp_netvault_vtl_on_dothill_sannetII.doc Article ID: NVSI-050110JP Created: 2005/10/19 Revised: - NetVault 仮想テープ ライブラリのパフォーマンス検証 : dothill SANnetⅡSATA 編 1. 検証の目的 ドットヒルシステムズ株式会社の SANnetll SATA は 安価な SATA ドライブを使用した大容量ストレージで ディスクへのバックアップを行う際の対象デバイスとして最適と言えます

More information

Ver1.40 証明書発行マニュアル (Export 可能 ) Windows 10 InternetExplorer 2018 年 3 月 14 日 セコムトラストシステムズ株式会社 Copyright SECOM Trust Systems CO.,LTD. All Rights Reserve

Ver1.40 証明書発行マニュアル (Export 可能 ) Windows 10 InternetExplorer 2018 年 3 月 14 日 セコムトラストシステムズ株式会社 Copyright SECOM Trust Systems CO.,LTD. All Rights Reserve 証明書発行マニュアル (Export 可能 ) Windows 0 InternetExplorer 08 年 3 月 4 日 セコムトラストシステムズ株式会社 i 改版履歴 版数 日付 内容 担当 V..00 05//9 新規作成 STS V..0 06/6/ 画像修正 STS V..0 06/9/5 画像追加 (Windows0 Anniversary の記載 ) STS V..30 07//

More information

ServerView ESXi CIM Provider / ServerView RAID Core Provider VMware vSphere ESXi 6.0 インストールガイド

ServerView ESXi CIM Provider / ServerView RAID Core Provider VMware vSphere ESXi 6.0 インストールガイド ServerView ESXi CIM Provider / ServerView RAID Core Provider VMware vsphere ESXi 6.0 インストールガイド 2018 年 10 月 9 日富士通株式会社 VMware vsphere ESXi 6.0 をインストールしたサーバを監視 管理する場合 ServerView ESXi CIM Provider / ServerView

More information

Shareresearchオンラインマニュアル

Shareresearchオンラインマニュアル Chrome の初期設定 以下の手順で設定してください 1. ポップアップブロックの設定 2. 推奨する文字サイズの設定 3. 規定のブラウザに設定 4. ダウンロードファイルの保存先の設定 5.PDFレイアウトの印刷設定 6. ランキングやハイライトの印刷設定 7. 注意事項 なお 本マニュアルの内容は バージョン 61.0.3163.79 の Chrome を基に説明しています Chrome の設定手順や画面については

More information

Microsoft Word - winscp-LINUX-SCPを使用したファイル転送方法について

Microsoft Word - winscp-LINUX-SCPを使用したファイル転送方法について 作成 : 平成 18 年 2 月 28 日 修正 : 平成 27 年 3 月 4 日 SCP を使用したファイル転送方法について 目次 1. はじめに... 1 2. WinSCP のインストール... 2 2.1. ダウンロード... 2 2.2. インストール... 2 3. WinSCP の使用... 7 3.1. 起動... 7 3.2. 設定... 7 3.3. 接続... 9 3.4.

More information

2. FileZilla のインストール 2.1. ダウンロード 次の URL に接続し 最新版の FileZilla をダウンロードします URL: なお バージョンが異なるとファイル名が

2. FileZilla のインストール 2.1. ダウンロード 次の URL に接続し 最新版の FileZilla をダウンロードします URL:   なお バージョンが異なるとファイル名が 作成 : 平成 18 年 2 月 28 日 修正 : 平成 29 年 5 月 26 日 SFTP を使用したファイル転送方法について 目 次 1. はじめに... 1 2. FileZilla のインストール... 2 2.1. ダウンロード... 2 2.2. インストール... 2 3. FileZilla の使用... 7 3.1. 起動... 7 3.2. 設定... 8 3.3. 接続...

More information

EnSightのご紹介

EnSightのご紹介 オープン CAE シンポジウム 2014 汎用ポストプロセッサー EnSight の大規模データ対応 CEI ソフトウェア株式会社代表取締役吉川慈人 http://www.ceisoftware.co.jp/ 内容 大規模データで時間のかかる処理 クライアント サーバー機能 マルチスレッドによる並列処理 サーバーの分散処理 クライアントの分散処理 ( 分散レンダリング ) EnSightのOpenFOAMインターフェース

More information

Nagios XI VMware監視

Nagios XI VMware監視 目的 この資料では Nagios XI で VMware ESX, ESXi, vsphere, vcenter Server を監視する手順について説明します またこれらの製品にデプロイされた仮想マシン (VM) を監視する手順についても説明します 対象読者 この資料は VMware 仮想製品に詳しく Linux サーバにソフトウェアをインストールして設定する方法を知っている Nagios 管理者を対象としています

More information

モバイル統合アプリケーション 障害切り分け手順書

モバイル統合アプリケーション 障害切り分け手順書 モバイル統合アプリケーション障害切り分け手順書 第 5 版 2014 年 2 月 7 日 目次 1. サーバー接続 1.1. DocuShare に接続できない 1.2. WebDAV Server に接続できない 1.3. Working Folder に接続できない 1.4. WebDAV サーバースペースの DocuWorks ファイルが閲覧できない 2. 複合機接続 2.1. プリントができない

More information

Confidential

Confidential WebARENA VPS クラウド はじめての VPS クラウド Ver1.1 2015.09.08 株式会社エヌ ティ ティピー シーコミュニケーションズ - 1 目次 目次... 2 1. 序章... 3 1-1. 作業概要... 3 2. はじめての VPS クラウド... 4 2-1. サーバー管理用コンパネへのログイン... 4 2-2. キーペアの作成... 5 2-3. セキュリティグループの作成...

More information

PowerPoint プレゼンテーション

PowerPoint プレゼンテーション 環境設定 (IE11 Edge)(Edge は 国内 + 国外版 国内外 + 翻訳版 のみ ) SRPARTNER では印刷 ダウンロードなどに ActiveX アドオンを使用しており ログイン時にインストールメッセージが表示されます ご使用端末に初期設定いただく必要がございます 以下記載の設定を実施し 設定変更を行ってください 1. 保護モードの解除 1[ コントロールパネル ]-[ インタ -

More information

ANSYS 17.0 クイックインストールガイド Windows 版

ANSYS 17.0 クイックインストールガイド Windows 版 ANSYS 17.0 クイックインストールガイド Windows 版 第 1 章はじめに インストール作業の前に 以下の項目を必ず確認して下さい ANSYS 17.0 は 64bit 用のプログラムのみご提供されます 32bit OS にはインストールできませんので ご注意ください インストール作業は 管理者権限のあるユーザーアカウントでログインして実施してください ユーザーアカウント制御 (UAC)

More information

VPN 接続の設定

VPN 接続の設定 VPN 接続の設定 AnyConnect 設定の概要, 1 ページ AnyConnect 接続エントリについて, 2 ページ ハイパーリンクによる接続エントリの追加, 2 ページ 手動での接続エントリの追加, 3 ページ ユーザ証明書について, 4 ページ ハイパーリンクによる証明書のインポート, 5 ページ 手動での証明書のインポート, 5 ページ セキュアゲートウェイから提供される証明書のインポート,

More information

FX10利用準備

FX10利用準備 π-computer(fx10) 利用準備 2018 年 3 月 14 日理化学研究所計算科学研究機構八木学 1 KOBE HPC Spring School 2018 2018/3/14 内容 本スクールの実習で利用するスーパーコンピュータ神戸大学 π-computer (FX10) について システム概要 ログイン準備 2 神戸大学 π-computer: システム概要 富士通 PRIMEHPC

More information

印刷アプリケーションマニュアル

印刷アプリケーションマニュアル 印刷アプリケーションマニュアル 目次印刷アプリケーションについて... 2 1.1. インストール前の管理者での事前準備... 2 1.2. インストールする... 2 1.3. 基本的な使い方... 6 1.3.1. 各部の概要... 6 1.3.2. カメレオンコードを印刷する... 7 1.3.3. 印刷レイアウトを作成する... 9 1.3.. 用紙を設定する... 10 2. サポートサービスのご案内...

More information

Autodesk AliasStudio フローティングライセンスサーバのセットアップ 1. フローティングライセンス販売代理店もしくは Autodesk からライセンスを受け取っていることを確認してください このサンプルファイルでは AutoStudio のライセンスが 1 つ Studio のラ

Autodesk AliasStudio フローティングライセンスサーバのセットアップ 1. フローティングライセンス販売代理店もしくは Autodesk からライセンスを受け取っていることを確認してください このサンプルファイルでは AutoStudio のライセンスが 1 つ Studio のラ フローティングライセンスサーバのセットアップ 1. フローティングライセンス販売代理店もしくは Autodesk からライセンスを受け取っていることを確認してください このサンプルファイルでは AutoStudio のライセンスが 1 つ Studio のライセンスが 1 つ DesignStudio のライセンスが 3 つ SurfaceStudio のライセンスが 1 つあります 注意 : このファイルは必ず

More information

<4D F736F F D CC82BD82DF82CC50438AC28BAB90DD92E82E646F63>

<4D F736F F D CC82BD82DF82CC50438AC28BAB90DD92E82E646F63> 利用のための PC 環境設定 電子入札に参加するためには 下記のハードウェア ソフトウェアが必要です ご準備をお願いします () ハードウェア Windows Vista/Windows7/Windows8. の場合項目要件 CPU Core Duo.6GHz 同等以上推奨メモリ OS の種類により要件が異なります Windows Vista/Windows7/Windows8.(3bit 版 )

More information

Mathematica Home Use Student License 申請マニュアル ( 申請者向け ) 第 1.4 版 平成 29 年 10 月 27 日 総合情報システム部

Mathematica Home Use Student License 申請マニュアル ( 申請者向け ) 第 1.4 版 平成 29 年 10 月 27 日 総合情報システム部 Mathematica Home Use Student License 申請マニュアル ( 申請者向け ) 第 1.4 版 平成 29 年 10 月 27 日 総合情報システム部 改訂履歴 版数更新日付内容更新者名 1.0 2012/12/18 初版 1.1 2012/12/25 Mac 版のインストール手順追加 1.2 2012/01/21 P.5 アクティベーションキー請求フォーム内容修正 1.3

More information

Oracle Business Intelligence Standard Edition One のインストール

Oracle Business Intelligence Standard Edition One のインストール Oracle Business Intelligence Standard Edition One のインストール 第 1 版 作成日 :2007 年 7 月 31 日 更新日 :2007 年 7 月 31 日 目次 はじめに... 3 Ⅰ. インストール作業... 4 Ⅱ. 起動状況の確認... 8 Ⅱ-1. Oracle BI Administration Tool の起動... 8 Ⅱ-2.

More information

OSSTechプレゼンテーション

OSSTechプレゼンテーション Ver.3 ~ クラウド時代の ID 連携を支援する ~ オープンソース ソリューション テクノロジ株式会社 http://www.osstech.co.jp/ Copyright 2016 Open Source Solution Technology, Corp. 1 クラウド時代の ID 管理 1. 管理対象の分散化 オンプレミスとクラウドサービスの混在 システムごとの ID 管理 2. 3.

More information

ServerView Resource Orchestrator V3.0 ネットワーク構成情報ファイルツール(Excel形式)の利用方法

ServerView Resource Orchestrator V3.0 ネットワーク構成情報ファイルツール(Excel形式)の利用方法 ServerView Resource Orchestrator V3.0 ネットワーク構成情報ファイル作成ツール mknetdevconf-tool-0300-1 本ファイルでは ServerView Resource Orchestrator V3.0 で使用する ネットワーク構成情報ファイル作成ツール の動作条件 使用方法 およびその他の重要な情報について説明しています 本ツールを使用する前に必ず最後まで目を通すようお願いします

More information

Anaconda (2019/7/3)

Anaconda (2019/7/3) Published on Research Center for Computational Science (https://ccportal.ims.ac.jp) Home > Anaconda3-2019.03 (2019/7/3) Anaconda3-2019.03 (2019/7/3) 1 利用方法 conda, anaconda に関する情報はウェブ上にたくさんありますので それらも参考にしてください

More information

Microsoft Word - WE-InstMan382J sol.doc

Microsoft Word - WE-InstMan382J sol.doc WebEdge 3.8.2J インストール ガイド マニュアル バージョン 3.8.2 2007 年 12 月 Open Technologies 目次 1. WebEdge 3.8.2 のインストール... 1 1.1 必要とされるシステム... 1 1.1.1 ハードウェア... 1 1.1.2 ソフトウェア... 1 1.1.3 必要とされるプラウザ... 1 1.1.4 必要な設定情報...

More information

アップデート手順概要

アップデート手順概要 アップデート手順概要 2017 年 1 月富士通株式会社 0 はじめに 本資料の概要 本資料では 各アップデート方式において アップデート手順の一例をご紹介しております 本資料を活用するにあたっての留意事項 本資料の記述は アップデート方式の一部手順を説明したものです 事前準備を含めた全手順については 各種マニュアル 手順書をご参照ください 本資料は 2016 年 9 月時点の情報を元に作成しています

More information

CLUSTERPRO MC ProcessSaver 2.1 for Windows 構築ガイド 2016(Mar) NEC Corporation はじめに 責任範囲 適用範囲 概要 事前準備 クラスタ設定

CLUSTERPRO MC ProcessSaver 2.1 for Windows 構築ガイド 2016(Mar) NEC Corporation はじめに 責任範囲 適用範囲 概要 事前準備 クラスタ設定 CLUSTERPRO MC ProcessSaver 2.1 for Windows 構築ガイド 2016(Mar) NEC Corporation はじめに 責任範囲 適用範囲 概要 事前準備 クラスタ設定 改版履歴 版数 改版 内容 1.0 2015.03 新規作成 2.0 2016.03 CLUSTERPRO 対応バージョン修正 i はしがき 本書では CLUSTERPRO MC ProcessSaver

More information

Mobile Access簡易設定ガイド

Mobile Access簡易設定ガイド Mobile Access Software Blade 設定ガイド チェック ポイント ソフトウェア テクノロジーズ ( 株 ) アジェンダ 1 SSL VPN ポータルの設定 2 3 4 Web アプリケーションの追加 Check Point Mobile for iphone/android の設定 Check Point Mobile for iphone/android の利用 2 変更履歴

More information