SANtricityソフトウェア 構成エクスプレス ガイド (Linux)

Size: px
Start display at page:

Download "SANtricityソフトウェア 構成エクスプレス ガイド (Linux)"

Transcription

1 SANtricity ソフトウェア 構成エクスプレスガイド (Linux ) 2019 年 8 月 _E0 ng-gpso-jp-documents@netapp.com

2

3 目次 3 目次 このエクスプレスガイドの対象者... 7 Fibre Channel のクイックセットアップ Linux 構成のサポート状況の確認 DHCP を使用した IP アドレスの設定 Linux Unified Host Utilities 7.0 のインストールと設定 SMcli を使用するための SANtricity Storage Manager のインストール (SANtricity ソフトウェアバージョン 以前 ) SANtricity System Manager へのアクセスとセットアップウィザードの使 用 マルチパスソフトウェアの設定 multipath.conf ファイルのセットアップ blacklist セクションの更新 multipath.conf ファイルの devices セクションの更新 FC スイッチの設定 ホストの WWPN の特定と推奨設定の適用 パーティションとファイルシステムの作成 ホストでのストレージアクセスの確認 Linux での FC 固有の情報の記録 FC ワークシート - Linux SAS のクイックセットアップ Linux 構成のサポート状況の確認 DHCP を使用した IP アドレスの設定 Host Utilities のインストールと設定 SMcli を使用するための SANtricity Storage Manager のインストール (SANtricity ソフトウェアバージョン 以前 ) SANtricity System Manager へのアクセスとセットアップウィザードの使 用 マルチパスソフトウェアの設定 multipath.conf ファイルのセットアップ blacklist セクションの更新 multipath.conf ファイルの devices セクションの更新 SAS ホスト識別子の特定 - Linux パーティションとファイルシステムの作成 ホストでのストレージアクセスの確認 Linux での SAS 固有の情報の記録 SAS ワークシート - Linux iscsi のクイックセットアップ Linux 構成のサポート状況の確認 DHCP を使用した IP アドレスの設定 Host Utilities のインストールと設定... 38

4 4 構成エクスプレスガイド (Linux) SMcli を使用するための SANtricity Storage Manager のインストール (SANtricity ソフトウェアバージョン 以前 ) SANtricity System Manager へのアクセスとセットアップウィザードの使 用 マルチパスソフトウェアの設定 multipath.conf ファイルのセットアップ blacklist セクションの更新 multipath.conf ファイルの devices セクションの更新 スイッチの設定 ネットワークの設定 アレイ側のネットワークの設定 ホスト側のネットワークの設定 IP ネットワーク接続の確認 パーティションとファイルシステムの作成 ホストでのストレージアクセスの確認 Linux での iscsi 固有の情報の記録 iscsi ワークシート - Linux iser over InfiniBand のクイックセットアップ Linux 構成のサポート状況の確認 DHCP を使用した IP アドレスの設定 サブネットマネージャの設定 Host Utilities のインストールと設定 SMcli を使用するための SANtricity Storage Manager のインストール (SANtricity ソフトウェアバージョン 以前 ) SANtricity System Manager へのアクセスとセットアップウィザードの使 用 マルチパスソフトウェアの設定 multipath.conf ファイルのセットアップ blacklist セクションの更新 multipath.conf ファイルの devices セクションの更新 ネットワーク接続の設定 - iser over InfiniBand ストレージ接続ホストのネットワークの設定 - iser over InfiniBand パーティションとファイルシステムの作成 ホストでのストレージアクセスの確認 Linux での iser over InfiniBand 固有の情報の記録 iser over InfiniBand ワークシート SRP over InfiniBand のクイックセットアップ Linux 構成のサポート状況の確認 DHCP を使用した IP アドレスの設定 サブネットマネージャの設定 Host Utilities のインストールと設定 SMcli を使用するための SANtricity Storage Manager のインストール (SANtricity ソフトウェアバージョン 以前 )... 76

5 目次 5 SANtricity System Manager へのアクセスとセットアップウィザードの使 用 マルチパスソフトウェアの設定 multipath.conf ファイルのセットアップ blacklist セクションの更新 multipath.conf ファイルの devices セクションの更新 ホストポートの GUID の特定と推奨設定の適用 - SRP over InfiniBand ネットワーク接続の設定 - SRP over InfiniBand パーティションとファイルシステムの作成 ホストでのストレージアクセスの確認 Linux での SRP over InfiniBand 固有の情報の記録 SRP over InfiniBand ワークシート NVMe over InfiniBand のクイックセットアップ Linux 構成のサポート状況の確認 NVMe over InfiniBand の制限事項 DHCP を使用した IP アドレスの設定 SMcli を使用するための SANtricity Storage Manager のインストール (SANtricity ソフトウェアバージョン 以前 ) SANtricity System Manager へのアクセスとセットアップウィザードの使 用 サブネットマネージャの設定 ホスト側での NVMe over InfiniBand の設定 ストレージアレイの NVMe over InfiniBand 接続の設定 ホストからのストレージの検出と接続 ホストの定義 ボリュームの割り当て ホストが認識できるボリュームの表示 フェイルオーバーの設定 ホストでフェイルオーバーを実行するための設定 NVMe ボリュームへのアクセス パーティションとファイルシステムの作成 ホストでのストレージアクセスの確認 Linux での NVMe over InfiniBand 固有の情報の記録 NVMe over InfiniBand ワークシート NVMe over RoCE のクイックセットアップ Linux 構成のサポート状況の確認 NVMe over RoCE の制限事項 DHCP を使用した IP アドレスの設定 SMcli を使用するための SANtricity Storage Manager のインストール (SANtricity ソフトウェアバージョン 以前 ) SANtricity System Manager へのアクセスとセットアップウィザードの使 用 スイッチの設定 ホスト側での NVMe over RoCE の設定

6 6 構成エクスプレスガイド (Linux) ストレージアレイの NVMe over RoCE 接続の設定 ホストからのストレージの検出と接続 ホストの定義 ボリュームの割り当て ホストが認識できるボリュームの表示 ホストでのフェイルオーバーの設定 ホストでフェイルオーバーを実行するための設定 NVMe ボリュームへのアクセス パーティションとファイルシステムの作成 ホストでのストレージアクセスの確認 Linux での NVMe over RoCE 固有の情報の記録 NVMe over RoCE ワークシート - Linux NVMe over Fibre Channel のクイックセットアップ Linux 構成のサポート状況の確認 NVMe over Fibre Channel の制限事項 DHCP を使用した IP アドレスの設定 SMcli を使用するための SANtricity Storage Manager のインストール (SANtricity ソフトウェアバージョン 以前 ) SANtricity System Manager へのアクセスとセットアップウィザードの使 用 FC スイッチの設定 ホスト側での NVMe over Fibre Channel の設定 ホストの定義 ボリュームの割り当て ホストが認識できるボリュームの表示 ホストでのフェイルオーバーの設定 ホストでフェイルオーバーを実行するための設定 NVMe ボリュームへのアクセス パーティションとファイルシステムの作成 ホストでのストレージアクセスの確認 Linux での NVMe over Fibre Channel 固有の情報の記録 NVMe over Fibre Channel ワークシート - Linux 詳細情報の入手方法 - Linux 著作権に関する情報 商標に関する情報 マニュアルの更新について

7 7 このエクスプレスガイドの対象者 クイック方式でのストレージアレイのインストールと SANtricity System Manager へのアクセスは E シリーズシステムにスタンドアロンの Linux ホストを設定する場合に適しています 最低限の選択で可能なかぎり迅速にストレージシステムの運用を開始できるように設計されています 注 : クイック方式による構成が本番環境のニーズに合わない場合もあります ストレージシステムをインストールして設定するためのその他のオプションについては E シリーズおよび SANtricity のドキュメントリソースページで 使用するオペレーティングシステムに対応した SANtricity Power Guide を参照してください クイック方式で実行するは次のとおりです 1. 次のいずれかの通信環境を設定します Fibre Channel(FC) iscsi SAS iser over InfiniBand SRP over InfiniBand NVMe over InfiniBand NVMe over RoCE NVMe over Fibre Channel 2. ストレージアレイに論理ボリュームを作成します 3. ボリュームがデータホストに表示されるようにします このガイドの説明は次の前提に基づいています コンポーネント ハードウェア 前提 コントローラシェルフに付属する設置とセットアップの書に従ってハードウェアを設置済みである オプションのドライブシェルフとコントローラをケーブルで接続済みである ストレージシステムに電源を投入済みである その他のハードウェア ( 管理ステーションやスイッチなど ) をすべて取り付け 必要な接続を確立済みである NVMe over InfiniBand NVMe over RoCE または NVMe over Fibre Channel を使用する場合は EF600 EF570 または E5700 コントローラのそれぞれに 32GB 以上の RAM が搭載されている

8 8 構成エクスプレスガイド (Linux) コンポーネント ホスト 前提 ストレージシステムとデータホストの間に接続を確立済みである ホストオペレーティングシステムをインストール済みである Linux を仮想ゲストとして使用しない データ (I/O 接続 ) ホストを SAN からブートするように設定しない NVMe over InfiniBand NVMe over RoCE または NVMe over Fibre Channel を使用する場合は NetApp Interoperability Matrix Tool に掲載されている SUSE Linux Enterprise Server 12 のサービスパックをインストール済みである ストレージ管理ステーション 1Gbps 以上の速度の管理ネットワークを使用している 管理用にデータ (I/O 接続 ) ホストではなく別のステーションを使用している アウトオブバンド管理を使用して コントローラとのイーサネット接続を介してストレージ管理ステーションからストレージシステムにコマンドを送信している 管理ステーションをストレージ管理ポートと同じサブネットに接続済みである IP アドレス DHCP サーバのインストールと設定が完了している 管理ステーションとストレージシステムの間にイーサネット接続をまだ確立していない ストレージプロビジョニング 共有ボリュームを使用しない ボリュームグループではなくプールを作成する プロトコル :FC ホスト側の FC 接続をすべて確立し スイッチのゾーニングをアク ティブ化済みである ネットアップがサポートする FC HBA およびスイッチを使用している NetApp Interoperability Matrix Tool に掲載されているバージョンの FC HBA ドライバおよびファームウェアを使用している プロトコル : iscsi iscsi トラフィックを転送できるイーサネットスイッチを使用している iscsi に関するベンダーの推奨事項に従ってイーサネットスイッチを設定済みである プロトコル : SAS ネットアップがサポートする SAS HBA を使用している NetApp Interoperability Matrix Tool に掲載されているバージョンの SAS HBA ドライバおよびファームウェアを使用している

9 このエクスプレスガイドの対象者 9 コンポーネント プロトコル : iser over InfiniBand プロトコル : SRP over InfiniBand プロトコル : NVMe over InfiniBand 前提 InfiniBand ファブリックを使用している NetApp Interoperability Matrix Tool に掲載されているバージョンの IBiSER HBA ドライバおよびファームウェアを使用している InfiniBand ファブリックを使用している NetApp Interoperability Matrix Tool に掲載されているバージョンの IB- SRP ドライバおよびファームウェアを使用している EF600 EF570 または E5700 ストレージシステムに NVMe over InfiniBand プロトコルがあらかじめ設定されていて 100G のホストインターフェイスカードが取り付けられている または 標準の IB ポートを搭載したコントローラを購入し NVMe-oF ポートへの変更が必要である InfiniBand ファブリックを使用している NetApp Interoperability Matrix Tool に掲載されているバージョンの NVMe / IB ドライバおよびファームウェアを使用している プロトコル : NVMe over RoCE EF600 EF570 または E5700 ストレージシステムに NVMe over RoCE プロトコルがあらかじめ設定されていて 100G のホストインターフェイスカードが取り付けられている または 標準の IB ポートを搭載したコントローラを購入し NVMe-oF ポートへの変更が必要である NetApp Interoperability Matrix Tool に掲載されているバージョンの NVMe / RoCE ドライバおよびファームウェアを使用している プロトコル : NVMe over Fibre Channel EF600 EF570 または E5700 ストレージシステムに NVMe over Fibre Channel プロトコルがあらかじめ設定されていて 32G のホストインターフェイスカードが取り付けられている または 標準の FC ポートを搭載したコントローラを購入し NVMe-oF ポートへの変更が必要である NetApp Interoperability Matrix Tool に掲載されているバージョンの NVMe / FC ドライバおよびファームウェアを使用している 注 : このガイドの説明では SUSE Linux Enterprise Server(SLES) および Red Hat Enterprise Linux(RHEL) での例を使用しています RHEL は RHEL7 での例です これらの前提条件に該当しない場合や 背景にある概念を詳しく知りたい場合は E シリーズおよび SANtricity のドキュメントリソースページで 使用するオペレーティングシステムに対応した SANtricity Power Guide を参照してください 関連情報 NetApp Interoperability Matrix Tool Windows の簡単な設定

10 10 Fibre Channel のクイックセットアップ 1. Linux 構成のサポート状況の確認 (10 ページ ) 2. DHCP を使用した IP アドレスの設定 (10 ページ ) 3. Linux Unified Host Utilities 7.0 のインストールと設定 (11 ページ ) 4. SMcli を使用するための SANtricity Storage Manager のインストール (SANtricity ソフトウェアバージョン 以前 )(12 ページ ) 5. SANtricity System Manager へのアクセスとセットアップウィザードの使用 (13 ページ ) 6. マルチパスソフトウェアの設定 (14 ページ ) 7. multipath.conf ファイルのセットアップ (16 ページ ) 8. FC スイッチの設定 (19 ページ ) 9. ホストの WWPN の特定と推奨設定の適用 (19 ページ ) 10. パーティションとファイルシステムの作成 (20 ページ ) 11. ホストでのストレージアクセスの確認 (22 ページ ) 12. Linux での FC 固有の情報の記録 (22 ページ ) Linux 構成のサポート状況の確認 安定した稼働を確保するために 導入計画を作成し NetApp Interoperability Matrix Tool (IMT) を使用して構成全体がサポートされることを確認します 1. NetApp Interoperability Matrix Tool にアクセスします 2. [Storage Solution Search] タイルをクリックします 3. [Protocols] > [SAN Host (FAS, E-Series)] 領域で [E-Series SAN Host] の横にある [Add] ボタンをクリックします 4. [OK] をクリックします [What Works With What] セクションが表示されます このセクションでは 該当するプロトコル および構成のその他の条件 ( オペレーティングシステム NetApp OS ホストのマルチパスドライバなど ) を選択できます 構成に必要な条件を選択し 互換性のある構成要素を確認します 必要に応じて 使用するオペレーティングシステムとプロトコルに対して IMT に記載された更新を実行します DHCP を使用した IP アドレスの設定 クイック方式で管理ステーションとストレージアレイ間の通信を設定する場合 動的ホスト構成プロトコル (DHCP) を使用して IP アドレスを割り当てます 各ストレージアレイにはコントローラが 1 台 ( シンプレックス ) または 2 台 ( デュプレックス ) 含まれ コントロー

11 Fibre Channel のクイックセットアップ 11 ラごとにストレージ管理ポートが 2 つあります 各管理ポートには IP アドレスが割り当てられます 開始する前に ストレージ管理ポートと同じサブネットに DHCP サーバをインストールして設定しておきます タスク概要 以下のでは コントローラを 2 台搭載したストレージアレイ ( デュプレックス構成 ) を使用します 1. 管理ステーションおよび各コントローラ (A B) の管理ポート 1 にイーサネットケーブルを接続します ( まだ接続していない場合 ) DHCP サーバによって 各コントローラのポート 1 に IP アドレスが割り当てられます 注 : どちらのコントローラの管理ポート 2 も使用しないでください ポート 2 はネットアップのテクニカルサポート用に予約されています 重要 : イーサネットケーブルを外して再接続するか ストレージアレイの電源を再投入すると DHCP によって IP アドレスが再度割り当てられます この処理は静的 IP アドレスを設定しないかぎり発生します ケーブルを外したり アレイの電源を再投入したりしないことを推奨します DHCP が割り当てた IP アドレスをストレージアレイが 30 秒以内に取得できないと 次のようにデフォルトの IP アドレスが設定されます コントローラ A ポート 1: コントローラ B ポート 1: サブネットマスク : コントローラ背面の MAC アドレスラベルを確認し ネットワーク管理者に各コントローラのポート 1 の MAC アドレスを伝えます MAC アドレスは ネットワーク管理者が各コントローラの IP アドレスを特定するために必要です ブラウザからストレージシステムに接続するには IP アドレスが必要です Linux Unified Host Utilities 7.0 のインストールと設定 Linux Unified Host Utilities 7.0 には フェイルオーバーポリシーや物理パスなど ネットアップストレージを管理するツールが含まれています 1. NetApp Interoperability Matrix Tool を使用して Unified Host Utilities 7.0 のバージョンを特定します サポートされる構成ごとに対応するバージョンが表示されます 2. ネットアップサポートから Unified Host Utilities 7.0 をダウンロードします 関連情報 Linux Unified Host Utilities 7.1 Installation Guide

12 12 構成エクスプレスガイド (Linux) SMcli を使用するための SANtricity Storage Manager のインストール (SANtricity ソフトウェアバージョン 以前 ) 管理ステーションに SANtricity Storage Manager ソフトウェアをインストールすると アレイの管理に役立つコマンドラインインターフェイス (CLI) がインストールされます また Host Context Agent もインストールされ ホストから I/O パスを経由してストレージアレイコントローラに設定情報をプッシュできるようになります 開始する前に 重要 :SANtricity ソフトウェア 以降では SANtricity Secure CLI(SMcli) は SANtricity OS に含まれており SANtricity System Manager からダウンロードできます SANtricty System Manager から SMcli をダウンロードする方法の詳細については SANtricity オンラインヘルプのトピック コマンドラインインターフェイス (CLI) のダウンロード を参照してください SANtricity ソフトウェア 以前を使用している必要があります 適切な管理者権限またはスーパーユーザ権限が必要です SANtricity Storage Manager クライアントをインストールするシステムが次の最小要件を満たしていることを確認する必要があります RAM:Java Runtime Engine 用に 2GB ディスクスペース :5GB OS / アーキテクチャ : サポート対象オペレーティングシステムのバージョンとアーキテクチャを特定する方法については ネットアップサポートの [Downloads] > [Software] > [E-Series/EF-Series SANtricity Storage Manager] を参照してください タスク概要 ここでは Windows と Linux の両方の OS プラットフォームについて SANtricity Storage Manager のインストール方法を説明しています データホストに Linux を使用する場合の管理ステーションプラットフォームは Windows と Linux の両方で共通です 1. ネットアップサポートの [Downloads] > [Software] > [E-Series/EF-Series SANtricity Storage Manager] から SANtricity ソフトウェアリリースをダウンロードします 2. SANtricity インストーラを実行します

13 Fibre Channel のクイックセットアップ 13 Windows SMIA*.exe インストールパッケージをダブルクリックしてインストールを開始します Linux a. SMIA*.bin インストールパッケージをダウンロードしたディレクトリに移動します b. 一時マウントポイントに実行権限がない場合は IATEMPDIR 変数を設定します 例 :IATEMPDIR=/root./SMIA- LINUXX A bin c. chmod +x SMIA*.bin コマンドを実行してファイルに実行権限を付与します d../smia*.bin コマンドを実行してインストーラを起動します 3. インストールウィザードを使用して 管理ステーションでソフトウェアをインストールします SANtricity System Manager へのアクセスとセットアップウィザードの使用 SANtricity System Manager のセットアップウィザードを使用してストレージアレイを設定します 開始する前に SANtricity System Manager へのアクセスに使用するデバイスに 次のいずれかのブラウザがインストールされていることを確認しておきます ブラウザ Google Chrome 47 Microsoft Internet Explorer 11 最小バージョン Microsoft Edge EdgeHTML 12 Mozilla Firefox 31 Safari 9 アウトオブバンド管理を使用します タスク概要 ウィザードは System Manager を開くかブラウザの表示を更新したときに 次の少なくとも 1 つに該当していれば自動的に再度起動されます プールとボリュームグループが検出されていない ワークロードが検出されていない 通知が設定されていない 1. ブラウザで次の URL を入力します

14 14 構成エクスプレスガイド (Linux) IPAddress は いずれかのストレージアレイコントローラのアドレスです まだ設定していないアレイで SANtricity System Manager を初めて開くと Set Administrator Password というプロンプトが表示されます ロールベースのアクセス管理では admin support security および monitor の 4 つのローカルロールが設定されます 最後の 3 つのロールには 推測されにくいランダムなパスワードが設定されています admin ロールのパスワードを設定したあと admin のクレデンシャルを使用してすべてのパスワードを変更することができます 4 つのローカルユーザロールの詳細については SANtricity System Manager オンラインヘルプ を参照してください 2. System Manager の admin ロールのパスワードを [ 管理者パスワードの設定 ] フィールドと [ パスワードの再入力 ] フィールドに入力し [ パスワードの設定 ] ボタンを選択します プール ボリュームグループ ワークロード または通知が設定されていない状態で System Manager を開くと セットアップウィザードが起動します 3. セットアップウィザードを使用して次のタスクを実行します ハードウェア ( コントローラとドライバ ) の確認 ストレージアレイ内のコントローラとドライブの数を確認します アレイに名前を割り当てます ホストとオペレーティングシステムの確認 ストレージアレイがアクセスできるホストとオペレーティングシステムのタイプを確認します プールの承認 クイックインストールで推奨されるプール構成を承認します プールはドライブの論理グループです アラートの設定 ストレージアレイで問題が発生した場合に自動通知を System Manager で受信するように設定します AutoSupport の有効化 ストレージアレイの健常性を自動的に監視し テクニカルサポートにデータを送信します 4. ボリュームをまだ作成していない場合は [ ストレージ ] > [ ボリューム ] > [ 作成 ] > [ ボリューム ] の順に選択してボリュームを作成します 詳細については SANtricity System Manager のオンラインヘルプを参照してください マルチパスソフトウェアの設定 マルチパスソフトウェアは 物理パスの 1 つが中断された場合に備えて ストレージアレイへのパスを冗長化します マルチパスソフトウェアは ストレージへの複数のアクティブな物理パスを単一の仮想デバイスとしてオペレーティングシステムに提示します また フェイルオーバープロセスも管理して仮想デバイスを更新します Linux 環境では Device Mapper Multipath(DM-MP) ツールを使用します 開始する前に 必要なパッケージをシステムにインストールしておきます Red Hat(RHEL) ホストの場合 rpm -q device-mapper-multipath を実行してパッケージがインストールされていることを確認します SLES ホストの場合 rpm -q multipath-tools を実行してパッケージがインストールされていることを確認します

15 Fibre Channel のクイックセットアップ 15 タスク概要 RHEL および SLES では デフォルトでは DM-MP は無効になっています ホストで DM-MP コンポーネントを有効にするには 次のを実行します オペレーティングシステムがインストールされていない場合は オペレーティングシステムのベンダーから提供されたメディアを使用します 1. multipath.conf ファイルがまだ作成されていない場合は # touch /etc/ multipath.conf コマンドを実行します 2. デフォルトのマルチパス設定を使用するために multipath.conf ファイルを空のままにします 3. マルチパスサービスを開始します 例 # systemctl start multipathd 4. マルチパスの自動起動を設定します 例 # chkconfig multipathd on 5. uname -r コマンドを実行してカーネルバージョンを確認します 例 # uname -r el7.x86_64 この情報は ホストにボリュームを割り当てる際に使用します 6. 次のいずれかを実行して multipathd をブート時に有効にします 対象 RHEL 6.x システム : RHEL 7.x システム : SLES 12.x および 15.x システム : 操作 chkconfig multipathd on systemctl enable multipathd systemctl enable multipathd 7. initramfs イメージまたは initrd イメージを /boot directory に再構築します 対象 RHEL 6.x および 7.x システム : SLES 12.x および 15.x システム : 操作 dracut --force --add multipath dracut --force --add multipath 8. 新たに作成した /boot/initrams-* イメージまたは /boot/initrd-* イメージがブート構成ファイルで選択されていることを確認します

16 16 構成エクスプレスガイド (Linux) たとえば grub については /boot/grub/menu.lst grub2 については /boot/grub2/ menu.cfg を確認します 9. オンラインヘルプの ホストの手動作成 のに従って ホストが定義されているかどうかを確認します それぞれのホストタイプが自動ロードバランシングを有効にする場合は [Linux DM-MP( カーネル 3.10 以降 )] 自動ロードバランシングを無効にする場合は [Linux DM-MP( カーネル 3.9 以前 )] になっていることを確認します 必要に応じて 選択されたホストタイプを適切な設定に変更します 10. ホストをリブートします multipath.conf ファイルのセットアップ multipath.conf ファイルは マルチパスデーモン multipathd の構成ファイルです multipath.conf ファイルは multipathd の組み込みの構成テーブルよりも優先されます 空白を除く最初の文字が # の行は コメント行とみなされます 空の行は無視されます 注 :SANtricity OS 8.30 では デフォルト設定をそのまま使用することを推奨します サンプルの multipath.conf は次の場所にあります SLES:/usr/share/doc/packages/multipath-tools/multipath.conf.synthetic RHEL:/usr/share/doc/device-mapper-multipath-0.4.9/multipath.conf multipath.conf のサンプルファイルでは すべての行がコメントアウトされています ファイルは次の 5 つのセクションに分かれています defaults - すべてのデフォルト値を指定します blacklist - 新規インストールではすべてのデバイスがブラックリストに登録されています デフォルトのブラックリストは /etc/multipath.conf ファイルのコメントアウトされたセクションに記載されています Device Mapper Multipath を使用しない場合は WWID でこの機能をブラックリストに登録します blacklist_exceptions - blacklist セクションで指定された項目に対する例外を指定します devices - すべてのマルチパスデバイスと対応するベンダーおよび製品 ID を記載します multipaths - マルチパスデバイスと対応する WWID を記載します DM-MP マルチパスドライバには デフォルト値 および各ベンダーと製品 ID の組み合わせに対する設定があらかじめ用意されています multipath.conf の各セクションを定義した場合 次のようになります defaults セクションに定義されたパラメータ値は 組み込みのデフォルト値とマージされて値を置き換えます devices セクションに定義されたパラメータ値は 組み込みの設定に同じデバイスがすでに存在する場合 そのベンダーと製品 ID に対する組み込みのデフォルト値とマージされます 確実にマージするためには ベンダーと製品の値が組み込みの設定と一致する必要があります 各パラメータについて 値は次の順序で決定されます 1. 各デバイスの multipaths セクション ( 定義されている場合 ) 2. デバイスのベンダーと製品 ID に対応する devices セクション ( 定義されている場合 ) 3. 内部のデフォルト値

17 Fibre Channel のクイックセットアップ 17 次のタスクは multipath.conf ファイルの defaults blacklist および devices の各セクションを変更します 変更する各行の先頭にある # 文字は削除してください 1. blacklist セクションの更新 (17 ページ ) 2. multipath.conf ファイルの devices セクションの更新 (17 ページ ) blacklist セクションの更新 デフォルト設定では UTM LUN がホストに提示される場合があります ただし UTM LUN では I/O 処理はサポートされていません UTM LUN で I/O 処理が行われないようにするには 各 UTM LUN のベンダーと製品の情報を /etc/multipath.conf ファイルの blacklist セクションに追加します タスク概要 この作業は任意で 仮想ディスクだけでなく 他のマルチパスドライバで管理されている他のストレージアレイのディスクも除外できます 注 :SANtricity 8.40 では デフォルト設定を確認し 設定を変更しないことを推奨します このセクションは次の形式で指定します blacklist { device { vendor "*" product "Universal Xport" } } multipath.conf ファイルの devices セクションの更新 ホストが RHEL 6.5 SLES 11.3 またはそれ以前のバージョンを実行している場合は /etc/ multipath.conf ファイルを更新できます これらよりも新しいバージョンを使用している場合は 空の /etc/multipath.conf ファイルを作成するだけでデフォルト設定が自動的に適用されます これには NetApp E シリーズおよび EF シリーズのデバイスでサポートされている値も含まれます 次の例は /etc/multipath.conf ファイルの devices セクションの一部を示しています この例では ベンダー ID が NETAPP または LSI で 製品 ID が INF です devices セクションの製品とベンダーの情報を使用しているストレージアレイの構成に合わせて変更します ストレージアレイに複数のベンダーのデバイスが含まれている場合は devices セクションに device ブロックを追加し 該当する属性と値を指定します 使用するパスセレクタについて特に推奨されるものはありません そのため 例に示すように デフォルトのパスセレクタはデバイス設定で選択されます multipathd show config コマンドでは defaults セクションのパスセレクタが表示されます 注 : ホストで RHEL 6.5 SLES 11.3 またはそれ以前のバージョンが実行されている場合にのみ /etc/multipath.conf ファイルの devices セクションを更新してください クラスタ構成では Interoperability Matrix Tool に定義されているように failback を manual に設定します devices { device { vendor product path_grouping_policy detect_prio prio "(LSI NETAPP)" "INF-01-00" group_by_prio yes rdac

18 18 構成エクスプレスガイド (Linux) } path_checker rdac hardware_handler "1 rdac" failback immediate features "2 pg_init_retries 50" no_path_retry 30 retain_attached_hw_handler yes } 注 : 上記以外のパラメータでは内部のデフォルト値が推奨値です 変更しないようにしてください ラウンドロビン方式とサービス時間方式どちらのパスセレクタも完全にサポートされており それぞれの方式に対して特別に推奨されるセレクタはありません 属性パラメータ値説明 path_grouping_policy group_by_prio このベンダーと製品ストレージ に適用されるパスのグループ化 ポリシー detect_prio yes システムによってパスポリシー ルーチンが検出されます prio rdac パス優先ルーチンを決定するプログラムと引数 指定したルーチンは このパスの相対的な優先度を指定する数値を返す必要があります 数値が大きいほど優先度が高くなります path_checker rdac パスの状態を判断するための方 法 hardware_handler "1 rdac" デバイス固有の情報を処理する ために使用するハードウェアハ ンドラ failback immediate パスグループのフェイルバック方法をデーモンに指示するパラメータ この例ではimmediate に設定されているため フェイルバックはパスが使用可能な次回のチェック時に実行されます フェイルバックを無効にするには このパラメータをmanualに設定します 自動ロードバランシング機能を有効にせずにクラスタ環境または共有 LUN 環境を使用している場合は このパラメータを manual に設定します features "2 pg_init_retries 50" 有効にする機能 このパラメータはカーネルパラメータ pg_init_retries を 50 に設定します pg_init_retries パラメータは モード選択コマンドの再試行に使用されます

19 Fibre Channel のクイックセットアップ 19 属性パラメータ値説明 no_path_retry 30 キューが無効になるまでの再試行回数を指定します すぐに失敗にする ( キューなし ) 場合は このパラメータをfailに設定します このパラメータをqueue に設定すると キューは無期限に続行されます 時間はこのパラメータ値に polling_interval( 通常は 5) を掛けた値に等しくなります たとえば no_path_retry の値が 30 の場合は 150 秒になります retain_attached_hw_handle r yes 現在のハードウェアハンドラを引き続き使用することを指定します FC スイッチの設定 Fibre Channel(FC) スイッチを設定 ( ゾーニング ) すると ホストがストレージに接続できるようになり パスの数が制限されます スイッチのゾーニングはスイッチの管理インターフェイスで設定します 開始する前に スイッチの管理者クレデンシャルが必要です HBA ユーティリティを使用して 各ホストイニシエータポートおよびスイッチに接続された各コントローラターゲットポートの WWPN を検出しておく必要があります タスク概要 スイッチのゾーニングの詳細については スイッチベンダーのドキュメントを参照してください 各イニシエータポートを別々のゾーンに配置し 各イニシエータに対応するすべてのターゲットポートをそのゾーンに配置する必要があります 1. FC スイッチの管理プログラムにログインし ゾーニング設定のオプションを選択します 2. 新しいゾーンを作成し 1 つ目のホストイニシエータポート およびそのイニシエータと同じ FC スイッチに接続するすべてのターゲットポートを配置します 3. スイッチの FC ホストイニシエータごとにゾーンを作成します 4. ゾーンを保存し 新しいゾーニング設定を有効にします ホストの WWPN の特定と推奨設定の適用 FC HBA ユーティリティをインストールして 各ホストポートの World Wide Port Name (WWPN) を参照できるようにします また HBA ユーティリティを使用して サポートさ

20 20 構成エクスプレスガイド (Linux) れる構成に対して NetApp Interoperability Matrix Tool の [Notes] 列で推奨されている設定を変更することもできます タスク概要 HBA ユーティリティのガイドライン : ほとんどの HBA ベンダーは HBA ユーティリティを提供しています 使用するホストオペレーティングシステムと CPU に対応する正しいバージョンの HBA が必要です FC HBA ユーティリティには次のようなものがあります Emulex OneCommand Manager(Emulex HBA) QLogic QConverge Console(QLogic HBA) Host Context Agent がインストールされている場合 ホストの I/O ポートは自動的に登録されることがあります 1. HBAベンダーのWebサイトから該当するユーティリティをダウンロードします 2. ユーティリティをインストールします 3. HBAユーティリティで適切な設定を選択します 使用する構成に適した設定は IMTの [Notes] 列で確認できます パーティションとファイルシステムの作成 Linux ホストで初めて検出された時点では 新しい LUN にはパーティションやファイルシステムは設定されていません LUN を使用できるようにするにはフォーマットする必要があります 必要に応じて LUN にファイルシステムを作成することができます 開始する前に ホストが LUN を検出済みである必要があります /dev/mapper フォルダで ls コマンドを実行して使用可能なディスクを確認しておきます タスク概要 ディスクは GUID パーティションテーブル (GPT) またはマスターブートレコード (MBR) を使用して ベーシックディスクとして初期化することができます LUN は ext4 などのファイルシステムでフォーマットします 一部の環境ではこのは必要ありません 1. sanlun lun show -p コマンドを実行して マッピングされているディスクの SCSI ID を取得します SCSI ID は 3 から始まる 33 文字の 16 進数値です ユーザにわかりやすい名前の使用が有効になっている場合 SCSI ID の代わりに mpath がレポートされます 例 # sanlun lun show -p E-Series Array: ictm1619s01c01-

21 Fibre Channel のクイックセットアップ 21 SRP(60080e b efb9d2) Volume Name: Preferred Owner: Controller in Slot B Current Owner: Controller in Slot B Mode: RDAC (Active/Active) UTM LUN: None LUN: 116 LUN Size: Product: E-Series Host Device: mpathr(360080e ac d) Multipath Policy: round-robin 0 Multipath Provider: Native host controller controller path path /dev/ host target state type node adapter port up secondary sdcx host14 A1 up secondary sdat host10 A2 up secondary sdbv host13 B1 2. Linux OS のリリースに応じた方法で新しいパーティションを作成します 通常 ディスクのパーティションを識別する文字 ( 数字の 1 や p3 など ) が SCSI ID に追加されます 例 # parted -a optimal -s -- /dev/mapper/ e bb b1535f887a mklabel gpt mkpart primary ext4 0% 100% 3. パーティションにファイルシステムを作成します ファイルシステムの作成方法は 選択したファイルシステムによって異なります 例 # mkfs.ext4 /dev/mapper/360080e bb b1535f887a1 4. 新しいパーティションをマウントするフォルダを作成します 例 # mkdir /mnt/ext4 5. パーティションをマウントします 例 # mount /dev/mapper/360080e bb b1535f887a1 /mnt/ext4

22 22 構成エクスプレスガイド (Linux) ホストでのストレージアクセスの確認 ボリュームを使用する前に ホストがボリュームに対してデータの読み取りと書き込みを実行できることを確認します 開始する前に ボリュームを初期化し ファイルシステムでフォーマットしておく必要があります 1. ホストで いくつかのファイルをディスクのマウントポイントにコピーします 2. コピーしたファイルを元のディスクの別のフォルダにコピーします 3. diffコマンドを実行して コピーしたファイルを元のファイルと比較します 次のタスク コピーしたファイルとフォルダを削除します Linux での FC 固有の情報の記録 FC ワークシートを選択して プロトコル固有のストレージ構成情報を記録します この情報は プロビジョニングタスクを実行する際に必要となります FC ワークシート - Linux このワークシートを使用して FC ストレージの構成情報を記録できます この情報は プロビジョニングタスクを実行する際に必要となります 次の図では 2 つのゾーンでホストが E シリーズストレージアレイに接続されています 一方のゾーンを青い線で示し もう一方のゾーンを赤い線で示しています どちらのポートにもストレージへのパスが 2 つ ( 各コントローラへのパスが 1 つ ) あります

23 Fibre Channel のクイックセットアップ 23 ホスト識別子 番号 ホスト ( イニシエータ ) ポート接続 WWPN 1 ホスト 該当なし 2 ホストポート0からFCスイッチゾーン0 7 ホストポート1からFCスイッチゾーン1 ターゲット識別子 番号アレイコントローラ ( ターゲット ) ポート接続 WWPN 3 スイッチ該当なし 6 アレイコントローラ ( ターゲット ) 該当なし 5 コントローラ A のポート 1 から FC スイッチ 1 9 コントローラ A のポート 2 から FC スイッチ 2 4 コントローラ B のポート 1 から FC スイッチ 1 8 コントローラ B のポート 2 から FC スイッチ 2 マッピングホスト マッピングホスト名 ホスト OS タイプ

24 24 SAS のクイックセットアップ 1. Linux 構成のサポート状況の確認 (24 ページ ) 2. DHCP を使用した IP アドレスの設定 (24 ページ ) 3. Host Utilities のインストールと設定 (25 ページ ) 4. SMcli を使用するための SANtricity Storage Manager のインストール (SANtricity ソフトウェアバージョン 以前 )(25 ページ ) 5. SANtricity System Manager へのアクセスとセットアップウィザードの使用 (27 ページ ) 6. マルチパスソフトウェアの設定 (28 ページ ) 7. multipath.conf ファイルのセットアップ (29 ページ ) 8. SAS ホスト識別子の特定 - Linux(33 ページ ) 9. パーティションとファイルシステムの作成 (33 ページ ) 10. ホストでのストレージアクセスの確認 (35 ページ ) 11. Linux での SAS 固有の情報の記録 (35 ページ ) Linux 構成のサポート状況の確認 安定した稼働を確保するために 導入計画を作成し NetApp Interoperability Matrix Tool (IMT) を使用して構成全体がサポートされることを確認します 1. NetApp Interoperability Matrix Tool にアクセスします 2. [Storage Solution Search] タイルをクリックします 3. [Protocols] > [SAN Host (FAS, E-Series)] 領域で [E-Series SAN Host] の横にある [Add] ボタンをクリックします 4. [OK] をクリックします [What Works With What] セクションが表示されます このセクションでは 該当するプロトコル および構成のその他の条件 ( オペレーティングシステム NetApp OS ホストのマルチパスドライバなど ) を選択できます 構成に必要な条件を選択し 互換性のある構成要素を確認します 必要に応じて 使用するオペレーティングシステムとプロトコルに対して IMT に記載された更新を実行します DHCP を使用した IP アドレスの設定 クイック方式で管理ステーションとストレージアレイ間の通信を設定する場合 動的ホスト構成プロトコル (DHCP) を使用して IP アドレスを割り当てます 各ストレージアレイにはコントローラが 1 台 ( シンプレックス ) または 2 台 ( デュプレックス ) 含まれ コントロー

25 SAS のクイックセットアップ 25 ラごとにストレージ管理ポートが 2 つあります 各管理ポートには IP アドレスが割り当てられます 開始する前に ストレージ管理ポートと同じサブネットに DHCP サーバをインストールして設定しておきます タスク概要 以下のでは コントローラを 2 台搭載したストレージアレイ ( デュプレックス構成 ) を使用します 1. 管理ステーションおよび各コントローラ (A B) の管理ポート 1 にイーサネットケーブルを接続します ( まだ接続していない場合 ) DHCP サーバによって 各コントローラのポート 1 に IP アドレスが割り当てられます 注 : どちらのコントローラの管理ポート 2 も使用しないでください ポート 2 はネットアップのテクニカルサポート用に予約されています 重要 : イーサネットケーブルを外して再接続するか ストレージアレイの電源を再投入すると DHCP によって IP アドレスが再度割り当てられます この処理は静的 IP アドレスを設定しないかぎり発生します ケーブルを外したり アレイの電源を再投入したりしないことを推奨します DHCP が割り当てた IP アドレスをストレージアレイが 30 秒以内に取得できないと 次のようにデフォルトの IP アドレスが設定されます コントローラ A ポート 1: コントローラ B ポート 1: サブネットマスク : コントローラ背面の MAC アドレスラベルを確認し ネットワーク管理者に各コントローラのポート 1 の MAC アドレスを伝えます MAC アドレスは ネットワーク管理者が各コントローラの IP アドレスを特定するために必要です ブラウザからストレージシステムに接続するには IP アドレスが必要です Host Utilities のインストールと設定 Linux Unified Host Utilities 7.0 には フェイルオーバーポリシーや物理パスなど ネットアップストレージを管理するツールが含まれています 1. NetApp Interoperability Matrix Tool を使用して Unified Host Utilities 7.0 のバージョンを特定します サポートされる構成ごとに対応するバージョンが表示されます 2. ネットアップサポートから Unified Host Utilities 7.0 をダウンロードします SMcli を使用するための SANtricity Storage Manager のインストール (SANtricity ソフトウェアバージョン 以前 ) 管理ステーションに SANtricity Storage Manager ソフトウェアをインストールすると アレイの管理に役立つコマンドラインインターフェイス (CLI) がインストールされます また

26 26 構成エクスプレスガイド (Linux) Host Context Agent もインストールされ ホストから I/O パスを経由してストレージアレイコントローラに設定情報をプッシュできるようになります 開始する前に 重要 :SANtricity ソフトウェア 以降では SANtricity Secure CLI(SMcli) は SANtricity OS に含まれており SANtricity System Manager からダウンロードできます SANtricty System Manager から SMcli をダウンロードする方法の詳細については SANtricity オンラインヘルプのトピック コマンドラインインターフェイス (CLI) のダウンロード を参照してください SANtricity ソフトウェア 以前を使用している必要があります 適切な管理者権限またはスーパーユーザ権限が必要です SANtricity Storage Manager クライアントをインストールするシステムが次の最小要件を満たしていることを確認する必要があります RAM:Java Runtime Engine 用に 2GB ディスクスペース :5GB OS / アーキテクチャ : サポート対象オペレーティングシステムのバージョンとアーキテクチャを特定する方法については ネットアップサポートの [Downloads] > [Software] > [E-Series/EF-Series SANtricity Storage Manager] を参照してください タスク概要 ここでは Windows と Linux の両方の OS プラットフォームについて SANtricity Storage Manager のインストール方法を説明しています データホストに Linux を使用する場合の管理ステーションプラットフォームは Windows と Linux の両方で共通です 1. ネットアップサポートの [Downloads] > [Software] > [E-Series/EF-Series SANtricity Storage Manager] から SANtricity ソフトウェアリリースをダウンロードします 2. SANtricity インストーラを実行します Windows SMIA*.exe インストールパッケージをダブルクリックしてインストールを開始します Linux a. SMIA*.bin インストールパッケージをダウンロードしたディレクトリに移動します b. 一時マウントポイントに実行権限がない場合は IATEMPDIR 変数を設定します 例 :IATEMPDIR=/root./SMIA- LINUXX A bin c. chmod +x SMIA*.bin コマンドを実行してファイルに実行権限を付与します d../smia*.bin コマンドを実行してインストーラを起動します 3. インストールウィザードを使用して 管理ステーションでソフトウェアをインストールします

27 SAS のクイックセットアップ 27 SANtricity System Manager へのアクセスとセットアップウィザードの使用 SANtricity System Manager のセットアップウィザードを使用してストレージアレイを設定します 開始する前に SANtricity System Manager へのアクセスに使用するデバイスに 次のいずれかのブラウザがインストールされていることを確認しておきます ブラウザ Google Chrome 47 Microsoft Internet Explorer 11 最小バージョン Microsoft Edge EdgeHTML 12 Mozilla Firefox 31 Safari 9 アウトオブバンド管理を使用します タスク概要 ウィザードは System Manager を開くかブラウザの表示を更新したときに 次の少なくとも 1 つに該当していれば自動的に再度起動されます プールとボリュームグループが検出されていない ワークロードが検出されていない 通知が設定されていない 1. ブラウザで次の URL を入力します IPAddress は いずれかのストレージアレイコントローラのアドレスです まだ設定していないアレイで SANtricity System Manager を初めて開くと Set Administrator Password というプロンプトが表示されます ロールベースのアクセス管理では admin support security および monitor の 4 つのローカルロールが設定されます 最後の 3 つのロールには 推測されにくいランダムなパスワードが設定されています admin ロールのパスワードを設定したあと admin のクレデンシャルを使用してすべてのパスワードを変更することができます 4 つのローカルユーザロールの詳細については SANtricity System Manager オンラインヘルプ を参照してください 2. System Manager の admin ロールのパスワードを [ 管理者パスワードの設定 ] フィールドと [ パスワードの再入力 ] フィールドに入力し [ パスワードの設定 ] ボタンを選択します プール ボリュームグループ ワークロード または通知が設定されていない状態で System Manager を開くと セットアップウィザードが起動します 3. セットアップウィザードを使用して次のタスクを実行します

28 28 構成エクスプレスガイド (Linux) ハードウェア ( コントローラとドライバ ) の確認 ストレージアレイ内のコントローラとドライブの数を確認します アレイに名前を割り当てます ホストとオペレーティングシステムの確認 ストレージアレイがアクセスできるホストとオペレーティングシステムのタイプを確認します プールの承認 クイックインストールで推奨されるプール構成を承認します プールはドライブの論理グループです アラートの設定 ストレージアレイで問題が発生した場合に自動通知を System Manager で受信するように設定します AutoSupport の有効化 ストレージアレイの健常性を自動的に監視し テクニカルサポートにデータを送信します 4. ボリュームをまだ作成していない場合は [ ストレージ ] > [ ボリューム ] > [ 作成 ] > [ ボリューム ] の順に選択してボリュームを作成します 詳細については SANtricity System Manager のオンラインヘルプを参照してください マルチパスソフトウェアの設定 マルチパスソフトウェアは 物理パスの 1 つが中断された場合に備えて ストレージアレイへのパスを冗長化します マルチパスソフトウェアは ストレージへの複数のアクティブな物理パスを単一の仮想デバイスとしてオペレーティングシステムに提示します また フェイルオーバープロセスも管理して仮想デバイスを更新します Linux 環境では Device Mapper Multipath(DM-MP) ツールを使用します 開始する前に 必要なパッケージをシステムにインストールしておきます Red Hat(RHEL) ホストの場合 rpm -q device-mapper-multipath を実行してパッケージがインストールされていることを確認します SLES ホストの場合 rpm -q multipath-tools を実行してパッケージがインストールされていることを確認します タスク概要 RHEL および SLES では デフォルトでは DM-MP は無効になっています ホストで DM-MP コンポーネントを有効にするには 次のを実行します オペレーティングシステムがインストールされていない場合は オペレーティングシステムのベンダーから提供されたメディアを使用します 1. multipath.conf ファイルがまだ作成されていない場合は # touch /etc/ multipath.conf コマンドを実行します 2. デフォルトのマルチパス設定を使用するために multipath.conf ファイルを空のままにします 3. マルチパスサービスを開始します 例 # systemctl start multipathd

29 SAS のクイックセットアップ マルチパスの自動起動を設定します 例 # chkconfig multipathd on 5. uname -r コマンドを実行してカーネルバージョンを確認します 例 # uname -r el7.x86_64 この情報は ホストにボリュームを割り当てる際に使用します 6. 次のいずれかを実行して multipathd をブート時に有効にします 対象 RHEL 6.x システム : RHEL 7.x システム : SLES 12.x および 15.x システム : 操作 chkconfig multipathd on systemctl enable multipathd systemctl enable multipathd 7. initramfs イメージまたは initrd イメージを /boot directory に再構築します 対象 RHEL 6.x および 7.x システム : SLES 12.x および 15.x システム : 操作 dracut --force --add multipath dracut --force --add multipath 8. 新たに作成した /boot/initrams-* イメージまたは /boot/initrd-* イメージがブート構成ファイルで選択されていることを確認します たとえば grub については /boot/grub/menu.lst grub2 については /boot/grub2/ menu.cfg を確認します 9. オンラインヘルプの ホストの手動作成 のに従って ホストが定義されているかどうかを確認します それぞれのホストタイプが自動ロードバランシングを有効にする場合は [Linux DM-MP( カーネル 3.10 以降 )] 自動ロードバランシングを無効にする場合は [Linux DM-MP( カーネル 3.9 以前 )] になっていることを確認します 必要に応じて 選択されたホストタイプを適切な設定に変更します 10. ホストをリブートします multipath.conf ファイルのセットアップ multipath.conf ファイルは マルチパスデーモン multipathd の構成ファイルです multipath.conf ファイルは multipathd の組み込みの構成テーブルよりも優先されます 空白を除く最初の文字が # の行は コメント行とみなされます 空の行は無視されます 注 :SANtricity OS 8.30 では デフォルト設定をそのまま使用することを推奨します サンプルの multipath.conf は次の場所にあります

30 30 構成エクスプレスガイド (Linux) SLES:/usr/share/doc/packages/multipath-tools/multipath.conf.synthetic RHEL:/usr/share/doc/device-mapper-multipath-0.4.9/multipath.conf multipath.conf のサンプルファイルでは すべての行がコメントアウトされています ファイルは次の 5 つのセクションに分かれています defaults - すべてのデフォルト値を指定します blacklist - 新規インストールではすべてのデバイスがブラックリストに登録されています デフォルトのブラックリストは /etc/multipath.conf ファイルのコメントアウトされたセクションに記載されています Device Mapper Multipath を使用しない場合は WWID でこの機能をブラックリストに登録します blacklist_exceptions - blacklist セクションで指定された項目に対する例外を指定します devices - すべてのマルチパスデバイスと対応するベンダーおよび製品 ID を記載します multipaths - マルチパスデバイスと対応する WWID を記載します DM-MP マルチパスドライバには デフォルト値 および各ベンダーと製品 ID の組み合わせに対する設定があらかじめ用意されています multipath.conf の各セクションを定義した場合 次のようになります defaults セクションに定義されたパラメータ値は 組み込みのデフォルト値とマージされて値を置き換えます devices セクションに定義されたパラメータ値は 組み込みの設定に同じデバイスがすでに存在する場合 そのベンダーと製品 ID に対する組み込みのデフォルト値とマージされます 確実にマージするためには ベンダーと製品の値が組み込みの設定と一致する必要があります 各パラメータについて 値は次の順序で決定されます 1. 各デバイスの multipaths セクション ( 定義されている場合 ) 2. デバイスのベンダーと製品 ID に対応する devices セクション ( 定義されている場合 ) 3. 内部のデフォルト値 次のタスクは multipath.conf ファイルの defaults blacklist および devices の各セクションを変更します 変更する各行の先頭にある # 文字は削除してください 1. blacklist セクションの更新 (30 ページ ) 2. multipath.conf ファイルの devices セクションの更新 (31 ページ ) blacklist セクションの更新 デフォルト設定では UTM LUN がホストに提示される場合があります ただし UTM LUN では I/O 処理はサポートされていません UTM LUN で I/O 処理が行われないようにするには 各 UTM LUN のベンダーと製品の情報を /etc/multipath.conf ファイルの blacklist セクションに追加します タスク概要 この作業は任意で 仮想ディスクだけでなく 他のマルチパスドライバで管理されている他のストレージアレイのディスクも除外できます 注 :SANtricity 8.40 では デフォルト設定を確認し 設定を変更しないことを推奨します

31 SAS のクイックセットアップ 31 このセクションは次の形式で指定します blacklist { device { vendor "*" product "Universal Xport" } } multipath.conf ファイルの devices セクションの更新 ホストが RHEL 6.5 SLES 11.3 またはそれ以前のバージョンを実行している場合は /etc/ multipath.conf ファイルを更新できます これらよりも新しいバージョンを使用している場合は 空の /etc/multipath.conf ファイルを作成するだけでデフォルト設定が自動的に適用されます これには NetApp E シリーズおよび EF シリーズのデバイスでサポートされている値も含まれます 次の例は /etc/multipath.conf ファイルの devices セクションの一部を示しています この例では ベンダー ID が NETAPP または LSI で 製品 ID が INF です devices セクションの製品とベンダーの情報を使用しているストレージアレイの構成に合わせて変更します ストレージアレイに複数のベンダーのデバイスが含まれている場合は devices セクションに device ブロックを追加し 該当する属性と値を指定します 使用するパスセレクタについて特に推奨されるものはありません そのため 例に示すように デフォルトのパスセレクタはデバイス設定で選択されます multipathd show config コマンドでは defaults セクションのパスセレクタが表示されます 注 : ホストで RHEL 6.5 SLES 11.3 またはそれ以前のバージョンが実行されている場合にのみ /etc/multipath.conf ファイルの devices セクションを更新してください クラスタ構成では Interoperability Matrix Tool に定義されているように failback を manual に設定します devices { device { vendor "(LSI NETAPP)" product "INF-01-00" path_grouping_policy group_by_prio detect_prio yes prio rdac path_checker rdac hardware_handler "1 rdac" failback immediate features "2 pg_init_retries 50" no_path_retry 30 retain_attached_hw_handler yes } } 注 : 上記以外のパラメータでは内部のデフォルト値が推奨値です 変更しないようにしてください ラウンドロビン方式とサービス時間方式どちらのパスセレクタも完全にサポートされており それぞれの方式に対して特別に推奨されるセレクタはありません 属性パラメータ値説明 path_grouping_policy group_by_prio このベンダーと製品ストレージ に適用されるパスのグループ化 ポリシー detect_prio yes システムによってパスポリシー ルーチンが検出されます

32 32 構成エクスプレスガイド (Linux) 属性パラメータ値説明 prio rdac パス優先ルーチンを決定するプログラムと引数 指定したルーチンは このパスの相対的な優先度を指定する数値を返す必要があります 数値が大きいほど優先度が高くなります path_checker rdac パスの状態を判断するための方 法 hardware_handler "1 rdac" デバイス固有の情報を処理する ために使用するハードウェアハ ンドラ failback immediate パスグループのフェイルバック方法をデーモンに指示するパラメータ この例ではimmediate に設定されているため フェイルバックはパスが使用可能な次回のチェック時に実行されます フェイルバックを無効にするには このパラメータをmanualに設定します 自動ロードバランシング機能を有効にせずにクラスタ環境または共有 LUN 環境を使用している場合は このパラメータを manual に設定します features "2 pg_init_retries 50" 有効にする機能 このパラメータはカーネルパラメータ pg_init_retries を 50 に設定します pg_init_retries パラメータは モード選択コマンドの再試行に使用されます no_path_retry 30 キューが無効になるまでの再試行回数を指定します すぐに失敗にする ( キューなし ) 場合は このパラメータをfailに設定します このパラメータをqueue に設定すると キューは無期限に続行されます 時間はこのパラメータ値に polling_interval( 通常は 5) を掛けた値に等しくなります たとえば no_path_retry の値が 30 の場合は 150 秒になります retain_attached_hw_handle r yes 現在のハードウェアハンドラを引き続き使用することを指定します

33 SAS のクイックセットアップ 33 SAS ホスト識別子の特定 - Linux SAS プロトコルを使用する場合は HBA ユーティリティを使用して SAS アドレスを確認し HBA BIOS を使用して適切な設定を行います タスク概要 HBA ユーティリティのガイドライン : ほとんどの HBA ベンダーは HBA ユーティリティを提供しています 使用するホストオペレーティングシステムと CPU に応じて LSI-sas2flash(6G) または sas3flash(12g) のいずれかのユーティリティを使用します Host Context Agent がインストールされている場合 ホストの I/O ポートは自動的に登録されることがあります 1. HBA ベンダーの Web サイトから LSI-sas2flash(6G) または sas3flash(12g) ユーティリティをダウンロードします 2. ユーティリティをインストールします 3. HBA BIOS を使用して構成に合った設定を選択します 推奨設定については NetApp Interoperability Matrix Tool の [Notes] 列を参照してください パーティションとファイルシステムの作成 Linux ホストで初めて検出された時点では 新しい LUN にはパーティションやファイルシステムは設定されていません LUN を使用できるようにするにはフォーマットする必要があります 必要に応じて LUN にファイルシステムを作成することができます 開始する前に ホストが LUN を検出済みである必要があります /dev/mapper フォルダで ls コマンドを実行して使用可能なディスクを確認しておきます タスク概要 ディスクは GUID パーティションテーブル (GPT) またはマスターブートレコード (MBR) を使用して ベーシックディスクとして初期化することができます LUN は ext4 などのファイルシステムでフォーマットします 一部の環境ではこのは必要ありません 1. sanlun lun show -p コマンドを実行して マッピングされているディスクの SCSI ID を取得します SCSI ID は 3 から始まる 33 文字の 16 進数値です ユーザにわかりやすい名前の使用が有効になっている場合 SCSI ID の代わりに mpath がレポートされます

34 34 構成エクスプレスガイド (Linux) 例 # sanlun lun show -p E-Series Array: ictm1619s01c01- SRP(60080e b efb9d2) Volume Name: Preferred Owner: Controller in Slot B Current Owner: Controller in Slot B Mode: RDAC (Active/Active) UTM LUN: None LUN: 116 LUN Size: Product: E-Series Host Device: mpathr(360080e ac d) Multipath Policy: round-robin 0 Multipath Provider: Native host controller controller path path /dev/ host target state type node adapter port up secondary sdcx host14 A1 up secondary sdat host10 A2 up secondary sdbv host13 B1 2. Linux OS のリリースに応じた方法で新しいパーティションを作成します 通常 ディスクのパーティションを識別する文字 ( 数字の 1 や p3 など ) が SCSI ID に追加されます 例 # parted -a optimal -s -- /dev/mapper/ e bb b1535f887a mklabel gpt mkpart primary ext4 0% 100% 3. パーティションにファイルシステムを作成します ファイルシステムの作成方法は 選択したファイルシステムによって異なります 例 # mkfs.ext4 /dev/mapper/360080e bb b1535f887a1 4. 新しいパーティションをマウントするフォルダを作成します 例 # mkdir /mnt/ext4 5. パーティションをマウントします 例 # mount /dev/mapper/360080e bb b1535f887a1 /mnt/ext4

35 SAS のクイックセットアップ 35 ホストでのストレージアクセスの確認 ボリュームを使用する前に ホストがボリュームに対してデータの読み取りと書き込みを実行できることを確認します 開始する前に ボリュームを初期化し ファイルシステムでフォーマットしておく必要があります 1. ホストで いくつかのファイルをディスクのマウントポイントにコピーします 2. コピーしたファイルを元のディスクの別のフォルダにコピーします 3. diffコマンドを実行して コピーしたファイルを元のファイルと比較します 次のタスク コピーしたファイルとフォルダを削除します Linux での SAS 固有の情報の記録 SAS ワークシートにプロトコル固有のストレージ構成情報を記録します この情報は プロビジョニングタスクを実行する際に必要となります SAS ワークシート - Linux このワークシートを使用して SAS ストレージの構成情報を記録できます この情報は プロビジョニングタスクを実行する際に必要となります

36 36 構成エクスプレスガイド (Linux) ホスト識別子 番号ホスト ( イニシエータ ) ポート接続 SAS アドレス 1 ホスト該当なし 2 ホスト ( イニシエータ ) ポート 1 からコントローラ A のポート 1 3 ホスト ( イニシエータ ) ポート 1 からコントローラ B のポート 1 4 ホスト ( イニシエータ ) ポート 2 からコントローラ A のポート 1 5 ホスト ( イニシエータ ) ポート 2 からコントローラ B のポート 1 ターゲット識別子推奨構成は2つのターゲットポートで構成されます マッピングホストマッピングホスト名ホストOSタイプ

37 37 iscsi のクイックセットアップ 1. Linux 構成のサポート状況の確認 (37 ページ ) 2. DHCP を使用した IP アドレスの設定 (37 ページ ) 3. Host Utilities のインストールと設定 (38 ページ ) 4. SMcli を使用するための SANtricity Storage Manager のインストール (SANtricity ソフトウェアバージョン 以前 )(38 ページ ) 5. SANtricity System Manager へのアクセスとセットアップウィザードの使用 (40 ページ ) 6. マルチパスソフトウェアの設定 (41 ページ ) 7. multipath.conf ファイルのセットアップ (42 ページ ) 8. スイッチの設定 (46 ページ ) 9. ネットワークの設定 (46 ページ ) 10. アレイ側のネットワークの設定 (46 ページ ) 11. ホスト側のネットワークの設定 (49 ページ ) 12. IP ネットワーク接続の確認 (51 ページ ) 13. パーティションとファイルシステムの作成 (52 ページ ) 14. ホストでのストレージアクセスの確認 (54 ページ ) 15. Linux での iscsi 固有の情報の記録 (54 ページ ) Linux 構成のサポート状況の確認 安定した稼働を確保するために 導入計画を作成し NetApp Interoperability Matrix Tool (IMT) を使用して構成全体がサポートされることを確認します 1. NetApp Interoperability Matrix Tool にアクセスします 2. [Storage Solution Search] タイルをクリックします 3. [Protocols] > [SAN Host (FAS, E-Series)] 領域で [E-Series SAN Host] の横にある [Add] ボタンをクリックします 4. [OK] をクリックします [What Works With What] セクションが表示されます このセクションでは 該当するプロトコル および構成のその他の条件 ( オペレーティングシステム NetApp OS ホストのマルチパスドライバなど ) を選択できます 構成に必要な条件を選択し 互換性のある構成要素を確認します 必要に応じて 使用するオペレーティングシステムとプロトコルに対して IMT に記載された更新を実行します DHCP を使用した IP アドレスの設定 クイック方式で管理ステーションとストレージアレイ間の通信を設定する場合 動的ホスト構成プロトコル (DHCP) を使用して IP アドレスを割り当てます 各ストレージアレイにはコントローラが 1 台 ( シンプレックス ) または 2 台 ( デュプレックス ) 含まれ コントロー

38 38 構成エクスプレスガイド (Linux) ラごとにストレージ管理ポートが 2 つあります 各管理ポートには IP アドレスが割り当てられます 開始する前に ストレージ管理ポートと同じサブネットに DHCP サーバをインストールして設定しておきます タスク概要 以下のでは コントローラを 2 台搭載したストレージアレイ ( デュプレックス構成 ) を使用します 1. 管理ステーションおよび各コントローラ (A B) の管理ポート 1 にイーサネットケーブルを接続します ( まだ接続していない場合 ) DHCP サーバによって 各コントローラのポート 1 に IP アドレスが割り当てられます 注 : どちらのコントローラの管理ポート 2 も使用しないでください ポート 2 はネットアップのテクニカルサポート用に予約されています 重要 : イーサネットケーブルを外して再接続するか ストレージアレイの電源を再投入すると DHCP によって IP アドレスが再度割り当てられます この処理は静的 IP アドレスを設定しないかぎり発生します ケーブルを外したり アレイの電源を再投入したりしないことを推奨します DHCP が割り当てた IP アドレスをストレージアレイが 30 秒以内に取得できないと 次のようにデフォルトの IP アドレスが設定されます コントローラ A ポート 1: コントローラ B ポート 1: サブネットマスク : コントローラ背面の MAC アドレスラベルを確認し ネットワーク管理者に各コントローラのポート 1 の MAC アドレスを伝えます MAC アドレスは ネットワーク管理者が各コントローラの IP アドレスを特定するために必要です ブラウザからストレージシステムに接続するには IP アドレスが必要です Host Utilities のインストールと設定 Linux Unified Host Utilities 7.0 には フェイルオーバーポリシーや物理パスなど ネットアップストレージを管理するツールが含まれています 1. NetApp Interoperability Matrix Tool を使用して Unified Host Utilities 7.0 のバージョンを特定します サポートされる構成ごとに対応するバージョンが表示されます 2. ネットアップサポートから Unified Host Utilities 7.0 をダウンロードします SMcli を使用するための SANtricity Storage Manager のインストール (SANtricity ソフトウェアバージョン 以前 ) 管理ステーションに SANtricity Storage Manager ソフトウェアをインストールすると アレイの管理に役立つコマンドラインインターフェイス (CLI) がインストールされます また

39 iscsi のクイックセットアップ 39 Host Context Agent もインストールされ ホストから I/O パスを経由してストレージアレイコントローラに設定情報をプッシュできるようになります 開始する前に 重要 :SANtricity ソフトウェア 以降では SANtricity Secure CLI(SMcli) は SANtricity OS に含まれており SANtricity System Manager からダウンロードできます SANtricty System Manager から SMcli をダウンロードする方法の詳細については SANtricity オンラインヘルプのトピック コマンドラインインターフェイス (CLI) のダウンロード を参照してください SANtricity ソフトウェア 以前を使用している必要があります 適切な管理者権限またはスーパーユーザ権限が必要です SANtricity Storage Manager クライアントをインストールするシステムが次の最小要件を満たしていることを確認する必要があります RAM:Java Runtime Engine 用に 2GB ディスクスペース :5GB OS / アーキテクチャ : サポート対象オペレーティングシステムのバージョンとアーキテクチャを特定する方法については ネットアップサポートの [Downloads] > [Software] > [E-Series/EF-Series SANtricity Storage Manager] を参照してください タスク概要 ここでは Windows と Linux の両方の OS プラットフォームについて SANtricity Storage Manager のインストール方法を説明しています データホストに Linux を使用する場合の管理ステーションプラットフォームは Windows と Linux の両方で共通です 1. ネットアップサポートの [Downloads] > [Software] > [E-Series/EF-Series SANtricity Storage Manager] から SANtricity ソフトウェアリリースをダウンロードします 2. SANtricity インストーラを実行します Windows SMIA*.exe インストールパッケージをダブルクリックしてインストールを開始します Linux a. SMIA*.bin インストールパッケージをダウンロードしたディレクトリに移動します b. 一時マウントポイントに実行権限がない場合は IATEMPDIR 変数を設定します 例 :IATEMPDIR=/root./SMIA- LINUXX A bin c. chmod +x SMIA*.bin コマンドを実行してファイルに実行権限を付与します d../smia*.bin コマンドを実行してインストーラを起動します 3. インストールウィザードを使用して 管理ステーションでソフトウェアをインストールします

40 40 構成エクスプレスガイド (Linux) SANtricity System Manager へのアクセスとセットアップウィザードの使用 SANtricity System Manager のセットアップウィザードを使用してストレージアレイを設定します 開始する前に SANtricity System Manager へのアクセスに使用するデバイスに 次のいずれかのブラウザがインストールされていることを確認しておきます ブラウザ Google Chrome 47 Microsoft Internet Explorer 11 最小バージョン Microsoft Edge EdgeHTML 12 Mozilla Firefox 31 Safari 9 アウトオブバンド管理を使用します タスク概要 iscsi を使用している場合は iscsi を設定する際にセットアップウィザードを閉じています ウィザードは System Manager を開くかブラウザの表示を更新したときに 次の少なくとも 1 つに該当していれば自動的に再度起動されます プールとボリュームグループが検出されていない ワークロードが検出されていない 通知が設定されていない 1. ブラウザで次の URL を入力します IPAddress は いずれかのストレージアレイコントローラのアドレスです まだ設定していないアレイで SANtricity System Manager を初めて開くと Set Administrator Password というプロンプトが表示されます ロールベースのアクセス管理では admin support security および monitor の 4 つのローカルロールが設定されます 最後の 3 つのロールには 推測されにくいランダムなパスワードが設定されています admin ロールのパスワードを設定したあと admin のクレデンシャルを使用してすべてのパスワードを変更することができます 4 つのローカルユーザロールの詳細については SANtricity System Manager オンラインヘルプ を参照してください 2. System Manager の admin ロールのパスワードを [ 管理者パスワードの設定 ] フィールドと [ パスワードの再入力 ] フィールドに入力し [ パスワードの設定 ] ボタンを選択します プール ボリュームグループ ワークロード または通知が設定されていない状態で System Manager を開くと セットアップウィザードが起動します

41 iscsi のクイックセットアップ セットアップウィザードを使用して次のタスクを実行します ハードウェア ( コントローラとドライバ ) の確認 ストレージアレイ内のコントローラとドライブの数を確認します アレイに名前を割り当てます ホストとオペレーティングシステムの確認 ストレージアレイがアクセスできるホストとオペレーティングシステムのタイプを確認します プールの承認 クイックインストールで推奨されるプール構成を承認します プールはドライブの論理グループです アラートの設定 ストレージアレイで問題が発生した場合に自動通知を System Manager で受信するように設定します AutoSupport の有効化 ストレージアレイの健常性を自動的に監視し テクニカルサポートにデータを送信します 4. ボリュームをまだ作成していない場合は [ ストレージ ] > [ ボリューム ] > [ 作成 ] > [ ボリューム ] の順に選択してボリュームを作成します 詳細については SANtricity System Manager のオンラインヘルプを参照してください マルチパスソフトウェアの設定 マルチパスソフトウェアは 物理パスの 1 つが中断された場合に備えて ストレージアレイへのパスを冗長化します マルチパスソフトウェアは ストレージへの複数のアクティブな物理パスを単一の仮想デバイスとしてオペレーティングシステムに提示します また フェイルオーバープロセスも管理して仮想デバイスを更新します Linux 環境では Device Mapper Multipath(DM-MP) ツールを使用します 開始する前に 必要なパッケージをシステムにインストールしておきます Red Hat(RHEL) ホストの場合 rpm -q device-mapper-multipath を実行してパッケージがインストールされていることを確認します SLES ホストの場合 rpm -q multipath-tools を実行してパッケージがインストールされていることを確認します タスク概要 RHEL および SLES では デフォルトでは DM-MP は無効になっています ホストで DM-MP コンポーネントを有効にするには 次のを実行します オペレーティングシステムがインストールされていない場合は オペレーティングシステムのベンダーから提供されたメディアを使用します 1. multipath.conf ファイルがまだ作成されていない場合は # touch /etc/ multipath.conf コマンドを実行します 2. デフォルトのマルチパス設定を使用するために multipath.conf ファイルを空のままにします 3. マルチパスサービスを開始します

42 42 構成エクスプレスガイド (Linux) 例 # systemctl start multipathd 4. マルチパスの自動起動を設定します 例 # chkconfig multipathd on 5. uname -r コマンドを実行してカーネルバージョンを確認します 例 # uname -r el7.x86_64 この情報は ホストにボリュームを割り当てる際に使用します 6. 次のいずれかを実行して multipathdをブート時に有効にします 対象操作 RHEL 6.x システム : RHEL 7.x システム : SLES 12.x および 15.x システム : chkconfig multipathd on systemctl enable multipathd systemctl enable multipathd 7. initramfs イメージまたは initrd イメージを /boot directory に再構築します 対象 操作 RHEL 6.x および 7.x システム : SLES 12.x および 15.x システム : dracut --force --add multipath dracut --force --add multipath 8. 新たに作成した /boot/initrams-* イメージまたは /boot/initrd-* イメージがブート構成ファイルで選択されていることを確認します たとえば grub については /boot/grub/menu.lst grub2 については /boot/grub2/ menu.cfg を確認します 9. オンラインヘルプの ホストの手動作成 のに従って ホストが定義されているかどうかを確認します それぞれのホストタイプが自動ロードバランシングを有効にする場合は [Linux DM-MP( カーネル 3.10 以降 )] 自動ロードバランシングを無効にする場合は [Linux DM-MP( カーネル 3.9 以前 )] になっていることを確認します 必要に応じて 選択されたホストタイプを適切な設定に変更します 10. ホストをリブートします multipath.conf ファイルのセットアップ multipath.conf ファイルは マルチパスデーモン multipathd の構成ファイルです multipath.conf ファイルは multipathd の組み込みの構成テーブルよりも優先されます 空白を除く最初の文字が # の行は コメント行とみなされます 空の行は無視されます 注 :SANtricity OS 8.30 では デフォルト設定をそのまま使用することを推奨します

43 iscsi のクイックセットアップ 43 サンプルの multipath.conf は次の場所にあります SLES:/usr/share/doc/packages/multipath-tools/multipath.conf.synthetic RHEL:/usr/share/doc/device-mapper-multipath-0.4.9/multipath.conf multipath.conf のサンプルファイルでは すべての行がコメントアウトされています ファイルは次の 5 つのセクションに分かれています defaults - すべてのデフォルト値を指定します blacklist - 新規インストールではすべてのデバイスがブラックリストに登録されています デフォルトのブラックリストは /etc/multipath.conf ファイルのコメントアウトされたセクションに記載されています Device Mapper Multipath を使用しない場合は WWID でこの機能をブラックリストに登録します blacklist_exceptions - blacklist セクションで指定された項目に対する例外を指定します devices - すべてのマルチパスデバイスと対応するベンダーおよび製品 ID を記載します multipaths - マルチパスデバイスと対応する WWID を記載します DM-MP マルチパスドライバには デフォルト値 および各ベンダーと製品 ID の組み合わせに対する設定があらかじめ用意されています multipath.conf の各セクションを定義した場合 次のようになります defaults セクションに定義されたパラメータ値は 組み込みのデフォルト値とマージされて値を置き換えます devices セクションに定義されたパラメータ値は 組み込みの設定に同じデバイスがすでに存在する場合 そのベンダーと製品 ID に対する組み込みのデフォルト値とマージされます 確実にマージするためには ベンダーと製品の値が組み込みの設定と一致する必要があります 各パラメータについて 値は次の順序で決定されます 1. 各デバイスの multipaths セクション ( 定義されている場合 ) 2. デバイスのベンダーと製品 ID に対応する devices セクション ( 定義されている場合 ) 3. 内部のデフォルト値 次のタスクは multipath.conf ファイルの defaults blacklist および devices の各セクションを変更します 変更する各行の先頭にある # 文字は削除してください 1. blacklist セクションの更新 (43 ページ ) 2. multipath.conf ファイルの devices セクションの更新 (44 ページ ) blacklist セクションの更新 デフォルト設定では UTM LUN がホストに提示される場合があります ただし UTM LUN では I/O 処理はサポートされていません UTM LUN で I/O 処理が行われないようにするには 各 UTM LUN のベンダーと製品の情報を /etc/multipath.conf ファイルの blacklist セクションに追加します タスク概要 この作業は任意で 仮想ディスクだけでなく 他のマルチパスドライバで管理されている他のストレージアレイのディスクも除外できます

44 44 構成エクスプレスガイド (Linux) 注 :SANtricity 8.40 では デフォルト設定を確認し 設定を変更しないことを推奨します このセクションは次の形式で指定します blacklist { device { vendor "*" product "Universal Xport" } } multipath.conf ファイルの devices セクションの更新 ホストが RHEL 6.5 SLES 11.3 またはそれ以前のバージョンを実行している場合は /etc/ multipath.conf ファイルを更新できます これらよりも新しいバージョンを使用している場合は 空の /etc/multipath.conf ファイルを作成するだけでデフォルト設定が自動的に適用されます これには NetApp E シリーズおよび EF シリーズのデバイスでサポートされている値も含まれます 次の例は /etc/multipath.conf ファイルの devices セクションの一部を示しています この例では ベンダー ID が NETAPP または LSI で 製品 ID が INF です devices セクションの製品とベンダーの情報を使用しているストレージアレイの構成に合わせて変更します ストレージアレイに複数のベンダーのデバイスが含まれている場合は devices セクションに device ブロックを追加し 該当する属性と値を指定します 使用するパスセレクタについて特に推奨されるものはありません そのため 例に示すように デフォルトのパスセレクタはデバイス設定で選択されます multipathd show config コマンドでは defaults セクションのパスセレクタが表示されます 注 : ホストで RHEL 6.5 SLES 11.3 またはそれ以前のバージョンが実行されている場合にのみ /etc/multipath.conf ファイルの devices セクションを更新してください クラスタ構成では Interoperability Matrix Tool に定義されているように failback を manual に設定します devices { device { vendor "(LSI NETAPP)" product "INF-01-00" path_grouping_policy group_by_prio detect_prio yes prio rdac path_checker rdac hardware_handler "1 rdac" failback immediate features "2 pg_init_retries 50" no_path_retry 30 retain_attached_hw_handler yes } } 注 : 上記以外のパラメータでは内部のデフォルト値が推奨値です 変更しないようにしてください ラウンドロビン方式とサービス時間方式どちらのパスセレクタも完全にサポートされており それぞれの方式に対して特別に推奨されるセレクタはありません 属性パラメータ値説明 path_grouping_policy group_by_prio このベンダーと製品ストレージ に適用されるパスのグループ化 ポリシー detect_prio yes システムによってパスポリシー ルーチンが検出されます

45 iscsi のクイックセットアップ 45 属性パラメータ値説明 prio rdac パス優先ルーチンを決定するプログラムと引数 指定したルーチンは このパスの相対的な優先度を指定する数値を返す必要があります 数値が大きいほど優先度が高くなります path_checker rdac パスの状態を判断するための方 法 hardware_handler "1 rdac" デバイス固有の情報を処理する ために使用するハードウェアハ ンドラ failback immediate パスグループのフェイルバック方法をデーモンに指示するパラメータ この例ではimmediate に設定されているため フェイルバックはパスが使用可能な次回のチェック時に実行されます フェイルバックを無効にするには このパラメータをmanualに設定します 自動ロードバランシング機能を有効にせずにクラスタ環境または共有 LUN 環境を使用している場合は このパラメータを manual に設定します features "2 pg_init_retries 50" 有効にする機能 このパラメータはカーネルパラメータ pg_init_retries を 50 に設定します pg_init_retries パラメータは モード選択コマンドの再試行に使用されます no_path_retry 30 キューが無効になるまでの再試行回数を指定します すぐに失敗にする ( キューなし ) 場合は このパラメータをfailに設定します このパラメータをqueue に設定すると キューは無期限に続行されます 時間はこのパラメータ値に polling_interval( 通常は 5) を掛けた値に等しくなります たとえば no_path_retry の値が 30 の場合は 150 秒になります retain_attached_hw_handle r yes 現在のハードウェアハンドラを引き続き使用することを指定します

46 46 構成エクスプレスガイド (Linux) スイッチの設定 iscsi に関するベンダーの推奨事項に従ってスイッチを設定します これには 設定の指示に加え コードの更新も含まれることがあります 次の点を確認する必要があります 2 つのネットワークを使用して高可用性を実現している iscsi トラフィックを別々のネットワークセグメントに分離してください 送受信のハードウェアフロー制御がエンドツーエンドで有効になっている 優先度フロー制御が無効になっている ジャンボフレームが有効になっている ( 該当する場合 ) 注 : コントローラのスイッチポートでは ポートチャネル / LACP がサポートされません ホスト側 LACP は推奨されません マルチパスを利用すれば 同等またはそれ以上のメリットを得られます ネットワークの設定 iscsi ネットワークをどのように設定するかは データストレージの要件に応じてさまざまです 環境に応じた最適な構成を選択するには ネットワーク管理者に相談してください iscsi ネットワークに基本的な冗長性を設定するには 各ホストポートと各コントローラの 1 つのポートを別々のスイッチに接続し ホストポートとコントローラポートの各セットを別々のネットワークセグメントまたは VLAN に分離します 送受信のハードウェアフロー制御をエンドツーエンドで有効にする必要があります 優先度フロー制御は無効にする必要があります パフォーマンス上の理由から IP SAN 内でジャンボフレームを使用している場合は アレイ スイッチ およびホストでジャンボフレームを使用するように設定してください ホストおよびスイッチでジャンボフレームを有効にする方法については 使用するオペレーティングシステムとスイッチのドキュメントを参照してください アレイでジャンボフレームを有効にするには アレイ側のネットワークの設定 - iscsi のを実行します 注 : 多くのネットワークスイッチは 9,000 バイトを超える IP オーバーヘッドを設定する必要があります 詳細については 使用するスイッチのドキュメントを参照してください アレイ側のネットワークの設定 SANtricity System Manager の GUI を使用して アレイ側の iscsi ネットワークを設定します 開始する前に いずれかのストレージアレイコントローラの IP アドレスまたはドメイン名を確認しておく必要があります System Manager GUI のパスワードを設定しておくか ( ユーザまたはシステム管理者が実施 ) ストレージアレイへのアクセスをセキュリティで保護するためにロールベースアクセス制御 (RBAC) または LDP とディレクトリサービスを設定しておく必要がありま

47 iscsi のクイックセットアップ 47 す アクセス管理の詳細については SANtricity System Manager オンラインヘルプ を参照してください タスク概要 このタスクでは [ ハードウェア ] ページから iscsi ポート設定にアクセスする方法について説明します この設定には [ システム ] > [ 設定 ] > [iscsi ポートの設定 ] からもアクセスできます 1. ブラウザで次の URL を入力します IPAddress は いずれかのストレージアレイコントローラのアドレスです まだ設定していないアレイで SANtricity System Manager を初めて開くと Set Administrator Password というプロンプトが表示されます ロールベースのアクセス管理では admin support security および monitor の 4 つのローカルロールが設定されます 最後の 3 つのロールには 推測されにくいランダムなパスワードが設定されています admin ロールのパスワードを設定したあと admin のクレデンシャルを使用してすべてのパスワードを変更することができます 4 つのローカルユーザロールの詳細については SANtricity System Manager オンラインヘルプ を参照してください 2. System Manager の admin ロールのパスワードを [ 管理者パスワードの設定 ] フィールドと [ パスワードの再入力 ] フィールドに入力し [ パスワードの設定 ] ボタンを選択します プール ボリュームグループ ワークロード または通知が設定されていない状態で System Manager を開くと セットアップウィザードが起動します 3. セットアップウィザードを閉じます このウィザードは あとで追加のセットアップタスクを実行する際に使用します 4. [ ハードウェア ] を選択します 5. 図にドライブが表示された場合は [ シェルフ背面を表示 ] をクリックします 図の表示が切り替わり ドライブではなくコントローラが表示されます 6. iscsi ポートを設定するコントローラをクリックします コントローラのコンテキストメニューが表示されます 7. [iscsi ポートの設定 ] を選択します [iscsi ポートの設定 ] ダイアログボックスが開きます 8. ドロップダウンリストで設定するポートを選択し [ 次へ ] をクリックします 9. ポート設定を選択し [ 次へ ] をクリックします すべてのポート設定を表示するには ダイアログボックスの右にある [ 詳細なポート設定を表示 ] リンクをクリックします

48 48 構成エクスプレスガイド (Linux) ポート設定 設定されたイーサネットポート速度 説明 必要な速度を選択します ドロップダウンリストに表示されるオプションは ネットワークがサポートできる最大速度 (10Gbps など ) によって異なります 注 :E5700 / EF570 コントローラのオプションの iscsi ホストインターフェイスカードでは 速度が自動的にネゴシエートされません 各ポートの速度を 10Gb または 25Gb に設定する必要があります すべてのポートを同じ速度に設定する必要があります IPv4 を有効にする /IPv6 を有効にする TCP リスンポート ([ 詳細なポート設定を表示 ] をクリックすると表示されます ) MTU サイズ ([ 詳細なポート設定を表示 ] をクリックすると表示されます ) ICMP PING 応答を有効にする 一方または両方のオプションを選択して IPv4 ネットワークと IPv6 ネットワークのサポートを有効にします 必要に応じて 新しいポート番号を入力します リスニングポートは コントローラがホスト iscsi イニシエータからの iscsi ログインをリスンするために使用する TCP ポート番号です デフォルトのリスニングポートは 3260 です 3260 または 49152~65535 の値を入力する必要があります 必要に応じて 最大伝送ユニット (MTU) の新しいサイズ ( バイト ) を入力します デフォルトの MTU サイズは 1500 バイト / フレームです 1500~9000 の値を入力する必要があります Internet Control Message Protocol(ICMP) を有効にする場合は このオプションを選択します ネットワーク接続されたコンピュータのオペレーティングシステムは このプロトコルを使用してメッセージを送信します ICMP メッセージを送信することで ホストに到達できるかどうかや そのホストとのパケットの送受信にどれくらいの時間がかかるかが確認されます [IPv4 を有効にする ] を選択した場合は [ 次へ ] をクリックすると IPv4 設定を選択するためのダイアログボックスが開きます [IPv6 を有効にする ] を選択した場合は [ 次へ ] をクリックすると IPv6 設定を選択するためのダイアログボックスが開きます 両方のオプションを選択した場合は IPv4 設定のダイアログボックスが最初に開き [ 次へ ] をクリックすると IPv6 設定のダイアログボックスが開きます 10. IPv4 IPv6 またはその両方を 自動または手動で設定します すべてのポート設定を表示するには ダイアログボックスの右にある [ 詳細設定を表示 ] リンクをクリックします ポート設定 設定を自動的に取得 静的な設定を手動で指定 説明 設定を自動的に取得する場合は このオプションを選択します このオプションを選択した場合は フィールドに静的アドレスを入力します IPv4 の場合は ネットワークのサブネットマスクとゲートウェイも指定します IPv6 の場合は ルーティング可能な IP アドレスとルータの IP アドレスも指定します

49 iscsi のクイックセットアップ 49 ポート設定 VLAN のサポートを有効にする ([ 詳細設定を表示 ] をクリックすると表示されます ) イーサネットの優先順位を有効にする ([ 詳細設定を表示 ] をクリックすると表示されます ) 説明 重要 : このオプションは iscsi 環境でのみ使用できます NVMe over RoCE 環境では使用できません VLAN を有効にしてその ID を入力する場合は このオプションを選択します VLAN は 同じスイッチ 同じルータ またはその両方でサポートされる他の物理 LAN( ローカルエリアネットワーク ) および仮想 LAN から物理的に分離されたように動作する論理ネットワークです 重要 : このオプションは iscsi 環境でのみ使用できます NVMe over RoCE 環境では使用できません ネットワークアクセスの優先度を決定するパラメータを有効にする場合は このオプションを選択します スライダを使用して優先度を 1 から 7 の間で選択します 共有 LAN 環境 ( イーサネットなど ) では 多数のステーションがネットワークアクセスで競合する可能性があります アクセスは先に行われたものから順に処理されます 2 つのステーションが同時にネットワークにアクセスしようとすると 両方のステーションがアクセスを停止して再試行まで待機します 1 つのステーションだけがスイッチポートに接続されるスイッチイーサネットでは このプロセスが最小化されます 11. [ 終了 ] をクリックします 12. System Manager を終了します ホスト側のネットワークの設定 ホスト側の iscsi ネットワークを設定するには 物理パスあたりのノードセッション数を設定し 該当する iscsi サービスをオンにし iscsi ポートのネットワークを設定し iscsi iface バインドを作成し イニシエータとターゲットの間に iscsi セッションを確立します タスク概要 ほとんどの場合 iscsi CNA / NIC には標準で実装されているソフトウェアイニシエータを使用できます 最新のドライバ ファームウェア および BIOS をダウンロードする必要はありません コードの要件については NetApp Interoperability Matrix Tool を参照してください 1. /etc/iscsi/iscsid.conf ファイルの node.session.nr_sessions 変数で 物理パスあたりのデフォルトのセッション数を確認します 必要に応じて デフォルトのセッション数を 1 に変更します 例 node.session.nr_sessions = 1 2. /etc/iscsi/iscsid.conf ファイルの node.session.timeo.replacement_timeout 変数を デフォルト値の 120 から 20 に変更します

50 50 構成エクスプレスガイド (Linux) 例 node.session.timeo.replacement_timeout=20 3. iscsid と (open-)iscsi サービスがオンで ブートに対して有効になっていることを確認します Red Hat Enterprise Linux 7(RHEL 7) 例 # systemctl start iscsi # systemctl start iscsid # systemctl enable iscsi # systemctl enable iscsid SUSE Linux Enterprise Server 12(SLES 12) 例 # systemctl start iscsid.service # systemctl enable iscsid.service 4. ホスト IQN イニシエータ名を取得します この名前は アレイに対してホストを設定する際に使用します 例 # cat /etc/iscsi/initiatorname.iscsi 5. iscsi ポートのネットワークを設定します 注 :iscsi イニシエータでは パブリックネットワークポートに加えて 別のプライベートセグメントまたは VLAN 上で 2 つ以上の NIC を使用する必要があります a. # ifconfig -a コマンドを使用して iscsi ポートの名前を特定します b. iscsi イニシエータポートの IP アドレスを設定します イニシエータポートは iscsi ターゲットポートと同じサブネット上にあることが必要です 例 # vim /etc/sysconfig/network-scripts/ifcfg-<nic port>edit: BOOTPROTO=none ONBOOT=yes NM_CONTROLLED=no Add: IPADDR= xxx.xxx NETMASK= 注 : 必ず両方の iscsi イニシエータポートのアドレスを設定してください c. ネットワークサービスを再起動します 例 # systemctl restart network

51 iscsi のクイックセットアップ 51 d. Linux サーバからすべての iscsi ターゲットポートに ping を実行できることを確認します 6. iscsi iface バインディングを 2 つ作成して iscsi インターフェイスを設定します 例 iscsiadm m iface I iface0 o new iscsiadm m iface I iface0 o update n iface.net_ifacename v <NIC port1> iscsiadm m iface I iface1 o new iscsiadm m iface I iface1 o update n iface.net_ifacename v <NIC port2> 注 : インターフェイスの一覧を表示するには iscsiadm m iface を使用します 7. イニシエータとターゲットの間に iscsi セッションを確立します ( 合計 4 つ ) a. iscsi ターゲットを検出します 次ののために IQN( 各検出で同じ ) をワークシートに記録しておきます 例 iscsiadm m discovery t sendtargets p :3260 I iface0 P 1 注 :IQN は次のような形式です iqn com.netapp: e50001bf d7be3 b. iface を使用して iscsi イニシエータと iscsi ターゲットの間に接続を作成します 例 iscsiadm m node T iqn com.netapp: e50001bf d7be3 p :3260 I iface0 -l c. ホストで確立されている iscsi セッションの一覧を表示します 例 # iscsiadm -m session IP ネットワーク接続の確認 インターネットプロトコル (IP) ネットワーク接続を確認するために ping テストを使用してホストとアレイが通信できることを確認します 1. ジャンボフレームが有効かどうかに応じて ホストから次のいずれかのコマンドを実行します

52 52 構成エクスプレスガイド (Linux) ジャンボフレームが有効でない場合は 次のコマンドを実行します ping -I <hostip> <targetip> ジャンボフレームが有効な場合は ペイロードサイズに 8,972 バイトを指定して ping コマンドを実行します IP と ICMP を組み合わせたヘッダーは 28 バイトで これがペイロードに追加されて 9,000 バイトになります -s オプションは packet size ビットを設定します -d オプションはデバッグオプションを設定します これらのオプションにより iscsi イニシエータとターゲットの間で 9,000 バイトのジャンボフレームを送信することができます ping -I <hostip> -s d <targetip> 次の例では iscsi ターゲットの IP アドレスは です #ping -I s d Pinging with 8972 bytes of data: Reply from : bytes=8972 time=2ms TTL=64 Reply from : bytes=8972 time=2ms TTL=64 Reply from : bytes=8972 time=2ms TTL=64 Reply from : bytes=8972 time=2ms TTL=64 Ping statistics for : Packets: Sent = 4, Received = 4, Lost = 0 (0% loss), Approximate round trip times in milli-seconds: Minimum = 2ms, Maximum = 2ms, Average = 2ms 2. 各ホストのイニシエータアドレス (iscsi に使用されているホストイーサネットポートの IP アドレス ) から各コントローラ iscsi ポートに対して ping コマンドを実行します 構成に含まれる各ホストサーバから 適宜 IP アドレスを変更して同じコマンドを実行します 注 : コマンドが失敗した場合 (Packet needs to be fragmented but DF set が返された場合など ) は ホストサーバ ストレージコントローラ およびスイッチポートのイーサネットインターフェイスの MTU サイズ ( ジャンボフレームのサポート状況 ) を確認します パーティションとファイルシステムの作成 Linux ホストで初めて検出された時点では 新しい LUN にはパーティションやファイルシステムは設定されていません LUN を使用できるようにするにはフォーマットする必要があります 必要に応じて LUN にファイルシステムを作成することができます 開始する前に ホストが LUN を検出済みである必要があります /dev/mapper フォルダで ls コマンドを実行して使用可能なディスクを確認しておきます タスク概要 ディスクは GUID パーティションテーブル (GPT) またはマスターブートレコード (MBR) を使用して ベーシックディスクとして初期化することができます LUN は ext4 などのファイルシステムでフォーマットします 一部の環境ではこのは必要ありません

53 iscsi のクイックセットアップ sanlun lun show -p コマンドを実行して マッピングされているディスクの SCSI ID を取得します SCSI ID は 3 から始まる 33 文字の 16 進数値です ユーザにわかりやすい名前の使用が有効になっている場合 SCSI ID の代わりに mpath がレポートされます 例 # sanlun lun show -p E-Series Array: ictm1619s01c01- SRP(60080e b efb9d2) Volume Name: Preferred Owner: Controller in Slot B Current Owner: Controller in Slot B Mode: RDAC (Active/Active) UTM LUN: None LUN: 116 LUN Size: Product: E-Series Host Device: mpathr(360080e ac d) Multipath Policy: round-robin 0 Multipath Provider: Native host controller controller path path /dev/ host target state type node adapter port up secondary sdcx host14 A1 up secondary sdat host10 A2 up secondary sdbv host13 B1 2. Linux OS のリリースに応じた方法で新しいパーティションを作成します 通常 ディスクのパーティションを識別する文字 ( 数字の 1 や p3 など ) が SCSI ID に追加されます 例 # parted -a optimal -s -- /dev/mapper/ e bb b1535f887a mklabel gpt mkpart primary ext4 0% 100% 3. パーティションにファイルシステムを作成します ファイルシステムの作成方法は 選択したファイルシステムによって異なります 例 # mkfs.ext4 /dev/mapper/360080e bb b1535f887a1 4. 新しいパーティションをマウントするフォルダを作成します 例 # mkdir /mnt/ext4

54 54 構成エクスプレスガイド (Linux) 5. パーティションをマウントします 例 # mount /dev/mapper/360080e bb b1535f887a1 /mnt/ext4 ホストでのストレージアクセスの確認 ボリュームを使用する前に ホストがボリュームに対してデータの読み取りと書き込みを実行できることを確認します 開始する前に ボリュームを初期化し ファイルシステムでフォーマットしておく必要があります 1. ホストで いくつかのファイルをディスクのマウントポイントにコピーします 2. コピーしたファイルを元のディスクの別のフォルダにコピーします 3. diffコマンドを実行して コピーしたファイルを元のファイルと比較します 次のタスク コピーしたファイルとフォルダを削除します Linux での iscsi 固有の情報の記録 iscsi ワークシートを選択して プロトコル固有のストレージ構成情報を記録します この情報は プロビジョニングタスクを実行する際に必要となります iscsi ワークシート - Linux このワークシートを使用して iscsi ストレージの構成情報を記録できます この情報は プロビジョニングタスクを実行する際に必要となります 推奨構成 推奨構成は 2 つのイニシエータポートと 4 つのターゲットポートを 1 つ以上の VLAN で接続した構成です

55 iscsi のクイックセットアップ 55 ターゲット IQN 番号ターゲットポート接続 IQN 2 ターゲットポート マッピングホスト名 番号 ホスト情報 名前とタイプ 1 マッピングホスト名ホストOSタイプ 推奨構成 推奨構成は 2 つのイニシエータポートと 4 つのターゲットポートを 1 つ以上の VLAN で接続した構成です

56 56 iser over InfiniBand のクイックセットアップ 1. Linux 構成のサポート状況の確認 (56 ページ ) 2. DHCP を使用した IP アドレスの設定 (56 ページ ) 3. サブネットマネージャの設定 (57 ページ ) 4. Host Utilities のインストールと設定 (58 ページ ) 5. SMcli を使用するための SANtricity Storage Manager のインストール (SANtricity ソフトウェアバージョン 以前 )(58 ページ ) 6. SANtricity System Manager へのアクセスとセットアップウィザードの使用 (59 ページ ) 7. マルチパスソフトウェアの設定 (61 ページ ) 8. multipath.conf ファイルのセットアップ (62 ページ ) 9. ネットワーク接続の設定 - iser over InfiniBand(65 ページ ) 10. ストレージ接続ホストのネットワークの設定 - iser over InfiniBand(66 ページ ) 11. パーティションとファイルシステムの作成 (69 ページ ) 12. ホストでのストレージアクセスの確認 (70 ページ ) 13. Linux での iser over InfiniBand 固有の情報の記録 (70 ページ ) Linux 構成のサポート状況の確認 安定した稼働を確保するために 導入計画を作成し NetApp Interoperability Matrix Tool (IMT) を使用して構成全体がサポートされることを確認します 1. NetApp Interoperability Matrix Tool にアクセスします 2. [Storage Solution Search] タイルをクリックします 3. [Protocols] > [SAN Host (FAS, E-Series)] 領域で [E-Series SAN Host] の横にある [Add] ボタンをクリックします 4. [OK] をクリックします [What Works With What] セクションが表示されます このセクションでは 該当するプロトコル および構成のその他の条件 ( オペレーティングシステム NetApp OS ホストのマルチパスドライバなど ) を選択できます 構成に必要な条件を選択し 互換性のある構成要素を確認します 必要に応じて 使用するオペレーティングシステムとプロトコルに対して IMT に記載された更新を実行します DHCP を使用した IP アドレスの設定 クイック方式で管理ステーションとストレージアレイ間の通信を設定する場合 動的ホスト構成プロトコル (DHCP) を使用して IP アドレスを割り当てます 各ストレージアレイにはコントローラが 1 台 ( シンプレックス ) または 2 台 ( デュプレックス ) 含まれ コントロー

57 iser over InfiniBand のクイックセットアップ 57 ラごとにストレージ管理ポートが 2 つあります 各管理ポートには IP アドレスが割り当てられます 開始する前に ストレージ管理ポートと同じサブネットに DHCP サーバをインストールして設定しておきます タスク概要 以下のでは コントローラを 2 台搭載したストレージアレイ ( デュプレックス構成 ) を使用します 1. 管理ステーションおよび各コントローラ (A B) の管理ポート 1 にイーサネットケーブルを接続します ( まだ接続していない場合 ) DHCP サーバによって 各コントローラのポート 1 に IP アドレスが割り当てられます 注 : どちらのコントローラの管理ポート 2 も使用しないでください ポート 2 はネットアップのテクニカルサポート用に予約されています 重要 : イーサネットケーブルを外して再接続するか ストレージアレイの電源を再投入すると DHCP によって IP アドレスが再度割り当てられます この処理は静的 IP アドレスを設定しないかぎり発生します ケーブルを外したり アレイの電源を再投入したりしないことを推奨します DHCP が割り当てた IP アドレスをストレージアレイが 30 秒以内に取得できないと 次のようにデフォルトの IP アドレスが設定されます コントローラ A ポート 1: コントローラ B ポート 1: サブネットマスク : コントローラ背面の MAC アドレスラベルを確認し ネットワーク管理者に各コントローラのポート 1 の MAC アドレスを伝えます MAC アドレスは ネットワーク管理者が各コントローラの IP アドレスを特定するために必要です ブラウザからストレージシステムに接続するには IP アドレスが必要です サブネットマネージャの設定 InfiniBand スイッチを使用してサブネットマネージャを実行する場合 負荷が高くなったときにパスが失われる可能性があります パスの損失を防ぐには opensm を使用して 1 つ以上のホストにサブネットマネージャを設定します 1. サブネットマネージャを実行する予定のすべてのホストに opensm パッケージをインストールします 2. opensm サービスを有効にして開始します サービスをすぐに開始する : systemctl start opensm

58 58 構成エクスプレスガイド (Linux) サービスをブート時に有効にする : systemctl enable opensm 3. ibstat -p コマンドを使用して HBA ポートの GUID0 と GUID1 を確認します 次に例を示します # ibstat -p 0x248a070300a80a80 0x248a070300a80a81 4. /etc/rc.d/after.local(suse の場合 ) または etc/rc.d/rc.local(redhat の場合 ) に次のコマンドを追加して サブネットマネージャのインスタンスを 2 つ ( サブネットごとに 1 つ ) 起動します GUID0 と GUID1 の値は 前ので確認した値に置き換えてください P0 と P1 にはサブネットマネージャの優先度を指定します ( 最低が 1 で最高が 15) opensm -B -g GUID0 -p P0 -f /var/log/opensm-ib0.log opensm -B -g GUID1 -p P1 -f /var/log/opensm-ib1.log Host Utilities のインストールと設定 Linux Unified Host Utilities 7.0 には フェイルオーバーポリシーや物理パスなど ネットアップストレージを管理するツールが含まれています 1. NetApp Interoperability Matrix Tool を使用して Unified Host Utilities 7.0 のバージョンを特定します サポートされる構成ごとに対応するバージョンが表示されます 2. ネットアップサポートから Unified Host Utilities 7.0 をダウンロードします SMcli を使用するための SANtricity Storage Manager のインストール (SANtricity ソフトウェアバージョン 以前 ) 管理ステーションに SANtricity Storage Manager ソフトウェアをインストールすると グラフィカルユーザインターフェイス (GUI) とコマンドラインインターフェイス (CLI) がデフォルトでインストールされます 以下のでは SANtricity Storage Manager GUI を I/O ホストではなく管理ステーションにインストールすることを想定しています 開始する前に 重要 :SANtricity ソフトウェア 以降では SANtricity Secure CLI(SMcli) は SANtricity OS に含まれており SANtricity System Manager からダウンロードできます SANtricty System Manager から SMcli をダウンロードする方法の詳細については SANtricity オンラインヘルプのトピック コマンドラインインターフェイス (CLI) のダウンロード を参照してください SANtricity ソフトウェア 以前を使用している必要があります 適切な管理者権限またはスーパーユーザ権限が必要です SANtricity Storage Manager クライアントをインストールするシステムが次の最小要件を満たしていることを確認する必要があります

59 iser over InfiniBand のクイックセットアップ 59 RAM:Java Runtime Engine 用に 2GB ディスクスペース :5GB OS / アーキテクチャ : サポート対象オペレーティングシステムのバージョンとアーキテクチャを特定する方法については ネットアップサポートの [Downloads] > [Software] > [E-Series/EF-Series SANtricity Storage Manager] を参照してください タスク概要 ここでは Windows と Linux の両方の OS プラットフォームについて SANtricity Storage Manager のインストール方法を説明しています データホストに Linux を使用する場合の管理ステーションプラットフォームは Windows と Linux の両方で共通です 1. ネットアップサポートの [Downloads] > [Software] > [E-Series/EF-Series SANtricity Storage Manager] から SANtricity ソフトウェアリリースをダウンロードします 2. SANtricity インストーラを実行します Windows SMIA*.exe インストールパッケージをダブルクリックしてインストールを開始します Linux a. SMIA*.bin インストールパッケージをダウンロードしたディレクトリに移動します b. 一時マウントポイントに実行権限がない場合は IATEMPDIR 変数を設定します 例 :IATEMPDIR=/root./SMIA- LINUXX A bin c. chmod +x SMIA*.bin コマンドを実行してファイルに実行権限を付与します d../smia*.bin コマンドを実行してインストーラを起動します 3. インストールウィザードを使用して 管理ステーションでソフトウェアをインストールします SANtricity System Manager へのアクセスとセットアップウィザードの使用 SANtricity System Manager のセットアップウィザードを使用してストレージアレイを設定します 開始する前に SANtricity System Manager へのアクセスに使用するデバイスに 次のいずれかのブラウザがインストールされていることを確認しておきます ブラウザ Google Chrome 47 Microsoft Internet Explorer 11 最小バージョン

60 60 構成エクスプレスガイド (Linux) ブラウザ 最小バージョン Microsoft Edge EdgeHTML 12 Mozilla Firefox 31 Safari 9 アウトオブバンド管理を使用します タスク概要 ウィザードは System Manager を開くかブラウザの表示を更新したときに 次の少なくとも 1 つに該当していれば自動的に再度起動されます プールとボリュームグループが検出されていない ワークロードが検出されていない 通知が設定されていない 1. ブラウザで次の URL を入力します IPAddress は いずれかのストレージアレイコントローラのアドレスです まだ設定していないアレイで SANtricity System Manager を初めて開くと Set Administrator Password というプロンプトが表示されます ロールベースのアクセス管理では admin support security および monitor の 4 つのローカルロールが設定されます 最後の 3 つのロールには 推測されにくいランダムなパスワードが設定されています admin ロールのパスワードを設定したあと admin のクレデンシャルを使用してすべてのパスワードを変更することができます 4 つのローカルユーザロールの詳細については SANtricity System Manager オンラインヘルプ を参照してください 2. System Manager の admin ロールのパスワードを [ 管理者パスワードの設定 ] フィールドと [ パスワードの再入力 ] フィールドに入力し [ パスワードの設定 ] ボタンを選択します プール ボリュームグループ ワークロード または通知が設定されていない状態で System Manager を開くと セットアップウィザードが起動します 3. セットアップウィザードを使用して次のタスクを実行します ハードウェア ( コントローラとドライバ ) の確認 ストレージアレイ内のコントローラとドライブの数を確認します アレイに名前を割り当てます ホストとオペレーティングシステムの確認 ストレージアレイがアクセスできるホストとオペレーティングシステムのタイプを確認します プールの承認 クイックインストールで推奨されるプール構成を承認します プールはドライブの論理グループです アラートの設定 ストレージアレイで問題が発生した場合に自動通知を System Manager で受信するように設定します AutoSupport の有効化 ストレージアレイの健常性を自動的に監視し テクニカルサポートにデータを送信します 4. ボリュームをまだ作成していない場合は [ ストレージ ] > [ ボリューム ] > [ 作成 ] > [ ボリューム ] の順に選択してボリュームを作成します

61 iser over InfiniBand のクイックセットアップ 61 詳細については SANtricity System Manager のオンラインヘルプを参照してください マルチパスソフトウェアの設定 マルチパスソフトウェアは 物理パスの 1 つが中断された場合に備えて ストレージアレイへのパスを冗長化します マルチパスソフトウェアは ストレージへの複数のアクティブな物理パスを単一の仮想デバイスとしてオペレーティングシステムに提示します また フェイルオーバープロセスも管理して仮想デバイスを更新します Linux 環境では Device Mapper Multipath(DM-MP) ツールを使用します 開始する前に 必要なパッケージをシステムにインストールしておきます Red Hat(RHEL) ホストの場合 rpm -q device-mapper-multipath を実行してパッケージがインストールされていることを確認します SLES ホストの場合 rpm -q multipath-tools を実行してパッケージがインストールされていることを確認します タスク概要 RHEL および SLES では デフォルトでは DM-MP は無効になっています ホストで DM-MP コンポーネントを有効にするには 次のを実行します オペレーティングシステムがインストールされていない場合は オペレーティングシステムのベンダーから提供されたメディアを使用します 1. multipath.conf ファイルがまだ作成されていない場合は # touch /etc/ multipath.conf コマンドを実行します 2. デフォルトのマルチパス設定を使用するために multipath.conf ファイルを空のままにします 3. マルチパスサービスを開始します 例 # systemctl start multipathd 4. マルチパスの自動起動を設定します 例 # chkconfig multipathd on 5. uname -r コマンドを実行してカーネルバージョンを確認します 例 # uname -r el7.x86_64 この情報は ホストにボリュームを割り当てる際に使用します

62 62 構成エクスプレスガイド (Linux) 6. 次のいずれかを実行して multipathd をブート時に有効にします 対象 RHEL 6.x システム : RHEL 7.x システム : SLES 12.x および 15.x システム : 操作 chkconfig multipathd on systemctl enable multipathd systemctl enable multipathd 7. initramfs イメージまたは initrd イメージを /boot directory に再構築します 対象 RHEL 6.x および 7.x システム : SLES 12.x および 15.x システム : 操作 dracut --force --add multipath dracut --force --add multipath 8. 新たに作成した /boot/initrams-* イメージまたは /boot/initrd-* イメージがブート構成ファイルで選択されていることを確認します たとえば grub については /boot/grub/menu.lst grub2 については /boot/grub2/ menu.cfg を確認します 9. オンラインヘルプの ホストの手動作成 のに従って ホストが定義されているかどうかを確認します それぞれのホストタイプが自動ロードバランシングを有効にする場合は [Linux DM-MP( カーネル 3.10 以降 )] 自動ロードバランシングを無効にする場合は [Linux DM-MP( カーネル 3.9 以前 )] になっていることを確認します 必要に応じて 選択されたホストタイプを適切な設定に変更します 10. ホストをリブートします multipath.conf ファイルのセットアップ multipath.conf ファイルは マルチパスデーモン multipathd の構成ファイルです multipath.conf ファイルは multipathd の組み込みの構成テーブルよりも優先されます 空白を除く最初の文字が # の行は コメント行とみなされます 空の行は無視されます 注 :SANtricity OS 8.30 では デフォルト設定をそのまま使用することを推奨します サンプルの multipath.conf は次の場所にあります SLES:/usr/share/doc/packages/multipath-tools/multipath.conf.synthetic RHEL:/usr/share/doc/device-mapper-multipath-0.4.9/multipath.conf multipath.conf のサンプルファイルでは すべての行がコメントアウトされています ファイルは次の 5 つのセクションに分かれています defaults - すべてのデフォルト値を指定します blacklist - 新規インストールではすべてのデバイスがブラックリストに登録されています デフォルトのブラックリストは /etc/multipath.conf ファイルのコメントアウトされたセクションに記載されています Device Mapper Multipath を使用しない場合は WWID でこの機能をブラックリストに登録します blacklist_exceptions - blacklist セクションで指定された項目に対する例外を指定します devices - すべてのマルチパスデバイスと対応するベンダーおよび製品 ID を記載します

63 iser over InfiniBand のクイックセットアップ 63 multipaths - マルチパスデバイスと対応する WWID を記載します DM-MP マルチパスドライバには デフォルト値 および各ベンダーと製品 ID の組み合わせに対する設定があらかじめ用意されています multipath.conf の各セクションを定義した場合 次のようになります defaults セクションに定義されたパラメータ値は 組み込みのデフォルト値とマージされて値を置き換えます devices セクションに定義されたパラメータ値は 組み込みの設定に同じデバイスがすでに存在する場合 そのベンダーと製品 ID に対する組み込みのデフォルト値とマージされます 確実にマージするためには ベンダーと製品の値が組み込みの設定と一致する必要があります 各パラメータについて 値は次の順序で決定されます 1. 各デバイスの multipaths セクション ( 定義されている場合 ) 2. デバイスのベンダーと製品 ID に対応する devices セクション ( 定義されている場合 ) 3. 内部のデフォルト値 次のタスクは multipath.conf ファイルの defaults blacklist および devices の各セクションを変更します 変更する各行の先頭にある # 文字は削除してください 1. blacklist セクションの更新 (63 ページ ) 2. multipath.conf ファイルの devices セクションの更新 (63 ページ ) blacklist セクションの更新 デフォルト設定では UTM LUN がホストに提示される場合があります ただし UTM LUN では I/O 処理はサポートされていません UTM LUN で I/O 処理が行われないようにするには 各 UTM LUN のベンダーと製品の情報を /etc/multipath.conf ファイルの blacklist セクションに追加します タスク概要 この作業は任意で 仮想ディスクだけでなく 他のマルチパスドライバで管理されている他のストレージアレイのディスクも除外できます 注 :SANtricity 8.40 では デフォルト設定を確認し 設定を変更しないことを推奨します このセクションは次の形式で指定します blacklist { device { vendor "*" product "Universal Xport" } } multipath.conf ファイルの devices セクションの更新 ホストが RHEL 6.5 SLES 11.3 またはそれ以前のバージョンを実行している場合は /etc/ multipath.conf ファイルを更新できます これらよりも新しいバージョンを使用している場合は 空の /etc/multipath.conf ファイルを作成するだけでデフォルト設定が自動的に

64 64 構成エクスプレスガイド (Linux) 適用されます これには NetApp E シリーズおよび EF シリーズのデバイスでサポートされている値も含まれます 次の例は /etc/multipath.conf ファイルの devices セクションの一部を示しています この例では ベンダー ID が NETAPP または LSI で 製品 ID が INF です devices セクションの製品とベンダーの情報を使用しているストレージアレイの構成に合わせて変更します ストレージアレイに複数のベンダーのデバイスが含まれている場合は devices セクションに device ブロックを追加し 該当する属性と値を指定します 使用するパスセレクタについて特に推奨されるものはありません そのため 例に示すように デフォルトのパスセレクタはデバイス設定で選択されます multipathd show config コマンドでは defaults セクションのパスセレクタが表示されます 注 : ホストで RHEL 6.5 SLES 11.3 またはそれ以前のバージョンが実行されている場合にのみ /etc/multipath.conf ファイルの devices セクションを更新してください クラスタ構成では Interoperability Matrix Tool に定義されているように failback を manual に設定します devices { device { vendor "(LSI NETAPP)" product "INF-01-00" path_grouping_policy group_by_prio detect_prio yes prio rdac path_checker rdac hardware_handler "1 rdac" failback immediate features "2 pg_init_retries 50" no_path_retry 30 retain_attached_hw_handler yes } } 注 : 上記以外のパラメータでは内部のデフォルト値が推奨値です 変更しないようにしてください ラウンドロビン方式とサービス時間方式どちらのパスセレクタも完全にサポートされており それぞれの方式に対して特別に推奨されるセレクタはありません 属性パラメータ値説明 path_grouping_policy group_by_prio このベンダーと製品ストレージ に適用されるパスのグループ化 ポリシー detect_prio yes システムによってパスポリシー ルーチンが検出されます prio rdac パス優先ルーチンを決定するプログラムと引数 指定したルーチンは このパスの相対的な優先度を指定する数値を返す必要があります 数値が大きいほど優先度が高くなります path_checker rdac パスの状態を判断するための方 法 hardware_handler "1 rdac" デバイス固有の情報を処理する ために使用するハードウェアハ ンドラ

65 iser over InfiniBand のクイックセットアップ 65 属性パラメータ値説明 failback immediate パスグループのフェイルバック方法をデーモンに指示するパラメータ この例ではimmediate に設定されているため フェイルバックはパスが使用可能な次回のチェック時に実行されます フェイルバックを無効にするには このパラメータをmanualに設定します 自動ロードバランシング機能を有効にせずにクラスタ環境または共有 LUN 環境を使用している場合は このパラメータを manual に設定します features "2 pg_init_retries 50" 有効にする機能 このパラメータはカーネルパラメータ pg_init_retries を 50 に設定します pg_init_retries パラメータは モード選択コマンドの再試行に使用されます no_path_retry 30 キューが無効になるまでの再試行回数を指定します すぐに失敗にする ( キューなし ) 場合は このパラメータをfailに設定します このパラメータをqueue に設定すると キューは無期限に続行されます 時間はこのパラメータ値に polling_interval( 通常は 5) を掛けた値に等しくなります たとえば no_path_retry の値が 30 の場合は 150 秒になります retain_attached_hw_handle r yes 現在のハードウェアハンドラを引き続き使用することを指定します ネットワーク接続の設定 - iser over InfiniBand iser over InfiniBand プロトコルを使用する構成の場合は ここで説明するを実行します タスク概要 iser over InfiniBand プロトコルで 56Gbps HIC を使用している場合は 追加のアレイ設定が必要です 1. [ セットアップ ] タブで [iscsi ポートの設定 ] を選択してストレージアレイの iscsi アドレスを設定します

66 66 構成エクスプレスガイド (Linux) アレイの iscsi アドレスは iscsi セッションの作成に使用するホストポートと同じサブネットに配置します アドレスは iser ワークシート (71 ページ ) を参照してください 2. [ デバイス ] タブでストレージアレイを選択し [iser] > [ 設定の管理 ] を選択して IQN を特定します この情報は SendTargets 検出をサポートしないオペレーティングシステムで iser セッションを作成する際に必要となる場合があります iser ワークシート (71 ページ ) にこの情報を記録します ストレージ接続ホストのネットワークの設定 - iser over InfiniBand InfiniBand OFED ドライバスタックでは iser と SRP の両方を同じポートで同時に実行できるため 追加のハードウェアは必要ありません 開始する前に ネットアップ推奨の OFED をシステムにインストールしておきます 詳細については NetApp Interoperability Matrix Tool を参照してください 1. ホストで iscsi サービスを有効にして開始します Red Hat Enterprise Linux 7(RHEL 7) # systemctl start iscsi # systemctl start iscsid # systemctl enable iscsi # systemctl enable iscsid SUSE Linux Enterprise Server 12(SLES 12) # systemctl start iscsid.service # systemctl enable iscsid.service 2. IPoIB ネットワークインターフェイスを設定します a. 使用する InfiniBand ポートを特定します 各ポートのハードウェアアドレス (MAC アドレス ) を記録します b. InfiniBand ネットワークインターフェイスデバイスの永続的な名前を設定します c. 特定した IPoIB インターフェイスの IP アドレスとネットワーク情報を設定します 必要なインターフェイス設定は 使用するオペレーティングシステムによって変わる可能性があります 具体的な実装方法等については ベンダーが提供するオペレーティングシステムのドキュメントを参照してください

67 iser over InfiniBand のクイックセットアップ 67 例 RHEL 6.x のインターフェイス名 ib0 の場合 /etc/sysconfig/network-scripts/ ifcfg-ib0 構成ファイルを編集します ONBOOT=yes Name=ib0 Type=InfiniBand IPADDR= xx.yy PREFIX=24 DEFROUTE=no HWADDR=<Port 0 HW Address Here> d. ネットワークサービスを再起動するか 各インターフェイスを手動で再起動して IB ネットワークインターフェイスを起動します 次に例を示します 例 #service network restart e. ターゲットポートへの接続を確認します ネットワーク接続を設定するときに設定した IP アドレスにホストから ping を実行します 3. サービスを再起動して iser モジュールをロードします 4. /etc/iscsi/iscsid.conf で iscsi 設定を編集します node.startup = automatic replacement_timeout = iscsi セッションを設定します a. InfiniBand インターフェイスごとに iface 構成ファイルを作成します 例 注 :iscsi iface ファイルのディレクトリの場所は オペレーティングシステムによって異なります Red Hat Enterprise Linux を使用している場合の例を次に示します iscsiadm -m iface -I iser > /var/lib/iscsi/ifaces/iface-ib0 iscsiadm -m iface -I iser > /var/lib/iscsi/ifaces/iface-ib1 b. 各 iface ファイルを編集して インターフェイス名とイニシエータ IQN を設定します 各 iface ファイルで次のパラメータを設定します オプション iface.net_ifacename インターフェイスデバイス名 ( 例 :ib0) 値 iface.initiatorname ワークシートに記録したホストイニシエータ IQN c. ターゲットへの iscsi セッションを作成します セッションの作成には SendTargets 検出を使用する方法を推奨します ただし この方法は一部のオペレーティングシステムリリースで機能しません 注 :RHEL 6.x または SLES 11.3 以降では方法 2 を使用してください

68 68 構成エクスプレスガイド (Linux) 方法 1 - SendTargets 検出 : ターゲットポータルの IP アドレスの 1 つに対して SendTargets 検出メカニズムを使用します これにより ターゲットポータルごとにセッションが作成されます iscsiadm -m discovery -t st -p I iser 方法 2 - 手動での作成 : ターゲットポータルの IP アドレスごとに 適切なホストインターフェイス iface 設定を使用してセッションを作成します 次の例では インターフェイス ib0 がサブネット A にあり インターフェイス ib1 がサブネット B にあります 次の変数については ワークシートに記録した値を指定します <Target IQN> = ストレージアレイのターゲット IQN <Target Port IP> = 指定したターゲットポートに設定されている IP アドレス # Controller A Port 1 iscsiadm -m node -target <Target IQN> -I iface-ib0 -p <Target Port IP> -l -o new # Controller B Port 1 iscsiadm -m node -target <Target IQN> -I iface-ib0 -p <Target Port IP> -l -o new # Controller A Port 2 iscsiadm -m node -target <Target IQN> -I iface-ib1 -p <Target Port IP> -l -o new # Controller B Port 2 iscsiadm -m node -target <Target IQN> -I iface-ib1 -p <Target Port IP> -l -o new 6. iscsi セッションにログインします セッションごとに iscsiadm コマンドを実行してセッションにログインします # Controller A Port 1 iscsiadm -m node -target <Target IQN> -I iface -ib0 -p <Target Port IP> -l # Controller B Port 1 iscsiadm -m node -target <Target IQN> -I iface -ib0 -p <Target Port IP> -l # Controller A Port 2 iscsiadm -m node -target <Target IQN> -I iface -ib1 -p <Target Port IP> -l # Controller B Port 2 iscsiadm -m node -target <Target IQN> -I iface -ib1 -p <Target Port IP> -l 7. iser / iscsi セッションを検証します a. ホストでの iscsi セッションのステータスを確認します iscsiadm -m session b. アレイから iscsi セッションのステータスを確認します SANtricity System Manager で [ ストレージアレイ ] > [iser] > [iscsi セッションの表示 / 終了 ] を選択します タスクの結果 iscsi サービスが実行されている場合 OFED / RDMA サービスの開始時にデフォルトで iser カーネルモジュールがロードされます iser 接続のセットアップを完了するには iser モジュールをロードする必要があります 現在 これにはホストのリブートが必要です

69 iser over InfiniBand のクイックセットアップ 69 パーティションとファイルシステムの作成 Linux ホストで初めて検出された時点では 新しい LUN にはパーティションやファイルシステムは設定されていません LUN を使用できるようにするにはフォーマットする必要があります 必要に応じて LUN にファイルシステムを作成することができます 開始する前に ホストが LUN を検出済みである必要があります /dev/mapper フォルダで ls コマンドを実行して使用可能なディスクを確認しておきます タスク概要 ディスクは GUID パーティションテーブル (GPT) またはマスターブートレコード (MBR) を使用して ベーシックディスクとして初期化することができます LUN は ext4 などのファイルシステムでフォーマットします 一部の環境ではこのは必要ありません 1. sanlun lun show -p コマンドを実行して マッピングされているディスクの SCSI ID を取得します SCSI ID は 3 から始まる 33 文字の 16 進数値です ユーザにわかりやすい名前の使用が有効になっている場合 SCSI ID の代わりに mpath がレポートされます 例 # sanlun lun show -p E-Series Array: ictm1619s01c01- SRP(60080e b efb9d2) Volume Name: Preferred Owner: Controller in Slot B Current Owner: Controller in Slot B Mode: RDAC (Active/Active) UTM LUN: None LUN: 116 LUN Size: Product: E-Series Host Device: mpathr(360080e ac d) Multipath Policy: round-robin 0 Multipath Provider: Native host controller controller path path /dev/ host target state type node adapter port up secondary sdcx host14 A1 up secondary sdat host10 A2 up secondary sdbv host13 B1 2. Linux OS のリリースに応じた方法で新しいパーティションを作成します 通常 ディスクのパーティションを識別する文字 ( 数字の 1 や p3 など ) が SCSI ID に追加されます

70 70 構成エクスプレスガイド (Linux) 例 # parted -a optimal -s -- /dev/mapper/ e bb b1535f887a mklabel gpt mkpart primary ext4 0% 100% 3. パーティションにファイルシステムを作成します ファイルシステムの作成方法は 選択したファイルシステムによって異なります 例 # mkfs.ext4 /dev/mapper/360080e bb b1535f887a1 4. 新しいパーティションをマウントするフォルダを作成します 例 # mkdir /mnt/ext4 5. パーティションをマウントします 例 # mount /dev/mapper/360080e bb b1535f887a1 /mnt/ext4 ホストでのストレージアクセスの確認 ボリュームを使用する前に ホストがボリュームに対してデータの読み取りと書き込みを実行できることを確認します 開始する前に ボリュームを初期化し ファイルシステムでフォーマットしておく必要があります 1. ホストで いくつかのファイルをディスクのマウントポイントにコピーします 2. コピーしたファイルを元のディスクの別のフォルダにコピーします 3. diffコマンドを実行して コピーしたファイルを元のファイルと比較します 次のタスク コピーしたファイルとフォルダを削除します Linux での iser over InfiniBand 固有の情報の記録 iser over InfiniBand ワークシートを選択して プロトコル固有のストレージ構成情報を記録します この情報は プロビジョニングタスクを実行する際に必要となります

71 iser over InfiniBand のクイックセットアップ 71 iser over InfiniBand ワークシート このワークシートを使用して iser over InfiniBand ストレージの構成情報を記録できます この情報は プロビジョニングタスクを実行する際に必要となります iser over InfiniBand: ホスト識別子 注 : ソフトウェアイニシエータの IQN は iser ネットワークを使用するストレージ接続ホストの設定 (66 ページ ) で特定します 各ホストのイニシエータ IQN を特定して記録します 通常 ソフトウェアイニシエータの IQN は /etc/iscsi/initiatorname.iscsi ファイルで確認できます 番号ホストポート接続ソフトウェアイニシエータ IQN 1 ホスト ( イニシエータ )1 該当なし 該当なし 該当なし 該当なし iser over InfiniBand: 推奨構成 推奨構成は 2 つのホスト ( イニシエータ ) ポートと 4 つのターゲットポートで構成されます iser over InfiniBand: ターゲット IQN ストレージアレイのターゲット IQN を記録します この情報は iser ネットワークを使用するストレージ接続ホストの設定 (66 ページ ) で使用します

72 72 構成エクスプレスガイド (Linux) SANtricity で [ ストレージアレイ ] > [iser] > [ 設定の管理 ] を選択して ストレージアレイの IQN 名を確認します この情報は SendTargets 検出をサポートしないオペレーティングシステムで iser セッションを作成する際に必要となる場合があります 番号アレイ名ターゲット IQN 6 アレイコントローラ ( ターゲット ) iser over InfiniBand: ネットワーク構成 InfiniBand ファブリック上のホストとストレージに使用されるネットワーク設定を記録します ここでは 2 つのサブネットを使用して完全な冗長性を実現することを想定しています 次の情報は ネットワーク管理者から入手できます この情報は iser ネットワークを使用するストレージ接続ホストの設定 (66 ページ ) で使用します サブネット A 使用するサブネットを定義します ネットワークアドレス ネットマスク アレイポートと各ホストポートで使用する IQN を記録します 番号アレイコントローラ ( ターゲット ) ポート接続 IQN 3 スイッチ 該当なし 5 コントローラA ポート1 4 コントローラB ポート1 2 ホスト1 ポート1 ( オプション ) ホスト2 ポート1 サブネット B 使用するサブネットを定義します ネットワークアドレス ネットマスク アレイポートと各ホストポートで使用する IQN を記録します 番号アレイコントローラ ( ターゲット ) ポート接続 IQN 8 スイッチ 該当なし 10 コントローラA ポート2 9 コントローラB ポート2 7 ホスト1 ポート2 ( オプション ) ホスト2 ポート2

73 iser over InfiniBand のクイックセットアップ 73 iser over InfiniBand: マッピングホスト名注 : マッピングホスト名は設定のワークフロー中に作成されます マッピングホスト名ホストOSタイプ

74 74 SRP over InfiniBand のクイックセットアップ 1. Linux 構成のサポート状況の確認 (74 ページ ) 2. DHCP を使用した IP アドレスの設定 (74 ページ ) 3. サブネットマネージャの設定 (75 ページ ) 4. Host Utilities のインストールと設定 (76 ページ ) 5. SMcli を使用するための SANtricity Storage Manager のインストール (SANtricity ソフトウェアバージョン 以前 )(76 ページ ) 6. SANtricity System Manager へのアクセスとセットアップウィザードの使用 (77 ページ ) 7. マルチパスソフトウェアの設定 (78 ページ ) 8. multipath.conf ファイルのセットアップ (80 ページ ) 9. ホストポートの GUID の特定と推奨設定の適用 - SRP over InfiniBand(83 ページ ) 10. ネットワーク接続の設定 - SRP over InfiniBand(84 ページ ) 11. パーティションとファイルシステムの作成 (85 ページ ) 12. ホストでのストレージアクセスの確認 (86 ページ ) 13. Linux での SRP over InfiniBand 固有の情報の記録 (87 ページ ) Linux 構成のサポート状況の確認 安定した稼働を確保するために 導入計画を作成し NetApp Interoperability Matrix Tool (IMT) を使用して構成全体がサポートされることを確認します 1. NetApp Interoperability Matrix Tool にアクセスします 2. [Storage Solution Search] タイルをクリックします 3. [Protocols] > [SAN Host (FAS, E-Series)] 領域で [E-Series SAN Host] の横にある [Add] ボタンをクリックします 4. [OK] をクリックします [What Works With What] セクションが表示されます このセクションでは 該当するプロトコル および構成のその他の条件 ( オペレーティングシステム NetApp OS ホストのマルチパスドライバなど ) を選択できます 構成に必要な条件を選択し 互換性のある構成要素を確認します 必要に応じて 使用するオペレーティングシステムとプロトコルに対して IMT に記載された更新を実行します DHCP を使用した IP アドレスの設定 クイック方式で管理ステーションとストレージアレイ間の通信を設定する場合 動的ホスト構成プロトコル (DHCP) を使用して IP アドレスを割り当てます 各ストレージアレイにはコントローラが 1 台 ( シンプレックス ) または 2 台 ( デュプレックス ) 含まれ コントロー

75 SRP over InfiniBand のクイックセットアップ 75 ラごとにストレージ管理ポートが 2 つあります 各管理ポートには IP アドレスが割り当てられます 開始する前に ストレージ管理ポートと同じサブネットに DHCP サーバをインストールして設定しておきます タスク概要 以下のでは コントローラを 2 台搭載したストレージアレイ ( デュプレックス構成 ) を使用します 1. 管理ステーションおよび各コントローラ (A B) の管理ポート 1 にイーサネットケーブルを接続します ( まだ接続していない場合 ) DHCP サーバによって 各コントローラのポート 1 に IP アドレスが割り当てられます 注 : どちらのコントローラの管理ポート 2 も使用しないでください ポート 2 はネットアップのテクニカルサポート用に予約されています 重要 : イーサネットケーブルを外して再接続するか ストレージアレイの電源を再投入すると DHCP によって IP アドレスが再度割り当てられます この処理は静的 IP アドレスを設定しないかぎり発生します ケーブルを外したり アレイの電源を再投入したりしないことを推奨します DHCP が割り当てた IP アドレスをストレージアレイが 30 秒以内に取得できないと 次のようにデフォルトの IP アドレスが設定されます コントローラ A ポート 1: コントローラ B ポート 1: サブネットマスク : コントローラ背面の MAC アドレスラベルを確認し ネットワーク管理者に各コントローラのポート 1 の MAC アドレスを伝えます MAC アドレスは ネットワーク管理者が各コントローラの IP アドレスを特定するために必要です ブラウザからストレージシステムに接続するには IP アドレスが必要です サブネットマネージャの設定 InfiniBand スイッチを使用してサブネットマネージャを実行する場合 負荷が高くなったときにパスが失われる可能性があります パスの損失を防ぐには opensm を使用して 1 つ以上のホストにサブネットマネージャを設定します 1. サブネットマネージャを実行する予定のすべてのホストに opensm パッケージをインストールします 2. opensm サービスを有効にして開始します サービスをすぐに開始する : systemctl start opensm サービスをブート時に有効にする : systemctl enable opensm

76 76 構成エクスプレスガイド (Linux) 3. ibstat -p コマンドを使用して HBA ポートの GUID0 と GUID1 を確認します 次に例を示します # ibstat -p 0x248a070300a80a80 0x248a070300a80a81 4. /etc/rc.d/after.local(suse の場合 ) または etc/rc.d/rc.local(redhat の場合 ) に次のコマンドを追加して サブネットマネージャのインスタンスを 2 つ ( サブネットごとに 1 つ ) 起動します GUID0 と GUID1 の値は 前ので確認した値に置き換えてください P0 と P1 にはサブネットマネージャの優先度を指定します ( 最低が 1 で最高が 15) opensm -B -g GUID0 -p P0 -f /var/log/opensm-ib0.log opensm -B -g GUID1 -p P1 -f /var/log/opensm-ib1.log Host Utilities のインストールと設定 Linux Unified Host Utilities 7.0 には フェイルオーバーポリシーや物理パスなど ネットアップストレージを管理するツールが含まれています 1. NetApp Interoperability Matrix Tool を使用して Unified Host Utilities 7.0 のバージョンを特定します サポートされる構成ごとに対応するバージョンが表示されます 2. ネットアップサポートから Unified Host Utilities 7.0 をダウンロードします SMcli を使用するための SANtricity Storage Manager のインストール (SANtricity ソフトウェアバージョン 以前 ) 管理ステーションに SANtricity Storage Manager ソフトウェアをインストールすると グラフィカルユーザインターフェイス (GUI) とコマンドラインインターフェイス (CLI) がデフォルトでインストールされます 以下のでは SANtricity Storage Manager GUI を I/O ホストではなく管理ステーションにインストールすることを想定しています 開始する前に 重要 :SANtricity ソフトウェア 以降では SANtricity Secure CLI(SMcli) は SANtricity OS に含まれており SANtricity System Manager からダウンロードできます SANtricty System Manager から SMcli をダウンロードする方法の詳細については SANtricity オンラインヘルプのトピック コマンドラインインターフェイス (CLI) のダウンロード を参照してください SANtricity ソフトウェア 以前を使用している必要があります 適切な管理者権限またはスーパーユーザ権限が必要です SANtricity Storage Manager クライアントまたはホストパッケージをインストールするシステムが次の最小要件を満たしていることを確認する必要があります RAM:Java Runtime Engine 用に 2GB ディスクスペース :5GB

77 SRP over InfiniBand のクイックセットアップ 77 OS / アーキテクチャ : サポートされるオペレーティングシステムのバージョンとアーキテクチャについては NetApp Interoperability Matrix Tool を参照してください タスク概要 ここでは Windows と Linux の両方の OS プラットフォームについて SANtricity Storage Manager のインストール方法を説明しています データホストに Linux を使用する場合の管理ステーションプラットフォームは Windows と Linux の両方で共通です 1. ネットアップサポートの [Downloads] > [Software] > [E-Series/EF-Series SANtricity Storage Manager] から SANtricity ソフトウェアリリースをダウンロードします 2. SANtricity インストーラを実行します Windows SMIA*.exe インストールパッケージをダブルクリックしてインストールを開始します Linux a. SMIA*.bin インストールパッケージをダウンロードしたディレクトリに移動します b. 一時マウントポイントに実行権限がない場合は IATEMPDIR 変数を設定します 例 :IATEMPDIR=/root./SMIA- LINUXX A bin c. chmod +x SMIA*.bin コマンドを実行してファイルに実行権限を付与します d../smia*.bin コマンドを実行してインストーラを起動します 3. インストールウィザードを使用して 管理ステーションでソフトウェアをインストールします SANtricity System Manager へのアクセスとセットアップウィザードの使用 SANtricity System Manager のセットアップウィザードを使用してストレージアレイを設定します 開始する前に SANtricity System Manager へのアクセスに使用するデバイスに 次のいずれかのブラウザがインストールされていることを確認しておきます ブラウザ Google Chrome 47 Microsoft Internet Explorer 11 最小バージョン Microsoft Edge EdgeHTML 12 Mozilla Firefox 31 Safari 9

78 78 構成エクスプレスガイド (Linux) アウトオブバンド管理を使用します タスク概要 ウィザードは System Manager を開くかブラウザの表示を更新したときに 次の少なくとも 1 つに該当していれば自動的に再度起動されます プールとボリュームグループが検出されていない ワークロードが検出されていない 通知が設定されていない 1. ブラウザで次の URL を入力します IPAddress は いずれかのストレージアレイコントローラのアドレスです まだ設定していないアレイで SANtricity System Manager を初めて開くと Set Administrator Password というプロンプトが表示されます ロールベースのアクセス管理では admin support security および monitor の 4 つのローカルロールが設定されます 最後の 3 つのロールには 推測されにくいランダムなパスワードが設定されています admin ロールのパスワードを設定したあと admin のクレデンシャルを使用してすべてのパスワードを変更することができます 4 つのローカルユーザロールの詳細については SANtricity System Manager オンラインヘルプ を参照してください 2. System Manager の admin ロールのパスワードを [ 管理者パスワードの設定 ] フィールドと [ パスワードの再入力 ] フィールドに入力し [ パスワードの設定 ] ボタンを選択します プール ボリュームグループ ワークロード または通知が設定されていない状態で System Manager を開くと セットアップウィザードが起動します 3. セットアップウィザードを使用して次のタスクを実行します ハードウェア ( コントローラとドライバ ) の確認 ストレージアレイ内のコントローラとドライブの数を確認します アレイに名前を割り当てます ホストとオペレーティングシステムの確認 ストレージアレイがアクセスできるホストとオペレーティングシステムのタイプを確認します プールの承認 クイックインストールで推奨されるプール構成を承認します プールはドライブの論理グループです アラートの設定 ストレージアレイで問題が発生した場合に自動通知を System Manager で受信するように設定します AutoSupport の有効化 ストレージアレイの健常性を自動的に監視し テクニカルサポートにデータを送信します 4. ボリュームをまだ作成していない場合は [ ストレージ ] > [ ボリューム ] > [ 作成 ] > [ ボリューム ] の順に選択してボリュームを作成します 詳細については SANtricity System Manager のオンラインヘルプを参照してください マルチパスソフトウェアの設定 マルチパスソフトウェアは 物理パスの 1 つが中断された場合に備えて ストレージアレイへのパスを冗長化します マルチパスソフトウェアは ストレージへの複数のアクティブ

79 SRP over InfiniBand のクイックセットアップ 79 な物理パスを単一の仮想デバイスとしてオペレーティングシステムに提示します また フェイルオーバープロセスも管理して仮想デバイスを更新します Linux 環境では Device Mapper Multipath(DM-MP) ツールを使用します 開始する前に 必要なパッケージをシステムにインストールしておきます Red Hat(RHEL) ホストの場合 rpm -q device-mapper-multipath を実行してパッケージがインストールされていることを確認します SLES ホストの場合 rpm -q multipath-tools を実行してパッケージがインストールされていることを確認します タスク概要 RHEL および SLES では デフォルトでは DM-MP は無効になっています ホストで DM-MP コンポーネントを有効にするには 次のを実行します オペレーティングシステムがインストールされていない場合は オペレーティングシステムのベンダーから提供されたメディアを使用します 1. multipath.conf ファイルがまだ作成されていない場合は # touch /etc/ multipath.conf コマンドを実行します 2. デフォルトのマルチパス設定を使用するために multipath.conf ファイルを空のままにします 3. マルチパスサービスを開始します 例 # systemctl start multipathd 4. マルチパスの自動起動を設定します 例 # chkconfig multipathd on 5. uname -r コマンドを実行してカーネルバージョンを確認します 例 # uname -r el7.x86_64 この情報は ホストにボリュームを割り当てる際に使用します 6. 次のいずれかを実行して multipathd をブート時に有効にします 対象 RHEL 6.x システム : RHEL 7.x システム : 操作 chkconfig multipathd on systemctl enable multipathd

80 80 構成エクスプレスガイド (Linux) 対象 SLES 12.x および 15.x システム : 操作 systemctl enable multipathd 7. initramfs イメージまたは initrd イメージを /boot directory に再構築します 対象 RHEL 6.x および 7.x システム : SLES 12.x および 15.x システム : 操作 dracut --force --add multipath dracut --force --add multipath 8. 新たに作成した /boot/initrams-* イメージまたは /boot/initrd-* イメージがブート構成ファイルで選択されていることを確認します たとえば grub については /boot/grub/menu.lst grub2 については /boot/grub2/ menu.cfg を確認します 9. オンラインヘルプの ホストの手動作成 のに従って ホストが定義されているかどうかを確認します それぞれのホストタイプが自動ロードバランシングを有効にする場合は [Linux DM-MP( カーネル 3.10 以降 )] 自動ロードバランシングを無効にする場合は [Linux DM-MP( カーネル 3.9 以前 )] になっていることを確認します 必要に応じて 選択されたホストタイプを適切な設定に変更します 10. ホストをリブートします multipath.conf ファイルのセットアップ multipath.conf ファイルは マルチパスデーモン multipathd の構成ファイルです multipath.conf ファイルは multipathd の組み込みの構成テーブルよりも優先されます 空白を除く最初の文字が # の行は コメント行とみなされます 空の行は無視されます 注 :SANtricity OS 8.30 では デフォルト設定をそのまま使用することを推奨します サンプルの multipath.conf は次の場所にあります SLES:/usr/share/doc/packages/multipath-tools/multipath.conf.synthetic RHEL:/usr/share/doc/device-mapper-multipath-0.4.9/multipath.conf multipath.conf のサンプルファイルでは すべての行がコメントアウトされています ファイルは次の 5 つのセクションに分かれています defaults - すべてのデフォルト値を指定します blacklist - 新規インストールではすべてのデバイスがブラックリストに登録されています デフォルトのブラックリストは /etc/multipath.conf ファイルのコメントアウトされたセクションに記載されています Device Mapper Multipath を使用しない場合は WWID でこの機能をブラックリストに登録します blacklist_exceptions - blacklist セクションで指定された項目に対する例外を指定します devices - すべてのマルチパスデバイスと対応するベンダーおよび製品 ID を記載します multipaths - マルチパスデバイスと対応する WWID を記載します DM-MP マルチパスドライバには デフォルト値 および各ベンダーと製品 ID の組み合わせに対する設定があらかじめ用意されています multipath.conf の各セクションを定義した場合 次のようになります

81 SRP over InfiniBand のクイックセットアップ 81 defaults セクションに定義されたパラメータ値は 組み込みのデフォルト値とマージされて値を置き換えます devices セクションに定義されたパラメータ値は 組み込みの設定に同じデバイスがすでに存在する場合 そのベンダーと製品 ID に対する組み込みのデフォルト値とマージされます 確実にマージするためには ベンダーと製品の値が組み込みの設定と一致する必要があります 各パラメータについて 値は次の順序で決定されます 1. 各デバイスの multipaths セクション ( 定義されている場合 ) 2. デバイスのベンダーと製品 ID に対応する devices セクション ( 定義されている場合 ) 3. 内部のデフォルト値 次のタスクは multipath.conf ファイルの defaults blacklist および devices の各セクションを変更します 変更する各行の先頭にある # 文字は削除してください 1. blacklist セクションの更新 (81 ページ ) 2. multipath.conf ファイルの devices セクションの更新 (81 ページ ) blacklist セクションの更新 デフォルト設定では UTM LUN がホストに提示される場合があります ただし UTM LUN では I/O 処理はサポートされていません UTM LUN で I/O 処理が行われないようにするには 各 UTM LUN のベンダーと製品の情報を /etc/multipath.conf ファイルの blacklist セクションに追加します タスク概要 この作業は任意で 仮想ディスクだけでなく 他のマルチパスドライバで管理されている他のストレージアレイのディスクも除外できます 注 :SANtricity 8.40 では デフォルト設定を確認し 設定を変更しないことを推奨します このセクションは次の形式で指定します blacklist { device { vendor "*" product "Universal Xport" } } multipath.conf ファイルの devices セクションの更新 ホストが RHEL 6.5 SLES 11.3 またはそれ以前のバージョンを実行している場合は /etc/ multipath.conf ファイルを更新できます これらよりも新しいバージョンを使用している場合は 空の /etc/multipath.conf ファイルを作成するだけでデフォルト設定が自動的に適用されます これには NetApp E シリーズおよび EF シリーズのデバイスでサポートされている値も含まれます 次の例は /etc/multipath.conf ファイルの devices セクションの一部を示しています この例では ベンダー ID が NETAPP または LSI で 製品 ID が INF です devices セクションの製品とベンダーの情報を使用しているストレージアレイの構成に合わせて変更します ストレージアレイに複数のベンダーのデバイスが含まれている場合は devices セクションに device ブロックを追加し 該当する属性と値を指定します 使用するパスセレク

82 82 構成エクスプレスガイド (Linux) タについて特に推奨されるものはありません そのため 例に示すように デフォルトのパスセレクタはデバイス設定で選択されます multipathd show config コマンドでは defaults セクションのパスセレクタが表示されます 注 : ホストで RHEL 6.5 SLES 11.3 またはそれ以前のバージョンが実行されている場合にのみ /etc/multipath.conf ファイルの devices セクションを更新してください クラスタ構成では Interoperability Matrix Tool に定義されているように failback を manual に設定します devices { device { vendor "(LSI NETAPP)" product "INF-01-00" path_grouping_policy group_by_prio detect_prio yes prio rdac path_checker rdac hardware_handler "1 rdac" failback immediate features "2 pg_init_retries 50" no_path_retry 30 retain_attached_hw_handler yes } } 注 : 上記以外のパラメータでは内部のデフォルト値が推奨値です 変更しないようにしてください ラウンドロビン方式とサービス時間方式どちらのパスセレクタも完全にサポートされており それぞれの方式に対して特別に推奨されるセレクタはありません 属性パラメータ値説明 path_grouping_policy group_by_prio このベンダーと製品ストレージ に適用されるパスのグループ化 ポリシー detect_prio yes システムによってパスポリシー ルーチンが検出されます prio rdac パス優先ルーチンを決定するプログラムと引数 指定したルーチンは このパスの相対的な優先度を指定する数値を返す必要があります 数値が大きいほど優先度が高くなります path_checker rdac パスの状態を判断するための方 法 hardware_handler "1 rdac" デバイス固有の情報を処理する ために使用するハードウェアハ ンドラ

83 SRP over InfiniBand のクイックセットアップ 83 属性パラメータ値説明 failback immediate パスグループのフェイルバック方法をデーモンに指示するパラメータ この例ではimmediate に設定されているため フェイルバックはパスが使用可能な次回のチェック時に実行されます フェイルバックを無効にするには このパラメータをmanualに設定します 自動ロードバランシング機能を有効にせずにクラスタ環境または共有 LUN 環境を使用している場合は このパラメータを manual に設定します features "2 pg_init_retries 50" 有効にする機能 このパラメータはカーネルパラメータ pg_init_retries を 50 に設定します pg_init_retries パラメータは モード選択コマンドの再試行に使用されます no_path_retry 30 キューが無効になるまでの再試行回数を指定します すぐに失敗にする ( キューなし ) 場合は このパラメータをfailに設定します このパラメータをqueue に設定すると キューは無期限に続行されます 時間はこのパラメータ値に polling_interval( 通常は 5) を掛けた値に等しくなります たとえば no_path_retry の値が 30 の場合は 150 秒になります retain_attached_hw_handle r yes 現在のハードウェアハンドラを引き続き使用することを指定します ホストポートの GUID の特定と推奨設定の適用 - SRP over InfiniBand InfiniBand-diags パッケージには 各 InfiniBand(IB) ポートのグローバル一意識別子 (GUID) を表示するためのコマンドが含まれています 付属のパッケージで OFED / RDMA がサポートされる Linux ディストリビューションのほとんどに InfiniBand-diags パッケージも付属しており このパッケージに含まれるコマンドを使用して HCA に関する情報を表示できます 1. オペレーティングシステムのパッケージ管理コマンドを使用して InfiniBand-diags パッケージをインストールします

84 84 構成エクスプレスガイド (Linux) 2. ibstat コマンドを実行してポート情報を表示します 3. イニシエータの GUID を SRP ワークシート (87 ページ ) に記録します 4. HBA ユーティリティで適切な設定を選択します 使用する構成に適した設定は NetApp Interoperability Matrix Tool の [Notes] 列で確認できます ネットワーク接続の設定 - SRP over InfiniBand SRP over InfiniBand プロトコルを使用する構成の場合は ここで説明するを実行します タスク概要 Linux ホストをストレージアレイに接続するためには 該当するオプションで InfiniBand ドライバスタックを有効にする必要があります 具体的な設定は Linux ディストリビューションに応じて異なる場合があります ソリューションに応じた具体的な指示やその他の推奨される設定については NetApp Interoperability Matrix Tool を参照してください 1. 使用するOSに対応したOFED / RDMAドライバスタックをインストールします 2. SRPモジュールをロードするようにOFED / RDMAを設定します 3. OFED / RDMA 構成ファイルで SRP_LOAD=yesとSRP_DAEMON_ENABLE=yesを設定します 4. OFED / RDMAサービスを有効にして開始します RHEL 7.xおよびSLES 12.xの場合 InfiniBandモジュールを有効にしてブート時にロードする場合 : systemctl enable rdma InfiniBand モジュールをすぐにロードする場合 : systemctl start rdma RHEL 6.x および SLES 11.x の場合 InfiniBand モジュールを有効にしてブート時にロードする場合 : chkconfig rdma on InfiniBand モジュールをすぐにロードする場合 : service rdma start 5. SRPデーモンを有効にします RHEL 7.xおよびSLES 12の場合 SRPデーモンを有効にしてブート時に開始する場合 : systemctl enable srpd

85 SRP over InfiniBand のクイックセットアップ 85 SRP デーモンをすぐに開始する場合 : systemctl start srpd RHEL 6.x および SLES 11.x の場合 SRP デーモンを有効にしてブート時に開始する場合 : chkconfig srpd on SRP デーモンをすぐに開始する場合 : service srpd start パーティションとファイルシステムの作成 Linux ホストで初めて検出された時点では 新しい LUN にはパーティションやファイルシステムは設定されていません LUN を使用できるようにするにはフォーマットする必要があります 必要に応じて LUN にファイルシステムを作成することができます 開始する前に ホストが LUN を検出済みである必要があります /dev/mapper フォルダで ls コマンドを実行して使用可能なディスクを確認しておきます タスク概要 ディスクは GUID パーティションテーブル (GPT) またはマスターブートレコード (MBR) を使用して ベーシックディスクとして初期化することができます LUN は ext4 などのファイルシステムでフォーマットします 一部の環境ではこのは必要ありません 1. sanlun lun show -p コマンドを実行して マッピングされているディスクの SCSI ID を取得します SCSI ID は 3 から始まる 33 文字の 16 進数値です ユーザにわかりやすい名前の使用が有効になっている場合 SCSI ID の代わりに mpath がレポートされます 例 # sanlun lun show -p E-Series Array: ictm1619s01c01- SRP(60080e b efb9d2) Volume Name: Preferred Owner: Controller in Slot B Current Owner: Controller in Slot B Mode: RDAC (Active/Active) UTM LUN: None LUN: 116 LUN Size: Product: E-Series Host Device: mpathr(360080e ac d) Multipath Policy: round-robin 0 Multipath Provider: Native

86 86 構成エクスプレスガイド (Linux) host controller controller path path /dev/ host target state type node adapter port up secondary sdcx host14 A1 up secondary sdat host10 A2 up secondary sdbv host13 B1 2. Linux OS のリリースに応じた方法で新しいパーティションを作成します 通常 ディスクのパーティションを識別する文字 ( 数字の 1 や p3 など ) が SCSI ID に追加されます 例 # parted -a optimal -s -- /dev/mapper/ e bb b1535f887a mklabel gpt mkpart primary ext4 0% 100% 3. パーティションにファイルシステムを作成します ファイルシステムの作成方法は 選択したファイルシステムによって異なります 例 # mkfs.ext4 /dev/mapper/360080e bb b1535f887a1 4. 新しいパーティションをマウントするフォルダを作成します 例 # mkdir /mnt/ext4 5. パーティションをマウントします 例 # mount /dev/mapper/360080e bb b1535f887a1 /mnt/ext4 ホストでのストレージアクセスの確認 ボリュームを使用する前に ホストがボリュームに対してデータの読み取りと書き込みを実行できることを確認します 開始する前に ボリュームを初期化し ファイルシステムでフォーマットしておく必要があります 1. ホストで いくつかのファイルをディスクのマウントポイントにコピーします 2. コピーしたファイルを元のディスクの別のフォルダにコピーします 3. diffコマンドを実行して コピーしたファイルを元のファイルと比較します

87 SRP over InfiniBand のクイックセットアップ 87 次のタスク コピーしたファイルとフォルダを削除します Linux での SRP over InfiniBand 固有の情報の記録 SRP over InfiniBand ワークシートを選択して プロトコル固有のストレージ構成情報を記録します この情報は プロビジョニングタスクを実行する際に必要となります SRP over InfiniBand ワークシート このワークシートを使用して SRP over InfiniBand ストレージの構成情報を記録できます この情報は プロビジョニングタスクを実行する際に必要となります SRP over InfiniBand: ホスト識別子 注 : イニシエータの GUID は ホストポートの GUID の特定と推奨設定の適用 (83 ページ ) で特定します 番号ホスト ( イニシエータ ) ポート接続 GUID 1 ホスト該当なし 3 スイッチ該当なし 4 ターゲット ( ストレージアレイ ) 該当なし 2 ホストポート 1 から IB スイッチ 1( A パス ) 5 ホストポート 2 から IB スイッチ 2( B パス ) SRP over InfiniBand: 推奨構成 推奨構成は 2 つのイニシエータポートと 4 つのターゲットポートで構成されます

88 88 構成エクスプレスガイド (Linux) SRP over InfiniBand: マッピングホスト名注 : マッピングホスト名は設定のワークフロー中に作成されます マッピングホスト名ホストOSタイプ

89 89 NVMe over InfiniBand のクイックセットアップ NVMe は InfiniBand ネットワークプロトコルで使用できます 1. Linux 構成のサポート状況の確認 (89 ページ ) 2. DHCP を使用した IP アドレスの設定 (90 ページ ) 3. SMcli を使用するための SANtricity Storage Manager のインストール (SANtricity ソフトウェアバージョン 以前 )(91 ページ ) 4. SANtricity System Manager へのアクセスとセットアップウィザードの使用 (92 ページ ) 5. サブネットマネージャの設定 (94 ページ ) 6. ホスト側での NVMe over InfiniBand の設定 (95 ページ ) 7. ストレージアレイの NVMe over InfiniBand 接続の設定 (98 ページ ) 8. ホストからのストレージの検出と接続 (98 ページ ) 9. ホストの定義 (100 ページ ) 10. ボリュームの割り当て (101 ページ ) 11. ホストが認識できるボリュームの表示 (103 ページ ) 12. フェイルオーバーの設定 (103 ページ ) 13. パーティションとファイルシステムの作成 (106 ページ ) 14. ホストでのストレージアクセスの確認 (107 ページ ) 15. Linux での NVMe over InfiniBand 固有の情報の記録 (107 ページ ) Linux 構成のサポート状況の確認 安定した稼働を確保するために 導入計画を作成し NetApp Interoperability Matrix Tool (IMT) を使用して構成全体がサポートされることを確認します 1. NetApp Interoperability Matrix Tool にアクセスします 2. [Storage Solution Search] タイルをクリックします 3. [Protocols] > [SAN Host (FAS, E-Series)] 領域で [E-Series SAN Host] の横にある [Add] ボタンをクリックします 4. [OK] をクリックします [What Works With What] セクションが表示されます このセクションでは 該当するプロトコル および構成のその他の条件 ( オペレーティングシステム NetApp OS ホストのマルチパスドライバなど ) を選択できます 構成に必要な条件を選択し 互換性のある構成要素を確認します 必要に応じて 使用するオペレーティングシステムとプロトコルに対して IMT に記載された更新を実行します 関連情報 NetApp Interoperability Matrix Tool

90 90 構成エクスプレスガイド (Linux) NVMe over InfiniBand の制限事項 NVMe over InfiniBand を使用する前に コントローラ ホスト およびリカバリの制限事項を確認してください 構成の確認 使用する構成を NetApp Interoperability Matrix Tool で確認します ハードウェアについて NVMe over InfiniBand は EF600 EF570 または E5700 コントローラで設定できます コントローラにはデュアル 100GB InfiniBand ホストポートが必要です 制限事項 リリースには次の制限事項があります すべての要件を確認するには NetApp Interoperability Matrix Tool を参照してください コントローラの制限事項 このプロトコルは EF600 EF570 または E5700 コントローラでのみ使用できます EF600 EF570 および E5700 コントローラでこのプロトコルを使用するには 32GB 以上の物理メモリが必要です 一日の開始処理でコントローラの最小メモリ要件が満たされていないことが検出されると 問題を診断するためのメッセージが表示されます シンプレックス ( 単一コントローラ ) 構成はサポートされません NVMe over InfiniBand ホストインターフェイスと SCSI ホストインターフェイスを組み合わせて使用することはできません ホスト ホストプロトコル およびホストオペレーティングシステムの制限事項 ホストが互換性のある最新の SUSE Linux Enterprise Server 12 サービスパックオペレーティングシステムを実行している必要があります 最新の要件の一覧を確認するには NetApp Interoperability Matrix Tool を参照してください ホストチャネルアダプタは Mellanox 製のみがサポートされます 詳細については NetApp Interoperability Matrix Tool を参照してください サポートされるホストインターフェイスカード (HIC) は デュアル 100G EDR IB HIC のみです この HIC は iser と SRP もサポートしますが iser と SRP を同時に使用することはできません ストレージとディザスタリカバリの制限事項 非同期ミラーリングと同期ミラーリングはサポートされません シンプロビジョニング ( シンボリュームの作成 ) はサポートされません DHCP を使用した IP アドレスの設定 クイック方式で管理ステーションとストレージアレイ間の通信を設定する場合 動的ホスト構成プロトコル (DHCP) を使用して IP アドレスを割り当てます 各ストレージアレイにはコントローラが 1 台 ( シンプレックス ) または 2 台 ( デュプレックス ) 含まれ コントロー

91 NVMe over InfiniBand のクイックセットアップ 91 ラごとにストレージ管理ポートが 2 つあります 各管理ポートには IP アドレスが割り当てられます 開始する前に ストレージ管理ポートと同じサブネットに DHCP サーバをインストールして設定しておきます タスク概要 以下のでは コントローラを 2 台搭載したストレージアレイ ( デュプレックス構成 ) を使用します 1. 管理ステーションおよび各コントローラ (A B) の管理ポート 1 にイーサネットケーブルを接続します ( まだ接続していない場合 ) DHCP サーバによって 各コントローラのポート 1 に IP アドレスが割り当てられます 注 : どちらのコントローラの管理ポート 2 も使用しないでください ポート 2 はネットアップのテクニカルサポート用に予約されています 重要 : イーサネットケーブルを外して再接続するか ストレージアレイの電源を再投入すると DHCP によって IP アドレスが再度割り当てられます この処理は静的 IP アドレスを設定しないかぎり発生します ケーブルを外したり アレイの電源を再投入したりしないことを推奨します DHCP が割り当てた IP アドレスをストレージアレイが 30 秒以内に取得できないと 次のようにデフォルトの IP アドレスが設定されます コントローラ A ポート 1: コントローラ B ポート 1: サブネットマスク : コントローラ背面の MAC アドレスラベルを確認し ネットワーク管理者に各コントローラのポート 1 の MAC アドレスを伝えます MAC アドレスは ネットワーク管理者が各コントローラの IP アドレスを特定するために必要です ブラウザからストレージシステムに接続するには IP アドレスが必要です SMcli を使用するための SANtricity Storage Manager のインストール (SANtricity ソフトウェアバージョン 以前 ) 管理ステーションに SANtricity Storage Manager ソフトウェアをインストールすると グラフィカルユーザインターフェイス (GUI) とコマンドラインインターフェイス (CLI) がデフォルトでインストールされます 以下のでは SANtricity Storage Manager GUI を I/O ホストではなく管理ステーションにインストールすることを想定しています 開始する前に 重要 :SANtricity ソフトウェア 以降では SANtricity Secure CLI(SMcli) は SANtricity OS に含まれており SANtricity System Manager からダウンロードできます SANtricty System Manager から SMcli をダウンロードする方法の詳細については SANtricity オンラインヘルプのトピック コマンドラインインターフェイス (CLI) のダウンロード を参照してください SANtricity ソフトウェア 以前を使用している必要があります 適切な管理者権限またはスーパーユーザ権限が必要です

92 92 構成エクスプレスガイド (Linux) SANtricity Storage Manager クライアントをインストールするシステムが次の最小要件を満たしていることを確認する必要があります RAM:Java Runtime Engine 用に 2GB ディスクスペース :5GB OS / アーキテクチャ : サポート対象オペレーティングシステムのバージョンとアーキテクチャを特定する方法については ネットアップサポートの [Downloads] > [Software] > [E-Series/EF-Series SANtricity Storage Manager] を参照してください タスク概要 ここでは Windows と Linux の両方の OS プラットフォームについて SANtricity Storage Manager のインストール方法を説明しています データホストに Linux を使用する場合の管理ステーションプラットフォームは Windows と Linux の両方で共通です 1. ネットアップサポートの [Downloads] > [Software] > [E-Series/EF-Series SANtricity Storage Manager] から SANtricity ソフトウェアリリースをダウンロードします 2. SANtricity インストーラを実行します Windows SMIA*.exe インストールパッケージをダブルクリックしてインストールを開始します Linux a. SMIA*.bin インストールパッケージをダウンロードしたディレクトリに移動します b. 一時マウントポイントに実行権限がない場合は IATEMPDIR 変数を設定します 例 :IATEMPDIR=/root./SMIA- LINUXX A bin c. chmod +x SMIA*.bin コマンドを実行してファイルに実行権限を付与します d../smia*.bin コマンドを実行してインストーラを起動します 3. インストールウィザードを使用して 管理ステーションでソフトウェアをインストールします SANtricity System Manager へのアクセスとセットアップウィザードの使用 SANtricity System Manager のセットアップウィザードを使用してストレージアレイを設定します 開始する前に SANtricity System Manager へのアクセスに使用するデバイスに 次のいずれかのブラウザがインストールされていることを確認しておきます ブラウザ Google Chrome 47 最小バージョン

93 NVMe over InfiniBand のクイックセットアップ 93 ブラウザ 最小バージョン Microsoft Internet Explorer 11 Microsoft Edge EdgeHTML 12 Mozilla Firefox 31 Safari 9 アウトオブバンド管理を使用します タスク概要 ウィザードは System Manager を開くかブラウザの表示を更新したときに 次の少なくとも 1 つに該当していれば自動的に再度起動されます プールとボリュームグループが検出されていない ワークロードが検出されていない 通知が設定されていない 1. ブラウザで次の URL を入力します IPAddress は いずれかのストレージアレイコントローラのアドレスです まだ設定していないアレイで SANtricity System Manager を初めて開くと Set Administrator Password というプロンプトが表示されます ロールベースのアクセス管理では admin support security および monitor の 4 つのローカルロールが設定されます 最後の 3 つのロールには 推測されにくいランダムなパスワードが設定されています admin ロールのパスワードを設定したあと admin のクレデンシャルを使用してすべてのパスワードを変更することができます 4 つのローカルユーザロールの詳細については SANtricity System Manager オンラインヘルプ を参照してください 2. System Manager の admin ロールのパスワードを [ 管理者パスワードの設定 ] フィールドと [ パスワードの再入力 ] フィールドに入力し [ パスワードの設定 ] ボタンを選択します プール ボリュームグループ ワークロード または通知が設定されていない状態で System Manager を開くと セットアップウィザードが起動します 3. セットアップウィザードを使用して次のタスクを実行します ハードウェア ( コントローラとドライバ ) の確認 ストレージアレイ内のコントローラとドライブの数を確認します アレイに名前を割り当てます ホストとオペレーティングシステムの確認 ストレージアレイがアクセスできるホストとオペレーティングシステムのタイプを確認します プールの承認 クイックインストールで推奨されるプール構成を承認します プールはドライブの論理グループです アラートの設定 ストレージアレイで問題が発生した場合に自動通知を System Manager で受信するように設定します AutoSupport の有効化 ストレージアレイの健常性を自動的に監視し テクニカルサポートにデータを送信します

94 94 構成エクスプレスガイド (Linux) 4. ボリュームをまだ作成していない場合は [ ストレージ ] > [ ボリューム ] > [ 作成 ] > [ ボリューム ] の順に選択してボリュームを作成します 詳細については SANtricity System Manager のオンラインヘルプを参照してください サブネットマネージャの設定 InfiniBand スイッチを使用してサブネットマネージャを実行する場合 負荷が高くなったときにパスが失われる可能性があります パスの損失を防ぐには opensm を使用して 1 つ以上のホストにサブネットマネージャを設定します 1. サブネットマネージャを実行する予定のすべてのホストに opensm パッケージをインストールします 次に示すのは SUSE Linux Enterprise Server 12 SP3 でのです # zypper install opensm 2. ibstat -p コマンドを使用して HCA ポートの GUID0 と GUID1 を確認します 次に例を示します # ibstat -p 0x248a070300a80a80 0x248a070300a80a81 3. サブネットマネージャの設定方法は構成によって異なります 単一のスイッチを使用している場合は opensm サービスを開始して有効にし 2 (94 ページ ) で確認した HCA ポート識別子を一方のポートの opensm.conf ファイルに追加します もう一方のポートに対して同じ作業を繰り返します サービスをすぐに開始する : systemctl start opensm サービスをブート時に有効にする : systemctl enable opensm /etc/rdma/opensm.conf ファイルを編集して当該ポートの識別子を追加する : opensm -c /etc/rdma/opensm.conf # The port GUID on which the OpenSM is running guid 0x248a070300a80a80 直接接続方式を使用している場合 または複数のスイッチを使用している場合は ホスト上の接続された HCA の各ポートでサブネットマネージャを有効にします /etc/rc.d/after.local に次の 2 行を追加します (SUSE Linux Enterprise Server 12 SP3 の場合 ) GUID0 と GUID1 は 2(94 ページ ) で確認した値に置き換えてく

95 NVMe over InfiniBand のクイックセットアップ 95 ださい P0 と P1 にはサブネットマネージャの優先度を指定します ( 最低が 1 で最高が 15) opensm -B -g GUID0 -p P0 -f /var/log/opensm-ib0.log opensm -B -g GUID1 -p P1 -f /var/log/opensm-ib1.log 値を置き換えたコマンドの例を示します # cat /etc/rc.d/rc.local opensm -B -g 0x248a070300a80a80 -p 15 -f /var/log/opensm-ib0.log opensm -B -g 0x248a070300a80a81 -p 1 -f /var/log/opensm-ib1.log ホスト側での NVMe over InfiniBand の設定 InfiniBand 環境で NVMe イニシエータを設定するには infiniband nvme-cli rdma の各パッケージをインストールして設定し イニシエータの IP アドレスを設定し ホストで NVMe-oF レイヤを設定します 1. rdma nvme-cli infiniband の各パッケージをインストールします 次に示すのは SUSE Linux Enterprise Server 12 SP3 でのです # zypper install infiniband-diags # zypper install rdma-core # zypper install nvme-cli 2. ipoib を有効にします /etc/rdma/rdma.conf ファイルを編集し ipoib をロードするためのエントリを変更します IPOIB_LOAD=yes 3. rdma サービスを開始して有効にし サービスが有効かつアクティブである ( 実行されている ) ことを確認します # systemctl start rdma # systemctl enable rdma # systemctl status rdma 注 : 依存関係が原因で rdma サービスを開始できなかったことを通知するエラーメッセージがホストに表示された場合は ホストをリブートします 4. IB ポートリンクがどちらも稼働していて かつ State が Active であることを確認します # ibstat CA 'mlx4_0' CA type: MT4099 Number of ports: 2 Firmware version: Hardware version: 1 Node GUID: 0x0002c System image GUID: 0x0002c Port 1:

96 96 構成エクスプレスガイド (Linux) Port 2: State: Active Physical state: LinkUp Rate: 40 Base lid: 4 LMC: 0 SM lid: 4 Capability mask: 0x a Port GUID: 0x0002c Link layer: InfiniBand State: Active Physical state: LinkUp Rate: 56 Base lid: 5 LMC: 0 SM lid: 4 Capability mask: 0x a Port GUID: 0x0002c Link layer: InfiniBand 5. IB ポートに IPv4 IP アドレスを設定します SUSE Linux Enterprise Server 12 SP3 の場合は ファイル /etc/sysconfig/network/ ifcfg-ib0 を作成します BOOTPROTO='static' BROADCAST= ETHTOOL_OPTIONS= IPADDR=' /24' IPOIB_MODE='connected' MTU='65520' NAME= NETWORK= REMOTE_IPADDR= STARTMODE='auto' 次に ファイル /etc/sysconfig/network/ifcfg-ib1 を作成します BOOTPROTO='static' BROADCAST= ETHTOOL_OPTIONS= IPADDR=' /24' IPOIB_MODE='connected' MTU='65520' NAME= NETWORK= REMOTE_IPADDR= STARTMODE='auto' 6. ib インターフェイスを有効にします # ifup ib0 # ifup ib1 7. アレイへの接続に使用する IP アドレスを確認します このコマンドは ib0 と ib1 の両方に対して実行します # ip addr show ib0

97 NVMe over InfiniBand のクイックセットアップ 97 # ip addr show ib1 次の例に示すように ib0 の IP アドレスは です 10: ib0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu qdisc pfifo_fast state UP group default qlen 256 link/infiniband 80:00:02:08:fe: 80:00:00:00:00:00:00:00:02:c9:03:00:31:78:51 brd 00:ff:ff:ff:ff: 12:40:1b:ff:ff:00:00:00:00:00:00:ff:ff:ff:ff inet brd scope global ib0 valid_lft forever preferred_lft forever inet6 fe80::202:c903:31:7851/64 scope link valid_lft forever preferred_lft forever 次の例に示すように ib1 の IP アドレスは です 10: ib1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu qdisc pfifo_fast state UP group default qlen 256 link/infiniband 80:00:02:08:fe: 80:00:00:00:00:00:00:00:02:c9:03:00:31:78:51 brd 00:ff:ff:ff:ff: 12:40:1b:ff:ff:00:00:00:00:00:00:ff:ff:ff:ff inet brd scope global ib0 valid_lft forever preferred_lft forever inet6 fe80::202:c903:31:7851/64 scope link valid_lft forever preferred_lft forever 8. ホストで NVMe-oF レイヤを設定します a. nvme-rdma カーネルモジュールがロードされてリブート後も常にオンになるようにするために /etc/modules-load.d/ に次のファイルを作成します # cat /etc/modules-load.d/nvme-rdma.conf nvme-rdma b. nvme-rdma モジュールがロードされていることを確認します # lsmod grep nvme nvme_rdma nvme_fabrics nvme_rdma nvme_core nvme_fabrics,nvme_rdma rdma_cm rpcrdma,nvme_rdma,ib_iser,rdma_ucm ib_core rdma_cm,ib_cm,iw_cm,rpcrdma,mlx5_ib,ib_srp,ib_ucm,nvme_rdma,ib_iser,ib_umad,ib_uverbs,rdma_ucm,ib_ipoib c. system-modules-load サービスを有効にして開始し このサービスが実行されていることを確認します # systemctl enable systemd-modules-load # systemctl start systemd-modules-load # systemctl status systemd-modules-load

98 98 構成エクスプレスガイド (Linux) ストレージアレイの NVMe over InfiniBand 接続の設定 コントローラに NVMe over InfiniBand ポートが搭載されている場合は SANtricity System Manager を使用して各ポートの IP アドレスを設定できます 1. [ ハードウェア ] を選択します 2. 図にドライブが表示された場合は [ シェルフ背面を表示 ] をクリックします 図の表示が切り替わり ドライブではなくコントローラが表示されます 3. NVMe over InfiniBand ポートを設定するコントローラをクリックします コントローラのコンテキストメニューが表示されます 4. [NVMe over InfiniBand ポートの設定 ] を選択します 注 :[NVMe over InfiniBand ポートの設定 ] オプションは System Manager がコントローラの NVMe over InfiniBand ポートを検出した場合にのみ表示されます [NVMe over InfiniBand ポートの設定 ] ダイアログボックスが開きます 5. ドロップダウンリストで設定する HIC ポートを選択し ポートの IP アドレスを入力します 6. [ 設定 ] をクリックします 7. 使用する他の HIC ポートに対して 5 と 6 を繰り返します ホストからのストレージの検出と接続 SANtricity System Manager で各ホストを定義する前に ホストからターゲットコントローラポートを検出し NVMe 接続を確立する必要があります 1. 次のコマンドを使用して すべてのパスについて NVMe-oF ターゲットの使用可能なサブシステムを検出します nvme discover -t rdma -a target_ip_address このコマンドの target_ip_address はターゲットポートの IP アドレスです 注 :nvme discover コマンドでは ホストアクセスに関係なく サブシステムのすべてのコントローラポートが検出されます # nvme discover -t rdma -a Discovery Log Number of Records 2, Generation counter 0 =====Discovery Log Entry 0====== trtype: rdma adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 0 trsvcid: 4420 subnqn: nqn com.netapp: a098000af ed54be traddr:

99 NVMe over InfiniBand のクイックセットアップ rdma_prtype: infiniband rdma_qptype: connected rdma_cms: rdma-cm rdma_pkey: 0x0000 =====Discovery Log Entry 1====== trtype: rdma adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 1 trsvcid: 4420 subnqn: nqn com.netapp: a098000af ed54be traddr: rdma_prtype: infiniband rdma_qptype: connected rdma_cms: rdma-cm rdma_pkey: 0x 他の接続についても 1 を繰り返します 3. 次のコマンドを使用して最初のパスで検出したサブシステムに接続します nvme connect -t rdma -ndiscovered_sub_nqn -atarget_ip_address -Q queue_depth_setting -l controller_loss_timeout_period 重要 : 検出されたポートのうち ホストからアクセスできないポートへの接続は確立されません 重要 : このコマンドにポート番号を指定すると 接続は失敗します 接続用として設定されているポートはデフォルトポートだけです 重要 : 推奨されるキューの深さは 1024 です 次の例に示すように -Q 1024 コマンドラインオプションを使用して デフォルトの設定である 128 を 1024 でオーバーライドします 重要 : コントローラ損失のタイムアウト時間として推奨される秒数は 3,600 秒 (60 分 ) です 次の例に示すように -l 3600 コマンドラインオプションを使用して デフォルトの設定である 600 秒を 3,600 秒でオーバーライドします # nvme connect -t rdma -a n nqn com.netapp: a098000af ed54be -Q l nvme list コマンドを使用して 現在接続されている NVMe デバイスの一覧を表示します 次の例では nvme0n1 が表示されています # nvme list Node SN Model Namespace /dev/nvme0n NetApp E-Series 1 Usage Format FW Rev GB /5.37 GB 512 B + 0 B 0842XXXX

100 100 構成エクスプレスガイド (Linux) 5. 2 番目のパスで検出されたサブシステムに接続します # nvme connect -t rdma -a n nqn com.netapp: a098000af ed54be -Q l Linux の lsblk コマンドと grep コマンドを使用して 各ブロックデバイスに関する追加情報を表示します # lsblk grep nvme nvme0n1 259:0 0 5G 0 disk nvme1n1 259:0 0 5G 0 disk 7. nvme list コマンドを使用して 現在接続されている NVMe デバイスの最新の一覧を表示します 次の例では nvme0n1 と nvme0n1 が表示されています # nvme list Node SN Model Namespace /dev/nvme0n NetApp E-Series 1 /dev/nvme1n NetApp E-Series 1 Usage Format FW Rev GB /5.37 GB 512 B + 0 B 0842XXXX 5.37 GB /5.37 GB 512 B + 0 B 0842XXXX ホストの定義 SANtricity System Manager を使用して ストレージアレイにデータを送信するホストを定義します ホストの定義は ストレージアレイが接続されているホストを認識して ボリュームへの I/O アクセスを許可するために必要なの 1 つです タスク概要ホストを定義する際は 次のガイドラインに注意してください ホストに関連付けられたホストポート識別子を定義する必要があります ホストに割り当てられたシステム名と同じ名前を指定します 選択した名前がすでに使用されている場合 この処理は失敗します 名前の最大文字数は30 文字です 1. [ ストレージ ] > [ ホスト ] を選択します 2. [ 作成 ] > [ ホスト ] をクリックします [ ホストの作成 ] ダイアログボックスが表示されます 3. ホストの設定を必要に応じて選択します フィールドの詳細

101 NVMe over InfiniBand のクイックセットアップ 101 設定 名前 ホストオペレーティングシステムタイプ 説明 新しいホストの名前を入力します ドロップダウンリストから次のいずれかのオプションを選択します SANtricity 以降 Linux SANtricity 11.60より前 Linux DM-MP( カーネル3.10 以降 ) ホストインターフェイスタイプ ホストポート 使用するホストインターフェイスタイプを選択します 次のいずれかを実行します I/O インターフェイスを選択するホストポートがログインしている場合は リストからホストポート識別子を選択できます この方法を使用することを推奨します 手動で追加するホストポートがログインしていない場合は ホストの /etc/nvme/hostnqn を参照して hostnqn 識別子を確認し ホスト定義に関連付けます ホストポート識別子を [ ホストポート ] フィールドに手動で入力するか /etc/nvme/hostnqn ファイルから ( 一度に 1 つずつ ) コピーして貼り付けます ホストポート識別子は一度に 1 つずつ追加してホストに関連付ける必要がありますが ホストに関連付ける識別子はいくつでも選択できます 各識別子が [ ホストポート ] フィールドに表示されます 必要に応じて 識別子の横にある [X] を選択して削除することもできます 4. [ 作成 ] をクリックします タスクの結果 ホストの作成が完了すると ホストに対して設定された各ホストポートのデフォルト名 ( ユーザラベル ) が SANtricity System Manager によって作成されます デフォルトのエイリアスは <Hostname_Port Number> です たとえば ホスト IPT に対して作成された最初のポートのデフォルトのエイリアスは IPT_1 となります ボリュームの割り当て ボリュームを I/O 処理に使用するには ホストまたはホストクラスタにボリューム ( ネームスペース ) を割り当てる必要があります これにより ストレージアレイの 1 つ以上のネームスペースへのアクセスがホストまたはホストクラスタに許可されます タスク概要 ボリュームを割り当てる際は 次のガイドラインに注意してください

102 102 構成エクスプレスガイド (Linux) ボリュームは一度に 1 つのホストまたはホストクラスタにのみ割り当てることができます 割り当てられたボリュームは ストレージアレイのコントローラ間で共有されます あるホストまたはホストクラスタからボリュームへのアクセスに 同じネームスペース ID(NSID) を重複して使用することはできません 一意の NSID を使用する必要があります 次の場合 ボリュームの割り当ては失敗します すべてのボリュームが割り当てられている ボリュームがすでに別のホストまたはホストクラスタに割り当てられている 次の場合 ボリュームを割り当てることはできません 有効なホストまたはホストクラスタが存在しない すべてのボリューム割り当てが定義済みである 未割り当てのボリュームはすべて表示されますが ホストが Data Assurance(DA) 対応かどうかで処理は次のように異なります DA 対応ホストの場合は DA 有効 DA 無効のどちらのボリュームでも選択できます DA 対応でないホストで DA が有効なボリュームを選択した場合 ボリュームをホストに割り当てる前にボリュームの DA を自動的に無効にする必要があるという警告が表示されます 1. [ ストレージ ] > [ ホスト ] を選択します 2. ボリュームを割り当てるホストまたはホストクラスタを選択して [ ボリュームの割り当て ] をクリックします ダイアログボックスに割り当て可能なすべてのボリュームのリストが表示されます 任意の列を並べ替えるか [ フィルタ ] ボックスに入力すると 特定のボリュームを簡単に検索できます 3. 割り当てる各ボリュームの横にあるチェックボックスを選択します すべてのボリュームを選択する場合は テーブルヘッダーのチェックボックスを選択します 4. [ 割り当て ] をクリックして処理を実行します タスクの結果 ホストまたはホストクラスタへのボリュームの割り当てが完了すると 次の処理が実行されます 割り当てたボリュームに 次に使用可能な NSID が設定されます ホストがこの NSID を使用してボリュームにアクセスします ホストに関連付けられているボリュームの一覧にユーザが指定したボリューム名が表示されます

103 NVMe over InfiniBand のクイックセットアップ 103 ホストが認識できるボリュームの表示 nvme-cli パッケージに含まれている SMdevices ツールを使用して 現在ホストが認識できるボリュームを表示します これは nvme list コマンドの代わりです 1. E シリーズボリュームへの各 NVMe パスに関する情報を表示するために nvme netapp smdevices [-o <format>] コマンドを使用します <format> には 出力形式として normal(-o を指定しない場合のデフォルト ) column json のいずれかを指定できます # nvme netapp smdevices /dev/nvme1n1, Array Name ICTM0706SYS04, Volume Name NVMe2, NSID 1, Volume ID bd5903df4a00a af4462, Controller A, Access State unknown, 2.15GB /dev/nvme1n2, Array Name ICTM0706SYS04, Volume Name NVMe3, NSID 2, Volume ID c05903e24000a af4462, Controller A, Access State unknown, 2.15GB /dev/nvme1n3, Array Name ICTM0706SYS04, Volume Name NVMe4, NSID 4, Volume ID 00001bb0593a46f400a af4462, Controller A, Access State unknown, 2.15GB /dev/nvme1n4, Array Name ICTM0706SYS04, Volume Name NVMe6, NSID 6, Volume ID b424b00a af4112, Controller A, Access State unknown, 2.15GB /dev/nvme2n1, Array Name ICTM0706SYS04, Volume Name NVMe2, NSID 1, Volume ID bd5903df4a00a af4462, Controller B, Access State unknown, 2.15GB /dev/nvme2n2, Array Name ICTM0706SYS04, Volume Name NVMe3, NSID 2, Volume ID c05903e24000a af4462, Controller B, Access State unknown, 2.15GB /dev/nvme2n3, Array Name ICTM0706SYS04, Volume Name NVMe4, NSID 4, Volume ID 00001bb0593a46f400a af4462, Controller B, Access State unknown, 2.15GB /dev/nvme2n4, Array Name ICTM0706SYS04, Volume Name NVMe6, NSID 6, Volume ID b424b00a af4112, Controller B, Access State unknown, 2.15GB フェイルオーバーの設定 マルチパスソフトウェアは 物理パスの 1 つが中断された場合に備えて ストレージアレイへのパスを冗長化します マルチパスソフトウェアは ストレージへの複数のアクティブな物理パスを単一の仮想デバイスとしてオペレーティングシステムに提示します また フェイルオーバープロセスも管理して仮想デバイスを更新します Linux 環境では Device Mapper Multipath(DM-MP) ツールを使用します ホストでフェイルオーバーを実行するための設定 SUSE Linux Enterprise Server ホストでフェイルオーバーを実行するには 設定を変更する必要があります フェイルオーバーソリューションでは DM-MP が使用されます 1. /etc/multipath.conf ファイルの devices セクションに NVMe E シリーズデバイスのエントリを次のように追加します devices { device {

104 104 構成エクスプレスガイド (Linux) } } vendor "NVME" product "NetApp E-Series*" path_grouping_policy group_by_prio failback immediate no_path_retry multipathd がシステムブート時に起動するように設定します # systemctl enable multipathd 3. multipathd が実行されていなければ起動します # systemctl start multipathd 4. multipathd がアクティブで実行中であることをステータスで確認します # systemctl status multipathd NVMe ボリュームへのアクセス I/O は Linux ホストによって仮想デバイスターゲットに転送されます DM-MP は これらの仮想ターゲットへの物理パスを管理します I/O ターゲットは仮想デバイス 実行しているのは DM-MP で作成された仮想デバイスに対する I/O のみで 物理デバイスパスに対しては実行していないことを確認してください 物理パスに対して I/O を実行している場合 DM-MP がフェイルオーバーイベントを実行できず I/O が失敗します これらのブロックデバイスには 次の例のように dm デバイスまたは /dev/mapper の symlink を介してアクセスできます /dev/dm-1 /dev/mapper/eui.00001bc7593b7f5f00a af4462 例 nvme list コマンドの出力例を次に示します ホストのノード名と対応するネームスペース ID が表示されます NODE SN MODEL NAMESPACE /dev/nvme1n NetApp E-Series 10 /dev/nvme1n NetApp E-Series 11 /dev/nvme1n NetApp E-Series 12 /dev/nvme1n NetApp E-Series 13 /dev/nvme2n NetApp E-Series 10 /dev/nvme2n NetApp E-Series 11 /dev/nvme2n NetApp E-Series 12 /dev/nvme2n NetApp E-Series 13

105 NVMe over InfiniBand のクイックセットアップ 105 列 Node 説明 ノード名は 2 つの要素で構成されます nvme1 はコントローラ A を表し nvme2 はコントローラ B を表します n1 n2( 以下同様 ) は ホスト側で認識されるネームスペース識別子です この表では これらの識別子がコントローラ A に対して 1 回 コントローラ B 対して 1 回 繰り返し出力されています Namespace Namespace 列にはネームスペース ID(NSID) が表示されます これは ストレージアレイ側で認識される識別子です 次の multipath -ll の出力では 最適化されたパスの prio の値は 50 最適化されていないパスの prio の値は 10 になっています Linux オペレーティングシステムは status=active と表示されたパスグループに I/O をルーティングし status=enabled と表示されたパスグループをフェイルオーバーに使用します eui.00001bc7593b7f500a af4462 dm-0 NVME,NetApp E-Series size=15g features='1 queue_if_no_path' hwhandler='0' wp=rw -+- policy='service-time 0' prio=50 status=active `- #:#:#:# nvme1n1 259:5 active ready running `-+- policy='service-time 0' prio=10 status=enabled `- #:#:#:# nvme2n1 259:9 active ready running eui.00001bc7593b7f5f00a af4462 dm-0 NVME,NetApp E-Series size=15g features='1 queue_if_no_path' hwhandler='0' wp=rw -+- policy='service-time 0' prio=0 status=enabled `- #:#:#:# nvme1n1 259:5 failed faulty running `-+- policy='service-time 0' prio=10 status=active `- #:#:#:# nvme2n1 259:9 active ready running 行 policy='servi ce-time 0' prio=50 status=active policy='servi ce-time 0' prio=10 status=enable d policy='servi ce-time 0' prio=0 status=enable d policy='servi ce-time 0' prio=10 status=active 説明 この行と次の行は NSID が 10 のネームスペース nvme1n1 が prio の値が 50 で status の値が active のパスで最適化されていることを示しています このネームスペースはコントローラ A に所有されています この行は ネームスペース 10 のフェイルオーバーパスを示しています prio の値が 10 で status の値が enabled のパスです このパスのネームスペースには この時点では I/O は転送されていません このネームスペースはコントローラ B に所有されています この例は 別の時点 ( コントローラ A のリブート中 ) における multipath -ll の出力を示したものです prio の値が 0 で status の値が enabled のネームスペース 10 へのパスが failed faulty running と表示されています active パスが nvme2 になっており このパスでコントローラ B に I/O が転送されています

106 106 構成エクスプレスガイド (Linux) パーティションとファイルシステムの作成 マルチパスデバイスにパーティションを作成し 必要に応じてネームスペースにファイルシステムを作成し パーティションをマウントします 1. multipath -ll コマンドを実行して /dev/mapper/dm デバイスの一覧を取得します # multipath -ll 出力には dm-19 と dm-16 の 2 つのデバイスが表示されます eui.00001ffe5a94ff8500a af4444 dm-19 NVME,NetApp E-Series size=10g features='1 queue_if_no_path' hwhandler='0' wp=rw -+- policy='service-time 0' prio=50 status=active - #:#:#:# nvme0n19 259:19 active ready running `- #:#:#:# nvme1n19 259:115 active ready running `-+- policy='service-time 0' prio=10 status=enabled - #:#:#:# nvme2n19 259:51 active ready running `- #:#:#:# nvme3n19 259:83 active ready running eui.00001fd25a94fef000a af4444 dm-16 NVME,NetApp E-Series size=16g features='1 queue_if_no_path' hwhandler='0' wp=rw -+- policy='service-time 0' prio=50 status=active - #:#:#:# nvme0n16 259:16 active ready running `- #:#:#:# nvme1n16 259:112 active ready running `-+- policy='service-time 0' prio=10 status=enabled - #:#:#:# nvme2n16 259:48 active ready running `- #:#:#:# nvme3n16 259:80 active ready running 2. 各 /dev/mapper/dm デバイスのパーティションにファイルシステムを作成します ファイルシステムの作成方法は 選択したファイルシステムによって異なります この例では ext4 ファイルシステムを作成します 例 # mkfs.ext4 /dev/mapper/dm-19 mke2fs (09-Jul-2014) Creating filesystem with k blocks and inodes Filesystem UUID: 97f987e9-47b8-47f7-b434-bf3ebbe826d0 Superblock backups stored on blocks: 32768, 98304, , , , , , Allocating group tables: done Writing inode tables: done Creating journal (32768 blocks): done Writing superblocks and filesystem accounting information: done 3. 新しいパーティションをマウントするフォルダを作成します 例 # mkdir /mnt/ext4 4. パーティションをマウントします

107 NVMe over InfiniBand のクイックセットアップ 107 例 # mount /dev/mapper/dm-19 /mnt/ext4 ホストでのストレージアクセスの確認 ネームスペースを使用する前に ホストがネームスペースに対してデータの読み取りと書き込みを実行できることを確認します 開始する前に ネームスペースを初期化し ファイルシステムでフォーマットしておく必要があります 1. ホストで いくつかのファイルをディスクのマウントポイントにコピーします 2. コピーしたファイルを元のディスクの別のフォルダにコピーします 3. diffコマンドを実行して コピーしたファイルを元のファイルと比較します 次のタスク コピーしたファイルとフォルダを削除します Linux での NVMe over InfiniBand 固有の情報の記録 NVMe over InfiniBand ワークシートを選択して プロトコル固有のストレージ構成情報を記録します この情報は プロビジョニングタスクを実行する際に必要となります NVMe over InfiniBand ワークシート このワークシートを使用して NVMe over InfiniBand ストレージの構成情報を記録できます この情報は プロビジョニングタスクを実行する際に必要となります NVMe over InfiniBand: ホスト識別子 注 : ソフトウェアイニシエータの NQN はタスクの実行中に特定します 各ホストのイニシエータ NQN を特定して記録します 通常 NQN は /ect/nvme/hostnqn ファイルに記載されています 番号ホストポート接続ホスト NQN 1 ホスト ( イニシエータ )1 該当なし 該当なし 該当なし 該当なし

108 108 構成エクスプレスガイド (Linux) NVMe over InfiniBand: 推奨構成 直接接続トポロジでは 1 つ以上のホストをサブシステムに直接接続します SANtricity OS リリースでは 次の図のように 各ホストからサブシステムコントローラへの単一の接続がサポートされます この構成では 各ホストの一方の HCA( ホストチャネルアダプタ ) ポートを 接続先の E シリーズコントローラポートと同じサブネット ( ただしもう一方の HCA ポートとは別のサブネット ) に配置する必要があります NVMe over InfiniBand: ターゲット NQN ストレージアレイのターゲット NQN を記録します この情報は iser ネットワークを使用するストレージ接続ホストの設定 (66 ページ ) で使用します SANtricity で [ ストレージアレイ ] > [iser] > [ 設定の管理 ] を選択して ストレージアレイの NQN 名を確認します この情報は SendTargets 検出をサポートしないオペレーティングシステムで iser セッションを作成する際に必要となる場合があります 番号アレイ名ターゲット IQN 6 アレイコントローラ ( ターゲット ) iser over InfiniBand: ネットワーク構成 InfiniBand ファブリック上のホストとストレージに使用されるネットワーク設定を記録します ここでは 2 つのサブネットを使用して完全な冗長性を実現することを想定しています 次の情報は ネットワーク管理者から入手できます この情報は iser ネットワークを使用するストレージ接続ホストの設定 (66 ページ ) で使用します サブネット A 使用するサブネットを定義します ネットワークアドレス ネットマスク

109 NVMe over InfiniBand のクイックセットアップ 109 アレイポートと各ホストポートで使用する NQN を記録します 番号アレイコントローラ ( ターゲット ) ポート接続 NQN 3 スイッチ 該当なし 5 コントローラA ポート1 4 コントローラB ポート1 2 ホスト1 ポート1 ( オプション ) ホスト2 ポート1 サブネット B 使用するサブネットを定義します ネットワークアドレス ネットマスク アレイポートと各ホストポートで使用する IQN を記録します 番号アレイコントローラ ( ターゲット ) ポート接続 NQN 8 スイッチ 該当なし 10 コントローラA ポート2 9 コントローラB ポート2 7 ホスト1 ポート2 ( オプション ) ホスト2 ポート2 NVMe over InfiniBand: マッピングホスト名注 : マッピングホスト名は設定のワークフロー中に作成されます マッピングホスト名ホストOSタイプ

110 110 NVMe over RoCE のクイックセットアップ NVMe は RDMA over Converged Ethernet(RoCE) ネットワークプロトコルで使用できます 1. Linux 構成のサポート状況の確認 (110 ページ ) 2. DHCP を使用した IP アドレスの設定 (111 ページ ) 3. SMcli を使用するための SANtricity Storage Manager のインストール (SANtricity ソフトウェアバージョン 以前 )(112 ページ ) 4. SANtricity System Manager へのアクセスとセットアップウィザードの使用 (113 ページ ) 5. スイッチの設定 (115 ページ ) 6. ホスト側での NVMe over RoCE の設定 (115 ページ ) 7. ストレージアレイの NVMe over RoCE 接続の設定 (117 ページ ) 8. ホストからのストレージの検出と接続 (119 ページ ) 9. ホストの定義 (120 ページ ) 10. ボリュームの割り当て (122 ページ ) 11. ホストが認識できるボリュームの表示 (123 ページ ) 12. ホストでのフェイルオーバーの設定 (123 ページ ) 13. パーティションとファイルシステムの作成 (126 ページ ) 14. ホストでのストレージアクセスの確認 (127 ページ ) 15. Linux での NVMe over RoCE 固有の情報の記録 (127 ページ ) Linux 構成のサポート状況の確認 安定した稼働を確保するために 導入計画を作成し NetApp Interoperability Matrix Tool (IMT) を使用して構成全体がサポートされることを確認します 1. NetApp Interoperability Matrix Tool にアクセスします 2. [Storage Solution Search] タイルをクリックします 3. [Protocols] > [SAN Host (FAS, E-Series)] 領域で [E-Series SAN Host] の横にある [Add] ボタンをクリックします 4. [OK] をクリックします [What Works With What] セクションが表示されます このセクションでは 該当するプロトコル および構成のその他の条件 ( オペレーティングシステム NetApp OS ホストのマルチパスドライバなど ) を選択できます 構成に必要な条件を選択し 互換性のある構成要素を確認します 必要に応じて 使用するオペレーティングシステムとプロトコルに対して IMT に記載された更新を実行します

111 NVMe over RoCE のクイックセットアップ 111 NVMe over RoCE の制限事項 NVMe over RoCE を使用する前に コントローラ ホスト およびリカバリの制限事項を確認してください 構成の確認 使用する構成を NetApp Interoperability Matrix Tool で確認します ハードウェアについて NVME over RoCE は EF600 EF570 および E5700 コントローラで設定できます コントローラにはデュアル 100GB ホストポートが必要です 制限事項 リリースには次の制限事項があります すべての要件を確認するには NetApp Interoperability Matrix Tool を参照してください コントローラの制限事項 このプロトコルは EF600 EF570 および E5700 コントローラでのみ使用できます EF600 EF570 および E5700 コントローラでこのプロトコルを使用するには 32GB 以上の物理メモリが必要です 一日の開始処理でコントローラの最小メモリ要件が満たされていないことが検出されると 問題を診断するためのメッセージが表示されます シンプレックス ( 単一コントローラ ) 構成はサポートされません サポートされるホストインターフェイスカード (HIC) は デュアル 100G EDR HIC のみです この HIC は NVMe over InfiniBand iser SRP もサポートします NVMe over RoCE ホストインターフェイスを NVMe over InfiniBand または SCSI ホストインターフェイスと組み合わせて使用することはできません スイッチの制限事項 注意 : データ損失のリスク - NVMe over RoCE 環境では データ損失のリスクを排除するために スイッチで優先度フロー制御またはグローバルポーズ制御を有効にする必要があります ホスト ホストプロトコル およびホストオペレーティングシステムの制限事項 すべての要件を確認するには NetApp Interoperability Matrix Tool を参照してください サポートされるホストチャネルアダプタの一覧については NetApp Interoperability Matrix Tool を参照してください ストレージとディザスタリカバリの制限事項 非同期ミラーリングと同期ミラーリングはサポートされません シンプロビジョニング ( シンボリュームの作成 ) はサポートされません DHCP を使用した IP アドレスの設定 クイック方式で管理ステーションとストレージアレイ間の通信を設定する場合 動的ホスト構成プロトコル (DHCP) を使用して IP アドレスを割り当てます 各ストレージアレイに

112 112 構成エクスプレスガイド (Linux) はコントローラが 1 台 ( シンプレックス ) または 2 台 ( デュプレックス ) 含まれ コントローラごとにストレージ管理ポートが 2 つあります 各管理ポートには IP アドレスが割り当てられます 開始する前に ストレージ管理ポートと同じサブネットに DHCP サーバをインストールして設定しておきます タスク概要 以下のでは コントローラを 2 台搭載したストレージアレイ ( デュプレックス構成 ) を使用します 1. 管理ステーションおよび各コントローラ (A B) の管理ポート 1 にイーサネットケーブルを接続します ( まだ接続していない場合 ) DHCP サーバによって 各コントローラのポート 1 に IP アドレスが割り当てられます 注 : どちらのコントローラの管理ポート 2 も使用しないでください ポート 2 はネットアップのテクニカルサポート用に予約されています 重要 : イーサネットケーブルを外して再接続するか ストレージアレイの電源を再投入すると DHCP によって IP アドレスが再度割り当てられます この処理は静的 IP アドレスを設定しないかぎり発生します ケーブルを外したり アレイの電源を再投入したりしないことを推奨します DHCP が割り当てた IP アドレスをストレージアレイが 30 秒以内に取得できないと 次のようにデフォルトの IP アドレスが設定されます コントローラ A ポート 1: コントローラ B ポート 1: サブネットマスク : コントローラ背面の MAC アドレスラベルを確認し ネットワーク管理者に各コントローラのポート 1 の MAC アドレスを伝えます MAC アドレスは ネットワーク管理者が各コントローラの IP アドレスを特定するために必要です ブラウザからストレージシステムに接続するには IP アドレスが必要です SMcli を使用するための SANtricity Storage Manager のインストール (SANtricity ソフトウェアバージョン 以前 ) 管理ステーションに SANtricity Storage Manager ソフトウェアをインストールすると グラフィカルユーザインターフェイス (GUI) とコマンドラインインターフェイス (CLI) がデフォルトでインストールされます 以下のでは SANtricity Storage Manager GUI を I/O ホストではなく管理ステーションにインストールすることを想定しています 開始する前に 重要 :SANtricity ソフトウェア 以降では SANtricity Secure CLI(SMcli) は SANtricity OS に含まれており SANtricity System Manager からダウンロードできます SANtricty System Manager から SMcli をダウンロードする方法の詳細については SANtricity オンラインヘルプのトピック コマンドラインインターフェイス (CLI) のダウンロード を参照してください SANtricity ソフトウェア 以前を使用している必要があります 適切な管理者権限またはスーパーユーザ権限が必要です

113 NVMe over RoCE のクイックセットアップ 113 SANtricity Storage Manager クライアントをインストールするシステムが次の最小要件を満たしていることを確認する必要があります RAM:Java Runtime Engine 用に 2GB ディスクスペース :5GB OS / アーキテクチャ : サポートされるオペレーティングシステムのバージョンとアーキテクチャについては NetApp Interoperability Matrix Tool を参照してください タスク概要 ここでは Windows と Linux の両方の OS プラットフォームについて SANtricity Storage Manager のインストール方法を説明しています データホストに Linux を使用する場合の管理ステーションプラットフォームは Windows と Linux の両方で共通です 1. ネットアップサポートの [Downloads] > [Software] > [E-Series/EF-Series SANtricity Storage Manager] から SANtricity ソフトウェアリリースをダウンロードします 2. SANtricity インストーラを実行します Windows SMIA*.exe インストールパッケージをダブルクリックしてインストールを開始します Linux a. SMIA*.bin インストールパッケージをダウンロードしたディレクトリに移動します b. 一時マウントポイントに実行権限がない場合は IATEMPDIR 変数を設定します 例 :IATEMPDIR=/root./SMIA- LINUXX A bin c. chmod +x SMIA*.bin コマンドを実行してファイルに実行権限を付与します d../smia*.bin コマンドを実行してインストーラを起動します 3. インストールウィザードを使用して 管理ステーションでソフトウェアをインストールします SANtricity System Manager へのアクセスとセットアップウィザードの使用 SANtricity System Manager のセットアップウィザードを使用してストレージアレイを設定します 開始する前に SANtricity System Manager へのアクセスに使用するデバイスに 次のいずれかのブラウザがインストールされていることを確認しておきます ブラウザ Google Chrome 47 最小バージョン

114 114 構成エクスプレスガイド (Linux) ブラウザ 最小バージョン Microsoft Internet Explorer 11 Microsoft Edge EdgeHTML 12 Mozilla Firefox 31 Safari 9 アウトオブバンド管理を使用します タスク概要 ウィザードは System Manager を開くかブラウザの表示を更新したときに 次の少なくとも 1 つに該当していれば自動的に再度起動されます プールとボリュームグループが検出されていない ワークロードが検出されていない 通知が設定されていない 1. ブラウザで次の URL を入力します IPAddress は いずれかのストレージアレイコントローラのアドレスです まだ設定していないアレイで SANtricity System Manager を初めて開くと Set Administrator Password というプロンプトが表示されます ロールベースのアクセス管理では admin support security および monitor の 4 つのローカルロールが設定されます 最後の 3 つのロールには 推測されにくいランダムなパスワードが設定されています admin ロールのパスワードを設定したあと admin のクレデンシャルを使用してすべてのパスワードを変更することができます 4 つのローカルユーザロールの詳細については SANtricity System Manager オンラインヘルプ を参照してください 2. System Manager の admin ロールのパスワードを [ 管理者パスワードの設定 ] フィールドと [ パスワードの再入力 ] フィールドに入力し [ パスワードの設定 ] ボタンを選択します プール ボリュームグループ ワークロード または通知が設定されていない状態で System Manager を開くと セットアップウィザードが起動します 3. セットアップウィザードを使用して次のタスクを実行します ハードウェア ( コントローラとドライバ ) の確認 ストレージアレイ内のコントローラとドライブの数を確認します アレイに名前を割り当てます ホストとオペレーティングシステムの確認 ストレージアレイがアクセスできるホストとオペレーティングシステムのタイプを確認します プールの承認 クイックインストールで推奨されるプール構成を承認します プールはドライブの論理グループです アラートの設定 ストレージアレイで問題が発生した場合に自動通知を System Manager で受信するように設定します AutoSupport の有効化 ストレージアレイの健常性を自動的に監視し テクニカルサポートにデータを送信します

115 NVMe over RoCE のクイックセットアップ ボリュームをまだ作成していない場合は [ ストレージ ] > [ ボリューム ] > [ 作成 ] > [ ボリューム ] の順に選択してボリュームを作成します 詳細については SANtricity System Manager のオンラインヘルプを参照してください スイッチの設定 NVMe over RoCE に関するベンダーの推奨事項に従ってスイッチを設定します これには 設定の指示に加え コードの更新も含まれることがあります タスク概要 注意 : データ損失のリスク - NVMe over RoCE 環境では データ損失のリスクを排除するために スイッチで優先度フロー制御またはグローバルポーズ制御を有効にする必要があります ベストプラクティスの構成に従って イーサネットポーズフレームフロー制御をエンドツーエンドで有効にします 環境に応じた最適な構成を選択するには ネットワーク管理者に相談してください ホスト側での NVMe over RoCE の設定 InfiniBand 環境で NVMe イニシエータを設定するには rdma-core パッケージと nvme-cli パッケージをインストールして設定し イニシエータの IP アドレスを設定し ホストで NVMe-oF レイヤを設定します 1. rdma パッケージと nvme-cli パッケージをインストールします 以下は SUSE Linux Enterprise Server 12 SP3 でのです # zypper install rdma-core # zypper install nvme-cli 2. rdma サービスを開始して有効にし サービスが有効かつアクティブである ( 実行されている ) ことを確認します # systemctl start rdma # systemctl enable rdma # systemctl status rdma 注 : 依存関係が原因で rdma サービスを開始できなかったことを通知するエラーメッセージがホストに表示された場合は ホストをリブートします 3. NVMe over RoCE の接続に使用されるイーサネットポートで IPv4 の IP アドレスを設定します ネットワークインターフェイスごとに それぞれのインターフェイスに対応する変数を含む構成スクリプトを作成します こので使用する変数はサーバハードウェアとネットワーク環境によって異なります 使用する変数は IPADDR と GATEWAY です 以下は SUSE Linux Enterprise Server 12 SP3 でのの例です

116 116 構成エクスプレスガイド (Linux) 次の内容でサンプルファイル /etc/sysconfig/network/ifcfg-eth4 を作成します BOOTPROTO='static' BROADCAST= ETHTOOL_OPTIONS= IPADDR=' /24' GATEWAY=' ' MTU= NAME='MT27800 Family [ConnectX-5]' NETWORK= REMOTE_IPADDR= STARTMODE='auto' 次の内容でもう 1 つのサンプルファイル /etc/sysconfig/network/ifcfg-eth5 を作成します BOOTPROTO='static' BROADCAST= ETHTOOL_OPTIONS= IPADDR=' /24' GATEWAY=' ' MTU= NAME='MT27800 Family [ConnectX-5]' NETWORK= REMOTE_IPADDR= STARTMODE='auto' 4. ネットワークインターフェイスを有効にします # ifup eth4 # ifup eth5 5. ホストで NVMe-oF レイヤを設定します a. nvme-rdma カーネルモジュールがロードされてリブート後も常にオンになるようにするために /etc/modules-load.d/ に次のファイルを作成します # cat /etc/modules-load.d/nvme-rdma.conf nvme-rdma b. system-modules-load サービスを有効にして開始し このサービスが実行されていることを確認します # systemctl enable systemd-modules-load # systemctl start systemd-modules-load # systemctl status systemd-modules-load c. nvme-rdma モジュールがロードされていることを確認します # lsmod grep nvme nvme_rdma nvme_fabrics nvme_rdma

117 NVMe over RoCE のクイックセットアップ 117 nvme_core rdma_cm nvme_fabrics,nvme_rdma nvme_rdma,rdma_ucm ストレージアレイの NVMe over RoCE 接続の設定 コントローラに NVMe over RoCE(RDMA over Converged Ethernet) ポートが搭載されている場合は SANtricity System Manager の [ ハードウェア ] ページまたは [ システム ] ページから NVMe ポートを設定できます 開始する前に コントローラに NVMe over RoCE ホストポートが搭載されている必要があります そうでないと System Manager で NVMe over RoCE 設定を使用できません ホスト接続の IP アドレスを確認しておく必要があります タスク概要 NVMe over RoCE 設定には [ ハードウェア ] ページまたは [ 設定 ] > [ システム ] からアクセスできます このタスクでは [ ハードウェア ] ページからポートを設定する方法について説明します 注 :NVMe over RoCE の設定と機能は ストレージアレイのコントローラに NVMe over RoCE ポートが搭載されている場合にのみ表示されます 1. [ ハードウェア ] を選択します 2. NVMe over RoCE ポートを設定するコントローラをクリックします コントローラのコンテキストメニューが表示されます 3. [NVMe over RoCE ポートの設定 ] を選択します [NVMe over RoCE ポートの設定 ] ダイアログボックスが開きます 4. ドロップダウンリストで設定するポートを選択し [ 次へ ] をクリックします 5. 使用するポート設定を選択し [ 次へ ] をクリックします すべてのポート設定を表示するには ダイアログボックスの右にある [ 詳細なポート設定を表示 ] リンクをクリックします

118 118 構成エクスプレスガイド (Linux) ポート設定 設定されたイーサネットポート速度 説明 必要な速度を選択します ドロップダウンリストに表示されるオプションは ネットワークがサポートできる最大速度 (10Gbps など ) によって異なります 指定可能な値は次のとおりです 自動ネゴシエーション 10Gbps 25Gbps 40Gbps 50Gbps 100Gbps 注 :NVMe over RoCE ポートには そのポートの SFP の対応速度に合った速度を設定する必要があります すべてのポートを同じ速度に設定する必要があります IPv4 を有効にする / IPv6 を有効にする MTU サイズ ([ 詳細なポート設定を表示 ] をクリックすると表示されます ) 一方または両方のオプションを選択して IPv4 ネットワークと IPv6 ネットワークのサポートを有効にします 必要に応じて 最大伝送ユニット (MTU) の新しいサイズ ( バイト ) を入力します デフォルトの MTU サイズは 1500 バイト / フレームです 1500~9000 の値を入力する必要があります [IPv4 を有効にする ] を選択した場合は [ 次へ ] をクリックすると IPv4 設定を選択するためのダイアログボックスが開きます [IPv6 を有効にする ] を選択した場合は [ 次へ ] をクリックすると IPv6 設定を選択するためのダイアログボックスが開きます 両方のオプションを選択した場合は IPv4 設定のダイアログボックスが最初に開き [ 次へ ] をクリックすると IPv6 設定のダイアログボックスが開きます 6. IPv4 IPv6 またはその両方を 自動または手動で設定します すべてのポート設定を表示するには ダイアログボックスの右にある [ 詳細設定を表示 ] リンクをクリックします ポート設定 DHCP サーバから自動的に設定を取得 静的な設定を手動で指定 説明 設定を自動的に取得する場合は このオプションを選択します このオプションを選択した場合は フィールドに静的アドレスを入力します IPv4 の場合は ネットワークのサブネットマスクとゲートウェイも指定します IPv6 の場合は ルーティング可能な IP アドレスとルータの IP アドレスも指定します 注 : ルーティング可能な IP アドレスが 1 つしかない場合は 残りのアドレスを 0:0:0:0:0:0:0:0 に設定します

119 NVMe over RoCE のクイックセットアップ 119 ポート設定 VLAN のサポートを有効にする ([ 詳細設定を表示 ] をクリックすると表示されます ) イーサネットの優先順位を有効にする ([ 詳細設定を表示 ] をクリックすると表示されます ) 説明 重要 : このオプションは iscsi 環境でのみ使用できます NVMe over RoCE 環境では使用できません VLAN を有効にしてその ID を入力する場合は このオプションを選択します VLAN は 同じスイッチ 同じルータ またはその両方でサポートされる他の物理 LAN( ローカルエリアネットワーク ) および仮想 LAN から物理的に分離されたように動作する論理ネットワークです 重要 : このオプションは iscsi 環境でのみ使用できます NVMe over RoCE 環境では使用できません ネットワークアクセスの優先度を決定するパラメータを有効にする場合は このオプションを選択します スライダを使用して優先度を 1 から 7 の間で選択します 共有 LAN 環境 ( イーサネットなど ) では 多数のステーションがネットワークアクセスで競合する可能性があります アクセスは先に行われたものから順に処理されます 2 つのステーションが同時にネットワークにアクセスしようとすると 両方のステーションがアクセスを停止して再試行まで待機します 1 つのステーションだけがスイッチポートに接続されるスイッチイーサネットでは このプロセスが最小化されます 7. [ 終了 ] をクリックします ホストからのストレージの検出と接続 SANtricity System Manager で各ホストを定義する前に ホストからターゲットコントローラポートを検出し NVMe 接続を確立する必要があります 1. 次のコマンドを使用して すべてのパスについて NVMe-oF ターゲットの使用可能なサブシステムを検出します nvme discover -t rdma -a target_ip_address このコマンドの target_ip_address はターゲットポートの IP アドレスです 注 :nvme discover コマンドでは ホストアクセスに関係なく サブシステムのすべてのコントローラポートが検出されます # nvme discover -t rdma -a Discovery Log Number of Records 2, Generation counter 0 =====Discovery Log Entry 0====== trtype: rdma adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 0 trsvcid: 4420 subnqn: nqn com.netapp: a098000a527a ab3af94 traddr: rdma_prtype: roce rdma_qptype: connected

120 120 構成エクスプレスガイド (Linux) rdma_cms: rdma-cm rdma_pkey: 0x0000 =====Discovery Log Entry 1====== trtype: rdma adrfam: ipv4 subtype: nvme subsystem treq: not specified portid: 1 trsvcid: 4420 subnqn: nqn com.netapp: a098000a527a ab3af94 traddr: rdma_prtype: roce rdma_qptype: connected rdma_cms: rdma-cm rdma_pkey: 0x 他の接続についても 1 を繰り返します 3. 次のコマンドを使用して最初のパスで検出したサブシステムに接続します nvme connect -t rdma -ndiscovered_sub_nqn -atarget_ip_address -Q queue_depth_setting -l controller_loss_timeout_period 重要 : 検出されたポートのうち ホストからアクセスできないポートへの接続は確立されません 重要 : このコマンドにポート番号を指定すると 接続は失敗します 接続用として設定されているポートはデフォルトポートだけです 重要 : 推奨されるキューの深さは 1024 です 次の例に示すように -Q 1024 コマンドラインオプションを使用して デフォルトの設定である 128 を 1024 でオーバーライドします 重要 : コントローラ損失のタイムアウト時間として推奨される秒数は 3,600 秒 (60 分 ) です 次の例に示すように -l 3600 コマンドラインオプションを使用して デフォルトの設定である 600 秒を 3,600 秒でオーバーライドします # nvme connect -t rdma -a n nqn com.netapp: a098000a527a ab3af94 -Q l 3600 # nvme connect -t rdma -a n nqn com.netapp: a098000a527a ab3af94 -Q l を繰り返して 2 番目のパスで検出されたサブシステムを接続します ホストの定義 SANtricity System Manager を使用して ストレージアレイにデータを送信するホストを定義します ホストの定義は ストレージアレイが接続されているホストを認識して ボリュームへの I/O アクセスを許可するために必要なの 1 つです タスク概要ホストを定義する際は 次のガイドラインに注意してください ホストに関連付けられたホストポート識別子を定義する必要があります ホストに割り当てられたシステム名と同じ名前を指定します 選択した名前がすでに使用されている場合 この処理は失敗します 名前の最大文字数は30 文字です

121 NVMe over RoCE のクイックセットアップ [ ストレージ ] > [ ホスト ] を選択します 2. [ 作成 ] > [ ホスト ] をクリックします [ ホストの作成 ] ダイアログボックスが表示されます 3. ホストの設定を必要に応じて選択します フィールドの詳細 設定 名前 ホストオペレーティングシステムタイプ 説明 新しいホストの名前を入力します ドロップダウンリストから次のいずれかのオプションを選択します SANtricity 以降 Linux SANtricity 11.60より前 Linux DM-MP( カーネル3.10 以降 ) ホストインターフェイスタイプ ホストポート 使用するホストインターフェイスタイプを選択します 設定するアレイに使用可能なホストインターフェイスタイプが 1 つしかない場合は この設定を選択できないことがあります 次のいずれかを実行します I/O インターフェイスを選択するホストポートがログインしている場合は リストからホストポート識別子を選択できます この方法を使用することを推奨します 手動で追加するホストポートがログインしていない場合は ホストの /etc/nvme/hostnqn を参照して hostnqn 識別子を確認し ホスト定義に関連付けます ホストポート識別子を [ ホストポート ] フィールドに手動で入力するか /etc/nvme/hostnqn ファイルから ( 一度に 1 つずつ ) コピーして貼り付けます ホストポート識別子は一度に 1 つずつ追加してホストに関連付ける必要がありますが ホストに関連付ける識別子はいくつでも選択できます 各識別子が [ ホストポート ] フィールドに表示されます 必要に応じて 識別子の横にある [X] を選択して削除することもできます 4. [ 作成 ] をクリックします タスクの結果 ホストの作成が完了すると ホストに対して設定された各ホストポートのデフォルト名 ( ユーザラベル ) が SANtricity System Manager によって作成されます デフォルトのエイリアスは <Hostname_Port Number> です たとえば ホスト IPT に対して作成された最初のポートのデフォルトのエイリアスは IPT_1 となります

122 122 構成エクスプレスガイド (Linux) ボリュームの割り当て ボリュームを I/O 処理に使用するには ホストまたはホストクラスタにボリューム ( ネームスペース ) を割り当てる必要があります これにより ストレージアレイの 1 つ以上のネームスペースへのアクセスがホストまたはホストクラスタに許可されます タスク概要 ボリュームを割り当てる際は 次のガイドラインに注意してください ボリュームは一度に 1 つのホストまたはホストクラスタにのみ割り当てることができます 割り当てられたボリュームは ストレージアレイのコントローラ間で共有されます あるホストまたはホストクラスタからボリュームへのアクセスに 同じネームスペース ID(NSID) を重複して使用することはできません 一意の NSID を使用する必要があります 次の場合 ボリュームの割り当ては失敗します すべてのボリュームが割り当てられている ボリュームがすでに別のホストまたはホストクラスタに割り当てられている 次の場合 ボリュームを割り当てることはできません 有効なホストまたはホストクラスタが存在しない すべてのボリューム割り当てが定義済みである 未割り当てのボリュームはすべて表示されますが ホストが Data Assurance(DA) 対応かどうかで処理は次のように異なります DA 対応ホストの場合は DA 有効 DA 無効のどちらのボリュームでも選択できます DA 対応でないホストで DA が有効なボリュームを選択した場合 ボリュームをホストに割り当てる前にボリュームの DA を自動的に無効にする必要があるという警告が表示されます 1. [ ストレージ ] > [ ホスト ] を選択します 2. ボリュームを割り当てるホストまたはホストクラスタを選択して [ ボリュームの割り当て ] をクリックします ダイアログボックスに割り当て可能なすべてのボリュームのリストが表示されます 任意の列を並べ替えるか [ フィルタ ] ボックスに入力すると 特定のボリュームを簡単に検索できます 3. 割り当てる各ボリュームの横にあるチェックボックスを選択します すべてのボリュームを選択する場合は テーブルヘッダーのチェックボックスを選択します 4. [ 割り当て ] をクリックして処理を実行します タスクの結果 ホストまたはホストクラスタへのボリュームの割り当てが完了すると 次の処理が実行されます

123 NVMe over RoCE のクイックセットアップ 123 割り当てたボリュームに 次に使用可能な NSID が設定されます ホストがこの NSID を使用してボリュームにアクセスします ホストに関連付けられているボリュームの一覧にユーザが指定したボリューム名が表示されます ホストが認識できるボリュームの表示 nvme-cli パッケージに含まれている SMdevices ツールを使用して 現在ホストが認識できるボリュームを表示できます このツールは nvme list コマンドの代わりです 1. E シリーズボリュームへの各 NVMe パスに関する情報を表示するために nvme netapp smdevices [-o <format>] コマンドを使用します <format> には 出力形式として normal(-o を指定しない場合のデフォルト ) column json のいずれかを指定できます # nvme netapp smdevices /dev/nvme1n1, Array Name ICTM0706SYS04, Volume Name NVMe2, NSID 1, Volume ID bd5903df4a00a af4462, Controller A, Access State unknown, 2.15GB /dev/nvme1n2, Array Name ICTM0706SYS04, Volume Name NVMe3, NSID 2, Volume ID c05903e24000a af4462, Controller A, Access State unknown, 2.15GB /dev/nvme1n3, Array Name ICTM0706SYS04, Volume Name NVMe4, NSID 4, Volume ID 00001bb0593a46f400a af4462, Controller A, Access State unknown, 2.15GB /dev/nvme1n4, Array Name ICTM0706SYS04, Volume Name NVMe6, NSID 6, Volume ID b424b00a af4112, Controller A, Access State unknown, 2.15GB /dev/nvme2n1, Array Name ICTM0706SYS04, Volume Name NVMe2, NSID 1, Volume ID bd5903df4a00a af4462, Controller B, Access State unknown, 2.15GB /dev/nvme2n2, Array Name ICTM0706SYS04, Volume Name NVMe3, NSID 2, Volume ID c05903e24000a af4462, Controller B, Access State unknown, 2.15GB /dev/nvme2n3, Array Name ICTM0706SYS04, Volume Name NVMe4, NSID 4, Volume ID 00001bb0593a46f400a af4462, Controller B, Access State unknown, 2.15GB /dev/nvme2n4, Array Name ICTM0706SYS04, Volume Name NVMe6, NSID 6, Volume ID b424b00a af4112, Controller B, Access State unknown, 2.15GB ホストでのフェイルオーバーの設定 マルチパスソフトウェアは 物理パスの 1 つが中断された場合に備えて ストレージアレイへのパスを冗長化します マルチパスソフトウェアは ストレージへの複数のアクティブな物理パスを単一の仮想デバイスとしてオペレーティングシステムに提示します また フェイルオーバープロセスも管理して仮想デバイスを更新します Linux 環境では Device Mapper Multipath(DM-MP) ツールを使用します

124 124 構成エクスプレスガイド (Linux) ホストでフェイルオーバーを実行するための設定 SUSE Linux Enterprise Server ホストでフェイルオーバーを実行するには 設定を変更する必要があります フェイルオーバーソリューションでは DM-MP が使用されます 1. /etc/multipath.conf ファイルの devices セクションに NVMe E シリーズデバイスのエントリを次のように追加します devices { device { vendor "NVME" product "NetApp E-Series*" path_grouping_policy group_by_prio failback immediate no_path_retry 30 } } 2. multipathd がシステムブート時に起動するように設定します # systemctl enable multipathd 3. multipathd が実行されていなければ起動します # systemctl start multipathd 4. multipathd がアクティブで実行中であることをステータスで確認します # systemctl status multipathd NVMe ボリュームへのアクセス I/O は Linux ホストによって仮想デバイスターゲットに転送されます DM-MP は これらの仮想ターゲットへの物理パスを管理します I/O ターゲットは仮想デバイス 実行しているのは DM-MP で作成された仮想デバイスに対する I/O のみで 物理デバイスパスに対しては実行していないことを確認してください 物理パスに対して I/O を実行している場合 DM-MP がフェイルオーバーイベントを実行できず I/O が失敗します これらのブロックデバイスには 次の例のように dm デバイスまたは /dev/mapper の symlink を介してアクセスできます /dev/dm-1 /dev/mapper/eui.00001bc7593b7f5f00a af4462 例 nvme list コマンドの出力例を次に示します ホストのノード名と対応するネームスペース ID が表示されます NODE SN MODEL NAMESPACE

125 NVMe over RoCE のクイックセットアップ 125 /dev/nvme1n NetApp E-Series 10 /dev/nvme1n NetApp E-Series 11 /dev/nvme1n NetApp E-Series 12 /dev/nvme1n NetApp E-Series 13 /dev/nvme2n NetApp E-Series 10 /dev/nvme2n NetApp E-Series 11 /dev/nvme2n NetApp E-Series 12 /dev/nvme2n NetApp E-Series 13 列 Node 説明 ノード名は 2 つの要素で構成されます nvme1 はコントローラ A を表し nvme2 はコントローラ B を表します n1 n2( 以下同様 ) は ホスト側で認識されるネームスペース識別子です この表では これらの識別子がコントローラ A に対して 1 回 コントローラ B 対して 1 回 繰り返し出力されています Namespace Namespace 列にはネームスペース ID(NSID) が表示されます これは ストレージアレイ側で認識される識別子です 次の multipath -ll の出力では 最適化されたパスの prio の値は 50 最適化されていないパスの prio の値は 10 になっています Linux オペレーティングシステムは status=active と表示されたパスグループに I/O をルーティングし status=enabled と表示されたパスグループをフェイルオーバーに使用します eui.00001bc7593b7f500a af4462 dm-0 NVME,NetApp E-Series size=15g features='1 queue_if_no_path' hwhandler='0' wp=rw -+- policy='service-time 0' prio=50 status=active `- #:#:#:# nvme1n1 259:5 active ready running `-+- policy='service-time 0' prio=10 status=enabled `- #:#:#:# nvme2n1 259:9 active ready running eui.00001bc7593b7f5f00a af4462 dm-0 NVME,NetApp E-Series size=15g features='1 queue_if_no_path' hwhandler='0' wp=rw -+- policy='service-time 0' prio=0 status=enabled `- #:#:#:# nvme1n1 259:5 failed faulty running `-+- policy='service-time 0' prio=10 status=active `- #:#:#:# nvme2n1 259:9 active ready running 行 policy='servi ce-time 0' prio=50 status=active policy='servi ce-time 0' prio=10 status=enable d 説明 この行と次の行は NSID が 10 のネームスペース nvme1n1 が prio の値が 50 で status の値が active のパスで最適化されていることを示しています このネームスペースはコントローラ A に所有されています この行は ネームスペース 10 のフェイルオーバーパスを示しています prio の値が 10 で status の値が enabled のパスです このパスのネームスペースには この時点では I/O は転送されていません このネームスペースはコントローラ B に所有されています

126 126 構成エクスプレスガイド (Linux) 行 policy='servi ce-time 0' prio=0 status=enable d policy='servi ce-time 0' prio=10 status=active 説明 この例は 別の時点 ( コントローラ A のリブート中 ) における multipath -ll の出力を示したものです prio の値が 0 で status の値が enabled のネームスペース 10 へのパスが failed faulty running と表示されています active パスが nvme2 になっており このパスでコントローラ B に I/O が転送されています パーティションとファイルシステムの作成 マルチパスデバイスにパーティションを作成し 必要に応じてネームスペースにファイルシステムを作成し パーティションをマウントします 1. multipath -ll コマンドを実行して /dev/mapper/dm デバイスの一覧を取得します # multipath -ll 出力には dm-19 と dm-16 の 2 つのデバイスが表示されます eui.00001ffe5a94ff8500a af4444 dm-19 NVME,NetApp E-Series size=10g features='1 queue_if_no_path' hwhandler='0' wp=rw -+- policy='service-time 0' prio=50 status=active - #:#:#:# nvme0n19 259:19 active ready running `- #:#:#:# nvme1n19 259:115 active ready running `-+- policy='service-time 0' prio=10 status=enabled - #:#:#:# nvme2n19 259:51 active ready running `- #:#:#:# nvme3n19 259:83 active ready running eui.00001fd25a94fef000a af4444 dm-16 NVME,NetApp E-Series size=16g features='1 queue_if_no_path' hwhandler='0' wp=rw -+- policy='service-time 0' prio=50 status=active - #:#:#:# nvme0n16 259:16 active ready running `- #:#:#:# nvme1n16 259:112 active ready running `-+- policy='service-time 0' prio=10 status=enabled - #:#:#:# nvme2n16 259:48 active ready running `- #:#:#:# nvme3n16 259:80 active ready running 2. 各 /dev/mapper/dm デバイスのパーティションにファイルシステムを作成します ファイルシステムの作成方法は 選択したファイルシステムによって異なります この例では ext4 ファイルシステムを作成します 例 # mkfs.ext4 /dev/mapper/dm-19 mke2fs (09-Jul-2014) Creating filesystem with k blocks and inodes Filesystem UUID: 97f987e9-47b8-47f7-b434-bf3ebbe826d0 Superblock backups stored on blocks: 32768, 98304, , , , , , Allocating group tables: done Writing inode tables: done Creating journal (32768 blocks): done

127 NVMe over RoCE のクイックセットアップ 127 Writing superblocks and filesystem accounting information: done 3. 新しいパーティションをマウントするフォルダを作成します 例 # mkdir /mnt/ext4 4. パーティションをマウントします 例 # mount /dev/mapper/dm-19 /mnt/ext4 ホストでのストレージアクセスの確認 ネームスペースを使用する前に ホストがネームスペースに対してデータの読み取りと書き込みを実行できることを確認します 1. ホストで いくつかのファイルをディスクのマウントポイントにコピーします 2. コピーしたファイルを元のディスクの別のフォルダにコピーします 3. diffコマンドを実行して コピーしたファイルを元のファイルと比較します 次のタスク コピーしたファイルとフォルダを削除します Linux での NVMe over RoCE 固有の情報の記録 NVMe over RoCE ワークシートを選択して プロトコル固有のストレージ構成情報を記録します この情報は プロビジョニングタスクを実行する際に必要となります NVMe over RoCE ワークシート - Linux このワークシートを使用して NVMe over RoCE ストレージの構成情報を記録できます この情報は プロビジョニングタスクを実行する際に必要となります 直接接続トポロジ 直接接続トポロジでは 1 つ以上のホストをサブシステムに直接接続します SANtricity OS リリースでは 次の図のように 各ホストからサブシステムコントローラへの単一の接続がサポートされます この構成では 各ホストの一方の HCA( ホストチャネルアダプタ ) ポートを 接続先の E シリーズコントローラポートと同じサブネット ( ただしもう一方の HCA ポートとは別のサブネット ) に配置する必要があります

128 128 構成エクスプレスガイド (Linux) この要件を満たす例として 次の4つのネットワークサブネットを含む構成があります サブネット1: ホスト1のHCAポート1とコントローラ1のホストポート1 サブネット2: ホスト1のHCAポート2とコントローラ2のホストポート1 サブネット3: ホスト2のHCAポート1とコントローラ1のホストポート2 サブネット4: ホスト2のHCAポート2とコントローラ2のホストポート2 スイッチ接続トポロジ ファブリックトポロジでは 1 つ以上のスイッチを使用します サポートされるスイッチの一覧は NetApp Interoperability Matrix Tool を参照してください

129 NVMe over RoCE のクイックセットアップ 129 NVMe over RoCE: ホスト識別子 各ホストのイニシエータ NQN を特定して記録します ホストポート接続 ホスト ( イニシエータ )1 ソフトウェアイニシエータ NQN ホスト ( イニシエータ )2 NVMe over RoCE: ターゲット NQN ストレージアレイのターゲット NQN を記録します アレイ名 アレイコントローラ ( ターゲット ) ターゲット NQN NVMe over RoCE: ターゲット NQN アレイポートで使用する NQN を記録します アレイコントローラ ( ターゲット ) ポート接続 NQN コントローラA ポート1 コントローラB ポート1 コントローラA ポート2 コントローラB ポート2 NVMe over RoCE: マッピングホスト名注 : マッピングホスト名は設定のワークフロー中に作成されます マッピングホスト名ホストOSタイプ

130 130 NVMe over Fibre Channel のクイックセットアップ NVMe は Fibre Channel プロトコルで使用できます 1. Linux 構成のサポート状況の確認 (130 ページ ) 2. DHCP を使用した IP アドレスの設定 (131 ページ ) 3. SMcli を使用するための SANtricity Storage Manager のインストール (SANtricity ソフトウェアバージョン 以前 )(132 ページ ) 4. SANtricity System Manager へのアクセスとセットアップウィザードの使用 (133 ページ ) 5. FC スイッチの設定 (134 ページ ) 6. ホスト側での NVMe over Fibre Channel の設定 (135 ページ ) 7. ホストの定義 (136 ページ ) 8. ボリュームの割り当て (137 ページ ) 9. ホストが認識できるボリュームの表示 (138 ページ ) 10. ホストでのフェイルオーバーの設定 (139 ページ ) 11. パーティションとファイルシステムの作成 (141 ページ ) 12. ホストでのストレージアクセスの確認 (142 ページ ) 13. Linux での NVMe over Fibre Channel 固有の情報の記録 (142 ページ ) Linux 構成のサポート状況の確認 安定した稼働を確保するために 導入計画を作成し NetApp Interoperability Matrix Tool (IMT) を使用して構成全体がサポートされることを確認します 1. NetApp Interoperability Matrix Tool にアクセスします 2. [Storage Solution Search] タイルをクリックします 3. [Protocols] > [SAN Host (FAS, E-Series)] 領域で [E-Series SAN Host] の横にある [Add] ボタンをクリックします 4. [OK] をクリックします [What Works With What] セクションが表示されます このセクションでは 該当するプロトコル および構成のその他の条件 ( オペレーティングシステム NetApp OS ホストのマルチパスドライバなど ) を選択できます 構成に必要な条件を選択し 互換性のある構成要素を確認します 必要に応じて 使用するオペレーティングシステムとプロトコルに対して IMT に記載された更新を実行します NVMe over Fibre Channel の制限事項 NVMe over Fibre Channel を使用する前に コントローラ ホスト およびリカバリの制限事項を確認してください 構成の確認 使用する構成を NetApp Interoperability Matrix Tool で確認します

131 NVMe over Fibre Channel のクイックセットアップ 131 ハードウェアについて NVMe over Fibre Channel は EF600 EF570 および E5700 コントローラで設定できます コントローラにはクアッド 32GB ホストポートが必要です 制限事項 リリースには次の制限事項があります すべての要件を確認するには NetApp Interoperability Matrix Tool を参照してください コントローラの制限事項 このプロトコルは 32GB 以上の物理メモリを搭載した EF600 EF570 または E5700 コントローラでのみ使用できます 一日の開始処理でコントローラの最小メモリ要件が満たされていないことが検出されると 問題を診断するためのメッセージが表示されます シンプレックス ( 単一コントローラ ) 構成はサポートされません サポートされるホストインターフェイスカード (HIC) は クアッド 32GB Fibre Channel HIC だけです ホスト ホストプロトコル およびホストオペレーティングシステムの制限事項 ホストが SUSE Linux Enterprise Server 12 SP4 オペレーティングシステムを実行している必要があります すべての要件を確認するには NetApp Interoperability Matrix Tool を参照してください サポートされるホストチャネルアダプタの一覧については NetApp Interoperability Matrix Tool を参照してください ストレージとディザスタリカバリの制限事項 非同期ミラーリングと同期ミラーリングはサポートされません シンプロビジョニング ( シンボリュームの作成 ) はサポートされません DHCP を使用した IP アドレスの設定 クイック方式で管理ステーションとストレージアレイ間の通信を設定する場合 動的ホスト構成プロトコル (DHCP) を使用して IP アドレスを割り当てます 各ストレージアレイにはコントローラが 1 台 ( シンプレックス ) または 2 台 ( デュプレックス ) 含まれ コントローラごとにストレージ管理ポートが 2 つあります 各管理ポートには IP アドレスが割り当てられます 開始する前に ストレージ管理ポートと同じサブネットに DHCP サーバをインストールして設定しておきます タスク概要 以下のでは コントローラを 2 台搭載したストレージアレイ ( デュプレックス構成 ) を使用します 1. 管理ステーションおよび各コントローラ (A B) の管理ポート 1 にイーサネットケーブルを接続します ( まだ接続していない場合 ) DHCP サーバによって 各コントローラのポート 1 に IP アドレスが割り当てられます

132 132 構成エクスプレスガイド (Linux) 注 : どちらのコントローラの管理ポート 2 も使用しないでください ポート 2 はネットアップのテクニカルサポート用に予約されています 重要 : イーサネットケーブルを外して再接続するか ストレージアレイの電源を再投入すると DHCP によって IP アドレスが再度割り当てられます この処理は静的 IP アドレスを設定しないかぎり発生します ケーブルを外したり アレイの電源を再投入したりしないでください DHCP が割り当てた IP アドレスをストレージアレイが 30 秒以内に取得できないと 次のようにデフォルトの IP アドレスが設定されます コントローラ A ポート 1: コントローラ B ポート 1: サブネットマスク : コントローラ背面の MAC アドレスラベルを確認し ネットワーク管理者に各コントローラのポート 1 の MAC アドレスを伝えます MAC アドレスは ネットワーク管理者が各コントローラの IP アドレスを特定するために必要です ブラウザからストレージシステムに接続するには IP アドレスが必要です SMcli を使用するための SANtricity Storage Manager のインストール (SANtricity ソフトウェアバージョン 以前 ) 管理ステーションに SANtricity Storage Manager ソフトウェアをインストールすると グラフィカルユーザインターフェイス (GUI) とコマンドラインインターフェイス (CLI) がデフォルトでインストールされます 以下のでは SANtricity Storage Manager GUI を I/O ホストではなく管理ステーションにインストールすることを想定しています 開始する前に 重要 :SANtricity ソフトウェア 以降では SANtricity Secure CLI(SMcli) は SANtricity OS に含まれており SANtricity System Manager からダウンロードできます SANtricty System Manager から SMcli をダウンロードする方法の詳細については SANtricity オンラインヘルプのトピック コマンドラインインターフェイス (CLI) のダウンロード を参照してください SANtricity ソフトウェア 以前を使用している必要があります 適切な管理者権限またはスーパーユーザ権限が必要です SANtricity Storage Manager クライアントをインストールするシステムが次の最小要件を満たしていることを確認する必要があります RAM:Java Runtime Engine 用に 2GB ディスクスペース :5GB OS / アーキテクチャ : サポート対象オペレーティングシステムのバージョンとアーキテクチャを特定する方法については ネットアップサポートの [Downloads] > [Software] > [E-Series/EF-Series SANtricity Storage Manager] を参照してください タスク概要 ここでは Windows と Linux の両方の OS プラットフォームについて SANtricity Storage Manager のインストール方法を説明しています データホストに Linux を使用する場合の管理ステーションプラットフォームは Windows と Linux の両方で共通です

133 NVMe over Fibre Channel のクイックセットアップ ネットアップサポートの [Downloads] > [Software] > [E-Series/EF-Series SANtricity Storage Manager] から SANtricity ソフトウェアリリースをダウンロードします 2. SANtricity インストーラを実行します Windows SMIA*.exe インストールパッケージをダブルクリックしてインストールを開始します Linux a. SMIA*.bin インストールパッケージをダウンロードしたディレクトリに移動します b. 一時マウントポイントに実行権限がない場合は IATEMPDIR 変数を設定します 例 :IATEMPDIR=/root./SMIA- LINUXX A bin c. chmod +x SMIA*.bin コマンドを実行してファイルに実行権限を付与します d../smia*.bin コマンドを実行してインストーラを起動します 3. インストールウィザードを使用して 管理ステーションでソフトウェアをインストールします SANtricity System Manager へのアクセスとセットアップウィザードの使用 SANtricity System Manager のセットアップウィザードを使用してストレージアレイを設定します 開始する前に SANtricity System Manager へのアクセスに使用するデバイスに 次のいずれかのブラウザがインストールされていることを確認しておきます ブラウザ Google Chrome 47 Microsoft Internet Explorer 11 最小バージョン Microsoft Edge EdgeHTML 12 Mozilla Firefox 31 Safari 9 アウトオブバンド管理を使用します タスク概要 ウィザードは System Manager を開くかブラウザの表示を更新したときに 次の少なくとも 1 つに該当していれば自動的に再度起動されます プールとボリュームグループが検出されていない ワークロードが検出されていない

134 134 構成エクスプレスガイド (Linux) 通知が設定されていない 1. ブラウザで次の URL を入力します IPAddress は いずれかのストレージアレイコントローラのアドレスです まだ設定していないアレイで SANtricity System Manager を初めて開くと Set Administrator Password というプロンプトが表示されます ロールベースのアクセス管理では admin support security および monitor の 4 つのローカルロールが設定されます 最後の 3 つのロールには 推測されにくいランダムなパスワードが設定されています admin ロールのパスワードを設定したあと admin のクレデンシャルを使用してすべてのパスワードを変更することができます 4 つのローカルユーザロールの詳細については SANtricity System Manager オンラインヘルプ を参照してください 2. System Manager の admin ロールのパスワードを [ 管理者パスワードの設定 ] フィールドと [ パスワードの再入力 ] フィールドに入力し [ パスワードの設定 ] ボタンを選択します プール ボリュームグループ ワークロード または通知が設定されていない状態で System Manager を開くと セットアップウィザードが起動します 3. セットアップウィザードを使用して次のタスクを実行します ハードウェア ( コントローラとドライバ ) の確認 ストレージアレイ内のコントローラとドライブの数を確認します アレイに名前を割り当てます ホストとオペレーティングシステムの確認 ストレージアレイがアクセスできるホストとオペレーティングシステムのタイプを確認します プールの承認 - クイックインストールで推奨されるプール構成を承認します プールはドライブの論理グループです アラートの設定 ストレージアレイで問題が発生した場合に自動通知を System Manager で受信するように設定します AutoSupport の有効化 ストレージアレイの健常性を自動的に監視し テクニカルサポートにデータを送信します 4. ボリュームをまだ作成していない場合は [ ストレージ ] > [ ボリューム ] > [ 作成 ] > [ ボリューム ] の順に選択してボリュームを作成します 詳細については SANtricity System Manager のオンラインヘルプを参照してください FC スイッチの設定 Fibre Channel(FC) スイッチを設定 ( ゾーニング ) すると ホストがストレージに接続できるようになり パスの数が制限されます スイッチのゾーニングはスイッチの管理インターフェイスで設定します 開始する前に スイッチの管理者クレデンシャルが必要です HBA ユーティリティを使用して 各ホストイニシエータポートおよびスイッチに接続された各コントローラターゲットポートの WWPN を検出しておく必要があります

135 NVMe over Fibre Channel のクイックセットアップ 135 タスク概要 スイッチのゾーニングの詳細については スイッチベンダーのドキュメントを参照してください 各イニシエータポートを別々のゾーンに配置し 各イニシエータに対応するすべてのターゲットポートをそのゾーンに配置する必要があります 1. FC スイッチの管理プログラムにログインし ゾーニング設定のオプションを選択します 2. 新しいゾーンを作成し 1 つ目のホストイニシエータポート およびそのイニシエータと同じ FC スイッチに接続するすべてのターゲットポートを配置します 3. スイッチの FC ホストイニシエータごとにゾーンを作成します 4. ゾーンを保存し 新しいゾーニング設定を有効にします ホスト側での NVMe over Fibre Channel の設定 Fibre Channel 環境で NVMe イニシエータを設定するには nvme-cli パッケージをインストールして設定し ホストで NVMe / FC イニシエータを有効にします タスク概要 以下は SUSE Linux Enterprise Server 12 SP4 および Broadcom 32GB FC HBA でのです 1. nvme-cli パッケージをインストールします # zypper install nvme-cli 2. nvmefc-boot-connections サービスを有効にして開始します systemctl enable nvmefc-boot-connections.service systemctl start nvmefc-boot-connections.service 3. Ipfc_enable_fc4_type を 3 に設定して SLES12 SP4 を NVMe / FC イニシエータとして有効にします # cat /etc/modprobe.d/lpfc.conf options lpfc lpfc_enable_fc4_type=3 4. initrd を再構築して Emulex およびブートパラメータの変更を反映させます # dracut --force 5. ホストをリブートして Ipfc ドライバを再設定します # reboot ホストがリブートされ NVMe / FC イニシエータが有効になります

136 136 構成エクスプレスガイド (Linux) 注 : ホスト側の設定が完了すると NVMe over Fibre Channel ポートの設定が自動的に実行されます ホストの定義 SANtricity System Manager を使用して ストレージアレイにデータを送信するホストを定義します ホストの定義は ストレージアレイが接続されているホストを認識して ボリュームへの I/O アクセスを許可するために必要なの 1 つです タスク概要ホストを定義する際は 次のガイドラインに注意してください ホストに関連付けられたホストポート識別子を定義する必要があります ホストに割り当てられたシステム名と同じ名前を指定します 選択した名前がすでに使用されている場合 この処理は失敗します 名前の最大文字数は30 文字です 1. [ ストレージ ] > [ ホスト ] を選択します 2. [ 作成 ] > [ ホスト ] をクリックします [ ホストの作成 ] ダイアログボックスが表示されます 3. ホストの設定を必要に応じて選択します フィールドの詳細 設定 名前 ホストオペレーティングシステムタイプ 説明 新しいホストの名前を入力します ドロップダウンリストから次のいずれかのオプションを選択します SANtricity 以降 Linux SANtricity 11.60より前 Linux DM-MP( カーネル3.10 以降 ) ホストインターフェイスタイプ 使用するホストインターフェイスタイプを選択します 設定するアレイに使用可能なホストインターフェイスタイプが 1 つしかない場合は この設定を選択できないことがあります

137 NVMe over Fibre Channel のクイックセットアップ 137 設定 ホストポート 説明 次のいずれかを実行します I/O インターフェイスを選択するホストポートがログインしている場合は リストからホストポート識別子を選択できます この方法を使用することを推奨します 手動で追加するホストポートがログインしていない場合は ホストの /etc/nvme/hostnqn を参照して hostnqn 識別子を確認し ホスト定義に関連付けます ホストポート識別子を [ ホストポート ] フィールドに手動で入力するか /etc/nvme/hostnqn ファイルから ( 一度に 1 つずつ ) コピーして貼り付けます ホストポート識別子は一度に 1 つずつ追加してホストに関連付ける必要がありますが ホストに関連付ける識別子はいくつでも選択できます 各識別子が [ ホストポート ] フィールドに表示されます 必要に応じて 識別子の横にある [X] を選択して削除することもできます 4. [ 作成 ] をクリックします タスクの結果 ホストの作成が完了すると ホストに対して設定された各ホストポートのデフォルト名 ( ユーザラベル ) が SANtricity System Manager によって作成されます デフォルトのエイリアスは <Hostname_Port Number> です たとえば ホスト IPT に対して作成された最初のポートのデフォルトのエイリアスは IPT_1 となります ボリュームの割り当て ボリュームを I/O 処理に使用するには ホストまたはホストクラスタにボリューム ( ネームスペース ) を割り当てる必要があります これにより ストレージアレイの 1 つ以上のネームスペースへのアクセスがホストまたはホストクラスタに許可されます タスク概要 ボリュームを割り当てる際は 次のガイドラインに注意してください ボリュームは一度に 1 つのホストまたはホストクラスタにのみ割り当てることができます 割り当てられたボリュームは ストレージアレイのコントローラ間で共有されます あるホストまたはホストクラスタからボリュームへのアクセスに 同じネームスペース ID(NSID) を重複して使用することはできません 一意の NSID を使用する必要があります 次の場合 ボリュームの割り当ては失敗します すべてのボリュームが割り当てられている ボリュームがすでに別のホストまたはホストクラスタに割り当てられている

138 138 構成エクスプレスガイド (Linux) 次の場合 ボリュームを割り当てることはできません 有効なホストまたはホストクラスタが存在しない すべてのボリューム割り当てが定義済みである 未割り当てのボリュームはすべて表示されますが ホストが Data Assurance(DA) 対応かどうかで処理は次のように異なります DA 対応ホストの場合は DA 有効 DA 無効のどちらのボリュームでも選択できます DA 対応でないホストで DA が有効なボリュームを選択した場合 ボリュームをホストに割り当てる前にボリュームの DA を自動的に無効にする必要があるという警告が表示されます 1. [ ストレージ ] > [ ホスト ] を選択します 2. ボリュームを割り当てるホストまたはホストクラスタを選択して [ ボリュームの割り当て ] をクリックします ダイアログボックスに割り当て可能なすべてのボリュームのリストが表示されます 任意の列を並べ替えるか [ フィルタ ] ボックスに入力すると 特定のボリュームを簡単に検索できます 3. 割り当てる各ボリュームの横にあるチェックボックスを選択します すべてのボリュームを選択する場合は テーブルヘッダーのチェックボックスを選択します 4. [ 割り当て ] をクリックして処理を実行します タスクの結果 ホストまたはホストクラスタへのボリュームの割り当てが完了すると 次の処理が行われます 割り当てたボリュームに 次に使用可能な NSID が設定されます ホストがこの NSID を使用してボリュームにアクセスします ホストに関連付けられているボリュームの一覧にユーザが指定したボリューム名が表示されます ホストが認識できるボリュームの表示 nvme-cli パッケージに含まれている SMdevices ツールを使用して 現在ホストが認識できるボリュームを表示できます このツールは nvme list コマンドの代わりです 1. E シリーズボリュームへの各 NVMe パスに関する情報を表示するために nvme netapp smdevices [-o <format>] コマンドを使用します <format> には 出力形式として normal(-o を指定しない場合のデフォルト ) column json のいずれかを指定できます # nvme netapp smdevices /dev/nvme1n1, Array Name ICTM0706SYS04, Volume Name NVMe2, NSID 1, Volume ID bd5903df4a00a af4462, Controller A, Access State unknown, 2.15GB /dev/nvme1n2, Array Name ICTM0706SYS04, Volume Name NVMe3, NSID 2, Volume ID c05903e24000a af4462, Controller A, Access State unknown, 2.15GB /dev/nvme1n3, Array Name ICTM0706SYS04, Volume Name NVMe4, NSID 4,

139 NVMe over Fibre Channel のクイックセットアップ 139 Volume ID 00001bb0593a46f400a af4462, Controller A, Access State unknown, 2.15GB /dev/nvme1n4, Array Name ICTM0706SYS04, Volume Name NVMe6, NSID 6, Volume ID b424b00a af4112, Controller A, Access State unknown, 2.15GB /dev/nvme2n1, Array Name ICTM0706SYS04, Volume Name NVMe2, NSID 1, Volume ID bd5903df4a00a af4462, Controller B, Access State unknown, 2.15GB /dev/nvme2n2, Array Name ICTM0706SYS04, Volume Name NVMe3, NSID 2, Volume ID c05903e24000a af4462, Controller B, Access State unknown, 2.15GB /dev/nvme2n3, Array Name ICTM0706SYS04, Volume Name NVMe4, NSID 4, Volume ID 00001bb0593a46f400a af4462, Controller B, Access State unknown, 2.15GB /dev/nvme2n4, Array Name ICTM0706SYS04, Volume Name NVMe6, NSID 6, Volume ID b424b00a af4112, Controller B, Access State unknown, 2.15GB ホストでのフェイルオーバーの設定 マルチパスソフトウェアは 物理パスの 1 つが中断された場合に備えて ストレージアレイへのパスを冗長化します マルチパスソフトウェアは ストレージへの複数のアクティブな物理パスを単一の仮想デバイスとしてオペレーティングシステムに提示します また フェイルオーバープロセスも管理して仮想デバイスを更新します Linux 環境では Device Mapper Multipath(DM-MP) ツールを使用します ホストでフェイルオーバーを実行するための設定 SUSE Linux Enterprise Server ホストでフェイルオーバーを実行するには 設定を変更する必要があります フェイルオーバーソリューションでは DM-MP が使用されます 1. /etc/multipath.conf ファイルの devices セクションに NVMe E シリーズデバイスのエントリを次のように追加します devices { device { vendor "NVME" product "NetApp E-Series*" path_grouping_policy group_by_prio failback immediate no_path_retry 30 } } 2. multipathd がシステムブート時に起動するように設定します # systemctl enable multipathd 3. multipathd が実行されていなければ起動します # systemctl start multipathd 4. multipathd がアクティブで実行中であることをステータスで確認します # systemctl status multipathd

140 140 構成エクスプレスガイド (Linux) NVMe ボリュームへのアクセス I/O は Linux ホストによって仮想デバイスターゲットに転送されます DM-MP は これらの仮想ターゲットへの物理パスを管理します I/O ターゲットは仮想デバイス 実行しているのは DM-MP で作成された仮想デバイスに対する I/O のみで 物理デバイスパスに対しては実行していないことを確認してください 物理パスに対して I/O を実行している場合 DM-MP がフェイルオーバーイベントを実行できず I/O が失敗します 物理 I/O を実行するには DM-MP で物理パスの管理用に作成された仮想デバイスがターゲットであることを確認してください これらのブロックデバイスには 次の例のように dm デバイスまたは /dev/mapper の symlink を介してアクセスできます /dev/dm-1 /dev/mapper/eui.00001bc7593b7f5f00a af4462 例 nvme list コマンドの出力例を次に示します ホストのノード名と対応するネームスペース ID が表示されます NODE SN MODEL NAMESPACE /dev/nvme1n NetApp E-Series 10 /dev/nvme1n NetApp E-Series 11 /dev/nvme1n NetApp E-Series 12 /dev/nvme1n NetApp E-Series 13 /dev/nvme2n NetApp E-Series 10 /dev/nvme2n NetApp E-Series 11 /dev/nvme2n NetApp E-Series 12 /dev/nvme2n NetApp E-Series 13 列 Node 説明 ノード名は 2 つの要素で構成されます nvme1 はコントローラ A を表し nvme2 はコントローラ B を表します n1 n2( 以下同様 ) は ホスト側で認識されるネームスペース識別子です この表では これらの識別子がコントローラ A に対して 1 回 コントローラ B 対して 1 回 繰り返し出力されています Namespace Namespace 列にはネームスペース ID(NSID) が表示されます これは ストレージアレイ側で認識される識別子です 次の multipath -ll の出力では 最適化されたパスの prio の値は 50 最適化されていないパスの prio の値は 10 になっています Linux オペレーティングシステムは status=active と表示されたパスグループに I/O をルーティングし status=enabled と表示されたパスグループをフェイルオーバーに使用します eui.00001bc7593b7f500a af4462 dm-0 NVME,NetApp E-Series size=15g features='1 queue_if_no_path' hwhandler='0' wp=rw -+- policy='service-time 0' prio=50 status=active `- #:#:#:# nvme1n1 259:5 active ready running

141 NVMe over Fibre Channel のクイックセットアップ 141 `-+- policy='service-time 0' prio=10 status=enabled `- #:#:#:# nvme2n1 259:9 active ready running eui.00001bc7593b7f5f00a af4462 dm-0 NVME,NetApp E-Series size=15g features='1 queue_if_no_path' hwhandler='0' wp=rw -+- policy='service-time 0' prio=0 status=enabled `- #:#:#:# nvme1n1 259:5 failed faulty running `-+- policy='service-time 0' prio=10 status=active `- #:#:#:# nvme2n1 259:9 active ready running 行 policy='servi ce-time 0' prio=50 status=active policy='servi ce-time 0' prio=10 status=enable d policy='servi ce-time 0' prio=0 status=enable d policy='servi ce-time 0' prio=10 status=active 説明 この行と次の行は NSID が 10 のネームスペース nvme1n1 が prio の値が 50 で status の値が active のパスで最適化されていることを示しています このネームスペースはコントローラ A に所有されています この行は ネームスペース 10 のフェイルオーバーパスを示しています prio の値が 10 で status の値が enabled のパスです このパスのネームスペースには この時点では I/O は転送されていません このネームスペースはコントローラ B に所有されています この例は 別の時点 ( コントローラ A のリブート中 ) における multipath -ll の出力を示したものです prio の値が 0 で status の値が enabled のネームスペース 10 へのパスが failed faulty running と表示されています active パスが nvme2 になっており このパスでコントローラ B に I/O が転送されています パーティションとファイルシステムの作成 マルチパスデバイスにパーティションを作成し 必要に応じてネームスペースにファイルシステムを作成し パーティションをマウントします 1. multipath -ll コマンドを実行して /dev/mapper/dm デバイスの一覧を取得します # multipath -ll 出力には dm-19 と dm-16 の 2 つのデバイスが表示されます eui.00001ffe5a94ff8500a af4444 dm-19 NVME,NetApp E-Series size=10g features='1 queue_if_no_path' hwhandler='0' wp=rw -+- policy='service-time 0' prio=50 status=active - #:#:#:# nvme0n19 259:19 active ready running `- #:#:#:# nvme1n19 259:115 active ready running `-+- policy='service-time 0' prio=10 status=enabled - #:#:#:# nvme2n19 259:51 active ready running `- #:#:#:# nvme3n19 259:83 active ready running eui.00001fd25a94fef000a af4444 dm-16 NVME,NetApp E-Series size=16g features='1 queue_if_no_path' hwhandler='0' wp=rw -+- policy='service-time 0' prio=50 status=active - #:#:#:# nvme0n16 259:16 active ready running `- #:#:#:# nvme1n16 259:112 active ready running

142 142 構成エクスプレスガイド (Linux) `-+- policy='service-time 0' prio=10 status=enabled - #:#:#:# nvme2n16 259:48 active ready running `- #:#:#:# nvme3n16 259:80 active ready running 2. 各 /dev/mapper/dm デバイスのパーティションにファイルシステムを作成します ファイルシステムの作成方法は 選択したファイルシステムによって異なります この例では ext4 ファイルシステムを作成します 例 # mkfs.ext4 /dev/mapper/dm-19 mke2fs (09-Jul-2014) Creating filesystem with k blocks and inodes Filesystem UUID: 97f987e9-47b8-47f7-b434-bf3ebbe826d0 Superblock backups stored on blocks: 32768, 98304, , , , , , Allocating group tables: done Writing inode tables: done Creating journal (32768 blocks): done Writing superblocks and filesystem accounting information: done 3. 新しいパーティションをマウントするフォルダを作成します 例 # mkdir /mnt/ext4 4. パーティションをマウントします 例 # mount /dev/mapper/dm-19 /mnt/ext4 ホストでのストレージアクセスの確認 ネームスペースを使用する前に ホストがネームスペースに対してデータの読み取りと書き込みを実行できることを確認します 1. ホストで いくつかのファイルをディスクのマウントポイントにコピーします 2. コピーしたファイルを元のディスクの別のフォルダにコピーします 3. diffコマンドを実行して コピーしたファイルを元のファイルと比較します 次のタスク コピーしたファイルとフォルダを削除します Linux での NVMe over Fibre Channel 固有の情報の記録 NVMe over Fibre Channel ワークシートを選択して プロトコル固有のストレージ構成情報を記録します この情報は プロビジョニングタスクを実行する際に必要となります

143 NVMe over Fibre Channel のクイックセットアップ 143 NVMe over Fibre Channel ワークシート - Linux このワークシートを使用して NVMe over Fibre Channel ストレージの構成情報を記録できます この情報は プロビジョニングタスクを実行する際に必要となります 直接接続トポロジ 直接接続トポロジでは 1 つ以上のホストをコントローラに直接接続します ホスト1のHBAポート1とコントローラAのホストポート1 ホスト1のHBAポート2とコントローラBのホストポート1 ホスト2のHBAポート1とコントローラAのホストポート2 ホスト2のHBAポート2とコントローラBのホストポート2 ホスト3のHBAポート1とコントローラAのホストポート3 ホスト3のHBAポート2とコントローラBのホストポート3 ホスト4のHBAポート1とコントローラAのホストポート4 ホスト4のHBAポート2とコントローラBのホストポート4 スイッチ接続トポロジ ファブリックトポロジでは 1 つ以上のスイッチを使用します サポートされるスイッチの一覧は NetApp Interoperability Matrix Tool を参照してください NVMe over Fibre Channel: ホスト識別子 各ホストのイニシエータ NQN を特定して記録します

Linux のインストール

Linux のインストール CHAPTER 1 この章では 次の 2 つの手順について説明します 内蔵ドライブへのインストール (P.1-1) SAN ブートインストール (P.1-8) PXE ネットワーク環境を使用した (P.1-15) 内蔵ドライブへのインストール ここでは Red Hat Enterprise Linux(RHEL) または SUSE Linux Enterprise Server(SLES) を 内蔵ドライブにインストールする方法について説明します

More information

Linux のインストール

Linux のインストール この章は 次の項で構成されています 内部ドライブへの, 1 ページ ブート可能 SAN LUN への, 3 ページ PXE ネットワーク環境を使用した, 4 ページ 内部ドライブへの この手順では CIMC GUI と KVM コンソールを使用して Red Hat Enterprise Linux RHEL また は SUSE Linux Enterprise Server SLES を 内蔵ドライブにインストールする方法について説明

More information

UCS M シリーズ サーバでの Redhat/CentOS オペレーティング システムのインストール

UCS M シリーズ サーバでの Redhat/CentOS オペレーティング システムのインストール UCS M シリーズサーバでの Redhat/CentOS オペレーティングシステムのインストール 目次 概要前提条件要件使用するコンポーネント背景説明必須のドライバ ISO バンドルのダウンロード RHEL 7.0 または CentOS 7.0 のインストール手順確認 RHEL 6.5 または CentOS 6.5 のインストール手順確認インストール後の確認関連情報 概要 このドキュメントでは ローカルストレージを使用して

More information

Linux のインストール(Red Hat および SUSE)

Linux のインストール(Red Hat および  SUSE) CHAPTER 1 Linux のインストール (Red Hat および SUSE) この章では 次の 3 つの手順について説明します 内蔵ドライブへのインストール (P.1-1) SAN ブートインストール (P.1-7) PXE ネットワーク環境を使用した Linux のインストール (P.1-13) 内蔵ドライブへのインストール ここでは Red Hat Enterprise Linux(RHEL)

More information

Linux のインストール

Linux のインストール Linux のインストール この章の内容は 次のとおりです 内蔵ドライブへの Linux のインストール, 1 ページ ブート可能 SAN LUN への Linux のインストール, 3 ページ PXE ネットワーク環境を使用した Linux のインストール, 5 ページ 内蔵ドライブへの Linux のインストール この手順では CIMC GUI と KVM コンソールを使用して Red Hat

More information

付録

付録 Cisco HyperFlex ノードの設置 1 ページ Cisco UCS ファブリック インターコネクトのセット アップ 2 ページ WinSCP を使用してインストーラ VM に iso と img ファイルをアップロードするには 6 ページ DNS レコード 9 ページ HX サービス アカウント パスワードの更新 9 ページ Cisco HyperFlex ノードの設置 HyperFlex

More information

FUJITSU Storage ETERNUS DX 構築ガイド(サーバ接続編) SAS/Linux用

FUJITSU Storage ETERNUS DX 構築ガイド(サーバ接続編) SAS/Linux用 FUJITSU Storage ETERNUS DX 構築ガイド ( サーバ接続編 ) SAS/Linux 用 このページは 空白です はじめに 本書は ETERNUS DX を Linux が動作するサーバに SAS 接続して使用するために必要な作業について説明しています ETERNUS DX サーバ OS SAS カード およびドライバソフトウェアの説明書と併せてご使用ください なお 本書に記載している製品の商標

More information

音声認識サーバのインストールと設定

音声認識サーバのインストールと設定 APPENDIX C 次のタスクリストを使用して 音声認識ソフトウェアを別の音声認識サーバにインストールし 設定します このタスクは Cisco Unity インストレーションガイド に記載されている詳細な手順を参照します ドキュメントに従って 正しくインストールを完了してください この付録の内容は Cisco Unity ライセンスに音声認識が含まれていること および新しい Cisco Unity

More information

FUJITSU Storage ETERNUS DX 構築ガイド(サーバ接続編) SAS/ ETERNUS DX60 S4/DX100 S4/DX200 S4, ETERNUS DX60 S3/DX100 S3/DX200 S3 ハイブリッドストレージシステム 設定用

FUJITSU Storage ETERNUS DX 構築ガイド(サーバ接続編) SAS/ ETERNUS DX60 S4/DX100 S4/DX200 S4, ETERNUS DX60 S3/DX100 S3/DX200 S3 ハイブリッドストレージシステム 設定用 FUJITSU Storage ETERNUS DX 構築ガイド ( サーバ接続編 ) SAS/ ETERNUS DX60 S4/DX100 S4/DX200 S4, ETERNUS DX60 S3/DX100 S3/DX200 S3 ハイブリッドストレージシステム設定用 このページは 空白です はじめに 本書は ETERNUS DX を 各 OS (Solaris OS, Windows, Linux,

More information

VMware vSphere ESXi のインストール

VMware vSphere ESXi のインストール VMware vsphere ESXi のインストール この章の内容は 次のとおりです 内部ドライブへの VMware vsphere ESXi のインストール, 1 ページ ブート可能 SAN LUN への VMware vsphere ESXi のインストール, 3 ページ iscsi ブートドライブへの VMware vsphere ESXi のインストール, 5 ページ 内部ドライブへの VMware

More information

Windows Server 2012 および Windows Server 2008 のインストール

Windows Server 2012 および Windows Server 2008 のインストール Windows Server 2012 および Windows Server 2008 のインストール この章は 次の内容で構成されています 内部ドライブへの Windows Server 2012 または Windows Server 2008 のインストール, 1 ペー ジ ブート可能 SAN LUN への Windows Server 2012 または Windows Server 2008

More information

PC にソフトをインストールすることによって OpenVPN でセキュア SAMBA へ接続することができます 注意 OpenVPN 接続は仮想 IP を使用します ローカル環境にて IP 設定が被らない事をご確認下さい 万が一仮想 IP とローカル環境 IP が被るとローカル環境内接続が行えなくな

PC にソフトをインストールすることによって OpenVPN でセキュア SAMBA へ接続することができます 注意 OpenVPN 接続は仮想 IP を使用します ローカル環境にて IP 設定が被らない事をご確認下さい 万が一仮想 IP とローカル環境 IP が被るとローカル環境内接続が行えなくな 操作ガイド Ver.2.3 目次 1. インストール... - 2-2. SAMBA Remote 利用... - 9-2.1. 接続確認... - 9-2.2. 自動接続... - 11-2.3. 編集... - 13-2.4. インポート... - 16-2.5. 削除... - 18-2.6. 参考資料 ( 接続状況が不安定な場合の対処方法について )... - 19-2.6.1. サービスの再起動...

More information

次 はじめに ブラウザーサポート デフォルトのIPアドレスについて

次 はじめに ブラウザーサポート デフォルトのIPアドレスについて ユーザーマニュアル 次 はじめに............................................... 3 ブラウザーサポート........................................ 3 デフォルトのIPアドレスについて............................. 4 AXIS IP Utility..............................................

More information

Windows Server 2003 のインストール

Windows Server 2003 のインストール CHAPTER 1 この章では 次の 2 つの手順について説明します 内蔵ドライブへのインストール (P.1-1) (P.1-10) 内蔵ドライブへのインストール ここでは Service Pack 2(SP2)x86 または x64 が適用された Windows Server 2003 を 仮想メディア機能を使用して内蔵ドライブにインストールする方法について説明します ( 注 ) このサーバでサポートされるオペレーティングシステムのバージョンは

More information

Veritas System Recovery 16 Management Solution Readme

Veritas System Recovery 16 Management Solution Readme Veritas System Recovery 16 Management Solution Readme この README について Veritas System Recovery 16 のソフトウェア配信ポリシーのシステム要件 Veritas System Recovery 16 Management Solution のシステム要件 Veritas System Recovery 16 Management

More information

インストールのチェックリストと前提条件

インストールのチェックリストと前提条件 この章は 次の項で構成されています インストールの概要のチェックリスト, 1 ページ インストールの前提条件のチェックリスト, 2 ページ インストール ISO イメージのマウント, 3 ページ KVM コンソールによるサーバ ブート順の設定, 4 ページ Windows Server 2012 の要件, 5 ページ インストールの概要のチェックリスト C シリーズ ラックマウント サーバにオペレーティング

More information

AcronisUniversalRestore_userguide_en-US

AcronisUniversalRestore_userguide_en-US Acronis Universal Restore ユーザーガイド 目次 1 Acronis Universal Restore について...3 2 Acronis Universal Restore のインストール...3 3 ブータブルメディアの作成...3 4 Acronis Universal Restore の使用...4 4.1 Windows における Universal Restore...

More information

Microsoft Word - クライアントのインストールと接続設定

Microsoft Word - クライアントのインストールと接続設定 FirstClass 12.1 日本語版 クライアントのインストールと設定方法 クライアントの動作環境 FirstClass 12.1 日本語版クライアントの動作環境 (Windows) Microsoft Windows 10 シリーズ Microsoft Windows 8.1 シリーズ Microsoft Windows 8 シリーズ OS Microsoft Windows 7 シリーズ Microsoft

More information

VNX ファイル ストレージの管理

VNX ファイル ストレージの管理 VNX ファイル ストレージの管理 この章は 次の内容で構成されています VNX ファイル ストレージの管理, 1 ページ 手順の概要, 2 ページ CIFS の使用, 3 ページ NFS エクスポートの使用, 8 ページ VNX ファイル ストレージの管理 VNX ファイル および VNX Unified アカウントでは Common Internet File System CIFS また は

More information

Microsoft Word - nvsi_090203_r1_sanboot_vaultdr.doc

Microsoft Word - nvsi_090203_r1_sanboot_vaultdr.doc Article ID: NVSI-090203JP_R1 Created: 2009/11/26 Revised: 2010/07/09 IBM BladeCenter H/HS22 と IBM DS4300 の SAN Boot 構成での VaultDR Offline 動作検証 1. 概要 NetVault Backup(NVB) の VaultDR Offline オプションは OS のバックアップを実現します

More information

UCS ミニの概要

UCS ミニの概要 UCS ミニの概要 目次 概要前提条件要件設定サポートされている機能サポートされない機能 : 新機能 : ユニファイドポート (4*10G ポート ) の設定 FI 切り替え a. 有効な切り替え b. 無効な切り替えサポートされるトポロジ a. IP ベースの接続 b. ダイレクトアタッチトストレージ USB サポート HTML5 ユーザインターフェイス Cisco サポートコミュニティ - 特集対話

More information

VNX ファイル ストレージの管理

VNX ファイル ストレージの管理 VNX ファイル ストレージの管理 この章は 次の項で構成されています VNX ファイル ストレージ管理について, 1 ページ 手順の概要, 2 ページ CIFS の使用, 3 ページ NFS エクスポートの使用, 8 ページ VNX ファイル ストレージ管理について VNX ファイル および VNX Unified アカウントでは Common Internet File System CIFS

More information

SAMBA Stunnel(Windows) 編 1. インストール 1 セキュア SAMBA の URL にアクセスし ログインを行います xxx 部分は会社様によって異なります xxxxx 2 Windows 版ダウンロード ボ

SAMBA Stunnel(Windows) 編 1. インストール 1 セキュア SAMBA の URL にアクセスし ログインを行います   xxx 部分は会社様によって異なります xxxxx 2 Windows 版ダウンロード ボ 操作ガイド Ver.2.3 目次 1. インストール... - 2-2. SAMBA Stunnel 利用... - 8-2.1. 接続確認... - 8-2.2. 編集... - 11-2.3. インポート... - 14-2.4. 削除... - 15-2.5 フォルダショートカットの作成... - 16-3. 動作環境... - 18-4. 参考資料 ( 接続状況が不安定な場合の対処方法について

More information

Linux ドライバのインストール

Linux ドライバのインストール の前提条件 1 ページ OS インストール中の 1 ページ SAN ストレージおよび fnic ドライバ への Linux のインストール 2 ページ RPM を使用した 3 ページ ソース Tarball を使用した 4 ページ の前提条件 ドライバのインストールに関する次のベスト プラクティスに従っていることを確認してくださ い ドライバをアップグレードする前に 次の順序でインフラストラクチャをインストールま

More information

Veritas System Recovery 16 Management Solution Readme

Veritas System Recovery 16 Management Solution Readme Veritas System Recovery 16 Management Solution Readme この README について Veritas System Recovery 16 のソフトウェア配信ポリシーのシステム要件 Veritas System Recovery 16 Management Solution のシステム要件 Veritas System Recovery 16 Management

More information

Phaser 6250 カラーレーザープリンタ リファレンスガイド

Phaser 6250 カラーレーザープリンタ リファレンスガイド ここでは次の項目について説明します 動作要件 (3-36 ページ ) EtherTalk の使用可能設定と使用 (3-36 ページ ) TCP/IP の使用可能設定と使用 (3-37 ページ ) Mac OS 9.x のクィックインストール手順 (3-37 ページ ) Mac OS X バージョン10.1 のクィックインストール手順 (3-40 ページ ) Mac OS X バージョン10.2 のクィックインストール手順

More information

Acronis Backup 12.5 Advanced NetAppスナップショット連携

Acronis Backup 12.5 Advanced NetAppスナップショット連携 Acronis Backup 12.5 Advanced NetApp スナップショット連携 NetApp スナップショット連携 バックアップ導入手順書 アクロニス ジャパン株式会社 内容 1. はじめに... 1 1.1. 作業準備... 2 1.2. 作業の流れ... 4 2. NetApp ONTAP 事前設定... 5 3. Agent for VMware (Windows) の事前設定...

More information

LSI MegaRAID SAS Device Driver Installation Guide - 日本語

LSI MegaRAID SAS Device Driver Installation Guide - 日本語 User Guide - 日本語 LSI MegaRAID SAS Device Driver Installation 2014 年 5 月 富士通株式会社 著作権および商標 Copyright 2014 FUJITSU LIMITED 使用されているハードウェア名とソフトウェア名は 各メーカーの商標です このドキュメントには LSI Corporation が所有する情報が含まれています LSI

More information

ログインおよび設定

ログインおよび設定 この章は 次の項で構成されています の概要, 1 ページ admin パスワードのリセット, 3 ページ パスワードと共有秘密のガイドライン, 3 ページ 共有秘密のリセット, 4 ページ の概要 Cisco UCS Central GUI および Cisco UCS Central CLI の両方を使用して Cisco UCS Central にログ インできます 両方のインターフェイスを使用すると

More information

Storage Center OS バージョン 7 ソフトウェアアップデートガイド

Storage Center OS バージョン 7 ソフトウェアアップデートガイド Storage Center OS バージョン 7 ソフトウェアアップデートガイド メモ 注意 警告 メモ : 製品を使いやすくするための重要な情報を説明しています 注意 : ハードウェアの損傷やデータの損失の可能性を示し その問題を回避するための方法を説明しています 警告 : 物的損害 けが または死亡の原因となる可能性があることを示しています 著作権 2018 すべての著作権は Dell Inc.

More information

改版履歴 Ver. 日付履歴 1.0 版 2014/5/30 目次 0 はじめに 本文中の記号について Windows Server Failover Cluster をインストールするための準備 Windows Server Failover

改版履歴 Ver. 日付履歴 1.0 版 2014/5/30 目次 0 はじめに 本文中の記号について Windows Server Failover Cluster をインストールするための準備 Windows Server Failover NX7700x シリーズ Windows Server 2008 R2 Enterprise/ Windows Server 2008 R2 Datacenter Windows Server Failover Cluster インストール手順書 1.0 版 2014/5/30 Microsoft Windows Windows Server は 米国 Microsoft Corporation の米国およびその他の国における登録商標または商標です

More information

FUJITSU Storage ETERNUS DX, ETERNUS AF 構築ガイド(サーバ接続編) ファイバチャネル/FCoE/iSCSI/SAS/Linux用

FUJITSU Storage ETERNUS DX, ETERNUS AF 構築ガイド(サーバ接続編) ファイバチャネル/FCoE/iSCSI/SAS/Linux用 FUJITSU Storage ETERNUS DX, ETERNUS AF 構築ガイド ( サーバ接続編 ) ファイバチャネル /FCoE/iSCSI/SAS/Linux 用 device-mapper multipath 設定 このページは 空白です はじめに 本書は ETERNUS DX/AF ETERNUS VX710/VX740 仮想化環境向けストレージを Linux または Oracle

More information

Microsoft Word - nvsi_090196_r1_vaultdr_offline_rhel_dualpath.doc

Microsoft Word - nvsi_090196_r1_vaultdr_offline_rhel_dualpath.doc Article ID: NVSI-090196JP_R1 Created: 2009/08/17 Revised: 2010/07/9 Multipath 構成の RHEL5.3 での VaultDR Offline 追加復旧手順 1. 概要 Multipath 構成の Red Hat Enterprise Linux 5.3 は OS 内部に LUN 固有の ID を含んでいる場合があります その場合

More information

VMware vSphere ESX のインストール

VMware vSphere ESX のインストール CHAPTER 1 この章では 2 つの手順について説明します 内部ドライブへのインストール (P.1-1) (P.1-10) 内部ドライブへのインストール ここでは 仮想メディア機能を使用して VMware vsphere ESX 4.0 と必須のドライバを内部ドライブにインストールする方法について説明します ここでは 2 つのトピックについて説明します 前提条件 (P.1-1) インストール手順

More information

SAMBA Stunnel(Mac) 編 1. インストール 1 セキュア SAMBA の URL にアクセスし ログインを行います xxxxx 部分は会社様によって異なります xxxxx 2 Mac OS 版ダウンロー

SAMBA Stunnel(Mac) 編 1. インストール 1 セキュア SAMBA の URL にアクセスし ログインを行います   xxxxx 部分は会社様によって異なります xxxxx 2 Mac OS 版ダウンロー 操作ガイド Ver.2.3 目次 1. インストール... - 2-2. SAMBA Stunnel 利用... - 5-2.1. 接続確認... - 5-2.2. 編集... - 9-2.3. インポート... - 12-2.4. 削除... - 14-3. 動作環境... - 15-4. 参考資料 ( 接続状況が不安定な場合の対処方法について )... - 16-4.1. サービスの再起動...

More information

SAMBA Remote(Mac) 編 PC にソフトをインストールすることによって OpenVPN でセキュア SAMBA へ接続することができます 注意 OpenVPN 接続は仮想 IP を使用します ローカル環境にて IP 設定が被らない事をご確認下さい 万が一仮想 IP とローカル環境 IP

SAMBA Remote(Mac) 編 PC にソフトをインストールすることによって OpenVPN でセキュア SAMBA へ接続することができます 注意 OpenVPN 接続は仮想 IP を使用します ローカル環境にて IP 設定が被らない事をご確認下さい 万が一仮想 IP とローカル環境 IP 操作ガイド Ver.2.3 目次 1. インストール... - 2-2. SAMBA Remote 利用... - 5-2.1. 接続確認... - 5-2.2. 自動接続... - 10-2.3. 編集... - 12-2.4. インポート... - 15-2.5. 削除... - 17-2.6. 参考資料 ( 接続状況が不安定な場合の対処方法について )... - 18-2.6.1. サービスの再起動...

More information

Oracle Enterprise Managerシステム監視プラグイン・インストレーション・ガイドfor Juniper Networks NetScreen Firewall, 10gリリース2(10.2)

Oracle Enterprise Managerシステム監視プラグイン・インストレーション・ガイドfor Juniper Networks NetScreen Firewall, 10gリリース2(10.2) Oracle Enterprise Manager システム監視プラグイン インストレーション ガイド for Juniper Networks NetScreen Firewall 10g リリース 2(10.2) 部品番号 : B28468-01 原典情報 : B28041-01 Oracle Enterprise Manager System Monitoring Plug-in Installation

More information

オペレーティング システムのインストール

オペレーティング システムのインストール オペレーティング システムのインストール この章の内容は 次のとおりです オペレーティング システムのインストールについて, 1 ページ 高速インストールの実行, 2 ページ Windows のカスタム インストールの実行, 5 ページ Linux サーバ シリーズ オペレーティング システムのカスタム インストールの実行, 10 ペー ジ SUSE Linux サーバ オペレーティング システムのカスタム

More information

GenieATM 6300-T / 6200-T シリーズ 1. 基本的な機器オペレーションのために 1-1. 機器への接続 機器への接続方法は 以下の 2 通りがあります シリアルポートを使用してログインする LAN 経由で Telnet または SSH を使用して仮想 Interface からロ

GenieATM 6300-T / 6200-T シリーズ 1. 基本的な機器オペレーションのために 1-1. 機器への接続 機器への接続方法は 以下の 2 通りがあります シリアルポートを使用してログインする LAN 経由で Telnet または SSH を使用して仮想 Interface からロ 1. 基本的な機器オペレーションのために 1-1. 機器への接続 機器への接続方法は 以下の 2 通りがあります シリアルポートを使用してログインする LAN 経由で Telnet または SSH を使用して仮想 Interface からログインする 工場出荷時は装置の IP アドレスが設定されていないので Telnet, SSH ではログインできません この資料では シリアルポートを使用する場合の方法を説明します

More information

Cisco Unified Communications Manager サーバ アドレスとユーザ名の自動的な入力

Cisco Unified Communications Manager   サーバ アドレスとユーザ名の自動的な入力 CHAPTER 3 Cisco Unified Communications Manager サーバアドレスとユーザ名の自動的な入力 配布オプション (P.3-1) レジストリの値の名前の場所 (P.3-2) Click to Call のレジストリの値の名前 (P.3-2) レジストリキープッシュを使用したサーバアドレスの配布 (P.3-5) Microsoft Active Directory

More information

ソフトウェアインストールガイド v

ソフトウェアインストールガイド v PRIMEQUEST 3000 シリーズ Cavium 製 16Gbps/32Gbps ファイバーチャネルカード ソフトウェアインストールガイド v9.2.9.20 Windows ドライバ QCC FC QLogic Converge Console GUI QLogic Converge Console CLI : v9.2.9.20 : v5.4.0.81 : v2.2.00.08 i 製品の呼び方

More information

改訂日 : 2009 年 3 月 OL Cisco Phone Control and Presence プラグインのインストール プラグインが自動的にインストールされない場合は ここに示すでプラグインを直接インストールします Cisco Phone Control and P

改訂日 : 2009 年 3 月 OL Cisco Phone Control and Presence プラグインのインストール プラグインが自動的にインストールされない場合は ここに示すでプラグインを直接インストールします Cisco Phone Control and P クイックスタートガイド Cisco Phone Control and Presence 7.1 with IBM Lotus Sametime のインストールと使用 1 Cisco Phone Control and Presence プラグインのインストール 2 プラグインの設定方法 3 プラグインの使用方法 4 プラグインのアンインストール 5 関連ドキュメントの入手先 改訂日 : 2009

More information

提案書

提案書 アクセスログ解析ソフト Angelfish インストールについて Windows 版 2018 年 05 月 07 日 ( 月 ) 有限会社インターログ TEL: 042-354-9620 / FAX: 042-354-9621 URL: http://www.interlog.co.jp/ はじめに Angelfish のインストールに手順について説明致します 詳細は US のヘルプサイトを参照してください

More information

FUJITSU Storage ETERNUS DX 構築ガイド(サーバ接続編) FCoE/Windows®用

FUJITSU Storage ETERNUS DX 構築ガイド(サーバ接続編) FCoE/Windows®用 FUJITSU Storage ETERNUS DX 構築ガイド ( サーバ接続編 ) FCoE/Windows 用 このページは 空白です はじめに 本書は ETERNUS DX を Windows が動作するサーバに FCoE 接続して使用するために必要な作業について説明しています ETERNUS DX サーバ OS コンバージド ネットワーク アダプターカード およびドライバソフトウェアの説明書と併せてご使用ください

More information

Microsoft Word - nvsi_100222jp_oracle_exadata.doc

Microsoft Word - nvsi_100222jp_oracle_exadata.doc Article ID: NVSI-100222JP Created: 2010/10/22 Revised: -- Oracle Exadata v2 バックアップ動作検証 1. 検証目的 Oracle Exadata Version 2 上で稼動する Oracle Database11g R2 Real Application Clusters( 以下 Oracle11g R2 RAC) 環境において

More information

使用する前に

使用する前に この章では Cisco Secure ACS リリース 5.5 以降から Cisco ISE リリース 2.4 システムへのデー タ移行に使用される Cisco Secure ACS to Cisco ISE Migration Tool について説明します 移行の概要 1 ページ Cisco Secure ACS から データ移行 1 ページ Cisco Secure ACS to Cisco ISE

More information

vsphere (RDM) No Multi Path (DMMP) No DELL Single Path No SCv2000 Series: SCv2000 SCv2020 SCv2080 Single Path No vsphere No Single Path No vsphere (RD

vsphere (RDM) No Multi Path (DMMP) No DELL Single Path No SCv2000 Series: SCv2000 SCv2020 SCv2080 Single Path No vsphere No Single Path No vsphere (RD Dell EqualLogic: PS4100 PS4110 PS6100 PS6110 PS6210 Single Path (DMMP) YES DMMP ARK LUN 数が多い場合 (20 以上 ) は /etc/default/lifekeeper の REMOTETIMEOUT 設定を REMOTETIMEOUT=600 に変更して ください vsphere (RDM) No MD3800f

More information

PowerPoint Presentation

PowerPoint Presentation 製品ソフトウェアのセットアップ手順 UNIX/Linux 編 1. セットアップファイルの選択開発環境 / 実行環境 / バージョン /Hotfix/ インストール先 OS 2. 対象セットアップファイルのダウンロード開発環境の場合は 2 つのファイルが対象 3. ソフトウェア要件の確認 4. ソフトウェアのインストール 5. ライセンスの認証 1 1. セットアップファイルの選択 選択項目選択肢該当チェック

More information

ServerView RAID Manager VMware vSphere ESXi 6 インストールガイド

ServerView RAID Manager VMware vSphere ESXi 6 インストールガイド ServerView RAID Manager VMware vsphere ESXi 6 インストールガイド 2018 年 11 月 27 日富士通株式会社 アレイを構築して使用する場合 RAID 管理ツールの ServerView RAID Manager を使用します VMware vsphere ESXi 6.x ( 以後 ESXi 6 または ESXi と略します ) サーバで ServerView

More information

NEC Express5800 シリーズ N /158 Fibre Channel コントローラ ドライバインストール手順書 A

NEC Express5800 シリーズ N /158 Fibre Channel コントローラ ドライバインストール手順書 A NEC Express5800 シリーズ N8190-157/158 Fibre Channel コントローラ ドライバインストール手順書 - 1 - はじめに この度は 弊社製品をお買い求めいただきまして ありがとうございます まず 本製品をご使用される前に 以下の構成品があることを確認してください 項番 コード 指定番号 構成品名 媒体 備考 1 136-174798-157-A N8190-157/158

More information

        ALTIRIS Client Management Suite Upgrade Guide                                 Rev 年6月30日  

        ALTIRIS Client Management Suite  Upgrade Guide                                 Rev 年6月30日   ALTIRIS Client Management Suite 7 Server Management Suite 7 Quick Startup Guide Rev. 1.1 2009 年 7 月 7 日 目次 1. はじめに----------------------------------------------------------------------------------------------3

More information

IBM Proventia Management/ISS SiteProtector 2.0

IBM Proventia Management/ISS  SiteProtector 2.0 CHAPTER 10 IBM Proventia Management/ISS SiteProtector 2.0 この章は 次の内容で構成されています グローバルイベントポリシーを定義する IBM Proventia Management/ISS SiteProtector (P.10-1) (P.10-5) グローバルイベントポリシーを定義する IBM Proventia Management/ISS

More information

Microsoft Word - nvsi_090198_quantum dxi7500_nvb.doc

Microsoft Word - nvsi_090198_quantum dxi7500_nvb.doc Article ID: NVSI-090198JP Created: 2009/09/28 Revised: - Quantum DXi7500 と NetVault Backup による動作検証 1. 概要 Quantum DXi7500 は Dedupe 機能等を備えた Quantum 社の高性能なディスクベースのバックアップ装置です DXi7500 はハードウェア仮想テープ ライブラリ ( 以下

More information

Untitled

Untitled Linux のインストール この 章 の 内 容 は 次 のとおりです 内 蔵 ドライブへの Linux のインストール, 1 ページ ブート 可 能 SAN LUN への Linux のインストール, 3 ページ PXE ネットワーク 環 境 を 使 用 した Linux のインストール, 5 ページ 内 蔵 ドライブへの Linux のインストール この 手 順 では CIMC GUI と KVM

More information

新OS使用時の留意事項

新OS使用時の留意事項 2014 年 3 月富士通株式会社 新 OS 使用時の留意事項 Fujitsu Software Interstage Print Manager( 以降 Interstage Print Manager) の動作オペレーティングシステムに以下をサポートします Windows 8 Windows 8.1 2012 2012 R2 この動作環境においても従来と同等の機能をご利用になれますが ご利用に関しての留意事項について説明します

More information

データ移行ツール ユーザーガイド Data Migration Tool User Guide SK kynix Inc Rev 1.01

データ移行ツール ユーザーガイド Data Migration Tool User Guide SK kynix Inc Rev 1.01 データ移行ツール ユーザーガイド Data Migration Tool User Guide SK kynix Inc. 2014 Rev 1.01 1 免責事項 SK hynix INC は 同社の製品 情報および仕様を予告なしに変更できる権利を有しています 本資料で提示する製品および仕様は参考情報として提供しています 本資料の情報は 現状のまま 提供されるものであり 如何なる保証も行いません

More information

目次 第 1 章はじめに 電子入札システムを使用するまでの流れ 1 第 2 章 Java ポリシーを設定する前に 前提条件の確認 2 第 3 章 Java のバージョンについて Java バージョン確認方法 Java のアンインストール ( ケース2の

目次 第 1 章はじめに 電子入札システムを使用するまでの流れ 1 第 2 章 Java ポリシーを設定する前に 前提条件の確認 2 第 3 章 Java のバージョンについて Java バージョン確認方法 Java のアンインストール ( ケース2の 電子入札サービス IC カードを利用しない事業者向け Java ポリシー設定マニュアル (Windows10 用 ) 平成 28 年 6 月 目次 第 1 章はじめに 1 1.1 電子入札システムを使用するまでの流れ 1 第 2 章 Java ポリシーを設定する前に 2 2.1 前提条件の確認 2 第 3 章 Java のバージョンについて 4 3.1 Java バージョン確認方法 4 3.2 Java

More information

ポート拡張オプション(10GBASE-T×2)

ポート拡張オプション(10GBASE-T×2) ポート拡張オプション (10GBASE-T 2) 更新日 2017 年 01 月 PY-LA3A2U2 ポート拡張オプション (10GBASE-T 2) PYBLA3A2U2 ポート拡張オプション (10GBASE-T 2) [ カスタムメイド対応 ] 1. 概要本製品は RX2530 M2 / RX2540 M2 / RX2560 M2 / TX2560 M2, RX2530 M1 / RX2540

More information

TeamViewer 9マニュアル – Wake-on-LAN

TeamViewer 9マニュアル – Wake-on-LAN TeamViewer 9 マニュアル Wake-on-LAN バージョン 9.2-12/2013 TeamViewer GmbH Jahnstraße 30 D-73037 Göppingen www.teamviewer.com 目次 1 Wake-on-LAN のバージョン情報... 3 2 要件... 4 3 Windows のセットアップ... 5 3.1 BIOS の設定... 5 3.2

More information

VPN 接続の設定

VPN 接続の設定 VPN 接続の設定 AnyConnect 設定の概要, 1 ページ AnyConnect 接続エントリについて, 2 ページ ハイパーリンクによる接続エントリの追加, 2 ページ 手動での接続エントリの追加, 3 ページ ユーザ証明書について, 4 ページ ハイパーリンクによる証明書のインポート, 5 ページ 手動での証明書のインポート, 5 ページ セキュアゲートウェイから提供される証明書のインポート,

More information

ファイル メニューのコマンド

ファイル メニューのコマンド CHAPTER43 次のオプションは Cisco Configuration Professional(Cisco CP) の [ ファイル ] メニューから利用できます 実行コンフィギュレーションを PC に保存 ルータの実行コンフィギュレーションファイルを PC 上のテキストファイルに保存します 43-1 設定をルータに配信する 第 43 章 設定をルータに配信する このウィンドウでは Cisco

More information

McAfee Firewall for Linux リリース ノート

McAfee Firewall for Linux リリース ノート リリースノート McAfee Firewall for Linux 8.0.0 目次このリリースについて機能インストール既知の問題製品マニュアルの検索 このリリースについて この資料には このリリースに関する重要な情報が含まれていますので ぜひご一読いただくようお願いいたします プレリリース版のソフトウェアは自動アップグレードの対象外です リリースされたソフトウェア製品にアップグレードするには 既存のバージョンを削除する必要があります

More information

FUJITSU Storage ETERNUS DX, ETERNUS AF 構築ガイド(サーバ接続編) iSCSI/ ETERNUS DX S4/S3 series ハイブリッドストレージシステム, ETERNUS AF series, ETERNUS DX200F オールフラッシュアレイ 設定用

FUJITSU Storage ETERNUS DX, ETERNUS AF 構築ガイド(サーバ接続編) iSCSI/ ETERNUS DX S4/S3 series ハイブリッドストレージシステム, ETERNUS AF series, ETERNUS DX200F オールフラッシュアレイ 設定用 FUJITSU Storage ETERNUS DX, ETERNUS AF 構築ガイド ( サーバ接続編 ) iscsi/ ETERNUS DX S4/S3 series ハイブリッドストレージシステム, ETERNUS AF series, ETERNUS DX200F オールフラッシュアレイ設定用 このページは 空白です はじめに 本書は ETERNUS DX/AF を 各 OS (Solaris

More information

Pirates Buster Series Secure Viewer セットアップマニュアル (Web インストーラ)

Pirates Buster Series Secure Viewer セットアップマニュアル (Web インストーラ) Pirates Buster Series Secure Viewer セットアップマニュアル (Web インストーラ ) Pirates Buster for Document Pirates Buster for WebDocument 本書の利用方法 目的と概要本書は Web インストーラを利用した Secure Viewer のインストールについて説明します 利用対象者本書は 暗号化されたファイルの利用者を対象としています

More information

FUJITSU Storage ETERNUS DX 構築ガイド(サーバ接続編) FCoE/Windows®用

FUJITSU Storage ETERNUS DX 構築ガイド(サーバ接続編) FCoE/Windows®用 FUJITSU Storage ETERNUS DX 構築ガイド ( サーバ接続編 ) FCoE/Windows 用富士通製コンバージド ネットワーク アダプターカードドライバ設定 このページは 空白です はじめに 本書は ETERNUS DX を Windows が動作する PRIMERGY PRIMEQUEST 3000 シリーズ PRIMEQUEST 2000 シリーズ または PRIMEQUEST

More information

ドライバインストールガイド

ドライバインストールガイド PRIMERGY Single Port ファイバーチャネルカード (8Gbps) Dual Port ファイバーチャネルカード (8Gbps) (PG-FC205/PG-FC205L) (PG-FC206/PG-FC206L) CA092276-8938-01 ドライバインストールガイド i 目次 1. ドライバのインストール / アンインストール方法... 3 1.1. ドライバのダウンロード

More information

Hik-Connect アカウントにデバイスを追加する方法ユーザーは Hik-Connect APP ウェブポータル ivms4500 アプリまたは ivms クライアント経由で Hik-Connect 機能を有効にすることができます 注 : iv

Hik-Connect アカウントにデバイスを追加する方法ユーザーは Hik-Connect APP   ウェブポータル ivms4500 アプリまたは ivms クライアント経由で Hik-Connect 機能を有効にすることができます 注 : iv 概要 Hik-Connect は 動的ドメイン名サービスとアラームプッシュ通知サービスを統合した Hikvision によって導入された新しいサービスです これは デバイスがインターネットに接続するための簡単な方法を提供します このマニュアルは Hik-Connect サービスを追加する方法をユーザーに示すためのガイドです 注 :: ユーザーエクスペリエンスを向上させるために ルーターとデバイスの両方で

More information

PRIMEQUEST 1000 シリーズ IO 製品 版数の確認方法

PRIMEQUEST 1000 シリーズ IO 製品 版数の確認方法 C122-E162-02 FUJITSU Server PRIMEQUEST 1000 シリーズ IO 製品版数の確認方法 本資料は IO 製品のファームウェア版数の確認方法について説明しています 第 1 章 SAS アレイコントローラーカードのファームウェア版数...2 第 2 章 SAS コントローラーのファームウェア版数...7 第 3 章 SAS カードのファームウェア版数...9 第 4

More information

Sophos Enterprise Console

Sophos Enterprise Console スタートアップガイド 製品バージョン : 5.5 次 このガイドについて...1 システム要件... 2 Linux コンピュータの保護... 3 動による Sophos Anti-Virus の新規インストール... 3 インストールパッケージの作成...3 インストールパッケージを使 した Sophos Anti-Virus のインストール...5 UNIX コンピュータの保護... 6 動による

More information

iStorage NS500Bx系 管理者ガイド (詳細編)

iStorage NS500Bx系 管理者ガイド (詳細編) 5 istorage NS のその他の使い方 ネットワーク上のプリンタを使う iscsi を使う 削除済みのファイルを完全に消去する istorage NS 上のファイルを高速検索する 238 5.1 ネットワーク上のプリンタを使う 5.1.1 ネットワークプリンタの追加 istorage NS にプリンタを追加するには 以下の手順に従ってください なお プリンタに添付された プリンタドライバがある場合は

More information

Symantec AntiVirus の設定

Symantec AntiVirus の設定 CHAPTER 29 Symantec AntiVirus エージェントを MARS でレポートデバイスとしてイネーブルにするためには Symantec System Center コンソールをレポートデバイスとして指定する必要があります Symantec System Center コンソールはモニタ対象の AV エージェントからアラートを受信し このアラートを SNMP 通知として MARS に転送します

More information

Microsoft iSCSI Software Targetを使用したクラスタへの共有ディスク・リソースの提供

Microsoft iSCSI Software Targetを使用したクラスタへの共有ディスク・リソースの提供 Microsoft iscsi Software Target を使用したクラスタへの共有ディスク リソースの提供 はじめに... 2 クラスタ ホスト エントリの作成... 3 イニシエータの設定... 7 クラスタ ノード 1 のイニシエータ... 7 クラスタ ノード 2 のイニシエータ... 7 iscsi 仮想ディスクのエクスポート... 8 iscsi デバイスの初期化... 11 Microsoft

More information

Oracle Business Intelligence Standard Edition One のインストール

Oracle Business Intelligence Standard Edition One のインストール Oracle Business Intelligence Standard Edition One のインストール 第 1 版 作成日 :2007 年 7 月 31 日 更新日 :2007 年 7 月 31 日 目次 はじめに... 3 Ⅰ. インストール作業... 4 Ⅱ. 起動状況の確認... 8 Ⅱ-1. Oracle BI Administration Tool の起動... 8 Ⅱ-2.

More information

適応型セキュリティ アプライ アンスの設定

適応型セキュリティ アプライ アンスの設定 CHAPTER 7 この章では 適応型セキュリティアプライアンスの初期設定について説明します 設定の手順は ブラウザベースの Cisco Adaptive Security Device Manager (ASDM) またはコマンドラインインターフェイス (CLI) で実行できます この章の手順では ASDM を使用して適応型セキュリティアプライアンスを設定する方法について説明します この章は 次の項で構成されています

More information

プリンタドライバのインストール. Windows で使用する場合 Windows プリンタドライバのインストール方法は 接続方法や使用するプリンタドライバによって異なります また コンピュータの OS によってインストール方法が異なります お使いのコンピュータの OS に合わせて 以下の参照ページを

プリンタドライバのインストール. Windows で使用する場合 Windows プリンタドライバのインストール方法は 接続方法や使用するプリンタドライバによって異なります また コンピュータの OS によってインストール方法が異なります お使いのコンピュータの OS に合わせて 以下の参照ページを プリンタドライバのインストール.1 プリンタドライバの種類と対応 OS 本プリンティングシステムを使用するためには プリンタドライバのインストールが必要です プリンタドライバとは 出力するデータの処理などを制御するプログラムで 使用する前に付属の CD からコンピュータにインストールします 付属の CD に含まれるプリンタドライバと 対応しているコンピュータの OS は以下のとおりです 必要なプリンタドライバをインストールしてください

More information

サーバセキュリティサービス 導入手順書 Deep Security 9.5SP1 (Windows) プロキシ経由編

サーバセキュリティサービス 導入手順書 Deep Security 9.5SP1 (Windows) プロキシ経由編 サーバセキュリティサービスアップグレード手順書 Deep Security 9.6SP1 (Linux) NEC 第 2 版 2017/08/29 本資料に関して 本資料は サーバセキュリティサービス with Trend Micro Deep Security をご利用中のお客様向けの資料です サーバセキュリティサービスでは 2017/7/30 付で提供サービス基盤の Deep Security

More information

改版履歴 Ver. 日付履歴初版 2014/7/10 - 目次 1. はじめに クラスター構築の流れ Windows Server Failover Cluster をインストールするための準備 OS のセットアップ時の注意... -

改版履歴 Ver. 日付履歴初版 2014/7/10 - 目次 1. はじめに クラスター構築の流れ Windows Server Failover Cluster をインストールするための準備 OS のセットアップ時の注意... - NX7700x シリーズ Windows Server 2012 R2 Windows Server Failover Cluster インストール手順書 Microsoft Windows Windows Server は 米国 Microsoft Corporation の米国およびその他の国における登録商標または商標です その他 記載されている会社名 製品名は 各社の登録商標または商標です 免責条項

More information

Installation Guide for Linux

Installation Guide for Linux Installation Guide for Linux for Linux Acronis Japan 1. はじめに... 2 1.1. 対象オペレーティングシステム... 2 2. エージェントのダウンロード... 3 3. Linux パッケージ... 3 3.1. Cent0S... 3 3.2. Ubuntu... 4 3.3. 手動でパッケージをインストールする場合... 5 4. エージェントのインストール...

More information

TeamViewer マニュアル – Wake-on-LAN

TeamViewer マニュアル – Wake-on-LAN TeamViewer マニュアル Wake-on-LAN Rev 11.1-201601 TeamViewer GmbH Jahnstraße 30 D-73037 Göppingen www.teamviewer.com 目次 1 Wake-on-LANのバージョン情報 3 2 要件 5 3 Windowsのセットアップ 6 3 1 BIOSの設定 6 3 2 ネットワークカードの設定 7 3 3

More information

Microsoft Word - SSL-VPN接続サービスの使い方

Microsoft Word - SSL-VPN接続サービスの使い方 作成 : 平成 29 年 06 月 29 日 更新 : 平成 30 年 07 月 28 日 SSL-VPN 接続サービスの使い方 内容 SSL-VPN 接続サービスの使い方... 1 1. SSL-VPN 接続サービスについて... 1 2. SSL-VPN 接続サービスの留意点... 1 3. SSL-VPN 接続サービスの利用に必要となるもの... 2 4. SSL-VPN 接続サービスを利用する手順...

More information

Microsoft PowerPoint ï½žéł»å�’å–¥æœ�ㇷㇹㅃㅀ㇤ㅳㇹㅋㅼㅫ曉逃.ppt [äº™æ‘łã…¢ã…¼ã…›]

Microsoft PowerPoint ï½žéł»å�’å–¥æœ�ㇷㇹㅃㅀ㇤ㅳㇹㅋㅼㅫ曉逃.ppt [äº™æ‘łã…¢ã…¼ã…›] 電子入札システムクライアント V4 インストール手順 平成 30 年 3 月 富山市財務部契約課 注意事項 平成 30 年 3 月以降は現在インストールしていただいている 電子入札システムクライアント V3 は使用できなくなります 本手順に従い必ず 電子入札システムクライアント V4 をインストールしてください Windows10 の標準ブラウザ Microsoft Edge は富山市電子入札システムを使用できません

More information

LEAP を使用して Cisco ワイヤレス クライアントを認証するための Funk RADIUS の設定

LEAP を使用して Cisco ワイヤレス クライアントを認証するための Funk RADIUS の設定 LEAP を使用して Cisco ワイヤレスクライアントを認証するための Funk RADIUS の設定 目次 概要前提条件要件使用するコンポーネント表記法設定アクセスポイントまたはブリッジの設定 Funk ソフトウェアの Inc. Product 設定 Steel-Belted Radius Steel-Belted Radius のユーザの作成関連情報 概要 このドキュメントでは 340 および

More information

Cisco CallManager および Cisco Unity でのパスワード変更の設定例

Cisco CallManager および Cisco Unity でのパスワード変更の設定例 Cisco CallManager および Cisco Unity でのパスワード変更の設定例 目次 概要前提条件要件使用するコンポーネント表記法背景説明 Cisco CallManager でのパスワード変更 CCMPWDChanger ツール Admin Utility を使用した CallManager サービスパスワードの変更 Cisco Unity でのパスワード変更 Cisco Unity

More information

iStorage NSシリーズ管理者ガイド(詳細編)

iStorage NSシリーズ管理者ガイド(詳細編) 1 istorage NS はヘッドレスシステムであり ディスプレイ マウス キーボードなしで操作可能です istorage NS の設定 管理は同一ネットワーク上にある管理 PC で リモートデスクトップを起動して行な います そのため istorage NS の管理用に istorage NS とは別に Windows マシンが必要となります istorage NS 本体に ディスプレイ マウス

More information

CLUSTERPRO MC StorageSaver 2.2 for Linux リリースメモ 2017(Apr) NEC Corporation ライセンス パッケージのインストール セットアップ マニュアル 補足事項 注意事項

CLUSTERPRO MC StorageSaver 2.2 for Linux リリースメモ 2017(Apr) NEC Corporation ライセンス パッケージのインストール セットアップ マニュアル 補足事項 注意事項 リリースメモ 2017(Apr) NEC Corporation ライセンス パッケージのインストール セットアップ マニュアル 補足事項 注意事項 はしがき 本書は ( 以後 StorageSaver と記載します ) の 動作に必要な手順について説明します (1) 商標および登録商標 Red Hat は 米国およびその他の国における Red Hat,Inc. の商標または登録商標です Oracle

More information

SMB スイッチ CLI に SSH を使用してアクセスするか、または Telnet で接続して下さい

SMB スイッチ CLI に SSH を使用してアクセスするか、または Telnet で接続して下さい SMB スイッチ CLI に SSH を使用してアクセスするか または Telnet で接続して下さい 目標 Cisco スモールビジネスによって管理されるスイッチは Command Line Interface (CLI) によってリモートアクセスされ 設定することができます CLI にアクセスすることはコマンドがターミナルベースのウィンドウで入力されるようにします Web ベースユーティリティよりもむしろ

More information

Microsoft Word - nvsi_100207jp_quantumi40.doc

Microsoft Word - nvsi_100207jp_quantumi40.doc Article ID: NVSI-100207JP Created: 2010/02/03 Revised: - Quantum Scalar i40/netvault Backup 動作検証 1. 概要 Quantum i40 は小中規模のビジネス向けのテープ ライブラリです 優れた管理機能を有し 操作も非常に簡単です Quantum i40 と NetVault Backup(NVBU) を使用することで最適なバックアップ

More information

Cisco Unity 8.x サーバの名前の変更または 別のドメインへの Cisco Unity 8.x サーバの 移動

Cisco Unity  8.x サーバの名前の変更または 別のドメインへの  Cisco Unity  8.x サーバの 移動 CHAPTER 7 Cisco Unity 8.x サーバの名前の変更または別のドメインへの Cisco Unity 8.x サーバの移動 この章は 次の項で構成されています Cisco Unity 8.x サーバの名前の変更または別のドメインへの Cisco Unity 8.x サーバの移動 ( フェールオーバーなしの場合 ) (P.7-1) 両方の Cisco Unity 8.x サーバの名前の変更または別のドメインへの

More information

注意 シスコ製品をご使用になる前に 安全上の注意 ( ) をご確認ください 本書は 米国シスコ発行ドキュメントの参考和訳です リンク情報につきましては 日本語版掲載時点で 英語版にアップデートがあり リンク先のページが移動 /

注意 シスコ製品をご使用になる前に 安全上の注意 (  ) をご確認ください 本書は 米国シスコ発行ドキュメントの参考和訳です リンク情報につきましては 日本語版掲載時点で 英語版にアップデートがあり リンク先のページが移動 / Cisco B シリーズ : ベアメタル / 初版 :2012 年 11 月 20 日 最終更新 :2012 年 11 月 20 日 シスコシステムズ合同会社 107-6227 東京都港区赤坂 9-7-1 ミッドタウン タワー http://www.cisco.com/jp お問い合わせ先 : シスココンタクトセンター 0120-092-255 ( フリーコール 携帯 PHS 含む ) 電話受付時間

More information

PowerPoint プレゼンテーション

PowerPoint プレゼンテーション 2019.10.16 VBBSS バージョン 6.7 新機能と改善点のご紹介 1. はじめに Ver6.7 公開スケジュールと新ビルド配信のタイミング Ver6.7 新機能 / 改善点一覧 2. セキュリティ対策機能の強化 除外リストへの IPv6 アドレス追加対応 Mac OS への機能追加 3. 管理コンソールの UI 改修 ダッシュボード 画面のウィジェット改修 インストーラのダウンロード 検出されたUSBデバイスの許可

More information

Windows(R) Storage Server 2003 R2 iSCSI Software Target パック 留意事項

Windows(R) Storage Server 2003 R2 iSCSI Software Target パック 留意事項 iscsi Software Target パック留意事項 本ページでは iscsi Software Target パック の留意事項をお知らせします 各導入フェーズごとに留意を記載していますので 事前にご一読の上 ご購入 構築等を行ってください iscsi Software Target パック留意事項カテゴリ 留意 詳細 対象サーバ 購入時 ソフトウェア ハード iscsi 環境を構成するためのハードウェ

More information

ConsoleDA Agent For Server インストールガイド

ConsoleDA Agent For Server インストールガイド ConsoleDA Agent For Server インストールガイド マニュアルはよく読み 大切に保管してください 製品を使用する前に 安全上の指示をよく読み 十分理解してください このマニュアルは いつでも参照できるよう 手近な所に保管してください BDLINKV3-IN-AGFS-05 - 目次 - 1 ConsoleDA Agent For Server インストールの前に... 1 1-1

More information

PowerPoint Presentation

PowerPoint Presentation : ソフトウェアのインストール Development Hub COBOL Server セットアップファイルのダウンロード Eclipse 版 セットアップファイルのダウンロード ソフトウェア要件の確認 ソフトウェア要件の確認 ソフトウェアのインストール ソフトウェアのインストール ライセンス認証 (DevHub COBOL Server 版のライセンスを利用 ) ライセンス認証 (Eclipse

More information

Dell MD シリーズストレージアレイ アップデート情報

Dell MD シリーズストレージアレイ アップデート情報 Dell MD シリーズストレージアレイ アップデート情報 メモ 注意 警告 メモ : 製品を使いやすくするための重要な情報を説明しています 注意 : ハードウェアの損傷やデータの損失の可能性を示し その問題を回避するための方法を説明しています 警告 : 物的損害 けが または死亡の原因となる可能性があることを示しています 著作権 2017 すべての著作権は Dell Inc. またはその子会社にあります

More information

目次 はじめに StorageCraft Recovery Environment Builder をインストールする 必要なソフトウェアを確認する ダウンロードする インストールを実行する Window

目次 はじめに StorageCraft Recovery Environment Builder をインストールする 必要なソフトウェアを確認する ダウンロードする インストールを実行する Window クイックスタートガイド StorageCraft Recovery Environment for Windows (BIOS 版 ) 2015 年 2 月 13 日 ストレージクラフトテクノロジー合同会社 目次 はじめに... 3 1. StorageCraft Recovery Environment Builder をインストールする... 4 1.1. 必要なソフトウェアを確認する... 4

More information

Dell System Services and Diagnostic Tools Version 7.0 クイックインストールガイド

Dell System Services and Diagnostic Tools Version 7.0 クイックインストールガイド Dell Systems Service and Diagnostics Tools バージョン 7.0 クイックインストールガイド メモおよび注意 メモ : コンピュータを使いやすくするための重要な情報を説明しています 注意 : 手順に従わない場合は ハードウェアの損傷やデータの損失の可能性があることを示しています 本書の内容は予告なく変更されることがあります 2012 すべての著作権は Dell

More information

目次 1 VirtualBoot for Hyper-V とは バックアップを実行するマシンの設定 確認すべきこと SPX によるバックアップ VirtualBoot for Hyper-V を実行するマシンの設定 確

目次 1 VirtualBoot for Hyper-V とは バックアップを実行するマシンの設定 確認すべきこと SPX によるバックアップ VirtualBoot for Hyper-V を実行するマシンの設定 確 ShadowProtect SPX Hyper-V VirtualBoot 2016 年 3 月 11 日 ストレージクラフトテクノロジー合同会社 1 目次 1 VirtualBoot for Hyper-V とは... 4 2 バックアップを実行するマシンの設定... 5 2.1 確認すべきこと... 5 2.2 SPX によるバックアップ... 5 3 VirtualBoot for Hyper-V

More information

使用する前に

使用する前に CHAPTER 1 この章では IPICS Mobile Client を初めて使用する際に必要な情報について説明します この章には次のトピックが含まれます 概要 (P.1-1) IPICS Mobile Client の入手方法 (P.1-4) SSL 証明書の入手方法 (P.1-4) 概要 IPICS Mobile Client は iphone を使って Cisco IP Interoperability

More information

Silk Central Connect 15.5 リリースノート

Silk Central Connect 15.5 リリースノート Silk Central Connect 15.5 リリースノート Micro Focus 575 Anton Blvd., Suite 510 Costa Mesa, CA 92626 Copyright Micro Focus 2014. All rights reserved. Silk Central Connect は Borland Software Corporation に由来する成果物を含んでいます,

More information

FUJITSU Storage ETERNUS DX 構築ガイド(サーバ接続編) SAS/Windows®用

FUJITSU Storage ETERNUS DX 構築ガイド(サーバ接続編) SAS/Windows®用 FUJITSU Storage ETERNUS DX 構築ガイド ( サーバ接続編 ) SAS/Windows 用 このページは 空白です はじめに 本書は ETERNUS DX を Windows が動作するサーバに SAS 接続して使用するために必要な作業について説明しています ETERNUS DX サーバ OS SAS カード およびドライバソフトウェアの説明書と併せてご使用ください なお 本書に記載している製品の商標

More information