CLUSTERPRO MC RootDiskMonitor 1.0 for Linux はじめての RootDiskMonitor 2013(Apr) NEC Corporation はじめに 製品概要 監視の設定と実践 おわりに

Similar documents
CLUSTERPRO MC RootDiskMonitor 2.4 for Linux HW-RAID 監視機能 ユーザーズガイド

CLUSTERPRO MC RootDiskMonitor 1.1 for Linux リリースメモ 2013(Sep) NEC Corporation ライセンス パッケージのインストール セットアップ マニュアル

CLUSTERPRO MC RootDiskMonitor 2.1 for Linux HW-RAID 監視機能 ユーザーズガイド 2016(Mar) NEC Corporation 製品の概要 HW-RAID 監視機能 本製品の導入について 操作 運用手順 注意 制限事項について 付録

CLUSTERPRO MC StorageSaver 1.1 for Linux リリースメモ 2015(Jun) NEC Corporation ライセンス パッケージのインストール セットアップ マニュアル 補足事項 注意事項

CLUSTERPRO MC StorageSaver 2.2 for Linux リリースメモ 2017(Apr) NEC Corporation ライセンス パッケージのインストール セットアップ マニュアル 補足事項 注意事項

CLUSTERPRO MC RootDiskMonitor 2.3 for Linux HW-RAID 監視機能 リリースメモ 2018(Jun) NEC Corporation ライセンス パッケージのインストール セットアップ マニュアル

CLUSTERPRO MC RootDiskMonitor CLUSTERPRO MC StorageSaver for BootDisk 仮想環境 ( ゲスト OS) での設定手順 (Linux 版 Windows 版 ) 2017(Apr) NEC Corporation 仮想環境 ( ゲスト

改版履歴 版数改版履歴改版年月日 1 新規作成 2013/3/29 2 TESTIO_MODE を追加 OVER_ACTION VG_STALL_ACTION の設定値を変更 2013/9/30 3 CLUSTERPRO MC StorageSaver for BootDisk (for Linux

CLUSTERPRO MC RootDiskMonitor 2.3 for Linux リリースメモ 2018(Jun) NEC Corporation ライセンス パッケージのインストール セットアップ マニュアル

CLUSTERPRO MC ProcessSaver ApsEdition 1.0 for Linux リリースメモ 2012(Sep) NEC Corporation ライセンス パッケージのインストール セットアップ マニュアル 補足事項 注意事項

CLUSTERPRO MC RootDiskMonitor 1.0 for Windows FAQ 集 2013(Mar) NEC Corporation 導入に関する質問 運用に関する質問 動作環境に関する質問

CLUSTERPRO MC StorageSaver 1.2 for Linux はじめての StorageSaver (vsphere 対応版 ) 2014(Mar) NEC Corporation はじめに 製品概要 監視の設定と実践 付録 おわりに

CLUSTERPRO MC ProcessSaver 2.1 for Linux リリースメモ 2016(Mar) NEC Corporation ライセンス パッケージのインスト ル セットアップ マニュアル 障害発生時の手順 補足事項 注意事項

CLUSTERPRO MC StorageSaver 2.1 for Linux FAQ 集 2016(Mar) NEC Corporation 導入に関する質問 起動 終了に関する質問 監視に関する質問 障害復旧に関する質問 クラスタに関する質問 動作環境に関する質問

CLUSTERPRO MC RootDiskMonitor 1.0 for Linux ユーザーズガイド 2013(May) NEC Corporation 製品の概要 OS ディスクの監視方式について SG の設定 操作 運用手順 syslog メッセージ 注意 制限事項について リファレンス 付

はしがき 本書は CLUSTERPRO MC ProcessSaver 1.0 for Linux ( 以後 ProcessSaver と記載します ) に よるプロセス監視の基本的な動作について記載したものです (1) 商標および商標登録 Linux は Linus Torvalds 氏の米国およ

はしがき 本書は CLUSTERPRO MC RootDiskMonitor 1.2 for Linux ( 以後 RootDiskMonitor と記載します ) および CLUSTERPRO MC StorageSaver for BootDisk 1.2 (for Linux) の OS ディ

CLUSTERPRO MC StorageSaver istorage M シリーズ使用時の設定手順 (HP-UX 版 Linux 版 Windows 版 ) 2013(Apr) NEC Corporation istorage M シリーズを使用する場合の StorageSaver 設定手順 (H

CLUSTERPRO MC RootDiskMonitor 2.1 for Linux CLUSTERPRO MC StorageSaver for BootDisk 2.1 (for Linux) ユーザーズガイド 2016(Mar) NEC Corporation 製品の概要 OS ディスクの監

CLUSTERPRO MC StorageSaver istorage M シリーズ使用時の設定手順 (HP-UX 版 Linux 版 Windows 版 ) 2013(Sep) NEC Corporation istorage M シリーズを使用する場合の StorageSaver 設定手順 (H

CLUSTERPRO MC StorageSaver 1.2 for Linux パラメータシート 第 4 版 2014 年 3 月 31 日 日本電気株式会社

CLUSTERPRO MC StorageSaver 2.0 for Windows 導入ガイド 第 1 版 2015 年 3 月 日本電気株式会社

改版履歴 版数改版履歴改版年月日 1.0 新規作成 2015/03/31 Page 2 NEC Corporation 2015

改版履歴 版数改版履歴改版年月日 1.0 新規作成 2013/03/ OverAction と DiskStallAction の値変更 (ActionNone ServiceCmdDisable ProcessOfRdmstatKillEnable ServiceCmdEnable)

改版履歴 版数改版内容 新規作成 i

改版履歴 版数 改版 内容 新規作成 Microsoft.NET Framework のダウンロード先 URL を追記 バージョンアップに伴い改版 i

CLUSTERPRO MC RootDiskMonitor 1.0 for Windows インストールガイド 2013(Mar) NEC Corporation はじめに 製品導入の事前準備 本製品のインストール 本製品の初期設定 本製品のアンインストール

CLUSTERPRO MC StorageSaver for BootDisk 1.2 (for Windows) インストールガイド 2014(Mar) NEC Corporation はじめに 製品導入の事前準備 本製品のインストール 本製品の初期設定 本製品のアンインストール

CLUSTERPRO MC RootDiskMonitor 2.3 for Windows リリースメモ 2018(Jun) NEC Corporation はじめに ライセンス 動作要件 セットアップ マニュアル

はしがき 本書は CLUSTERPRO MC StorageSaver 1.0 for Linux ( 以後 StorageSaver と記載します ) のディスク装置監視に関する設定について記載したものです (1) 本書は以下のオペレーティングシステムに対応します IA32 および EM64T 搭

CLUSTERPRO MC StorageSaver 2.2 for Linux パラメーターシート 第 4 版 2017 年 4 月 日本電気株式会社

はしがき 本書は CLUSTERPRO MC ProcessSaver 1.0 for Linux ( 以後 ProcessSaver と記載します ) と CLUSTERPRO X 3.1 for Linux ( 以後 CLUSTERPRO と記載します ) を組み合わせて フェイルオーバクラスタ

CLUSTERPRO MC StorageSaver for BootDisk 2.1 (for Windows) インストールガイド 2016(Mar) NEC Corporation はじめに 製品導入の事前準備 本製品のインストール 本製品の初期設定 本製品のアンインストール

CLUSTERPRO MC RootDiskMonitor 1.1 for Linux syslog メッセージ一覧 2013(Sep) NEC Corporation フォーマットについて RootDiskMonitor の運用メッセージ その他のメッセージ RootDiskMonitor のデバ

CLUSTERPRO MC StorageSaver 1.0 for Windows インストールガイド 2013(Mar) NEC Corporation はじめに 製品導入の事前準備 本製品のインストール 本製品の初期設定 本製品のアンインストール 注意 制限事項

CLUSTERPRO MC ProcessSaver 1.0 for Windows 構築ガイド 2012(Sep) NEC Corporation はじめに責任範囲適用範囲概要事前準備クラスタ設定

CLUSTERPRO MC StorageSaver 2.0 for Windows インストールガイド 2015 (Mar) NEC Corporation はじめに 製品導入の事前準備 本製品のインストール 本製品の初期設定 本製品のアンインストール 本製品のアップデートインストール 注意 制限

CLUSTERPRO MC ApplicationMonitor 1.1 for Linux を 5 ノード以上の RAC 構成で 使用する場合の補足事項 2013(Oct) NEC Corporation 多ノード RAC 構成用の設定

CLUSTERPRO MC ProcessSaver 2.1 for Windows 構築ガイド 2016(Mar) NEC Corporation はじめに 責任範囲 適用範囲 概要 事前準備 クラスタ設定

CLUSTERPRO MC StorageSaver 1.2 for Windows はじめての StorageSaver (vsphere 対応版 ) 2014(Mar) NEC Corporation はじめに 製品概要 監視の設定と実践 おわりに

はしがき 本書は CLUSTERPRO MC StorageSaver 1.0 for Linux ( 以後 StorageSaver と記載します ) の出力する syslog のメッセージの意味と対処方法について説明したものです (1) 本書は以下のオペレーティングシステムに対応します IA32

CLUSTERPRO MC ProcessSaver 2.3 for Windows 導入ガイド 第 5 版 2018 年 6 月 日本電気株式会社

CLUSTERPRO MC StorageSaver ハードウェア障害復旧後の運用手順 (HP-UX 版 Linux 版 Windows 版 ) 2012(Sep) NEC Corporation はじめに ハードウェア障害復旧後の運用手順 注意 制限事項

CLUSTERPRO MC ProcessSaver 2.3 for Windows ユーザーズガイド ( コマンド編 ) 2018(Jun) NEC Corporation はじめに コマンドリファレンス メッセージ一覧

CLUSTERPRO MC RootDiskMonitor 2.3 for Windows インストールガイド 2018(Jun) NEC Corporation はじめに 製品導入の事前準備 本製品のインストール 本製品の初期設定 本製品のアンインストール 本製品のアップデートインストール

CLUSTERPRO MC ProcessSaver 2.3 for Windows インストールガイド 2018(Jun) NEC Corporation はじめに 製品導入の事前準備 本製品のインストール 本製品のアンインストール 本製品のアップデートインストール

CLUSTERPRO MC RootDiskMonitor 1.1 for Windows パトロールシーク機能 インストールガイド 2013(Sep) NEC Corporation はじめに 製品導入の事前準備 本製品のインストール 本製品の初期設定 本製品のアンインストール

CLUSTERPRO MC ProcessSaver 1.0 for Windows ユーザーズガイド ( コマンド編 ) 2012(Sep) NEC Corporation はじめに コマンドリファレンス メッセージ一覧

CLUSTERPRO MC ProcessSaver 1.2 for Windows 導入ガイド 第 4 版 2014 年 3 月 日本電気株式会社

CLUSTERPRO MC ProcessSaver 2.2 for Linux 構築ガイド 2017(Oct) NEC Corporation 責任範囲 適用範囲 概要 事前準備 クラスター設定 動作確認

CLUSTERPRO MC StorageSaver 2.4 for Windows インストールガイド

CLUSTERPRO MC RootDiskMonitor 2.1 for Windows パトロールシーク機能 インストールガイド 2016(Mar) NEC Corporation はじめに 製品導入の事前準備 本製品のインストール 本製品の初期設定 本製品のアンインストール

Universal RAID Utility Ver2.1 ユーザーズガイド

改版履歴 版数改版内容 新規作成 Page 1

CLUSTERPRO MC StorageSaver 2.1 for Windows イベントログメッセージ一覧 2016 (Mar) NEC Corporation はじめに StorageSaver の運用メッセージその他のメッセージ障害解析情報の採取

CLUSTERPRO MC ProcessSaver 2.3 for Windows はじめての ProcessSaver 第 5 版 2018 年 6 月 日本電気株式会社 日頃より弊社製品をご愛顧いただきありがとうございます このたび お客様にご利用いただく ProcessSaver でのプロセ

CLUSTERPRO MC (HA シリーズ ) のご紹介 2013/4/1 NEC システムソフトウェア事業部 CLUSTERPRO グループ

CLUSTERPROXSingleServerSafe SingleServerSafe ご紹介 2007 年 10 月

NEC Express5800 シリーズ COBOL Media V1 セットアップカード SL438730B01-2

FUJITSU Software Systemwalker Centric Manager Lite Edition V13.5 機能紹介資料

PowerPoint プレゼンテーション


Microsoft Word - esm_update_jp.doc

はじめに 本書は Express5800/ft サーバに Red Hat Enterprise Linux 6 Server 及び ft Server Control Software がインストールされており OS がインストールされている内蔵ディス クに空き容量がある場合に 追加でボリュームを作

Universal RAID Utility (Linux版)

N Setup card

NEC COBOL Media V2.0 セットアップカード SL438740B01-1

CLUSTERPRO MC StorageSaver ハードウェア障害復旧後の運用手順 (HP-UX 版 Linux 版 Windows 版 ) 2016(Mar) NEC Corporation はじめに ハードウェア障害復旧後の運用手順 注意 制限事項

NEC Express5800 シリーズ N /158 Fibre Channel コントローラ ドライバインストール手順書 A

Universal RAID Utility Ver4.1 ユーザーズガイド

WebSAM LogCollector (リリース3.3) HP-UX用マネージャ クラスタ構築ガイド

セットアップカード

Linux のインストール

目次 1 ライセンス コードワードの取得 コードワードの登録 パッケージのインストール 動作環境 使用パーティション及び必要容量 提供媒体 必要なプロダクト ソ

Linux のインストール

SASカード (PG-228B/BL, PG-224B) 取扱説明書 追補版

はしがき (1) マニュアルについて CLUSTERPRO MC ProcessSaver for Linux Web サーバー監視機能テンプレートガイド は ProcessSaver による Web サーバー監視時のプロセス監視ソリューションを支援するための導入事例をご紹介します 本資料でご紹介す

DHCPサーバのクラスタ化

FUJITSU Storage ETERNUS DX 構築ガイド(サーバ接続編) SAS/Linux用


Microsoft Word - nvsi_090196_r1_vaultdr_offline_rhel_dualpath.doc

CLUSTERPRO MC StorageSaver 2.1 for Linux syslog メッセージ一覧 2016(Mar) NEC Corporation フォーマットについて StorageSaver の運用メッセージ その他のメッセージ StorageSaver のデバッグメッセージ 障

CLUSTERPRO X 4.0 for FileMaker Server ご紹介資料

WebSAM System Navigator JNS isadmin SNMP Trap 連携設定手順書 NEC 2012 年 12 月

ProcessSaver WebEdition テンプレートガイド

インストール手順書 Systemwalker for Symfoware Server Message Monitoring Tool 11.1

Linux修正適用手順書

Status Utility for Linuxオンラインマニュアル

日立ディスクアレイサブシステム環境強化サポートオプション

CLUSTERPRO X IIJ GIO インフラストラクチャー P2 動作検証報告 2017 年 11 月日本電気株式会社クラウドプラットフォーム事業部 CLUSTERPROグループ 1 NEC Corporation 2017

HP User Manual for the Integrated Intel SATA RAID Controller for Microsoft Windows XP Professional and Windows 2000 Profess...

RL CLUSTERPRO MC ApplicationMonitor 2.1 for Linux リリースメモ 2016(Nov) NEC Corporation ApplicationMonitor 2.0 からの変更点 ライセンス パッケージのインストール セットアップ

ESMPRO/ServerManager サーバ死活監視機能

WebSAM MCOperations Amazon Web Services 向け構築ガイド 2015 年 5 月 日本電気株式会社

CLUSTERPRO X 3.2 for FileMaker Server 13 ご紹介資料 2015 年 8 月日本電気株式会社クラウドプラットフォーム事業部 CLUSTERPRO グループ ( グローバル プロモーションチーム )

ダンプ取得機能強化サポートオプション Enterprise Edition

CLUSTERPRO SSS 動作環境編

Microsoft Word - nvsi_050090jp_oracle10g_vlm.doc

Microsoft Word - README_2011_FW.txt

Transcription:

CLUSTERPRO MC RootDiskMonitor 1.0 for Linux はじめての RootDiskMonitor 2013(Apr) NEC Corporation はじめに 製品概要 監視の設定と実践 おわりに

はしがき 本書は CLUSTERPRO MC RootDiskMonitor 1.0 for Linux( 以後 RootDiskMonitor と 記載します ) による OS ディスク監視および HW-RAID 監視機能による HW-RAID 監視の 基本的な動作について記載したものです (1) 本書は以下のオペレーティングシステムに対応します IA32 および EM64T 搭載サーバ Red Hat Enterprise Linux ES/AS 4.x Red Hat Enterprise Linux 5.x Red Hat Enterprise Linux 6.x SUSE Linux Enterprise Server 10 SP3 SUSE Linux Enterprise Server 11 Oracle Linux 5.x Oracle Linux 6.x Oracle Linux 5.x Oracle Linux 6.x のオペレーティングシステムでは HW-RAID 監視機能はご利用いただけません (2) 商標および商標登録 Red Hat は 米国およびその他の国における Red Hat,Inc. の登録商標または商標です SUSE は 米国およびその他の国における Novell, Inc. の登録商標または商標です Linux は Linus Torvalds 氏の米国およびその他の国における 登録商標または商標です EMC Symmetrix DMX Symmetrix VMAX CLARiX は EMC Corporation の商標または登録商標です その他 本書に登場する会社名および商品名は各社の商標または登録商標です なお 本書ではR TM マークを明記しておりません i

目次 1. はじめに... 1 2. 製品概要... 2 2.1. 製品概要について... 2 3. 監視の設定と実践... 8 3.1. インストール... 8 3.2. 設定ファイルの作成... 10 3.3. 監視の開始... 11 3.4. 監視状態の確認... 12 3.5. ディスク障害検知の確認... 13 3.6. 監視の復旧... 17 3.7. 監視の終了... 19 4. おわりに... 20 ii

1. はじめに 本書では RootDiskMonitor による OS ディスク監視および HW-RAID 監視機能による HW-RAID 監視の基本的な動作について説明します OS ディスク監視および HW-RAID 監視の設定 監視手順を一連の流れで確認することで RootDiskMonitor および HW-RAID 監視機能の動作を理解することができます 本書では 以下のような監視例を使用します RootDiskMonitor による OS ディスク監視 HW-RAID 監視機能による HW-RAID 監視疑似障害コマンドによる障害検知なお 各パラメータの意味や詳細につきましては CLUSTERPRO MC RootDiskMonitor 1.0 for Linux ユーザーズガイド および CLUSTERPRO MC RootDiskMonitor 1.0 for Linux HW-RAID 監視機能ユーザーズガイド をご覧ください 本書では以下の手順で OS ディスク監視および HW-RAID 監視を行います 3.1. 章インストール 3.2. 章 設定ファイルの作成 3.3. 章 監視の開始 3.4. 章 監視状態の確認 3.5. 章 ディスク障害の 検知の確認 3.6. 章 監視の復旧 3.7. 章 監視の終了 図 1 内蔵ディスク監視手順 1

2. 製品概要 2.1. 製品概要について RootDiskMonitor には以下の機能があります I/O パス監視機能 OS ディスクを構成する I/O パスに対して死活監視 I/O リクエストのストール監視を行います シングル構成 ミラー構成の OS ディスクを監視できます 障害レポート機能 I/O パスを定期監視し異常を検出すると syslog コンソールに異常レポートを通知します クラスタウェア連携機能 OS ディスクを構成する I/O パスがすべて障害となり LUN ( 論理ディスク装置 ) への アクセスが不可能になると クラスタウェアと連携することによりノード切り替えを実現します クラスタウェアと連携しノード切り替えを実現するには以下の 3 つの手法があります CLUSTERPRO のサーバ管理プロセス (clpnm) を強制終了させる方式 OS ディスク監視専用のクラスタリソースを作成する方式 Linux のシステムメモリダンプを採取し OS を強制的に停止させる方式 クラスタウェアを利用しない非クラスタシステムでは ノード切り替え機能は ご利用いただけません HW-RAID 監視機能には以下の機能があります HW-RAID 監視機能 RAID ユーティリティを用いてディスクの状態を定期監視します ディスクの故障を検出すると syslog に異常レポートを通知します 2

RootDiskMonitor による OS ディスク監視の仕組みは以下の図のようになります 監視モニタ rdmping Polling PV 1 PV 状態通知 Killing clpnm or rdmstat クラスタウェア 3 vg00 is down VG /dev/volgroup00 status /dev/sda status SharedMemory ルートボリュームリソース VG 状態通知 (/dev/volgroup00) 物理ディスク監視 -inquiry -TestUnitReady <System Config Area> <Device Config Area> /dev/sda VG 状態監視 status SharedMemory 2 監視エンジン rdmdiagd SG 展開 3 syslog 通知 / UP/DOWN/SUSPEND rdmadmin コマンド /dev/volgroup00 UP /dev/sda UP リソースの状態表示 PV PV コンソール通知 rdm: PV PV rdm.config pv=/dev/sda is down ミラーグループ 1 ミラーグループ 2 config ファイルの自動生成 プロセス構成 rdmdiagd(1m) : OS ディスク監視エンジン rdmconfig コマンド rdmping(1m) : OS ディスク監視モニタ rdmadmin(1m) : 運用管理コマンド rdmconfig(1m) : SG 自動生成コマンド rdmstat(1m) : クラスタウェア連携用デーモン 図 2 RootDiskMonitor のプロセスモデル 3

1 OS ディスクの障害を検知するために I/O パスに対して定期的に TestI/O を行います OS ディスクを構成する I/O パスが監視対象となります Test I/O は SCSI パススルードライバ経由で SCSI コマンド (Inquiry TestUnitReady) を発行することで行われます Test I/O で監視対象となる項目は I/O パスの死活監視と I/O リクエストのストール監視になります 2 VG の状態を監視 / 更新します 3 Test I/O で異常を検出した I/O パスは syslog コンソールに障害レポートを通知します さらに LUN( 論理ディスク装置 ) へのアクセスが不可能になると コンフィグレーションファイルで指定されたアクションを実行します I/O パスの状態について LUN レベルのステータス (I/O パスの監視状態 ) として 以下の状態をレポートします UP : I/O パスが正常に動作している状態です DOWN : I/O パスに異常があり 利用不可な状態です VG レベルのステータス (I/O パスをミラーグループとして束ねた監視状態 ) として 以下の状態をレポートします UP : VG が正常に動作している状態です SUSPEND : VG を構成するミラー片系の I/O パスに異常がある状態です DOWN : VG に異常があり 利用不可な状態です 4

I/O パスの死活監視および 障害レポート機能の動作は以下となります OS ディスクを構成する I/O パスに対し定期的に SCSI パススルー機能を利用して Test I/O を発行することで I/O パスの動作状態を監視します Test I/O が正常終了しない またはタイムアウトした場合は I/O パスを異常と判定します Test I/O のフレームワーク rdmdiagd 監視エンジン rdmping 監視モニタ 参照 更新 一定間隔で Test I/O の状 態をモニタ [ 共有メモリ ] I/O パスの 監視状態の管理 OS ディスクを構成す る I/O パスに対して Test I/O を実施 Test I/O で OS ディスクの異常を検出 監視エンジン 監視モニタ syslog 通知 rdmdiagd rdmping コンソール通知 参照 OS ディスクがダウン 更新 I/O パス異常 定期ポーリング で OS ディスク 異常を検出 [ 共有メモリ ] I/O パスの 監視状態の管理 Test I/O で 異常を検出 5

(1) Test I/O の正常なシーケンスは 以下のような動作になります 基本タイマ (I/O Status Check Interval) :10( 秒 ) TIME_VG_FAULT :60( 秒 ) TIME_TESTIO_INTERVAL :5( 秒 ) WAIT_TESTIO_INTERVAL :5( 秒 ) rdmdiagd rdmping LUN Test I/O I/O Status check interval(10s) OK OK I/O Status check interval(10s) Test I/O Test I/O I/O Status check interval(10s) TIME_TESTIO_INTERVAL(5s) 6

(2) Test I/O で異常を検出すると 以下のような動作になります 基本タイマ (I/O Status Check Interval) :10( 秒 ) TIME_VG_FAULT :60( 秒 ) TIME_TESTIO_INTERVAL :5( 秒 ) WAIT_TESTIO_INTERVAL :5( 秒 ) rdmdiagd rdmping LUN Test I/O I/O Status check interval(10s) OK OK TIME_TESTIO_INTERVAL(5s) RETRY Test I/O WAIT_TESTIO_INTERVAL(5s) I/O Status check interval(10s) Error Error Test I/O WAIT_TESTIO_INTERVAL(5s) I/O Status check interval(10s) Error RETRY Error TIME_VG_FAULT(60s) タイムオーバ syslog 通知 or クラスタウエアデーモン強制停止 or rdmstat 停止 or os system dump + panic 7

3. 監視の設定と実践 それでは ご一緒に RootDiskMonitor および HW-RAID 監視機能を使用してみましょう! 3.1. インストール まずは RootDiskMonitor および HW-RAID 監視機能をインストールしましょう RootDiskMonitor RootDiskMonitor は以下の手順でインストールします コードワードおよびインストールに関する詳細につきましては同梱の CLUSTERPRO MC RootDiskMonitor 1.0 for Linux リリースメモ をご覧ください すでに本製品をインストール済みの場合は 以下の手順を行う必要はありません 次のステップ (HW-RAID 監視機能のインストール ) へ進んでください (1) rpm(8) コマンドにより 本製品のパッケージをインストールします 以下の手順は CD-R 媒体を /mnt/cdrom にマウントした場合の例です # rpm -ivh /mnt/cdrom/linux/rpm/clusterpro-mc-rdm-w.x.y-z.i386.rpm w, x, y, z は任意のリビジョン番号が入ります 注意 : RootDiskMonitor を使用する場合 sg3_utils がインストールされている必要があります 本パッケージがインストールされていない場合 事前にインストールしてください Red Hat Enterprise Linux 6.x (64bit) のシステムに本製品をインストールする場合 事前に互換ライブラリ (glibc-x-y.el6.i686.rpm) がインストールされている必要があります 本パッケージがインストールされていない場合 事前にインストールしてください (2) rpm(8) コマンドにより 本製品が正しくインストールされたことを確認します # rpm -qa grep clusterpro-mc-rdm clusterpro-mc-rdm-w.x.y-z w, x, y, z は任意のリビジョン番号が入ります 8

HW-RAID 監視機能 HW-RAID 監視機能は以下の手順でインストールします コードワードおよびインストールに関する詳細につきましては同梱の CLUSTERPRO MC RootDiskMonitor 1.0 for Linux HW-RAID 監視機能リリースメモ をご覧ください すでに本製品をインストール済みの場合は 以下の手順を行う必要はありません 次のステップ (3.2 章 ) へ進んでください (1) rpm(8) コマンドにより 本製品のパッケージをインストールします 以下の手順は CD-R 媒体を /mnt/cdrom にマウントした場合の例です # rpm -ivh /mnt/cdrom/option/hwraidmon/rpm/clusterpro-mc-rdmhwraid-w.x.y-z.i386.rpm w, x, y, z は任意のリビジョン番号が入ります 注意 : HW-RAID 監視機能を使用する場合 sg3_utils および Universal RAID Utility がインストールされている必要があります sg3_utils および Universal RAID Utility がインストールされていない場合 事前にインストールしてください Red Hat Enterprise Linux 6.x (64bit) のシステムに本製品をインストールする場合 事前に互換ライブラリ (glibc-x-y.el6.i686.rpm) がインストールされている必要があります 本パッケージがインストールされていない場合 事前にインストールしてください (2) rpm(8) コマンドにより 本製品が正しくインストールされたことを確認します # rpm -qa grep clusterpro-mc-rdmhwraid clusterpro-mc-rdmhwraid-w.x.y-z w, x, y, z は任意のリビジョン番号が入ります 以上で RootDiskMonitor および HW-RAID 監視機能のインストールは終了です 9

3.2. 設定ファイルの作成 RootDiskMonitor および HW-RAID 監視機能で使用する設定ファイルを作成しましょう RootDiskMonitor は以下のファイルを使用します /opt/ha/rdm/conf/rdm.config 設定ファイルはノード単位に定義するファイルで 監視間隔や障害検出時のアクション 監視対象のデバイス情報等を定義します SG 自動生成コマンド /opt/ha/rdm/bin/rdmconfig(1m) を利用するとデバイス情報を検索し設定ファイルのテンプレートを自動生成できます すでに設定ファイルが存在する場合は 上書き要否を問い合わせますので Y/N から Y を選択してください N を選択すると SG 自動生成を中止します # /opt/ha/rdm/bin/rdmconfig 注意 : SAN Boot 構成は SG 自動生成 (rdmconfig) のサポート対象外です SG 自動生成 (rdmconfig) サポート対象外の構成の場合 サンプルファイルが /opt/ha/rdm/conf/rdm.config.default として提供されていますので このファイルをコピーした後に OS ディスクを構成するデバイス情報を登録してください HW-RAID 監視機能は以下のファイルを使用します /var/opt/ha/hwraidmon/conf/rdm_hwraidmon.config /var/opt/ha/hwraidmon/conf/rdm_hwraidmon_service.config 設定ファイルはノード単位に定義するファイルで 製品全体の動作や実行するサービス等を 定義します いずれの設定ファイルも特別な要件がない限りそのままご使用ください 10

3.3. 監視の開始 RootDiskMonitor による OS ディスク監視および HW-RAID 監視機能による HW-RAID 監視を 開始しましょう RootDiskMonitor による OS ディスク監視 (1) RootDiskMonitor を起動して 監視をはじめます 以下のコマンドを root 権限で投入することで起動できます # /etc/init.d/rdmd start (2) ps(1) コマンドにより RootDiskMonitor のプロセス (rdmdiagd, rdmping) が起動していることを確認します # ps -ef grep rdm root 2169 1 0 10:43:40? 0:00 /opt/ha/rdm/bin/rdmdiagd root 2179 2169 0 10:43:40? 0:00 rdmping HW-RAID 監視機能による HW-RAID 監視 (1) HW-RAID 監視機能を起動して 監視をはじめます 以下のコマンドを root 権限で投入することで起動できます # /etc/init.d/rdmhwraidmon start (2) ps(1) コマンドにより HW-RAID 監視デーモン (rdm_hwraidmon) が 起動していることを確認します # ps -ef grep rdm_hwraidmon root 2169 1 0 10:43:40? 0:00 /opt/ha/hwraidmon/bin/rdm_hwraidmon 11

3.4. 監視状態の確認 監視状態を確認しましょう RootDIskMonitor による OS ディスク監視 OS ディスクの監視状態を確認します 監視リソースおよび各リソースの監視状態を表示します # /opt/ha/rdm/bin/rdmadmin リソース監視の on/off を表示します ============================================= : : Logical : I/O type : H/W Path : status : status =========:================:=========:========== VG レベルの監視状態を VG : /dev/volgroup00 : up 表示します PV : /dev/sda : up : up I/O パスの論理 物理状態を 全ステータスが up になっていることを確認します 表示します HW-RAID 監視機能による HW-RAID 監視 rdmadmin コマンドにて監視状態を確認します 論理ディスクおよび物理ディスクの監視状態を表示します # /opt/ha/rdm/bin/rdmadmin c pdstatus ======================================================== : : Logical : I/O type : H/W Path : status : status =========:============:==========:======================= VG : VG_NONE : up 論理ディスクの状態を表示します PV : /dev/sda : up : up LD : 1 : Online PD : 1 : Online PD : 2 : Online 物理ディスクの状態を表示します PV : /dev/sdb : up : up LD : 2 : Online PD : 3 : Online PD : 4 : Online 12

3.5. ディスク障害検知の確認 ディスク障害を擬似的に発生させ 障害が検出されることを確認しましょう 本章では シングルディスク構成とソフトミラー構成および HW-RAID 構成における 障害検出の動作を確認します シングルディスク構成の場合 (1) 障害前に現在の状態をモニタリングします # /opt/ha/rdm/bin/rdmadmin ============================================= : : Logical : I/O type : H/W Path : status : status =========:================:=========:========== VG : /dev/volgroup00 : up PV : /dev/sda : up : up VG ステータスが up となっていることを確認 PV ステータスが up となっていることを確認 (2) rdmadmin コマンドの f [SpecialFile] オプションにて 障害を擬似するディスクを 指定します 指定されたディスクは強制的に I/O ステータスが up から down に変更され擬似的に 障害を起こすことができます # /opt/ha/rdm/bin/rdmadmin -c debug -v on -f /dev/sda Change debug value. special file = /dev/sda 0 -> 1 約 60 秒後 # /opt/ha/rdm/bin/rdmadmin ============================================= : : Logical : I/O type : H/W Path : status : status =========:================:=========:========== VG : /dev/volgroup00 : down PV : /dev/sda : down : down シングルディスク構成では down となりますメモリ上のステータスを強制的に書き換えます (3) syslog にメッセージが出力されます 以下のメッセージが出力されることを確認してください Apr 19 10:24:24 host1 rdm[16517]: PV down find.(sf=/dev/sda) Apr 19 10:24:24 host1 rdm[16517]: VG status change down.(vg=/dev/volgroup00) 13

ソフトミラー構成の場合 (1) 障害前に現在の状態をモニタリングします # /opt/ha/rdm/bin/rdmadmin ============================================= : : Logical : I/O type : H/W Path : status : status =========:================:=========:========== VG : /dev/volgroup00 : up PV : /dev/sda : up : up PV : /dev/sdb : up : up VG ステータスが up となっていることを確認 PV ステータスが up となっていることを確認 (2) rdmadmin コマンドの f [SpecialFile] オプションにて ミラーを構成する片方のディスクを指 定することで片系障害を発生させます 指定されたディスクは強制的に I/O ステータスが up から down に変更され擬似的に 片系障害を起こすことができます # /opt/ha/rdm/bin/rdmadmin -c debug -v on -f /dev/sdb Change debug value. special file = /dev/sdb 0 -> 1 約 60 秒後 # /opt/ha/rdm/bin/rdmadmin ============================================= : : Logical : I/O type : H/W Path : status : status =========:================:=========:========== VG : /dev/volgroup00 : suspend PV : /dev/sda : up : up PV : /dev/sdb : down : down ソフトミラー構成では suspend になりますメモリ上のステータスを強制的に書き換えます (3) 片系障害を発生させた場合 syslog にメッセージが出力されます 以下のメッセージが出力されることを確認してください Apr 19 10:19:44 host1 rdm[16517]: PV down find.(sf=/dev/sdb) Apr 19 10:19:44 host1 rdm[16517]: VG status change suspend.(vg=/dev/volgroup00) 14

(4) rdmadmin コマンドの f [SpecialFile] オプションにて ミラーを構成するもう片方のディスクを 指定することで両系障害を発生させます すでに片系が異常な状態で 残りの正常なディスクを異常にすることで両系障害を擬似的に 起こすことができます # /opt/ha/rdm/bin/rdmadmin -c debug -v on -f /dev/sda Change debug value. special file = /dev/sda 0 -> 1 約 60 秒後 # /opt/ha/rdm/bin/rdmadmin ============================================= : : Logical : I/O 両系障害で down 状態に type : H/W Path : status : status なっていることを確認 =========:================:=========:========== VG PV : /dev/volgroup00 : /dev/sda : down : down : down MIRROR PV : : /dev/sdb : : down : down メモリ上のステータスを強制的に書き換えます (5) 両系障害を発生させた場合 syslog にメッセージが出力されます 以下のメッセージが出力されることを確認してください Apr 19 10:24:24 host1 rdm[16517]: PV down find.(sf=/dev/sda) Apr 19 10:24:24 host1 rdm[16517]: VG status change down.(vg=/dev/volgroup00) HW-RAID 構成の場合 (1) HW-RAID 監視デーモンが起動していることを確認します # ps ef grep rdm_hwraidmon root 59651 1 0 12:00? 00:00:00 /opt/ha/hwraidmon/bin/rdm_hwraidmon root 60077 60056 0 12:01 pts/0 00:00:00 grep rdm_hwraidmon 起動していない場合は /etc/init.d/rdmhwraidmon start で起動してください (2) Universal RAID Utility の RAID システム管理モードを表示します # raidcmd runmode Standard Mode (3) Standard Mode の場合は 以下のコマンドにて管理モードを変更します 既に Advanced Mode の場合は この手順は不要です # raidcmd runmode md=a Changed RAID System Management Mode to "Advanced Mode". 15

(4) PD3 を障害状態に強制変更します # raidcmd stspd -c=1 -p=3 -st=offline Make the Physical Device #3 offline. [Warning] The redundancy of Logical Drive will be lost. Do you continue? [yes(y) or no(n)] : -c は RAID コントローラ番号 -p は物理ディスク番号を指定します 上記ではコントローラ番号 1 物理ディスク番号 3 を指定しています (5) PD3 が障害状態になっていることを確認します # raidcmd property -tg=pd -c=1 -p=3 RAID Controller #1 Physical Device #3 ID : 3 Enclosure : 1 Slot : 4 Device Type : HDD Interface : SAS Vendor/Model : SEAGATE ST973402SS Firmware Version : 0002 Serial Number : 3NP1JVQZ Capacity : 67GB Status : Failed S.M.A.R.T. : Normal -tg は出力範囲を指定します 上記では物理ディスクの状態を出力するため pd を指定しています # /opt/ha/rdm/bin/rdmadmin c pdstatus =========================================================== : : Logical : I/O type : H/W Path : status : status ============:===========:===========:======================= VG : VG_NONE : up PV : /dev/sda : up : up LD : 1 : Online PD : 1 : Online PD : 2 : Online PV : /dev/sdb : up : up LD : 2 : Degraded ##Failed になっていることを PD : 3 : Failed PD : 4 : Online (6) 監視のタイミングで障害検出メッセージが syslog に出力されていることを確認します デフォルトでは最大 3600 秒かかります Status が Failed に なっていることを確認 # view /var/log/messages Sep 14 13:00:14 host1 rdm_hwraidmon[21520]: LD2 [/dev/sdb] status is Degraded. Sep 14 13:00:14 host1 rdm_hwraidmon[21520]: PD3 [/dev/sdb] status is Failed. 以上で ディスク障害の検知の確認は終了です 16

3.6. 監視の復旧 3.5 章で発生させた擬似障害状態を rdmadmin コマンドにて復旧させます シングルディスク構成の場合 (1) 擬似障害を発生させた物理ディスク (/dev/sda) の擬似障害の復旧を行います # /opt/ha/rdm/bin/rdmadmin -c debug -v off -f /dev/sda Change debug value. special file = /dev/sda 1 -> 0 # /opt/ha/rdm/bin/rdmadmin ============================================= : : Logical : I/O type : H/W Path : status : status up になることを確認します =========:================:=========:========== VG : /dev/volgroup00 : up up になることを確認します PV : /dev/sda : up : up (2) syslog メッセージを確認してください Apr 19 11:57:40 host1 rdm[16517]: VG status change up.(vg=/dev/volgroup00) ソフトミラー構成の場合 (1) 擬似障害を発生させた物理ディスク (/dev/sda, /dev/sdb) の擬似障害の復旧を行います # /opt/ha/rdm/bin/rdmadmin -c debug -v off -f /dev/sda Change debug value. special file = /dev/sda 1 -> 0 # /opt/ha/rdm/bin/rdmadmin -c debug -v off -f /dev/sdb Change debug value. special file = /dev/sdb 1 -> 0 # /opt/ha/rdm/bin/rdmadmin ============================================= : : Logical : I/O type : H/W Path : status : status up になることを確認します =========:================:=========:========== VG : /dev/volgroup00 : up up になることを確認します PV : /dev/sda : up : up PV : /dev/sdb : up : up (2) syslog メッセージを確認してください Apr 19 11:57:40 host1 rdm[16517]: VG status change up.(vg=/dev/volgroup00) 17

HW-RAID 構成の場合 (1) PD3 を正常状態に強制変更します # raidcmd stspd -c=1 -p=3 -st=online Make the Physical Device #3 online [Warning] The redundancy of Logical Drive will be lost. Do you continue? [yes(y) or no(n)] : (2) PD3 が正常状態になっていることを確認します # raidcmd property -tg=pd -c=1 -p=3 RAID Controller #1 Physical Device #3 ID : 3 Enclosure : 1 Slot : 4 Device Type : HDD Interfac : SAS Vendor/Model : SEAGATE ST973402SS Firmware Version : 0002 Serial Number : 3NP1JVQZ Capacity : 67GB Status : Online S.M.A.R.T. : Normal Online になることを確認します # /opt/ha/rdm/bin/rdmadmin c pdstatus ======================================================== : : Logical : I/O type : H/W Path : status : status ===========:==========:==========:======================= VG : VG_NONE : up PV : /dev/sda : up : up LD : 1 : Online PD : 1 : Online PD : 2 : Online Online になることを確認します PV : /dev/sdb : up : up LD : 2 : Online PD : 3 : Online PD : 4 : Online (3) 管理モードを変更した場合は元に戻します 管理モードを変更していない場合はこの手順は不要です # raidcmd runmode -md=s Changed RAID System Management Mode to "Standard Mode". 以上で 監視の復旧は終了です 18

3.7. 監視の終了 RootDiskMonitor による OS ディスク監視および HW-RAID 監視機能による HW-RAID 監視の 終了手順を確認しましょう RootDiskMonitor による OS ディスク監視 (1) RootDiskMonitor を停止して 監視を終了します 以下のコマンドを root 権限で投入することで停止できます # /etc/init.d/rdmd stop (2) ps(1) コマンドにより RootDiskMonitor のプロセス (rdmdiagd, rdmping) が停止していることを確認します rdmdiagd および rdmping が表示されないことを確認します # ps -ef grep rdm HW-RAID 監視機能による HW-RAID 監視 (1) HW-RAID 監視機能を停止して 監視を終了します 以下のコマンドを root 権限で投入することで停止できます # /etc/init.d/rdmhwraidmon stop (2) ps(1) コマンドにより HW-RAID 監視デーモン (rdm_hwraidmon) が停止していることを確認します rdm_hwraidmon が表示されないことを確認します # ps -ef grep rdm_hwraidmon 19

4. おわりに 以上 RootDiskMonitor および HW-RAID 監視機能の基本的な動作となります また この他にも I/O ストールの監視やクラスタウェア連携など システムにあわせた監視を行うことができます 各機能の詳細については CLUSTERPRO MC RootDiskMonitor 1.0 for Linux ユーザーズガイド および CLUSTERPRO MC RootDiskMonitor 1.0 for Linux HW-RAID 監視機能ユーザーズガイド をご覧ください 20

CLUSTERPRO MC RootDiskMonitor 1.0 for Linux はじめての RootDiskMonitor 2013 年 4 月第 2 版日本電気株式会社東京都港区芝五丁目 7 番地 1 号 TEL (03) 3454-1111( 代表 ) P NEC Corporation 2013 日本電気株式会社の許可なく複製 改変などを行うことはできません 本書の内容に関しては将来予告なしに変更することがあります

保護用紙