Oracle DB RAC with ASM Installation Guide on Linux x86
|
|
|
- てるえ ふくだ
- 7 years ago
- Views:
Transcription
1 Oracle Database 11g Release 2 Real Application Clusters Patch Set 2 ( ) 適用ガイド Linux x86-64 版 作成日 : 更新日 : Version:
2 目次 1 はじめに 参考資料 省略表記 表記規則 アップグレード パスの決定 out-of-place アップグレードと in-place アップグレード 概要 拡張されたパッチ セットのインストール g Release 2 の新しい概念 インストール環境と事前準備 ハードウェア ソフトウェア OS ユーザーの設定 g/11g Release 1 から にアップグレード Oracle RAC 10g / 11g R1 のインストール手順 g あるいは 11g R1 の Oracle Clusterware から の Oracle Grid Infrastructure へのアップグレード ASM インスタンスの へのアップグレード Oracle Database ソフトウェアのインストール データベースのアップグレード / から にアップグレード Oracle RAC のインストール手順 または から への Oracle Grid Infrastructure のアップグレード Oracle Database ソフトウェアのインストール データベースのアップグレード 付録 A 用個別パッチ適用 A-1 OPatch の用意 A-2 Patch の適用 付録 B 用個別パッチ適用 B-1 OPatch の用意 B-2 Patch の適用 付録 C 用個別パッチ適用 C-1 OPatch の用意 C-2 Patch の適用 付録 D 用個別パッチ適用 D-1 OPatch の用意 D-2 Oracle Configuration Manager(OCM) ファイル作成 D-3 Patch の適用
3 付録 E ダウングレード E-1 Patch の適用 E-2 データベースのダウングレードの実行 E-3 Oracle Clusterware のダウングレード Version 日付 備考 初版 に必要なパッチを変更 誤字修正 SCAN ホスト名を hosts ファイルで登録されている場合 インストール中にエラーが出力され る対処方法を追加 - 3 -
4 1 はじめに 本ガイドは Windows 64bit プラットフォーム上の Oracle Database 10g や Oracle Database 11g Release 1 (11g R1) の Oracle Database または Oracle Database 11g Release 2 (11g R2) により構成された Oracle Real Application Clusters(Oracle RAC) 構成を Oracle Database 11g Release 2 Patch Set 2 ( ) へアップグレード ( 注 ) する際の手順について記載します ********************************************************************************************************************** ( 注 ) 11g R2 の Patch Set Release (PSR) は Oracle Database 11g Release 2 Patch Set 1 ( ) より 初期バージョンからの修正を含んだフルインストレーションとして提供されており もフルインストレーションとして提供されています フルインストレーションでは PSR の新規インストール時や既存環境のアップグレード時に 初期バージョンを必要とせずに直接 PSR の環境を構築することができます 従って 11g R2 では PSR の適用が異なるバージョン間のアップグレードに近いイメージのため 本ガイド中では PSR の適用 を アップグレード と表現しています ********************************************************************************************************************** 1.1 参考資料作成にあたり参照したマニュアルを以下に記載しますので 詳細についてはこれらのマニュアルも併せてご覧ください Oracle Grid Infrastructure インストレーション ガイド 11g リリース 2(11.2)for Linux Oracle Database インストレーション ガイド 11g リリース 2(11.2)for Linux Oracle Automatic Storage Management 管理者ガイド 11g リリース 2(11.2) Oracle Database リリース ノート 11g リリース 2(11.2)for Linux Oracle Database 新機能ガイド 11g リリース 2(11.2) Oracle Database アップグレード ガイド 11g リリース 2(11.2) Oracle Database グローバリゼーション サポート ガイド 11g リリース 2(11.2) Oracle Clusterware 管理およびデプロイメント ガイド 11g リリース 2(11.2) Oracle Database リファレンス 11g リリース 2(11.2) Oracle Database 管理者ガイド 11g リリース 2(11.2) Oracle Real Application Clusters 管理およびデプロイメント ガイド 11g リリース 2(11.2) これらを含むマニュアルは Oracle Technology Network (OTN) Japan の WEB サイトより提供されています
5 1.2 省略表記本ガイドでは 以下の省略表記を使用しています Oracle Database 11g Release 2 Real Application Clusters 名称 省略表記 Cluster Time Synchronization Service CTSS Database Configuration Assistant DBCA Database Upgrade Assistant DBUA Grid Naming Service GNS Intelligent Platform Management Interface IPMI My Oracle Support MOS Network Time Protocol NTP Operating System OS Oracle Automatic Storage Management Oracle ASM または ASM Oracle ASM Cluster File System Oracle ACFS または ACFS Oracle ASM Configuration Assistant ASMCA Oracle ASM Dynamic Volume Manager Oracle ADVM または ADVM Oracle Cluster Registry OCR Oracle Configuration Manager OCM Oracle Database 10g Release 2 10g R2 Oracle Database 10g Release 2 ( ) Oracle Database 10g Release 2 ( ) Oracle Database 11g Release 1 11g R1 Oracle Database 11g Release 1 ( ) Oracle Database 11g Release 2 11g R2 Oracle Database 11g Release 2 ( ) Oracle Database 11g Release 2 Patch Set Oracle Database 11g Release 2 Patch Set Oracle Database Enterprise Edition EE Oracle Enterprise Manager Database Control Oracle EM Database Control または Database Control Oracle Grid Infrastructure Grid Infrastructure Oracle Net Configuration Assistant NETCA Oracle Real Application Clusters Oracle RAC または RAC Oracle Technology Network Japan OTN Japan Oracle Universal Installer OUI Patch Set Release PSR Patch Set Update PSU Single Client Access Name SCAN Unbreakable Enterprise Kernel UEK 上記略称の他に 構築環境に依存する各環境変数を次の略称にて識別しております 各略称は構築環境に合わせ 適切な値を設定してください 略称表記 設定値 <BASE_GI_HOME> <BASE_DB_HOME> <BASE_CRS_HOME> <11203_GI_HOME> アップグレード前の Oracle Grid Infrastructure の Oracle ホームを ORACLE_HOME として設定します アップグレード前の Oracle Database の Oracle ホームを ORACLE_HOME として設定します アップグレード前の Oracle Clusterware の Oracle ホームを ORACLE_HOME として設定します の Oracle Grid Infrastructure の Oracle ホームを ORACLE_HOME として設定します - 5 -
6 <11203_DB_HOME> <BASE _ASM_HOME> <DB_NAME> <DB_SID > <ASM_SID> の Oracle Database の Oracle ホームを ORACLE_HOME として設定します アップグレード前の Oracle Automatic Storage Management (ASM) の Oracle ホームを ORACLE_HOME として設定します ただし 11g R1 以前のバージョンの場合 <BASE_ASM_HOME> と Oracle Database の Oracle ホームが同じ場合があります データベース名を設定します データベース インスタンスの識別子を設定します ASM インスタンスのの識別子を設定します コマンドに必要な引数 インストールメディアのディレクトリ ユーザーが作成する必要のあるディレクトリを次に記載します 各環境に応じた設定値を設定してください 略称表記 設定値 <spfile_path> <pfile_path> <BASE_VERSION> <version_number> <GRID_INSTALL_IMAGE> <DATABASE_INSTALL_IMAGE> <OPatch_DIRECTORY> <PATCH_TOP_DIR> <Save_Directory> spfile のディレクトリを設定します pfile のディレクトリを設定します アップグレード前のバージョンを設定します timezlrg ファイル timezone ファイルのバージョン番号を設定します Oracle Grid Infrastructure のインストールメディアのディレクトリを設定します Oracle Database のインストールメディアのディレクトリを設定します OPatch のディレクトリを設定します ダウンロードした Patch のディレクトリを設定します Oracle Enterprise Manager Database Control (Database Control) のデータをバックアップするディレクトリを設定します このディレクトリはユーザーが作成する必要があります - 6 -
7 1.3 表記規則本ガイドでは 次の表記規則を使用します 規則 太字イタリック体 Oracle Database 11g Release 2 Real Application Clusters 意味太字は 操作に関連する Graphical User Interface 要素を示します 強調またはユーザーが特定の値を指定するプレースホルダ変数を示します 固定幅フォントは 段落内のコマンド サンプル内のコード 画面に表示される固定幅フォントテキスト または入力するテキストを示します # 記号 bash シェルの root ユーザーのコマンドプロンプトを表します $ 記号 bash シェルの Oracle 製品インストール ユーザーのコマンドプロンプトを表します 1.4 アップグレード パスの決定次の図には 各バージョンから への主なアップグレード パスが示されています Oracle Database 11g Release 2 ( ) への直接のアップグレードがサポートされているバージョンに関しては へ直接アップグレードすることがサポートされています 図 1 Oracle Database 11g Release 2 Patch Set 2 ( ) へのアップグレード パス - 7 -
8 1.5 out-of-place アップグレードと in-place アップグレード これまでのバージョンから へ環境をアップグレードするにあたり アップグレード方式を理解しておく必要があります 11g R2 より 次の 2 つのアップグレード方式が提供されています in-place アップグレードこれまでのバージョンで実施していたアップグレード方式です 既存のソフトウェア ( バイナリ ファイル ) を直接入れ替えることでアップグレードを実行します out-of-place アップグレード 11g R2 から提供されている新しいアップグレード方式です 既存のソフトウェア ( バイナリ ファイル ) を残したまま 新規にソフトウェアをインストールしてアップグレードを実行します Oracle Database 11g Release 2 Grid Infrastructure では out-of-place アップグレードを使用してアップグレードを行います in-place アップグレードは使用できないため out-of-place アップグレードが必須となります また Oracle Database 11g Release 2 では in-place および out-of-place アップグレードが使用できますが out-of-place アップグレードでのアップグレードが推奨となります 次の図は out-of-place アップグレードのメリットについての説明図です ここでは Oracle Database を例に用いて説明します out-of-place アップグレードでは アップグレード中に下位のソフトウェアに上書きをせずに 新規にソフトウェアをインストールして構築を行います そのため アップグレード中に予期せぬ障害などで以前の環境への切り戻しが必要になった場合でも in-place アップグレードよりも短いダウンタイムで対応することができます 図 2 out-of-place アップグレードのメリット - 8 -
9 次の表に Oracle Database の out-of-place アップグレードおよび in-place アップグレードの手順の違いを記載します 各アップグレードで異なる部分は赤字で記載しています 全体を通してのアップグレード手順の詳細に関しては Oracle Database アップグレード ガイド 11g リリース 2 (11.2) を参照してください アップグレード フェーズ out-of-place アップグレード In-place アップグレード システム要件や構成の確認 システム要件や構成の確認 Oracle Database アップグレード前の準備 用 Oracle ホームの新規作成 既存ホームのバックアップ 念のため次のファイルのバックアップ取得 <BASE_DB_HOME>/dbs <BASE_DB_HOME>/network/admin <BASE_DB_HOME>/host_dbname <BASE_DB_HOME>/oc4j/j2ee/OC4J_DBConsole _host_dbname インベントリから既存ホームの削除 インストール後の作業 環境変数 ORACLE_HOME の更新最新の Patch の適用 ( オプション ) 最新の Patch の適用 ( オプション ) データベースのアップグレードの準備 データベースのアップグレード データベースのアップグレード後の作業 既存データベースのバックアップ アップグレード前情報ツールの実行 Database Upgrade Assistant (DBUA) によりデータベースをアップグレード 構成や接続の確認 既存データベースのバックアップアップグレード前情報ツールの実行 DBUA によりデータベースをアップグレード構成や接続の確認 - 9 -
10 2 概要 11g R2 の PSR から フルインストレーションでソフトウェアが提供されています そのため 同様 も従来の PSR とは次の点が異なります 従来のバージョン (11g R1 や 10g R2 など ) から最新の PSR へのアップグレード時に 初期リリース ( ) を介すことなく直接のアップグレードがサポートされます 最新の PSR での環境構築時に 初期リリースが不要です 直接 PSR を新規インストールすることができます 2.1 拡張されたパッチ セットのインストール Oracle Grid Infrastructure 11g Release 2(Oracle Clusterware および Oracle 自動ストレージ管理 ) のリリース 以降のパッチ セットでは Oracle Grid Infrastructure のパッチ セットによって Oracle Grid Infrastructure ソフトウェアが完全にインストールされます 新しいパッチ セットのパッケージの次の変更に注意してください 以前のリリース (11.x, 10.x) から直に最新パッチ セットにアップグレードをサポートされます ベースリリースをインストールしてアップグレードすることではなく 最新のパッチ セットを直接にインストールすることです out-of-place パッチセットアップグレードのみサポートされます Out-of-place アップグレードというのは新しく 独自のホームにパッチ セットをインストールすることです g Release 2 の新しい概念 1) out-of-place アップグレード 11.2 からは ユーザーが既存の Oracle Clusterware のインストール場所とは別のホームに新しいバージョンの Oracle Clusterware をインストールすることができます この機能は クラスタ内のノードをアップグレードするために必要なダウンタイムを短縮します 2) SCAN 単一のクライアントアクセス名 (SCAN) は 全てのクライアントがクラスタに接続する時に提供するアドレスです SCAN は ノードが追加されるかクラスタから削除する場合 クライアントを変更する必要がなくなります SCAN の名前を使用しているクライアントも EZCONNECT を使用してクラスタにアクセスすることができます SCAN の名は DNS に三つの IP アドレスを登録されたドメイン名です
11 3 インストール環境と事前準備 アップグレードを行う前に既存環境の確認を行います 以下内容について設定されてないものは事前に設定を行ってください 3.1 ハードウェア本ガイドでは 以下のハードウェアを使用します ノード 1: マシン名 : node01.jp.oracle.com CPU: Intel Core2 Duo E GHz メモリー容量 : 8GB ノード 2: マシン名 : node02.jp.oracle.com CPU: Intel Core2 Duo E GHz メモリー容量 : 8GB ストレージ容量の確認ディスクの空き容量 : インストールに必要なディスク容量の最低要件は以下です ディレクトリ ディスク容量の最低要件 Oracle Grid Infrastructure 用 Oracle Database 用 /tmp 6.5GB 4.6GB 1GB 上記の値は ソフトウェアをインストールするのに必要な容量だけではなく ASM およびログファイル ACFS ログファイルおよびクラスタ状態モニターリポジトリの容量も含めた値です メモリー要件各システムは 次のメモリー要件を満たしている必要があります 物理メモリー : 最低限必要な物理メモリーの要件は以下のとおりです - Oracle Grid Infrastructure と Oracle RAC: 2GB スワップ領域: 必要な容量の要件は以下です 使用可能な物理メモリーの容量スワップ領域として必要な容量 2GB 以上 8GB 未満 8GB 以上 32GB 未満 32GB 以上 物理メモリーの 2 倍の容量 物理メモリーの 1.5 倍の容量 32GB
12 3.2 ソフトウェア本ガイドでは 以下の OS を使用します Oracle Linux Release 5 Update 6 for x86_64 (64 bit) ソフトウェア要件 Oracle Grid Infrastructure 11g Release 2 Patch Set 1 ( ) 以上では gcc-32bit を除いて 次の表に示す全ての 32bit パッケージはインストールに必要なくなりました gcc-32bit と以下 64bit のパッケージをインストールしてください compat-libstdc elfutils-libelf elfutils-libelf-devel gcc-4.1.2(32bit) gcc gcc-c glibc glibc-common-2.5 glibc-devel-2.5 glibc-headers-2.5 ksh libaio libaio-devel libgcc libstdc libstdc++-devel make-3.81 numactl-devel x86_6 4 sysstat unixodbc unixodbc-devel カーネル パラメータの設定クラスタを構成する各ノードでカーネル パラメータの設定を行います 以下表を参考に 既存の値よりも小さいパラメータ値がある場合は /etc/sysctl.conf ファイルの設定を設定します パラメータ値 カーネル パラメータの要件 kernel.shmall kernel.shmmax kernel.shmmni 4096 kernel.sem ( 左から semmsl semmns semmni) fs.file-max fs.aio-max-nr net.ipv4.ip_local_port_range 最小 : 9000 最大 : net.core.rmem_default net.core.rmem_max net.core.wmem_default net.core.wmem_max 要件値
13 例 )/etc/sysctl.conf ファイル設定例 kernel.shmall = kernel.shmmax = kernel.shmmni = 4096 kernel.sem = fs.file-max = fs.aio-max-nr = net.ipv4.ip_local_port_range = net.core.rmem_default = net.core.rmem_max = net.core.wmem_default = net.core.wmem_max = 設定した値を即時に反映するには 全てのノードの root ユーザーで以下のコマンドを実行します [root@node01]# /sbin/sysctl -p [root@node02]# /sbin/sysctl -p 出力される内容が設定値であることを確認 kernel.shmall = kernel.shmmax = kernel.shmmni = 4096 kernel.sem = fs.file-max = fs.aio-max-nr = net.ipv4.ip_local_port_range = net.core.rmem_default = net.core.rmem_max = net.core.wmem_default = net.core.wmem_max = OS ユーザーの設定本ガイドでは Oracle Grid Infrastructure と Oracle Database のインストールは既存のユーザーを使用します リソース制限の設定各インストール ソフトウェア所有者で 次の推奨範囲を使用して インストールのリソース制限を確認します 設定されていない場合は設定する必要あります リソースのシェル制限リソースソフト制限ハード制限 オープン ファイル記述子 nofile 1024 以上 以上 ユーザー 1 人当たりに使用可能なプロセスの数 nproc 2047 以上 以上 プロセスのスタック セグメントのサイズ stack 10240KB 以上 10240KB 以上 32768KB 以下
14 3.3.2 確認方法 リソース制限 の確認をします 以下のコマンドで確認をしてください 1) nofile ファイル記述子の設定のソフト制限およびハード制限を確認します 結果が推奨範囲内であることを確認します 次に例を示します 全てのノードの <oracle ユーザー > で確認します ulimit -Sn 4096 ulimit -Hn 他ノードも同様の手順で確認します 全てのノードの <grid ユーザー > で確認します ulimit -Sn 4096 ulimit -Hn 他ノードも同様の手順で確認します 2) nproc ユーザーが使用可能なプロセス数のソフト制限およびハード制限を確認します 結果が推奨範囲内であることを確認します 次に例を示します 全てのノードの <oracle ユーザー > で確認します ulimit -Su 2047 ulimit -Hu 他ノードも同様の手順で確認します 全てのノードの <grid ユーザー > で確認します ulimit -Su 2047 ulimit -Hu 他ノードも同様の手順で確認します 3) stack スタック設定のソフト制限を確認します 結果が推奨範囲内であることを確認します 次に例を示します 全てのノードの oracle ユーザー > で確認します ulimit -Ss ulimit -Hs 他ノードも同様の手順で確認します
15 全てのノードの <grid ユーザー > で確認します ulimit -Ss ulimit -Hs 他ノードも同様の手順で確認します 例 ) 設定方法クラスタを構成する各ノードで /etc/security/limits.conf ファイルに以下の記載を追加しシェル制限を設定します 本ガイドでは grid および oracle ユーザーを使用した場合 以下の記載例となります oracle soft nproc 2047 oracle hard nproc oracle soft nofile 1024 oracle hard nofile oracle soft stack oracle hard stack grid soft nproc 2047 grid hard nproc grid soft nofile 1024 grid hard nofile grid soft stack grid hard stack
16 4 10g/11g Release 1 から にアップグレード 10g R2,11g R1 から 11g R2 の Oracle Grid Infrastructure へアップグレードする手順について説明します 4.1 Oracle RAC 10g / 11g R1 のインストール手順本ガイドでは 以下の手順で 10g あるいは 11g R1 のクラスタ環境が構成されています / の Oracle Clusterware インストールおよび構成 - Oracle Cluster Registry (OCR) と投票ディスクの格納場所には Raw デバイスを使用 / の Oracle Database インストール - 非共有 Oracle ホーム Enterprise Edition を選択 Oracle Clusterware および Oracle RAC を / へアップグレード Net Configuration Assistant (NetCA) を使用したリスナーの作成 Database Configuration Assistant (DBCA) を使用した RAC データベースのインスタンス作成 - データベース ファイルの格納場所には ASM を使用 インストール ユーザーには全てのソフトウェアで共通の OS ユーザーを使用 - oracle ユーザーを使用 Patch Set Update の適用と留意事項 Linux 環境において から へアップグレードを行う際には Patch そして から へアップグレードを行う際には Patch を適用する必要があります この Patch が未適用の場合にアップグレードが失敗します Patch または Patch に関する適用手順の詳細は 付録 A 用個別パッチ適用 および 付録 B 用個別パッチ適用 を参照してください 続けて へのアップグレード手順について記述します
17 4.2 10g あるいは 11g R1 の Oracle Clusterware から の Oracle Grid Infrastructure へのアップグレード 1. アップグレード準備 Oracle Grid Infrastructure のアップグレード作業を開始する前に 以下を実施してください Cluster Ready Services (CRS) プロセス稼働の確認 全てのノード上で Cluster Ready Services (CRS) プロセスが稼働している必要があります 確認には Oracle Clusterware の所有ユーザーで以下のコマンドを実行してください 確認は全てのノードで実施します 以下は 10g R2 を使用した RAC 環境における実行例です CSS,CSS,EVM の 3 つが healthy であることを確認してください [oracle@node01]$ crsctl check crs [oracle@node02]$ crsctl check crs CSS appears healthy CRS appears healthy EVM appears healthy 他ノードも同様の手順で確認します SCAN 用の IP アドレスの準備 11g Release 2 より RAC データベースへのアクセスには SCAN を使用するため へのアップグレード中に SCAN 情報 (SCAN として使用する単一のホスト名 ) の入力を求められます アップグレード開始前に 単一のホスト名 (SCAN 名として使用 ) に対して 3 つの IP アドレスが DNS あるいは Grid Naming Service (GNS) により名前解決されるよう設定しておきます 全てのノード上で,root ユーザでログインし 以下の手順で SCAN に登録されている IP アドレスを確認します [root@node01]# nslookup oacscan1.jp.oracle.com [root@node02]# nslookup oacscan1.jp.oracle.com Server: Address: #2 Name: oacscan1.jp.oracle.com Address: Name: oacscan1.jp.oracle.com Address: Name: oacscan1.jp.oracle.com Address: 他ノードも同様の手順で確認します
18 ASM 管理者 (OSASM) グループ用の OS グループの準備 ASM に対する OS 認証に使用するグループとして使用する OS グループを作成します 本ガイドでは asmadmin グループを作成して ASM 管理者 (OSASM) グループとして設定するものとします 以下はグループを作成するためのコマンド例です 以下のコマンドで OS グループを作成後 /etc/group ファイルを編集し 既存のユーザー ( ここでは oracle ユーザー ) に OS グループを設定します OS グループの作成および編集作業は 全てのノードで実施してください [root@node01]# groupadd -g 1100 asmadmin [root@node01]# vi /etc/group 全ノードにて同様の手順で設定します 設定後 oracle ユーザに接続し id コマンドで確認します [root@node01]# su - oracle [oracle@node01]$ id -a uid=501(oracle) gid=1000(oinstall) groups=500(oper),501(dba),1000(oinstall),1100(asmadmin) asmadmin グループが付与されていることを確認 全ノードにて同様の手順で確認します Grid Infrastructure のインストール ディレクトリの作成 Grid Infrastructure のホーム ディレクトリを作成します Grid Infrastructure は out-of-place でのアップグレードが必須です 以下はディレクトリの作成例です [root@node01]# mkdir -p /u01/app/11.2.0/grid [root@node01]# chmod -R 775 /u01/app/ [root@node01]# chown -R oracle:oinstall /u01/app/ 全ノードにて同様の手順で確認します 既存の環境変数の解除 既存の環境において設定している Oracle 関連の環境変数 (ORACLE_HOME ORACLE_BASE ORACLE_SID など ) があれば解除しておきます CRS_HOME や ORA_CRS_HOME といった環境変数は使用しないでください また PATH 環境変数には ORACLE 関連のディレクトリを含めないで下さい 以下に本ガイドでの実行例を記載します [oracle@node01]$ vi ~/.bash_profile 次の環境変数をコメントアウトする #export ORACLE_BASE=/u01/app/oracle #export ORACLE_HOME=/u01/app/oracle/product/11.1.0/db_1 #export ORA_CRS_HOME=/u01/app/11.1.0/crs #export PATH=$ORA_CRS_HOME:$ORACLE_HOME/bin:$PATH #export ORACLE_SID=+ASM1 [oracle@node01]$ su - oracle 環境変数を再読み込みするために再ログインします [oracle@node01]$ env grep ORACLE ORACLE 関連の環境変数がないことを確認 [oracle@node01]$ env grep PATH PATH=/bin:/usr/kerberos/bin:/usr/local/bin:/bin:/usr/bin:/home/grid/bin PATH 環境変数に ORACLE のディレクトリ関連がないことを確認
19 2. インストーラの起動 oracle ユーザーで以下のコマンドを実行します <GRID_INSTALL_IMAGE>/Disk1/runInstaller 3. ソフトウェア更新のダウンロード インストール中に最新の Patch 等の更新をダウンロードして適用するためのオプションとして ソフトウェア更新のダウンロードオプションが提供されています ダウンロードはインターネット接続 (My Oracle Support (MOS) 経由 ) で実施されます そのためネットワーク接続が制限されている環境等を考慮して 事前にネットワーク接続が可能な環境においてダウンロードしておいた更新を適用するためのオプションも提供されています ここでは 更新のダウンロードや適用は行わないため ソフトウェア更新のスキップ を選択して 次へ をクリックします
20 4. インストール オプションの選択 既存の Oracle Clusterware をアップグレードするため Oracle Grid Infrastructure または Oracle 自動ストレージ管理のアップグレード を選択し 次へ をクリックします
21 5. 製品言語の選択 製品を実行する必要な言語を選択します 本ガイドでは 日本語 と 英語 が選択されていることを確認し 次へ をクリックします
22 6. Grid Infrastructure ノードの選択 アップグレードを実行するノードを選択します ここでは クラスタ自動ストレージ管理 (ASM) のアップグレード を選択して ASM のアップグレードも同時に実施します ASM のアップグレードはオプションですので 選択しないで作業を継続することもできます オプションを選択した場合は rootupgrade.sh 実行後に OUI により自動でアップグレードが実行されます オプションを選択しない場合は Grid Infrastructure のアップグレード後に手動で ASMCA によりアップグレードを実施できます その場合の詳細については 4.2 ASM インスタンスの へのアップグレード を参照してください 入力後 次へ をクリックます
23 7. Grid Infrastructure SCAN 情報 SCAN 名と SCAN ポート を入力します SCAN 名には 事前に準備しておいた単一のホスト名を入力します 本ガイドでは SCAN ポートをデフォルトの値 (1521) を使用します 入力後 次へ をクリックします
24 8. 権限付きオペレーティング システム グループ ASM に対して OS 認証に使用するグループをそれぞれ設定します 本ガイドでは Oracle ASM DB(ASM の OSDBA) グループ に asmdba OracleASM オペレータ (ASM の OSOPER) グループ ( オプション ) に asmoper Oracle ASM 管理者 (OSASM) グループ に asmadmin を指定します 指定内容を確認し 次へ をクリックします
25 9. インストール場所の指定 ソフトウェアの場所を指定し 次へ をクリックします
26 10. 前提条件チェックの実行 インストール実行前に 前提条件のチェックが実行されます 全てのチェック項目に成功すると 自動的にサマリー画面に遷移します 失敗した項目がある場合には 適宜修正を行ってください
27 SCAN ホスト名が DNS ではなく hosts ファイルのみで名前解決されている場合は 次の図のように タスク resolv.conf の整合性でエラーが出力されるので SCAN ホスト名が正しく設定されていることを確認し 全て無視 へチェックを入れて 次へ をクリックします 詳細 をクリックすると次のような詳細画面で内容を確認できます
28 11. サマリー 設定に問題がないかインストール サマリーを確認し インストール をクリックします
29 12. 製品のインストール インストールが開始されます
30 13. 構成スクリプトの実行 インストールが進むと構成スクリプトの実行画面がポップアップします 画面に表示された構成スクリプト (rootupgrade.sh) を root ユーザーで実行します スクリプトは まずローカル ノードで実行し 実行が正常に完了してから 他の全てのノードで並行にスクリプトを実行できます スクリプト実行後 OK ボタンをクリックします 構成スクリプトの実行により Oracle Grid Infrastructure へアップグレードが実施されます 以下に本ガイドでの実行例を記載します <Node1 実行例 > su - パスワード : root のパスワードを入力 [root@node01]# whoami root root ユーザーでログインしていることを確認 [root@node01]# hostname node01 nodeo1 に接続していることを確認 [root@node01]# /u01/app/11.2.0/grid/rootupgrade.sh Performing root user operation for Oracle 11g The following environment variables are set as: ORACLE_OWNER= oracle ORACLE_HOME= /u01/app/11.2.0/grid Enter the full pathname of the local bin directory: [/usr/local/bin]: Enter を押して処理を続行します The contents of "dbhome" have not changed. No need to overwrite. The file "oraenv" already exists in /usr/local/bin. Overwrite it? (y/n) [n]: y y を記入して続行します Copying oraenv to /usr/local/bin... The file "coraenv" already exists in /usr/local/bin. Overwrite it? (y/n) [n]: y y を記入して続行します Copying coraenv to /usr/local/bin
31 Entries will be added to the /etc/oratab file as needed by Database Configuration Assistant when a database is created Finished running generic part of root script. Now product-specific root actions will be performed. Using configuration parameter file: /u01/app/11.2.0/grid/crs/install/crsconfig_params Creating trace directory User ignored Prerequisites during installation OLR initialization - successful root wallet root wallet cert root cert export peer wallet profile reader wallet pa wallet peer wallet keys pa wallet keys peer cert request pa cert request peer cert pa cert peer root cert TP profile reader root cert TP pa root cert TP peer pa cert TP pa peer cert TP profile reader pa cert TP profile reader peer cert TP peer user cert pa user cert Replacing Clusterware entries in inittab clscfg: EXISTING configuration version 4 detected. clscfg: version 4 is 11 Release 1. Successfully accumulated necessary OCR keys. Creating OCR keys for user 'root', privgrp 'root'.. Operation successful. Configure Oracle Grid Infrastructure for a Cluster... succeeded <Node2 実行例 > [oracle@node02]$ su - パスワード : root のパスワードを入力 [root@node02]# whoami root root ユーザーでログインしていることを確認 [root@node02]# hostname node01 nodeo1 に接続していることを確認 [root@node02]# /u01/app/11.2.0/grid/rootupgrade.sh Performing root user operation for Oracle 11g The following environment variables are set as: ORACLE_OWNER= oracle ORACLE_HOME= /u01/app/11.2.0/grid Enter the full pathname of the local bin directory: [/usr/local/bin]: ENTER を押して続行します The contents of "dbhome" have not changed. No need to overwrite. The file "oraenv" already exists in /usr/local/bin. Overwrite it? (y/n) [n]: y y を記入して続行します Copying oraenv to /usr/local/bin... The file "coraenv" already exists in /usr/local/bin. Overwrite it? (y/n) [n]: y y を記入して続行します Copying coraenv to /usr/local/bin
32 Entries will be added to the /etc/oratab file as needed by Database Configuration Assistant when a database is created Finished running generic part of root script. Now product-specific root actions will be performed. Using configuration parameter file: /u01/app/11.2.0/grid/crs/install/crsconfig_params Creating trace directory User ignored Prerequisites during installation OLR initialization - successful Replacing Clusterware entries in inittab clscfg: EXISTING configuration version 5 detected. clscfg: version 5 is 11g Release 2. Successfully accumulated necessary OCR keys. Creating OCR keys for user 'root', privgrp 'root'.. Operation successful. Start upgrade invoked.. Started to upgrade the Oracle Clusterware. This operation may take a few minutes. Started to upgrade the OCR. Started to upgrade the CSS. Started to upgrade the CRS. The CRS was successfully upgraded. Oracle Clusterware operating version was successfully set to Configure Oracle Grid Infrastructure for a Cluster... succeeded
33 SCAN ホスト名が DNS ではなく hosts ファイルのみで名前解決されている場合は 前画面の構成スクリプトの実行画面でスクリプト実行後 OK ボタンをクリックすると 次の画面が出力され Oracle Cluster Verification ユーティリティについてアラートが出力されるので 内容を確認して スキップ をクリックした後 次へ をクリックします ログを確認すると 次のように SCAN について名前解決に失敗している情報が記載されますが DNS ではなく hosts ファイルで名前解決を設定されている場合は 問題ありません 情報 : "oacscan1.jp.oracle.com" の名前解決の設定をチェック中... 情報 : ERROR: 情報 : PRVG-1101 : SCAN 名 "oacscan1.jp.oracle.com" の解決に失敗しました情報 : ERROR: 情報 : PRVF-4657 : "oacscan1.jp.oracle.com" の名前解決の設定チェック (IP アドレス : ) に失敗しました情報 : ERROR: 情報 : PRVF-4664 : SCAN 名 "oacscan1.jp.oracle.com" に対して一貫性のない名前解決エントリが検出されました情報 : SCAN VIP およびリスナー設定の検証に失敗しました
34 14. 終了 閉じる をクリックして Oracle Grid Infrastructure のアップグレードは完了です
35 15. インストール後の確認 oracle ユーザーで crsctl コマンドを使用して リソースが正常に稼動していることを確認します gsd リソースはデフォルトでは OFFLINE となります /u01/app/11.2.0/grid/bin/crsctl status resource t NAME TARGET STATE SERVER STATE_DETAILS Local Resources ora.crs.dg ONLINE ONLINE node01 ONLINE ONLINE node02 ora.listener.lsnr ONLINE ONLINE node01 ONLINE ONLINE node02 ora.asm ONLINE ONLINE node01 Started ONLINE ONLINE node02 Started ora.gsd OFFLINE OFFLINE node01 gsd はデフォルトで OFFLINE OFFLINE OFFLINE node02 ora.net1.network ONLINE ONLINE node01 ONLINE ONLINE node02 ora.ons ONLINE ONLINE node01 ONLINE ONLINE node02 ora.registry.acfs ONLINE ONLINE node01 ONLINE ONLINE node Cluster Resources ora.listener_scan1.lsnr 1 ONLINE ONLINE node02 ora.listener_scan2.lsnr 1 ONLINE ONLINE node01 ora.listener_scan3.lsnr 1 ONLINE ONLINE node01 ora.node01.vip 1 ONLINE ONLINE node01 ora.node02.vip 1 ONLINE ONLINE node02 ora.cvu 1 ONLINE ONLINE node01 ora.oc4j 1 ONLINE ONLINE node01 ora.scan1.vip 1 ONLINE ONLINE node02 ora.scan2.vip 1 ONLINE ONLINE node01 ora.scan3.vip 1 ONLINE ONLINE node
36 4.3 ASM インスタンスの へのアップグレードここで紹介する手順は Oracle Grid Infrastructure のアップグレード時に ASM のアップグレードを選択しない場合 ( 6. Grid Infrastructure ノードの選択 において クラスタ自動ストレージ管理 (ASM) のアップグレード を選択しなかった場合 ) に実施します Grid Infrastructure のアップグレード時に ASM のアップグレードを選択しなかった場合には 以下の手順を実行して ASMCA を使用した手動アップグレードを実施することができます ASM インスタンスのローリング アップグレード (11g R1 のみ ) Oracle ASM のアップグレードでは 以下の手順を実施します 1. ASMCA_ROLLING_UPGRADE 環境変数の設定 Grid Infrastructure の所有ユーザー ( ここでは oracle ユーザー ) で以下のコマンドを実行して ASMCA_ROLLING_UPGRADE 環境変数を設定します 設定は ASM インスタンスのアップグレードを実施するノードのいずれか 1 ノードで実施します [oracle@node01]$ export ASMCA_ROLLING_UPGRADE=true [oracle@node01]$ env grep ASMCA_ROLLING_UPGRADE ASMCA_ROLLING_UPGRADE=true 環境変数が設定されていることを確認 2. ASMCA 起動 の Grid Infrastructure ホームより ASMCA を起動します oracle ユーザーで以下のコマンドを実行します [oracle@node01]$ /u01/app/11.2.0/grid/bin/asmca
37 3. ASM のアップグレード ASMCA が起動され 以下のような画面が表示されます ASMSNMP パスワード および ASMSNMP パスワードの確認 に ASMANSP ユーザーのパスワードを入力して ASM のアップグレード をクリックします 以下のメッセージが表示され クラスタ内にある全てのノードの Oracle ASM が連続してアップグレードされます ASM のアップグレードが正常に完了すると 以下のメッセージが表示されます OK をクリックします
38 4. ASM インスタンス確認 ASM のアップグレード後に ASM インスタンスの状態や ASM ディスク グループの稼働状況を確認し 終了 をクリックして ASMCA を終了します
39 4.4 Oracle Database ソフトウェアのインストール 1. インストーラの準備 続いて Oracle Database のアップグレード作業を開始する前に 以下を実施してください Cluster Ready Services (CRS) プロセス稼働の確認 全てのノード上で Cluster Ready Services (CRS) プロセスが稼働している必要があります確認には Oracle Clusterware の所有ユーザーで以下のコマンドを実行してください 確認は全てのノードで実施します 以下は 10g R2 を使用した RAC 環境における実行例です crsctl check crs crsctl check crs CSS appears healthy CRS appears healthy EVM appears healthy Oracle Database のインストール ディレクトリの作成 全てのノードで Oracle Database のホーム ディレクトリを作成します 以下はディレクトリの作成例です mkdir -p /u01/app/oracle/product/11.2.0/dbhome_1 mkdir -p /u01/app/oracle/product/11.2.0/dbhome_1 既存の環境変数の解除 既存の環境において設定している Oracle 関連の環境変数 (ORACLE_HOME ORACLE_BASE ORACLE_SID など ) があれば解除しておきます CRS_HOME や ORA_CRS_HOME といった環境変数は使用しないでください また PATH 環境変数には ORACLE 関連のディレクトリを含めないで下さい 以下に本ガイドでの実行例を記載します [oracle@node01]$ vi ~/.bash_profile 次の環境変数をコメントアウトする #export ORACLE_BASE=/u01/app/oracle #export ORACLE_HOME=/u01/app/oracle/product/11.1.0/db_1 #export ORA_CRS_HOME=/u01/app/11.1.0/crs #export PATH=$ORA_CRS_HOME:$ORACLE_HOME/bin:$PATH #export ORACLE_SID=orcl1 [oracle@node01]$ su - oracle 環境変数を再読み込みするために再ログインします [oracle@node01]$ env grep ORA ORACLE 関連の環境変数がないことを確認 [oracle@node01]$ env grep PATH PATH=/bin:/usr/kerberos/bin:/usr/local/bin:/bin:/usr/bin:/home/grid/bin PATH 環境変数に ORACLE のディレクトリ関連がないことを確認
40 2. インストーラの起動 oracle ユーザーで OUI を起動します <DATABASE_INSTALL_IMAGE>/Disk1/runInstaller Oracle RAC をアップグレードする方法として out-of-place および in-place アップグレードが提供されていますが 推奨とされる方法は out-of-place アップグレードです ここでは out-of-place でのアップグレード手順を記載します 3. セキュリティ アップデートの構成 インストール中にソフトウェアの更新をダウンロードし 適用する際にはオプションを選択します ダウンロードを行う場合は MOS の資格証明を入力してください ダウンロードを行った場合 ソフトウェアの更新機能を使用して Oracle での最新の更新 ( 個別 Patch の更新 Critical Patch の更新 OUI の更新 最新の Patch Set など ) を動的にダウンロードし 適用します ここでは ソフトウェア更新のスキップ を選択して 次へ をクリックします
41 チェックを外した場合 次のメッセージが出ますので はい をクリックします 4. ソフトウェア更新のダウンロード ソフトウェア更新をダウンロードします この機能を使って Oracle Database のインストールの一環として 動的にソフトウェア更新をダウンロードして適用します 本ガイドでは ソフトウェア更新のスキップ を選択し 次へ をクリックします
42 5. インストール オプションの選択 本ガイドでは ソフトウェアのアップグレード後にデータベースを DBUA を使用してアップグレードするため データベース ソフトウェアのみインストール を選択し 次へ をクリックします
43 6. Grid インストール オプション 実行するデータベース インストールのタイプを選択します 本ガイドでは Oracle Real Application Clusters データベースのインストール を選択し インストールをする必要がある全てのノードを選択します そして SSH 接続 をクリックします
44 OS ユーザー名 に oracle OS パスワード に oracle ユーザーのパスワードを入力し テスト ボタンをクリックして パスワード不要の SSH 接続が設定されていることを確認します 設定されていなければ 設定 ボタンをクリックして確立が完了したら 次へ をクリックします
45 7. 製品言語の選択 製品で使用する言語を選択します 使用したい言語を 使用可能な言語 から選択し 選択された言語 に追加します 本ガイドでは 日本語 と 英語 を選択し 次へ をクリックします
46 8. データベース エディションの選択 データベース エディションを選択します エディションはライセンスの許諾内容に合わせて選択します 本ガイドでは Enterprise Edition を選択し 次へ をクリックします
47 9. インストール場所の指定 Oracle ベースとソフトウェアの場所を記入し 次へ をクリックします
48 10. 権限付きオペレーティング システム グループ データベースに対する OS 認証に使用するグループをそれぞれ設定します 本ガイドでは データベース管理者 (OSDBA) グループ に dba データベース オペレータ (OSOPER) グループ に oper を指定します 指定内容を確認して 次へ をクリックします ********************************************************************************************************************** ( 補足 ) においてオプションとしてデータベース用の OSOPER を設定する場合 指定する OS グループは クラスタを構成する全てのノード上で存在する必要があります ただし Oracle RAC の所有ユーザーが OS グループのメンバーとして設定されている必要はありません **********************************************************************************************************************
49 11. 前提条件チェックの実行 インストール実行前に 前提条件のチェックが実行されます 全てのチェック項目に成功すると 自動的にサマリー画面に遷移します 失敗した項目がある場合には 適宜修正を行ってください
50 12. サマリー 設定に問題がないかインストール サマリーを確認し インストール をクリックします
51 13. 製品のインストール インストールが開始されます
52 14. 構成スクリプトの実行 インストールが進むと構成スクリプトの実行画面がポップアップします 表示された構成スクリプト (root.sh) を全てのノードで実行します スクリプトは root ユーザーで実行してください スクリプト実行後 OK ボタンをクリックします 以下に本ガイドでの実行例を記載します su - パスワード : root のパスワードを入力 [root@node01]# whoami root root ユーザーでログインしていることを確認 [root@node01]# hostname node01 nodeo1 に接続していることを確認 [root@node01]# /u01/app/11.2.0/grid/rootupgrade.sh Performing root user operation for Oracle 11g The following environment variables are set as: ORACLE_OWNER= oracle ORACLE_HOME= /u01/app/oracle/product/11.2.0/dbhome_1 Enter the full pathname of the local bin directory: [/usr/local/bin]: Enter を押して処理を続行します The contents of "dbhome" have not changed. No need to overwrite. The contents of "oraenv" have not changed. No need to overwrite. The contents of "coraenv" have not changed. No need to overwrite. Entries will be added to the /etc/oratab file as needed by Database Configuration Assistant when a database is created Finished running generic part of root script. Now product-specific root actions will be performed. Finished product-specific root actions
53 15. 終了 閉じる をクリックして Oracle Database のインストールは終了です
54 16. 環境変数の設定 Oracle Grid Infrastructure インストール ユーザーと Oracle Database インストール ユーザーが同じ環境で PATH と ORACLE_HOME の環境変数を使用する場合は Oracle Grid Infrastructure のコマンドと Oracle Database のコマンドを実行する前に それぞれ個別に環境変数を設定をしてから実行してください 環境変数の設定例を記載します Oracle Grid Infrastructure のコマンド実行時の環境変数設定例 export ORACLE_BASE=/u01/app/grid export ORACLE_HOME=/u01/app/11.2.0/grid export PATH=$ORACLE_HOME/bin:$PATH export ORACLE_SID=<ASM_SID> export LANG=ja_JP.UTF-8 export NLS_LANG=Japanese_Japan.AL32UTF8 Oracle Database のコマンド実行時の環境変数設定例 export ORACLE_BASE=/u01/app/oracle export ORACLE_HOME=/u01/app/oracle/product/11.2.0/dbhome_1 export PATH=$ORACLE_HOME/bin:$PATH export ORACLE_SID=<DB_SID> export LANG=ja_JP.UTF-8 export NLS_LANG=Japanese_Japan.AL32UTF8-54 -
55 4.5 データベースのアップグレード Oracle Database 11g Release 2 Real Application Clusters 本項では 既存のデータベースをアップグレードします 既存のデータベースのアップグレードには DBUA を用いる方法と手動で行う方法とがあります ここでは まず DBUA を用いた方法について説明し その後 手動でのアップグレード方法について説明します アップグレード前の準備アップブレードする前に必要なファイル等のバックアップと既存環境の調査について以下項目を行います 1. データベース関連ファイルのバックアップ 2. Oracle Enterprise Manager Database Control データのバックアップ 3. アップグレード前情報ツールの実行 データベース関連ファイルのバックアップ アップグレードするデータベースをバックアップします 正常にインスタンスを停止した後 この項の説明に従ってデータベースをバックアップすることをお薦めします アップグレード中に問題が発生し アップグレードを完全に中止する場合は このバックアップからデータベースをリストアする必要があります そのため 予防措置として ここでデータベースをバックアップすることをお薦めします データベースの全体バックアップを実行するには 次の手順を実行します Oracle Database のインストール ユーザーでシステムにログインします [root@node01]# su - oracle [oracle@node01]$ whoami oracle oracle ユーザーでログインしていることを確認 Recovery Manager にログインします [oracle@node01]$ rman "target / nocatalog" Recovery Manager コマンドを実行してバックアップを行います 本ガイドでは データベースを保存するディレクトリを <backup_directory> 制御ファイルをバックアップするファイルパスを <backup_directory> とします RMAN> RUN { ALLOCATE CHANNEL chan_name TYPE DISK; BACKUP DATABASE FORMAT '<backup_directory>%u' TAG before_upgrade; BACKUP CURRENT CONTROLFILE FORMAT '<controlfile_location_and_name>'; }
56 アップグレード元の Oracle Database ホームから の Oracle Database ホームへ構成ファイルをコピーします Oracle Datgabase ホームにある以下のデータベースと Oracle Enterprise Manager Database Control (Database Control) 関連のファイルをバックアップします DBUA を使用しない手動でのアップグレードでは以下ファイルを手動でアップグレードした Oracle Database ホームにリストアする必要がります - ORACLE_HOME/dbs - ORACLE_HOME/network/admin - ORACLE_HOME/< ホスト名 >_<DB_SID> - ORACLE_HOME/oc4j/j2ee/OC4J_DBConsole_< ホスト名 >_<DB_SID> 初期化パラメータファイルをバックアップします A) 初期化パラメータ ファイルが ASM インスタンス内にある場合は 次のコマンドを使用して初期化パラメータ ファイルをバックアップします SQL> CREATE PFILE '<pfile_path>' FROM SPFILE '<spfile_path>'; 1. Oracle Enterprise Manager Database Control データの保存 Oracle Enterprise Manager Database Control (Database Control) を利用している場合 そのデータのバックアップを取得しておきます Oracle Database をアップグレード後 Database Control をダウングレードする必要がある場合に バックアップしたデータが利用されます バックアップの取得を行う場合は 下記の手順に従ってください なお 手順の途中に Database Control のデータを保存するディレクトリが必要なります 本ガイドでは Database Control のデータを保存するディレクトリを <Save_Directory> とします Oracle Database のインストール ユーザーでシステムにログインします [root@node01]# su - oracle [oracle@node01]$ whoami oracle oracle ユーザーでログインしていることを確認 次の環境変数をセットします ORACLE_HOME=<BASE_DB_HOME> ORACLE_SID=<DB_SID> PATH=<BASE_DB_HOME>/bin:$PATH LD_LIBRARY_PATH=<BASE_DB_HOME>/lib:$LD_LIBRARY_PATH SHLIB_PATH=<BASE_DB_HOME>/lib:$SHLIB_PATH EM_REMCP=/usr/bin/sc バックアップを保存するディレクトリを作成します [oracle@node01]$ mkdir -p <Save_Direcroty> の Oracle ホームの bin ディレクトリに移動します [oracle@node01]$ cd <11203_DB_HOME>/bin emdwgrd ユーティリティを用いて バックアップを取得します [oracle@node01]$./emdwgrd -save -sid <DB_SID> -path <Save_Direcroty>
57 本ガイドでのコマンドの実行例 export ORACLE_HOME=/u01/app/oracle/product/ /dbhome_1/bin export ORACLE_SID=orcl1 export PATH=$ORACLE_HOME/bin:$PATH export LD_LIBRARY_PATH=$ORACLE_HOME/lib:$LD_LIBRARY_PATH export SHLIB_PATH=$ORACLE_HOME/lib:$SHLIB_PATH export EM_REMCP=/usr/bin/scp env sort env コマンドで設定値を確認 ORACLE_HOME=/u01/app/oracle/product/ /dbhome_1/bin ORACLE_SID=orcl1 PATH=/u01/app/oracle/product/ /dbhome_1/binn:/usr/kerberos/sbin:/usr/kerberos/bin: /usr/local/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin:/root/bin LD_LIBRARY_PATH=/u01/app/oracle/product/ /dbhome_1/bin SHLIB_PATH=$/u01/app/oracle/product/ /dbhome_1/bin/lib EM_REMCP=/usr/bin/scp mkdir -p /home/oracle/backup/ /oem cd /u01/app/oracle/product/11.2.0/dbhome_1 -save -cluster -sid orcl1 -path \ /home/oracle/backup/ /oem Enter sys password for database orcl1? SYS ユーザーのパスワードを入力して続行します Database Unique Name : orcl Tue Aug 16 16:56: Verify EM DB Control files... pass Tue Aug 16 16:56: Validating DB Connection to orcl1... pass RCP = /usr/bin/scp -rp, REMSH = /usr/bin/ssh orcl01.jp.oracle.com: Connection refused retval = 1 output = err= checkfileonhost: fexist = 0 errocc = 0 orcl02.jp.oracle.com: Connection refused retval = 1 output = err= checkfileonhost: fexist = 0 errocc = 0 shared = 0 Tue Aug 16 16:57: Creating directory... created Tue Aug 16 16:57: Stopping DB Control on all Nodes Please Execute '/tmp/racdwgrd_dbctl.sh' on orcl01, orcl02. Press yes to continue when the operations are successful. Continue (yes/no)? yes... stopped Tue Aug 16 16:57: Saving DB Control files Executing save directories from node orcl01 Executing save directories from node orcl02... saved Tue Aug 16 17:02: Recompiling invalid objects... recompiled Tue Aug 16 17:02: Exporting sysman schema for orcl1... exported Tue Aug 16 17:04: DB Control was saved successfully. Tue Aug 16 17:04: Starting DB Control On All nodes Please Execute '/tmp/racdwgrd_dbctl.sh' on orcl01, orcl02. Press yes to continue when the operations are successful. Continue (yes/no)? yes yes を入力して続行します... started Tue Aug 16 17:07: Dump directory was dropped successfully
58 2. アップグレード前情報ツールの実行 データベースをアップグレードする前に アップグレード前情報ツール (utlu112i.sql) を使用して環境を確認します アップグレード前情報ツールでは アップグレードを行う際 データベースに発生する可能性のある問題について警告が表示されます アップグレード前情報ツールを実行するには 次の手順を実行してください Oracle Database のインストール ユーザーでシステムにログインします su - oracle [oracle@node01]$ whoami oracle oracle ユーザーであることを確認 次のように環境変数をセットします ORACLE_HOME=<BASE_DB_HOME> ORACLE_SID=<DB_SID> PATH=<BASE_DB_HOME>/bin:$PATH 以下に本ガイドでの実行例を記載します [oracle@node01]$ export ORACLE_HOME=/u01/app/oracle/product/11.1.0/dbhome_1/bin [oracle@node01]$ export ORACLE_SID=orcl1 [oracle@node01]$ export PATH=$ORACLE_HOME/bin:$PATH [oracle@node01]$ env sort env コマンドで設定値を確認 ORACLE_HOME=/u01/app/oracle/product/11.1.0/dbhome_1/bin ORACLE_SID=orcl1 PATH=/u01/app/oracle/product/11.1.0/dbhome_1/binn:/usr/kerberos/sbin:/usr/kerberos/bin: /usr/local/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin:/root/bin <11203_DB_HOME>/rdbms/admin ディレクトリへ移動します [oracle@node01]$ cd <11203_DB_HOME>/rdbms/admin SQL*Plus で SYSDBA 権限を持つユーザーとして データベース インスタンスに接続します [oracle@node01]$ sqlplus / as sysdba アップグレード前検証の結果の取得を開始します SQL> SPOOL upgrade_info.log アップグレード前情報ツールを実行します アップグレード前検証の結果の取得を終了します SQL> SPOOL OFF
59 アップグレード前情報ツールの出力内容を upgrade_info.log で確認します ここでは アップグレード前のデータベースの情報や アップグレードされるデータベース コンポーネントが VALID となっていることを確認します また Miscellaneous Warnings の項目に警告が出力された場合は Oracle Database アップグレード ガイド 11g リリース 2 (11.2) の 3 新しいリリースへのアップグレード の アップグレード前情報ツールの各種の警告 を確認します 次に Upgrade_info.log の出力例を記載します Oracle Database 11.2 Pre-Upgrade Information Tool :23:45 Script Version: Build: 001. ********************************************************************** Database: ********************************************************************** --> name: ORCL --> version: > compatible: > blocksize: > platform: Linux x86 64-bit --> timezone file: V4. ********************************************************************** Tablespaces: [make adjustments in the current environment] ********************************************************************** --> SYSTEM tablespace is adequate for the upgrade.... minimum required size: 464 MB --> SYSAUX tablespace is adequate for the upgrade.... minimum required size: 414 MB --> UNDOTBS1 tablespace is adequate for the upgrade.... minimum required size: 400 MB --> TEMP tablespace is adequate for the upgrade.... minimum required size: 60 MB. ********************************************************************** Flashback: OFF ********************************************************************** ********************************************************************** Update Parameters: [Update Oracle Database 11.2 init.ora or spfile] Note: Pre-upgrade tool was run on a lower version 64-bit database. ********************************************************************** --> If Target Oracle is 32-Bit, refer here for Update Parameters: -- No update parameter changes are required.. --> If Target Oracle is 64-Bit, refer here for Update Parameters: -- No update parameter changes are required.. ********************************************************************** Renamed Parameters: [Update Oracle Database 11.2 init.ora or spfile] ********************************************************************** -- No renamed parameters found. No changes are required.. ********************************************************************** Obsolete/Deprecated Parameters: [Update Oracle Database 11.2 init.ora or spfile] **********************************************************************
60 -- No obsolete parameters found. No changes are required. ********************************************************************** Components: [The following database components will be upgraded or installed] ********************************************************************** --> Oracle Catalog Views [upgrade] VALID --> Oracle Packages and Types [upgrade] VALID --> Real Application Clusters [upgrade] VALID --> Oracle Workspace Manager [upgrade] VALID --> EM Repository [upgrade] VALID. ********************************************************************** Miscellaneous Warnings ********************************************************************** WARNING: --> The "cluster_database" parameter is currently "TRUE"... and must be set to "FALSE" prior to running a manual upgrade. WARNING: --> Database is using a timezone file older than version After the release migration, it is recommended that DBMS_DST package... be used to upgrade the database timezone version... to the latest version which comes with the new release. WARNING: --> EM Database Control Repository exists in the database.... Direct downgrade of EM Database Control is not supported. Refer to the... Upgrade Guide for instructions to save the EM data prior to upgrade. WARNING: --> Your recycle bin contains 2 object(s).... It is REQUIRED that the recycle bin is empty prior to upgrading... your database. The command: PURGE DBA_RECYCLEBIN... must be executed immediately prior to executing your upgrade.. ********************************************************************** Recommendations ********************************************************************** Oracle recommends gathering dictionary statistics prior to upgrading the database. To gather dictionary statistics execute the following command while connected as SYSDBA: EXECUTE dbms_stats.gather_dictionary_stats; ********************************************************************** Oracle recommends reviewing any defined events prior to upgrading. To view existing non-default events execute the following commands while connected AS SYSDBA: Events: SELECT (translate(value,chr(13) chr(10),' ')) FROM sys.v$parameter2 WHERE UPPER(name) ='EVENT' AND isdefault='false' Trace Events: SELECT (translate(value,chr(13) chr(10),' ')) from sys.v$parameter2 WHERE UPPER(name) = '_TRACE_EVENTS' AND isdefault='false'
61 Changes will need to be made in the init.ora or spfile. ********************************************************************** アップグレード前情報ツールの出力内容を upgrade_info.log で確認します
62 4.5.2 Database Upgrade Assistant (DBUA) を使用したアップグレード本項では DBUA を使用してデータベースをアップグレードする方法について説明します 1. Database Upgrade Assistant (DBUA) の起動 oracle ユーザーで DBUA を実行します <11203_DB_HOME>/bin/dbua 2. ようこそ 次へ をクリックします
63 3. データベースの選択 アップグレードするデータベースを選択して 次へ をクリックします
64 4. 警告 DBCA により以下のような警告画面が表示された場合は 必要に応じて対応を行ってください ここでは確認を行い はい をクリックします
65 5. アップグレード オプション アップグレード オプション 画面では 次のオプションを設定できます アップグレード終了時に無効なオブジェクトを再コンパイル : アップグレード完了後に 全ての無効な PL/SQL モジュールを DBUA で再コンパイルします 並列度 : 推奨の並列度が表示されます 並列度は 無効な PL/SQL モジュールの再コンパイルに いくつのプロセスを並列して実行するかを指定します データベースのバックアップ :DBUA でデータベースをバックアップする場合は データベースのバックアップ を選択します 本ガイドでは アップグレード終了時に無効なオブジェクトを再コンパイル にチェックをし 並列度はデフォルトのままにします そして タイムゾーン バージョンおよび TIMESTAMP WITH TIME ZONE データのアップグレード にチェックを入れ 次へ をクリックします
66 6. リカバリおよび診断の場所 DBUA では高速リカバリ領域を設定することができます 既に 高速リカバリ領域が設定されている または設定しない場合は この手順はスキップします 設定後 次へ をクリックします
67 7. サマリー 表示されたデータベースのアップグレード サマリーを確認し 完了 をクリックします
68 8. 進行 アップグレードが進行します アップグレードが完了したら OK をクリックしてアップグレード結果を表示します
69 9. アップグレード結果 アップグレード作業の結果が表示されます 表示内容を確認後 閉じる をクリックしてデータベースのアップグレードは完了です 10. アップグレード確認 データベースが正常にアップグレードできたことを確認します CRS に登録されているデータベース情報を確認します Oracle Clusterware 構成がアップグレードされていることを確認するために 登録されている Oracle ホーム のパスが正しいことを確認してください srvctl config database -d orcl 一意のデータベース名 : orcl データベース名 : orcl Oracle ホーム : /u01/app/oracle/product/11.2.0/dbhome_1 UPGRADE した のディレクトリになっていることを確認 Oracle ユーザー : oracle spfile: +DATA/orcl/spfileorcl.ora ドメイン : 開始オプション : open 停止オプション : immediate データベース ロール : PRIMARY
70 管理ポリシー : AUTOMATIC サーバー プール : orcl データベース インスタンス : orcl1,orcl2 ディスク グループ : DATA マウント ポイントのパス : サービス : タイプ : RAC データベースは管理者によって管理されています データベースのバージョン情報を確認します [oracle@node01]$ sqlplus / as sysdba SQL> select * from v$version; BANNER Oracle Database 11g Enterprise Edition Release bit Production PL/SQL Release Production CORE Production TNS for Linux: Version Production NLSRTL Version Production UPGRADE した のディレクトリになっていることを確認
71 4.5.3 手動によるアップグレード本項では DBUA を利用しない手動でデータベースをアップグレードする方法について説明します 1. バックアップファイルのリストア Oracle Database ソフトウェアのアップグレード前に アップグレード前の準備 でバックアップした下記ファイルをアップグレード後の Oracle Database ホームにリストアします - ORACLE_HOME/dbs - ORACLE_HOME/network/admin - ORACLE_HOME/< ホスト名 >_<ORACLE_SID> - ORACLE_HOME/oc4j/j2ee/OC4J_DBConsole_< ホスト名 >_<ORACLE_SID> 2. oratab ファイルの設定 /etc/oratab ファイルに の Oracle Database ホームへエントリが設定されていることを確認します 記載がない場合は書き換えが必要です ASM インスタンス情報の設定 <ASM_SID>:<11203GI_HOME>:N データベース インスタンス情報の設定 <DB_NAME>:<11203_DB_HOME>:N 以下に本ガイドでの設定内容を記載します <node01> での設定 [oracle@node01]$ cat /etc/oratab +ASM1:/u01/app/11.2.0/grid:N orcl:/u01/app/oracle/product/11.2.0/dbhome_1:n <node02> での設定 [oracle@node02]$ cat /etc/oratab +ASM2:/u01/app/11.2.0/grid:N orcl:/u01/app/oracle/product/11.2.0/dbhome_1:n 全てのノードで設定をします 3. データベースの停止と CLUSTER_DATABASE パラメータの設定 データベースを UPGRADE モードで起動する前に CLUSTER_DATABASE 初期化パラメータを false に設定して停止をします アップグレードが完了した後 この初期化パラメータの設定を TRUE に戻す必要があります Oracle Database のインストール ユーザーとしてノード 1 に oracle ユーザーでログインします [root@node01]# su - oracle [oracle@node01]$ whoami oracle oracle ユーザーでログインしていることを確認
72 次のようにアップグレード前のバージョンの環境変数をセットします ORACLE_HOME=<BASE_DB_HOME> ORACLE_SID=<DB_SID> PATH=<BASE_DB_HOME>/bin:$PATH 以下は本ガイドでの実行例です export ORACLE_HOME=/u01/app/oracle/product/11.1.0/dbhome_1 export ORACLE_SID=orcl1 export PATH=$ORACLE_HOME/bin:$PATH env sort env コマンドで設定値を確認 ORACLE_HOME=/u01/app/oracle/product/11.1.0/dbhome_1 ORACLE_SID=orcl1 PATH=/u01/app/oracle/product/11.1.0/dbhome_1/binn:/usr/kerberos/sbin:/usr/kerberos/bin: /usr/local/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin:/root/bin SQL*Plus で SYSDBA 権限を持つユーザーとして データベース インスタンスに接続します sqlplus / as sysdba CLUSTER_DATABASE パラメータを FALSE に設定します SQL> ALTER SYSTEM SET CLUSTER_DATABASE=FALSE SCOPE=SPFILE; SQL*Plus を終了します SQL> EXIT データベースを停止します [oracle@node01]$ srvctl stop database -d <DB_NAME> 4. データベースのアップグレード Oracle Database のインストール ユーザーとしてノード 1 に oracle ユーザーでにログインします [root@node01]# su - oracle 次のように 用に環境変数をセットします ORACLE_HOME=<11203_DB_HOME> ORACLE_SID=<DB_SID> PATH=<11203_DB_HOME>/bin:$PATH [oracle@node01]$ export ORACLE_HOME=<11203_DB_HOME> [oracle@node01]$ export ORACLE_SID=<DB_SID> [oracle@node01]$ export PATH=<11203_DB_HOME>/bin:$PATH
73 以下は本ガイドでの実行例です export ORACLE_HOME=/u01/app/oracle/product/ /dbhome_1 export ORACLE_SID=orcl1 export PATH=$ORACLE_HOME/bin:$PATH env sort env コマンドで設定値を確認 ORACLE_HOME=/u01/app/oracle/product/ /dbhome_1 ORACLE_SID=orcl1 PATH=/u01/app/oracle/product/ /dbhome_1/bin:/usr/kerberos/sbin:/usr/kerberos/bin: /usr/local/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin:/root/bin 後の手順で catupgrd.sql を実行するため <11203_DB_HOME>/rdbms/admin へ移動します cd <11203_DB_HOME>/rdbms/admin SQL*Plus で SYSDBA 権限を持つユーザーとして データベース インスタンスに接続します sqlplus / as sysdba
74 アップグレードモードでインスタンスを起動します ただし 既にインスタンスが起動している場合は一度停止してからアップグレードモードで起動します SQL> STARTUP UPGRADE アップグレード結果の取得を開始します SQL> SPOOL upgrade.log catupgrd.sql スクリプトを実行します 注 :catupgrd.sql スクリプトの途中でデータベースが停止されます SQL*Plus で SYSDBA 権限を持つユーザーとして データベース インスタンスに再接続します sqlplus / as sysdba CLUSTER_DATABASE パラメータを TRUE に設定します SQL> ALTER SYSTEM SET CLUSTER_DATABASE=TRUE SCOPE=SPFILE; データベース インスタンスを起動します SQL> STARTUP 注 : インスタンス起動時に 廃止された初期化パラメータのリストが表示された場合は 再起動する前に廃止された初期化パラメータを初期化パラメータファイルから削除します Oracle Database 管理者ガイド 11g リリース 2(11.2) の サーバーパラメータファイルを使用した初期化パラメータの管理 に関する章を参照してください 5. データベースのアップグレード後の作業 データベースが正常にアップグレードできたことを確認します アップグレードの結果を把握するため utlu112s.sql を実行します 実行後 データベースコンポーネントが VALID となっていることを確認します Oracle Database 11.2 Post-Upgrade Status Tool :19:22. Component Current Version Elapsed Time Name Status Number HH:MM:SS. Oracle Server. VALID :10:14 Oracle Real Application Clusters. VALID :00:00 Oracle Workspace Manager. VALID :00:28 Oracle Enterprise Manager. VALID :10:21 Gathering Statistics. 00:01:
75 Total Upgrade Time: 00:22:08 PL/SQL プロシージャが正常に完了しました catuppst.sql を実行します utlrp.sql を実行して 全てのストアド PL/SQL および Java コードを再コンパイルします 予測される全てのパッケージおよびクラスが有効であることを確認します 出力結果が 0 件であれば予測される全てのパッケージおよびクラスが有効です SQL> SELECT COUNT(*) FROM DBA_INVALID_OBJECTS; SQL> SELECT DISTINCT OBJECT_NAME FROM DBA_INVALID_OBJECTS; 出力結果例 : SQL> SELECT COUNT(*) FROM DBA_INVALID_OBJECTS; COUNT(*) SQL> SELECT DISTINCT OBJECT_NAME FROM DBA_INVALID_OBJECTS; no rows selected **************************************************************************************************** 注意 : アップグレード前情報ツールで INVALID オブジェクトが検出され registry$sys_inv_objs 表および registry$nonsys_inv_objs 表に格納された場合は ORACLE_HOME/rdbms/admin/utluiobj.sql を実行してアップグレード処理の結果 新しく無効になったオブジェクトのみが表示されます **************************************************************************************************** SQL*Plus を終了します SQL> EXIT Oracle Clusterware 構成をアップグレードします [oracle@node01]$ <11203_DB_HOME>/bin/srvctl upgrade database -d <DB_NAME> \ > -o <11203_DB_HOME> 以下に本ガイドでの実行例を記載します [oracle@node01]$ cd /u01/app/oracle/product/ /dbhome_1/bin/ [oracle@node01]$./srvctl upgrade database -d orcl > -o /u01/app/oracle/product/ /dbhome_1-75 -
76 CRS に登録されているデータベース情報を確認します Oracle Clusterware 構成がアップグレードされていることを確認するために 登録されている Oracle ホーム のパスが正しいことを確認してください srvctl config database -d orcl 一意のデータベース名 : orcl データベース名 : orcl Oracle ホーム : /u01/app/oracle/product/11.2.0/dbhome_11203 UPGRADE した のディレクトリになっていることを確認 Oracle ユーザー : oracle spfile: +DATA/orcl/spfileorcl.ora ドメイン : 開始オプション : open 停止オプション : immediate データベース ロール : PRIMARY 管理ポリシー : AUTOMATIC サーバー プール : orcl データベース インスタンス : orcl1,orcl2 ディスク グループ : DATA マウント ポイントのパス : サービス : タイプ : RAC データベースは管理者によって管理されています データベースのバージョン情報を確認します [oracle@node01]$ sqlplus / as sysdba SQL> select * from v$version; BANNER Oracle Database 11g Enterprise Edition Release bit Production PL/SQL Release Production CORE Production TNS for Linux: Version Production NLSRTL Version Production へアップグレードされたことを確認
77 6. Database Control のアップグレード 次のように環境変数をセットします ORACLE_HOME=<11203_DB_HOME> PATH=<11203_DB_HOME>/bin:$PATH export ORACLE_HOME=<11203_DB_HOME> export PATH=<11203_DB_HOME>/bin:$PATH 以下は本ガイドでの実行例です export ORACLE_HOME=/u01/app/oracle/product/ /dbhome_1 export PATH=$ORACLE_HOME/bin:$PATH env sort env コマンドで設定値を確認 ORACLE_HOME=/u01/app/oracle/product/ /dbhome_1 PATH=/u01/app/oracle/product/ /dbhome_1/bin:/usr/kerberos/sbin:/usr/kerberos/bin: /usr/local/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin:/root/bin emca コマンドを用いて Database Control のアップグレードを行います emca -upgrade db -cluster 注 : アップグレード前の Database Control が起動した状態で行います 注 :emca コマンドを実行すると 次の情報の入力を求められます アップグレード前の Oracle Database の Oracle ホーム データベース インスタンス名 リスナーポート番号 ASM インスタンスをリスニングしているリスナーポート番号 アップグレード前の ASM の Oracle ホーム ASM インスタンス名 SYS ユーザーのパスワード ASMSNMP ユーザーのパスワード 以下は本ガイドでの実行例です [oracle@node01]$ export ORACLE_HOME=/u01/app/oracle/product/ /dbhome_1 [oracle@node01]$ env grep ORACLE_HOME /u01/app/oracle/product/ /dbhome_1 ORACLE_HOME が UPGRADE された の設定値になっていることを確認 [oracle@node01]$ export PATH=$ORACLE_HOME/bin:$PATH [oracle@node01]$ env grep PATH PATH=/u01/app/oracle/product/ /dbhome_1/bin:/usr/kerberos/bin:/usr/local/bin: /bin:/usr/bin:/home/oracle/bin PATH が UPGRADE された の設定値になっていることを確認 [oracle@node01]$ emca -upgrade db -cluster EMCA の開始 2011/07/22 16:35:19 EM Configuration Assistant, リリース Production Copyright (c) 2003, 2011, Oracle. All rights reserved. 次の情報を入力してください : 一意のデータベース名 : orcl データベース名を入力します サービス名 : orcl サービス名を入力します
78 リスナーのポート番号 : 1521 Database Control で使用しているリスナーのポート番号を入力します リスナー ORACLE_HOME [ /u01/app/11.2.0/grid ]: リスナーが起動している の ORACLE_HOME パスを入力します SYS ユーザーのパスワード : SYS ユーザーのパスワードを入力します アップグレードするデータベースの ORACLE_HOME: /u01/app/oracle/product/11.1.0/db_1 アップグレード前のデータベースの ORACLE_HOME を入力します クラスタ名 : crs クラスタ名を入力します 続行しますか [ はい (Y)/ いいえ (N)]: Y Y を入力して続行します 2011/07/22 16:41:29 oracle.sysman.emcp.emconfig perform 情報 : この操作は /u01/app/oracle/cfgtoollogs/emca/orcl/emca_2011_07_22_16_35_19.log でロギングされています 2011/07/22 16:41:34 oracle.sysman.emcp.util.dbcontrolutil stopoms 情報 : Database Control の停止中 ( 少し時間がかかります ) /07/22 16:41:45 oracle.sysman.emcp.emreposconfig uploadconfigdatatorepository 情報 : 構成データを EM リポジトリにアップロード中 ( 少し時間がかかります ) /07/22 16:43:21 oracle.sysman.emcp.emreposconfig invoke 情報 : 構成データが正常にアップロードされました 2011/07/22 16:43:25 oracle.sysman.emcp.emdbcconfig instantiateoc4jconfigfiles 情報 : /u01/app/oracle/product/11.2.0/dbhome_1/oc4j/j2ee/oc4j_dbconsole_node01_orcl をリモート ノードに伝播中 /07/22 16:43:29 oracle.sysman.emcp.emdbcconfig instantiateoc4jconfigfiles 情報 : /u01/app/oracle/product/11.2.0/dbhome_1/oc4j/j2ee/oc4j_dbconsole_node02_orcl をリモート ノードに伝播中 /07/22 16:47:50 oracle.sysman.emcp.util.dbcontrolutil securedbconsole 情報 : Database Control の保護中 ( 少し時間がかかります ) /07/22 16:48:13 oracle.sysman.emcp.util.dbcontrolutil startoms 情報 : Database Control の起動中 ( 少し時間がかかります ) /07/22 16:49:51 oracle.sysman.emcp.emdbpostconfig performupgrade 情報 : Database Control は正常に起動されました 2011/07/22 16:50:01 oracle.sysman.emcp.emdbpostconfig performupgrade 情報 : >>>>>>>>>>> Database Control の URL は です <<<<<<<<<<< 2011/07/22 16:50:02 oracle.sysman.emcp.emdbpostconfig showclusterdbcagentmessage 情報 : **************** 現在の構成 **************** INSTANCE NODE DBCONTROL_UPLOAD_HOST orcl node01 node01.jp.oracle.com orcl node02 node01.jp.oracle.com 2011/07/22 16:50:02 oracle.sysman.emcp.emdbpostconfig invoke 警告 : ************************ WARNING ************************ 管理リポジトリは Enterprise Manager データが暗号化されるセキュア モードで配置されています 暗号化鍵はファイル /u01/app/oracle/product/11.2.0/dbhome_1/node01_orcl/sysman/config/emkey.ora に配置されています このファイルが失われると暗号化データを使用できなくなるため このファイルは必ずバックアップしてください *********************************************************** Enterprise Manager の構成が正常に完了しました EMCA の終了 2011/07/22 16:50:
79 7. タイムゾーンファイルのアップグレード アップグレード前情報ツールの検証結果により タイムゾーンファイルのアップグレードを求められた場合 この手順を行います Oracle Database グローバリゼーションサポートガイド 11g リリース 2(11.2) の タイムゾーンファイルおよびタイムゾーンデータ付きタイムスタンプのアップグレード も合わせて参照してください 7-1. アップグレードの準備 次のように環境変数をセットします ORACLE_HOME=<11203_DB_HOME> ORACLE_SID=<DB_SID> PATH=<11203_DB_HOME>/bin:$PATH export ORACLE_HOME=<11203_DB_HOME> export ORACLE_SID=<DB_SID> export PATH=<11203_DB_HOME>/bin:$PATH 以下は本ガイドでの実行例です export ORACLE_HOME=/u01/app/oracle/product/ /dbhome_1 env grep ORACLE_HOME /u01/app/oracle/product/ /dbhome_1 ORACLE_HOME が UPGRADE する の設定値になっていることを確認 export ORACLE_SID=orcl11 env grep ORACLE_SID orcl1 ORACLE_SID が UPGRADE する設定値になっていることを確認 export PATH=$ORACLE_HOME/bin:$PATH env grep PATH PATH=/u01/app/oracle/product/ /dbhome_1/bin:/usr/kerberos/bin:/usr/local/bin: /bin:/usr/bin:/home/oracle/bin PATH が UPGRADE する の設定値になっていることを確認 SQL*Plus で SYSDBA 権限を持つユーザーとして データベース インスタンスに接続します sqlplus / as sysdba DBMS_DST.CREATE_AFFECTED_TABLE プロシージャ DBMS_DST.CREATE_ERROR_TABLE プロシージャを使用して エラー表 および影響を受けるタイムスタンプとタイムゾーン情報の表を作成します SQL> EXEC DBMS_DST.CREATE_AFFECTED_TABLE('my_affected_tables'); SQL> EXEC DBMS_DST.CREATE_ERROR_TABLE('my_error_table');
80 DBMS_DST.BEGIN_PREPARE(<versioin_number>) プロシージャを実行します DBMS_DST 権限情報の詳細は Oracle Database PL/SQL パッケージプロシージャおよびタイプリファレンス 11g リリース 2(11.2) を参照してください DBMS_DST.BEGIN_PREPARE(<versioin_number>) プロシージャを実行後 DST_PRIMARY_TT_VERSION と DST_SECONDARY_TT_VERSION のバージョンと DST_UPGRADE_STATE の状態を確認します SQL> EXEC DBMS_DST.BEGIN_PREPARE(14); PL/SQL プロシージャが正常に完了しました SQL> SELECT PROPERTY_NAME, SUBSTR(property_value, 1, 30) value FROM DATABASE_PROPERTIES WHERE PROPERTY_NAME LIKE 'DST_%' ORDER BY PROPERTY_NAME; PROPERTY_NAME VALUE DST_PRIMARY_TT_VERSION 4 現在のバージョンを確認 DST_SECONDARY_TT_VERSION 14 UPGRADE するバージョンが14であることを確認 DST_UPGRADE_STATE PREPARE PREPARE になっていることを確認 DBMS_DST.FIND_AFFECTED_TABLES プロシージャを実行して影響を受けるデータを確認します SQL> EXEC DBMS_DST.FIND_AFFECTED_TABLES(affected_tables => 'my_affected_tables',log_errors => TRUE,log_errors_table => 'my_error_table'); my_affected_tables 表で影響を受ける表を確認します SQL> SELECT * FROM MY_AFFECTED_TABLES; my_affected_tables 表でエラーのある表を確認します SQL> SELECT * FROM MY_ERROR_TABLE; SYS.DST$AFFECTED_TABLES.ERROE_COUNT でエラー件数が 1 以上の場合 SYS.DST$ERROR_TABLE をチェックします SQL> SELECT * FROM SYS.DAT$AFFECTED_TABLES; DBMS_DST.END_PREPARE プロシージャを実行し 準備ウィンドウを終了します SQL> EXEC DBMS_DST.END_PREPARE;
81 DATABASE_PROPERTIES 表の DST_UPGRADE_STATE が PREPARE から NONE になっていることを確認します SQL> SELECT PROPERTY_NAME, SUBSTR(property_value, 1, 30) value FROM DATABASE_PROPERTIES WHERE PROPERTY_NAME LIKE 'DST_%' ORDER BY PROPERTY_NAME; PROPERTY_NAME VALUE DST_PRIMARY_TT_VERSION 14 現在のバージョンが14であることを確認 DST_SECONDARY_TT_VERSION 0 DST_UPGRADE_STATE NONE NONE になっていることを確認 7-2. タイムゾーンファイルのアップグレード データベースを停止します SQL> SHUTDOWN IMMEDIATE アップグレードモードで データベースを起動します SQL> STARTUP UPGRADE DBMS_DST.BEGIN_UPGRADE(<versioin_number>) プロシージャを実行します DBMS_DST.BEGIN_ UPGRADE(<versioin_number>) プロシージャを実行後 DST の状態を確認します SQL> exec DBMS_DST.BEGIN_UPGRADE(14); SQL> SELECT PROPERTY_NAME, SUBSTR(property_value, 1, 30) value FROM DATABASE_PROPERTIES WHERE PROPERTY_NAME LIKE 'DST_%' ORDER BY PROPERTY_NAME; PROPERTY_NAME VALUE DST_PRIMARY_TT_VERSION 14 DST_SECONDARY_TT_VERSION 4 DST_UPGRADE_STATE UPGRADE データベースを通常のモードで再起動します SQL> SHUTDOWN IMMEDIATE SQL> STARTUP
82 DBMS_DST.UPGRADE_DATABASE プロシージャを実行して 全ての表内の TSTZ データをアップグレードします SQL> VAR numfail number SQL> BEGIN DBMS_DST.UPGRADE_DATABASE(:numfail, parallel => TRUE, log_errors => TRUE, log_errors_table => 'SYS.DST$ERROR_TABLE', log_triggers_table => 'SYS.DST$TRIGGER_TABLE', error_on_overlap_time => TRUE, error_on_nonexisting_time => TRUE); DBMS_OUTPUT.PUT_LINE('Failures:' :numfail); END; / DBA_TSTZ_TABLES 表でアップグレードが終了しているかを確認します UPGRADE_IN_PROGRESS 列の結果が全て NO となっていればアップグレードが終了しています YES の場合はアップグレード実行中です SQL> SELECT * FROM DBA_TSTZ_TABLES; OWNERTABLE_NAME UPGRADE_IN_PROGRESS SYSOPTSTAT_HIST_CONTROL$ NO SYSWRI$_OPTSTAT_IND_HISTORY NO SYSWRI$_OPTSTAT_OPR NO SYSSCHEDULER$_WINDOW NO : 省略 DBMS_DST.END_UPGRADE プロシージャを実行して アップグレードウィンドウを終了します SQL> BEGIN DBMS_DST.END_UPGRADE(:numfail); END; /
83 アップグレードの確認 DATABASE_PROPERTIES 表を確認し DST_UPGRADE_STATE が NONE DST_PRIMARY_TT_VERSION が 14 となっていればアップグレードが完了しています SQL> SELECT PROPERTY_NAME, SUBSTR(property_value, 1, 30) value FROM DATABASE_PROPERTIES WHERE PROPERTY_NAME LIKE 'DST_%' ORDER BY PROPERTY_NAME; PROPERTY_NAME VALUE DST_PRIMARY_TT_VERSION 14 DST_SECONDARY_TT_VERSION 0 DST_UPGRADE_STATE NONE アップグレードの終了アップグレードは以上で終了です 必要に応じてログイン プロファイル (.bash_profile) の更新を行ってください また データベースのバージョンを確認する場合 の SQL*Plus で SYSDBA 権限をもつユーザーとしてデータベース インスタンスに接続し データベースのバージョンを確認します [oracle@node01]$ export ORACLE_HOME=<11203_DB_HOME> [oracle@node01]$ export ORACLE_SID=<DB_SID> [oracle@node01]$ export PATH=<11203_DB_HOME>/bin::$PATH [oracle@node01]$ sqlplus / as sysdba SQL*Plus: Release Production on Tue Oct 18 22:50: Copyright (c) 1982, 2011, Oracle. All rights reserved. Connected to: Oracle Database 11g Enterprise Edition Release bit Production With the partitioning, Automatic Storage Management, OLAP, Data Mining and Real Application Testing options SQL> SELECT * FROM V$VERSION; BANNER Oracle Database 11g Enterprise Edition Release bit Production PL/SQL Release Production CORE Production TNS for Linux: Version Production NLSRTL Version Production へアップグレードされたことを確認
84 / から にアップグレード および から へ Oracle Grid Infrastructure をアップグレードする手順について説明します 5.1 Oracle RAC のインストール手順本ガイドでは 以下の手順で Oracle Grid Infrastructure が構成されています の Oracle Grid Infrastructure のインストールおよび構成 - OCR と投票ディスクの格納場所には ASM を使用 - インストーラによる構成作業には NetCA によるリスナーの作成も含まれる ASMCA を使用してデータベース ファイル格納用の ASM ディスク グループを作成 の Oracle RAC インストール - 非共有 Oracle ホーム Enterprise Edition を選択 DBCA を使用したポリシー管理型の RAC データベースのインスタンス作成 インストール時にはソフトウェアごとに異なるユーザーを使用 - Oracle Grid Infrastructure には grid ユーザー Oracle RAC には oracle ユーザーを使用 Patch Set Update の適用と留意事項 Linux 環境において から へアップグレードを行う際には Patch そして から へアップグレードを行う際には Patch を適用する必要があります この Patch が未適用の場合にアップグレードが失敗します Patch に関する適用手順の詳細は 付録 C 用個別パッチ適用 Patch に関する適用手順の詳細は 付録 D 用個別パッチ適用 を参照してください 続けて へのアップグレード手順について記述します
85 または から への Oracle Grid Infrastructure のアップグレード 1. アップグレード準備 Grid Infrastructure のアップグレード作業を開始する前に 以下を実施してください Cluster Ready Services (CRS) プロセス稼働の確認 全てのノード上で Cluster Ready Services (CRS) プロセスが稼働している必要があります 確認には Oracle Clusterware の所有ユーザーで以下のコマンドを実行してください 以下は を使用した RAC 環境における実行例です crsctl check cluster -all crsctl check cluster -all ************************************************************** oracle01: CRS-4537: Cluster Ready Services is online CRS-4529: Cluster Synchronization Services is online CRS-4533: Event Manager is online ************************************************************** oracle02: CRS-4537: Cluster Ready Services is online CRS-4529: Cluster Synchronization Services is online CRS-4533: Event Manager is online ************************************************************** 全てのノードで確認します データベースの停止が必要であるかの確認 Oracle RAC インスタンスは 実行したままにしておくことをお薦めします 各ノードで rootupgrade.sh スクリプトを起動すると そのノードのインスタンスが停止され 再度起動されます クラスタ上のシングル インスタンスの Oracle Database は Oracle ASM を使用する場合のみ 停止が必要です リスナーを停止する必要はありません ( 参考 ) 確認には Grid Infrastructure あるいは RAC の所有ユーザーでクラスタを構成しているいずれかのノードから srvctl status database コマンドを実行してください 実行例は以下です [grid@node01]$ srvctl status database -d orcl インスタンス orcl_1 はノード node01 で実行中です インスタンス orcl_2 はノード node02 で実行中です
86 Grid Infrastructure のインストール ディレクトリの作成 Grid Infrastructure のホーム ディレクトリを全てのノードで作成します Grid Infrastructure は out-of-place でのアップグレードが必須ですので ソフトウェアのインストールには最低でも 5.5GB の容量が必要です 以下はディレクトリの作成例です mkdir -p /u01/app/ /grid chmod -R 775 /u01/app/ chown -R oracle:oinstall /u01/app/ 全てノードで実行します 既存の環境変数の解除 既存の環境において設定している Oracle 関連の環境変数 (ORACLE_HOME ORACLE_BASE ORACLE_SID など ) があれば解除しておきます CRS_HOME や ORA_CRS_HOME といった環境変数は使用しないでください また PATH 環境変数には ORACLE 関連のディレクトリを含めないで下さい 以下に本ガイドでの実行例を記載します [grid@node01]$ vi ~/.bash_profile 次の環境変数をコメントする #export ORACLE_BASE=/u01/app/grid #export ORACLE_HOME=/u01/app/11.2.0/grid #export PATH=$ORACLE_HOME/bin:$PATH #export ORACLE_SID=+ASM1 [grid@ node01]$ su - grid [grid@ node01]$ env grep ORACLE ORACLE 関連の環境変数がないことを確認 [grid@node01]$ env grep PATH PATH=/bin:/usr/kerberos/bin:/usr/local/bin:/bin:/usr/bin:/home/grid/bin PATH 環境変数に ORACLE のディレクトリ関連がないことを確認
87 2. インストーラの起動 grid ユーザーで以下のコマンドを実行します <GRID_INSTALL_IMAGE>/Disk1/runInstaller 3. ソフトウェア更新のダウンロード インストール中にソフトウェアの更新をダウンロードし 適用する際にはオプションを選択します ダウンロードを行う場合は MOS の資格証明を入力してください ダウンロードを行った場合 ソフトウェアの更新機能を使用して Oracle での最新の更新 ( 個別 Patch の更新 Critical Patch の更新 OUI の更新 最新の Patch Set など ) を動的にダウンロードし 適用します ここでは ソフトウェア更新のスキップ を選択して 次へ をクリックします
88 4. インストール オプションの選択 既存の Oracle Clusterware をアップグレードするため Oracle Grid Infrastructure または Oracle 自動ストレージ管理のアップグレード を選択し 次へ をクリックします
89 5. 製品言語の選択 製品を実行する必要な言語を選択します 本ガイドでは 日本語 と 英語 が選択されていることを確認し 次へ をクリックします
90 6. Grid Infrastructure ノードの選択 アップグレードされるノード情報が出力されます 次へ ボタンをクリックします
91 7. 権限付きオペレーティング システム グループ ASM に対して OS 認証に使用するグループをそれぞれ既存のシステムに設定していたグループと同じグループへ設定します 本ガイドでは Oracle ASM DB(ASM の OSDBA) グループ に asmdba OracleASM オペレータ (ASM の OSOPER) グループ ( オプション ) に asmoper Oracle ASM 管理者 (OSASM) グループ に asmadmin を指定します 指定内容を確認し 次へ をクリックします
92 8. インストール場所の指定 ソフトウェアの場所を指定し 次へ をクリックします
93 9. 前提条件チェックの実行 インストール実行前に 前提条件のチェックが実行されます 全てのチェック項目に成功すると 自動的にサマリー画面に遷移します 失敗した項目がある場合には 適宜修正を行ってください
94 SCAN ホスト名が DNS ではなく hosts ファイルのみで名前解決されている場合は 次の図のように タスク resolv.conf の整合性でエラーが出力されるので SCAN ホスト名が正しく設定されていることを確認し 全て無視 へチェックを入れて 次へ をクリックします 詳細 をクリックすると次のような詳細画面で内容を確認できます
95 10. サマリー 設定に問題がないかインストール サマリーを確認し インストール をクリックします
96 11. 製品のインストール インストールが開始されます
97 12. 構成スクリプトの実行 インストールが進むと構成スクリプトの実行画面がポップアップします 画面に表示された構成スクリプト (rootupgrade.sh) を root ユーザーで実行します スクリプトは まずローカル ノードで実行し 実行が正常に完了してから 他の全てのノードで並行にスクリプトを実行できます スクリプト実行後 OK ボタンをクリックします 構成スクリプトの実行後 インストーラにより Net Configuration Assistant (NetCA) が自動的に実行され リスナーのアップグレードが実施されます 構成スクリプトの実行により Oracle Grid Infrastructure へアップグレードが実施されます 以下に本ガイドでの実行例を記載します <Node1 実行例 > /u01/app/11.2.0/grid/rootupgrade.sh 2011 年 7 月 21 日木曜日 21:11:48 JST Performing root user operation for Oracle 11g The following environment variables are set as: ORACLE_OWNER= grid ORACLE_HOME= /u01/app/ /grid Enter the full pathname of the local bin directory: [/usr/local/bin]: Enter を押して処理を続行します The contents of "dbhome" have not changed. No need to overwrite. The contents of "oraenv" have not changed. No need to overwrite. The file "coraenv" already exists in /usr/local/bin. Overwrite it? (y/n) [n]:y y を記入して続行します Entries will be added to the /etc/oratab file as needed by Database Configuration Assistant when a database is created Finished running generic part of root script. Now product-specific root actions will be performed
98 Using configuration parameter file: /u01/app/ /grid/crs/install/crsconfig_params Creating trace directory ASM のアップグレードが最初のノードで開始されました CRS-2791: 'node01' 上にある Oracle 高可用性サービス管理下のリソースのシャットダウンを開始しています CRS-2673: 'ora.crsd'('node01') の停止を試行しています CRS-2790: 'node01' 上にある Cluster Ready Services 管理下のリソースのシャットダウンを開始しています CRS-2673: 'ora.listener_scan2.lsnr'('node01') の停止を試行しています CRS-2673: 'ora.listener_scan3.lsnr'('node01') の停止を試行しています CRS-2673: 'ora.listener.lsnr'('node01') の停止を試行しています CRS-2673: 'ora.orcl.db'('node01') の停止を試行しています CRS-2673: 'ora.registry.acfs'('node01') の停止を試行しています CRS-2677: 'ora.registry.acfs'('node01') の停止が成功しました CRS-2677: 'ora.listener_scan2.lsnr'('node01') の停止が成功しました CRS-2673: 'ora.scan2.vip'('node01') の停止を試行しています CRS-2677: 'ora.scan2.vip'('node01') の停止が成功しました CRS-2672: 'ora.scan2.vip'('node02') の起動を試行しています CRS-2677: 'ora.listener_scan3.lsnr'('node01') の停止が成功しました CRS-2673: 'ora.scan3.vip'('node01') の停止を試行しています CRS-2677: 'ora.scan3.vip'('node01') の停止が成功しました CRS-2672: 'ora.scan3.vip'('node02') の起動を試行しています CRS-2677: 'ora.listener.lsnr'('node01') の停止が成功しました CRS-2673: 'ora.node01.vip'('node01') の停止を試行しています CRS-2677: 'ora.node01.vip'('node01') の停止が成功しました CRS-2672: 'ora.node01.vip'('node02') の起動を試行しています CRS-2676: 'ora.scan2.vip'('node02') の起動が成功しました CRS-2672: 'ora.listener_scan2.lsnr'('node02') の起動を試行しています CRS-2676: 'ora.scan3.vip'('node02') の起動が成功しました CRS-2672: 'ora.listener_scan3.lsnr'('node02') の起動を試行しています CRS-2676: 'ora.node01.vip'('node02') の起動が成功しました CRS-2676: 'ora.listener_scan2.lsnr'('node02') の起動が成功しました CRS-2676: 'ora.listener_scan3.lsnr'('node02') の起動が成功しました CRS-2677: 'ora.orcl.db'('node01') の停止が成功しました CRS-2673: 'ora.data.dg'('node01') の停止を試行しています CRS-2673: 'ora.fra.dg'('node01') の停止を試行しています CRS-2677: 'ora.data.dg'('node01') の停止が成功しました CRS-2677: 'ora.fra.dg'('node01') の停止が成功しました CRS-2673: 'ora.asm'('node01') の停止を試行しています CRS-2677: 'ora.asm'('node01') の停止が成功しました CRS-2673: 'ora.eons'('node01') の停止を試行しています CRS-2673: 'ora.ons'('node01') の停止を試行しています CRS-2677: 'ora.ons'('node01') の停止が成功しました CRS-2673: 'ora.net1.network'('node01') の停止を試行しています CRS-2677: 'ora.net1.network'('node01') の停止が成功しました CRS-2677: 'ora.eons'('node01') の停止が成功しました CRS-2792: 'node01' 上にある Cluster Ready Services 管理下のリソースのシャットダウンが完了しました CRS-2677: 'ora.crsd'('node01') の停止が成功しました CRS-2673: 'ora.cssdmonitor'('node01') の停止を試行しています CRS-2673: 'ora.ctssd'('node01') の停止を試行しています CRS-2673: 'ora.evmd'('node01') の停止を試行しています CRS-2673: 'ora.asm'('node01') の停止を試行しています CRS-2673: 'ora.drivers.acfs'('node01') の停止を試行しています CRS-2673: 'ora.mdnsd'('node01') の停止を試行しています CRS-2677: 'ora.cssdmonitor'('node01') の停止が成功しました CRS-2677: 'ora.evmd'('node01') の停止が成功しました CRS-2677: 'ora.mdnsd'('node01') の停止が成功しました CRS-2677: 'ora.ctssd'('node01') の停止が成功しました CRS-2677: 'ora.drivers.acfs'('node01') の停止が成功しました CRS-2677: 'ora.asm'('node01') の停止が成功しました CRS-2673: 'ora.cssd'('node01') の停止を試行しています CRS-2677: 'ora.cssd'('node01') の停止が成功しました CRS-2673: 'ora.gpnpd'('node01') の停止を試行しています CRS-2673: 'ora.diskmon'('node01') の停止を試行しています CRS-2677: 'ora.gpnpd'('node01') の停止が成功しました
99 CRS-2673: 'ora.gipcd'('node01') の停止を試行しています CRS-2677: 'ora.gipcd'('node01') の停止が成功しました CRS-2677: 'ora.diskmon'('node01') の停止が成功しました CRS-2793: 'node01' 上にある Oracle 高可用性サービス管理下のリソースのシャットダウンが完了しました CRS-4133: Oracle High Availability Services has been stopped. OLR initialization - successful Replacing Clusterware entries in inittab ACFS-9300: ADVM/ACFS distribution files found. ACFS-9312: Existing ADVM/ACFS installation detected. ACFS-9314: Removing previous ADVM/ACFS installation. ACFS-9315: Previous ADVM/ACFS components successfully removed. ACFS-9307: Installing requested ADVM/ACFS software. ACFS-9308: Loading installed ADVM/ACFS drivers. ACFS-9321: Creating udev for ADVM/ACFS. ACFS-9323: Creating module dependencies - this may take some time. ACFS-9154: Loading 'oracleoks.ko' driver. ACFS-9154: Loading 'oracleadvm.ko' driver. ACFS-9154: Loading 'oracleacfs.ko' driver. ACFS-9327: Verifying ADVM/ACFS devices. ACFS-9156: Detecting control device '/dev/asm/.asm_ctl_spec'. ACFS-9156: Detecting control device '/dev/ofsctl'. ACFS-9309: ADVM/ACFS installation correctness verified. clscfg: EXISTING configuration version 5 detected. clscfg: version 5 is 11g Release 2. Successfully accumulated necessary OCR keys. Creating OCR keys for user 'root', privgrp 'root'.. Operation successful. パッケージインストールの準備中... cvuqdisk Configure Oracle Grid Infrastructure for a Cluster... succeeded 2011 年 7 月 21 日木曜日 21:18:45 JST <Node2 実行例 > [root@node01]# /u01/app/11.2.0/grid/rootupgrade.sh 2011 年 7 月 21 日月曜日 21:42:52 JST Performing root user operation for Oracle 11g The following environment variables are set as: ORACLE_OWNER= grid ORACLE_HOME= /u01/app/ /grid Enter the full pathname of the local bin directory: [/usr/local/bin]: Enter を押して処理を続行します The contents of "dbhome" have not changed. No need to overwrite. The file "oraenv" already exists in /usr/local/bin. Overwrite it? (y/n) [n]: y を記入して続行します The file "coraenv" already exists in /usr/local/bin. Overwrite it? (y/n) [n]: y を記入して続行します Entries will be added to the /etc/oratab file as needed by Database Configuration Assistant when a database is created Finished running generic part of root script. Now product-specific root actions will be performed. Using configuration parameter file: /u01/app/ /grid/crs/install/crsconfig_params Creating trace directory CRS-2791: Starting shutdown of Oracle High Availability Services-managed resources on 'node02' CRS-2673: Attempting to stop 'ora.crsd' on 'node02' CRS-2790: 'node02' 上にある Cluster Ready Services 管理下のリソースの停止を開始しています
100 CRS-2673: 'ora.registry.acfs'('node02') の停止を試行しています CRS-2673: 'ora.orcl.db'('node02') の停止を試行しています CRS-2673: 'ora.cvu'('node02') の停止を試行しています CRS-2673: 'ora.listener.lsnr'('node02') の停止を試行しています CRS-2673: 'ora.listener_scan3.lsnr'('node02') の停止を試行しています CRS-2673: 'ora.oc4j'('node02') の停止を試行しています CRS-2673: 'ora.listener_scan2.lsnr'('node02') の停止を試行しています CRS-2677: 'ora.listener.lsnr'('node02') の停止が成功しました CRS-2673: 'ora.node02.vip'('node02') の停止を試行しています CRS-2677: 'ora.listener_scan3.lsnr'('node02') の停止が成功しました CRS-2673: 'ora.scan3.vip'('node02') の停止を試行しています CRS-2677: 'ora.listener_scan2.lsnr'('node02') の停止が成功しました CRS-2673: 'ora.scan2.vip'('node02') の停止を試行しています CRS-2677: 'ora.node02.vip'('node02') の停止が成功しました CRS-2672: 'ora.node02.vip'('node01') の起動を試行しています CRS-2677: 'ora.scan3.vip'('node02') の停止が成功しました CRS-2672: 'ora.scan3.vip'('node01') の起動を試行しています CRS-2677: 'ora.scan2.vip'('node02') の停止が成功しました CRS-2672: 'ora.scan2.vip'('node01') の起動を試行しています CRS-2677: 'ora.cvu'('node02') の停止が成功しました CRS-2672: 'ora.cvu'('node01') の起動を試行しています CRS-2676: 'ora.cvu'('node01') の起動が成功しました CRS-2677: 'ora.orcl.db'('node02') の停止が成功しました CRS-2673: 'ora.data.dg'('node02') の停止を試行しています CRS-2673: 'ora.fra.dg'('node02') の停止を試行しています CRS-2677: 'ora.registry.acfs'('node02') の停止が成功しました CRS-2676: 'ora.node02.vip'('node01') の起動が成功しました CRS-2676: 'ora.scan2.vip'('node01') の起動が成功しました CRS-2676: 'ora.scan3.vip'('node01') の起動が成功しました CRS-2672: 'ora.listener_scan2.lsnr'('node01') の起動を試行しています CRS-2672: 'ora.listener_scan3.lsnr'('node01') の起動を試行しています CRS-2677: 'ora.fra.dg'('node02') の停止が成功しました CRS-2676: 'ora.listener_scan3.lsnr'('node01') の起動が成功しました CRS-2676: 'ora.listener_scan2.lsnr'('node01') の起動が成功しました CRS-2677: 'ora.oc4j'('node02') の停止が成功しました CRS-2672: 'ora.oc4j'('node01') の起動を試行しています CRS-2676: 'ora.oc4j'('node01') の起動が成功しました CRS-2677: 'ora.data.dg'('node02') の停止が成功しました CRS-2673: 'ora.asm'('node02') の停止を試行しています CRS-2677: 'ora.asm'('node02') の停止が成功しました CRS-2673: 'ora.ons'('node02') の停止を試行しています CRS-2677: 'ora.ons'('node02') の停止が成功しました CRS-2673: 'ora.net1.network'('node02') の停止を試行しています CRS-2677: 'ora.net1.network'('node02') の停止が成功しました CRS-2792: 'node02' 上にある Cluster Ready Services 管理下のリソースの停止が完了しました CRS-2677: Stop of 'ora.crsd' on 'node02' succeeded CRS-2673: Attempting to stop 'ora.crf' on 'node02' CRS-2673: Attempting to stop 'ora.ctssd' on 'node02' CRS-2673: Attempting to stop 'ora.evmd' on 'node02' CRS-2673: Attempting to stop 'ora.asm' on 'node02' CRS-2673: Attempting to stop 'ora.drivers.acfs' on 'node02' CRS-2673: Attempting to stop 'ora.mdnsd' on 'node02' CRS-2677: Stop of 'ora.asm' on 'node02' succeeded CRS-2673: Attempting to stop 'ora.cluster_interconnect.haip' on 'node02' CRS-2677: Stop of 'ora.crf' on 'node02' succeeded CRS-2677: Stop of 'ora.mdnsd' on 'node02' succeeded CRS-2677: Stop of 'ora.drivers.acfs' on 'node02' succeeded CRS-2677: Stop of 'ora.evmd' on 'node02' succeeded CRS-2677: Stop of 'ora.cluster_interconnect.haip' on 'node02' succeeded CRS-2677: Stop of 'ora.ctssd' on 'node02' succeeded CRS-2673: Attempting to stop 'ora.cssd' on 'node02' CRS-2677: Stop of 'ora.cssd' on 'node02' succeeded CRS-2673: Attempting to stop 'ora.gipcd' on 'node02' CRS-2673: Attempting to stop 'ora.diskmon' on 'node02' CRS-2677: Stop of 'ora.diskmon' on 'node02' succeeded CRS-2677: Stop of 'ora.gipcd' on 'node02' succeeded
101 CRS-2673: Attempting to stop 'ora.gpnpd' on 'node02' CRS-2677: Stop of 'ora.gpnpd' on 'node02' succeeded CRS-2793: Shutdown of Oracle High Availability Services-managed resources on 'node02' has completed CRS-4133: Oracle High Availability Services has been stopped. OLR initialization - successful Replacing Clusterware entries in inittab ACFS-9300: ADVM/ACFS distribution files found. ACFS-9312: Existing ADVM/ACFS installation detected. ACFS-9314: Removing previous ADVM/ACFS installation. ACFS-9315: Previous ADVM/ACFS components successfully removed. ACFS-9307: Installing requested ADVM/ACFS software. ACFS-9308: Loading installed ADVM/ACFS drivers. ACFS-9321: Creating udev for ADVM/ACFS. ACFS-9323: Creating module dependencies - this may take some time. ACFS-9154: Loading 'oracleoks.ko' driver. ACFS-9154: Loading 'oracleadvm.ko' driver. ACFS-9154: Loading 'oracleacfs.ko' driver. ACFS-9327: Verifying ADVM/ACFS devices. ACFS-9156: Detecting control device '/dev/asm/.asm_ctl_spec'. ACFS-9156: Detecting control device '/dev/ofsctl'. ACFS-9309: ADVM/ACFS installation correctness verified. clscfg: EXISTING configuration version 5 detected. clscfg: version 5 is 11g Release 2. Successfully accumulated necessary OCR keys. Creating OCR keys for user 'root', privgrp 'root'.. Operation successful. Started to upgrade the Oracle Clusterware. This operation may take a few minutes. Started to upgrade the CSS. Started to upgrade the CRS. The CRS was successfully upgraded. Oracle Clusterware operating version was successfully set to ASM のアップグレードが最終ノードで終了しました PRKO-2116 : OC4J はすでに有効です Configure Oracle Grid Infrastructure for a Cluster... succeeded 2011 年 7 月 21 日月曜日 21:49:44 JST
102 SCAN ホスト名が DNS ではなく hosts ファイルのみで名前解決されている場合は 前画面の構成スクリプトの実行画面でスクリプト実行後 OK ボタンをクリックすると 次の画面が出力され Oracle Cluster Verification ユーティリティについてアラートが出力されるので 内容を確認して スキップ をクリックした後 次へ をクリックします ログを確認すると 次のように SCAN について名前解決に失敗している情報が記載されますが DNS ではなく hosts ファイルで名前解決を設定されている場合は 問題ありません 情報 : "oacscan1.jp.oracle.com" の名前解決の設定をチェック中... 情報 : ERROR: 情報 : PRVG-1101 : SCAN 名 "oacscan1.jp.oracle.com" の解決に失敗しました情報 : ERROR: 情報 : PRVF-4657 : "oacscan1.jp.oracle.com" の名前解決の設定チェック (IP アドレス : ) に失敗しました情報 : ERROR: 情報 : PRVF-4664 : SCAN 名 "oacscan1.jp.oracle.com" に対して一貫性のない名前解決エントリが検出されました情報 : SCAN VIP およびリスナー設定の検証に失敗しました
103 13. 終了 閉じる をクリックして Oracle Grid Infrastructure のアップグレードは完了です 14. 環境変数の設定 Oracle Grid Infrastructure インストール ユーザーの環境変数を.bash_profile に設定します 設定後 再ログインすることで環境変数が反映されます Oracle Grid Infrastructure インストール ユーザー $HOME/.bash_profile ファイル設定例 umask 022 export ORACLE_BASE=/u01/app/grid export ORACLE_HOME=/u01/app/ /grid export PATH=$ORACLE_HOME/bin:$PATH export ORACLE_SID=<ORACLE ASM SID> export LANG=ja_JP.UTF-8 export NLS_LANG=Japanese_Japan.AL32UTF
104 15. インストール後の確認 crsctl コマンドを使用して リソースが正常に稼動していることを確認します gsd リソースはデフォルトでは OFFLINE となります /u01/app/ /grid/bin/crsctl status resource -t NAME TARGET STATE SERVER STATE_DETAILS Local Resources ora.crs.dg ONLINE ONLINE node01 ONLINE ONLINE node02 ora.listener.lsnr ONLINE ONLINE node01 ONLINE ONLINE node02 ora.asm ONLINE ONLINE node01 Started ONLINE ONLINE node02 Started ora.gsd OFFLINE OFFLINE node01 gsd はデフォルトで OFFLINE OFFLINE OFFLINE node02 ora.net1.network ONLINE ONLINE node01 ONLINE ONLINE node02 ora.ons ONLINE ONLINE node01 ONLINE ONLINE node02 ora.registry.acfs ONLINE ONLINE node01 ONLINE ONLINE node Cluster Resources ora.listener_scan1.lsnr 1 ONLINE ONLINE node02 ora.listener_scan2.lsnr 1 ONLINE ONLINE node01 ora.listener_scan3.lsnr 1 ONLINE ONLINE node01 ora.node01.vip 1 ONLINE ONLINE node01 ora.node02.vip 1 ONLINE ONLINE node02 ora.cvu 1 ONLINE ONLINE node01 ora.oc4j 1 ONLINE ONLINE node01 ora.scan1.vip 1 ONLINE ONLINE node02 ora.scan2.vip 1 ONLINE ONLINE node01 ora.scan3.vip 1 ONLINE ONLINE node
105 5.3 Oracle Database ソフトウェアのインストール 1. インストーラの準備 続いて Oracle Database のアップグレード作業を開始する前に 以下を実施してください Cluster Ready Services (CRS) プロセス稼働の確認 全てのノード上で Cluster Ready Services (CRS) プロセスが稼働している必要があります 確認には Oracle Clusterware の所有ユーザーで以下のコマンドを実行してください 確認は全てのノードで実施します 以下は実行例です crsctl check crs crsctl check crs CSS appears healthy CRS appears healthy EVM appears healthy 全てのノードで確認します Oracle Database のインストール ディレクトリの作成 Oracle Database のホーム ディレクトリを全てのノードで作成します 以下はディレクトリの作成例です mkdir -p /u01/app/oracle/product/ /dbhome_1 mkdir -p /u01/app/oracle/product/ /dbhome_1 全てノードで作成します 既存の環境変数の解除 既存の環境において設定している Oracle 関連の環境変数 (ORACLE_HOME ORACLE_BASE ORACLE_SID など ) があれば解除しておきます CRS_HOME や ORA_CRS_HOME といった環境変数は使用しないでください また PATH 環境変数には ORACLE 関連のディレクトリを含めないで下さい 以下に本ガイドでの実行例を記載します [oracle@node01]$ vi ~/.bash_profile 次の環境変数をコメントアウトする #export ORACLE_BASE=/u01/app/oracle #export ORACLE_HOME=/u01/app/11.2.0/dbhome_1 #export PATH=$ORACLE_HOME/bin:$PATH #export ORACLE_SID=+ASM1 [oracle@node01]$ su - oracle 環境変数を再読み込みするために再ログインします [oracle@node01]$ env grep ORACLE ORACLE 関連の環境変数がないことを確認 [oracle@node01]$ env grep PATH PATH=/bin:/usr/kerberos/bin:/usr/local/bin:/bin:/usr/bin:/home/grid/bin PATH 環境変数に ORACLE のディレクトリ関連がないことを確認
106 2. インストーラの起動 ノード 1 の oracle ユーザーで OUI を起動します [oracle@node01]$ <DATABASE_INSTALL_IMAGE>/Disk1/runInstaller
107 3. セキュリティ アップデートの構成 セキュリティ アップデートを My Oracle Support 経由でダウンロードすることができます 本ガイドでは セキュリティ アップデートを My Oracle Support 経由で受け取ります のチェックを外し 次へ をクリックします
108 チェックを外した場合 次のメッセージが出ますので はい をクリックします 4. ソフトウェア更新のダウンロード インストール中にソフトウェアの更新をダウンロードし 適用する際にはオプションを選択します ダウンロードを行う場合は MOS の資格証明を入力してください ダウンロードを行った場合 ソフトウェアの更新機能を使用して Oracle での最新の更新 ( 個別 Patch の更新 Critical Patch の更新 OUI の更新 最新の Patch Set など ) を動的にダウンロードし 適用します ここでは ソフトウェア更新のスキップ を選択して 次へ をクリックします
109 5. インストール オプションの選択 次のインストール オプションのいずれかを選択します データベースの作成および構成 : インストール中に インストーラで新しいデータベースを作成および構成するすることができます データベース ソフトウェアのみインストール :Oracle ソフトウェアのみをインストールする場合 またはインストールしたリリースのソフトウェアを使用して追加のデータベースを作成する場合は Database Configuration Assistant(DBCA) を使用することができます 既存のデータベースをアップグレード : 既存のデータベースを の Oracle データベースにアップグレードする場合に選択します 本ガイドでは ソフトウェアのアップグレード後にデータベースを DBUA を使用してアップグレードするため データベース ソフトウェアのみインストール を選択し 次へ をクリックします
110 6. Grid インストール オプション 実行するデータベース インストールのタイプを選択します 本ガイドでは Oracle Real Application Clusters データベース インストール を選択し インストールをする必要がある全てのノードを選択します そして SSH 接続 をクリックします
111 パスワード不要の SSH 接続の確立が完了したら 次へ をクリックします
112 7. 製品言語の選択 製品で使用する言語を選択します 使用したい言語を 使用可能な言語 から選択し 選択された言語 に追加します 本ガイドでは 日本語 と 英語 を選択し 次へ をクリックします
113 8. データベース エディションの選択 データベース エディションを選択します エディションはライセンスの許諾内容に合わせて選択します 本ガイドでは Enterprise Edition を選択し 次へ をクリックします
114 9. インストール場所の指定 Oracle ベースとソフトウェアの場所を記入し 次へ をクリックします
115 10. 権限付きオペレーティング システム グループ データベースに対する OS 認証に使用するグループをそれぞれ設定します 本ガイドでは データベース管理者 (OSDBA) グループ に dba データベース オペレータ (OSOPER) グループ に oper を指定します 指定内容を確認して 次へ をクリックします
116 11. 前提条件チェックの実行 インストール実行前に 前提条件のチェックが実行されます 全てのチェック項目に成功すると 自動的にサマリー画面に遷移します 失敗した項目がある場合には 適宜修正を行ってください
117 12. サマリー 設定に問題がないかインストール サマリーを確認し インストール をクリックします
118 13. 製品のインストール インストールが開始されます
119 14. 構成スクリプトの実行 インストールが進むと構成スクリプトの実行画面がポップアップします 表示された構成スクリプト (root.sh) を全てのノードで実行します スクリプトは root ユーザーで実行してください スクリプト実行後 OK ボタンをクリックします 以下に本ガイドでの実行例を記載します su - [root@node01]# whoami root root ユーザーでログインしていることを確認 [root@node01]# /u01/app/ /dbhome_1/root.sh Performing root user operation for Oracle 11g The following environment variables are set as: ORACLE_OWNER= oracle ORACLE_HOME= /u01/app/oracle/product/ /dbhome_1 Enter the full pathname of the local bin directory: [/usr/local/bin]: Enter を押して処理を続行します The contents of "dbhome" have not changed. No need to overwrite. The contents of "oraenv" have not changed. No need to overwrite. The contents of "coraenv" have not changed. No need to overwrite. Entries will be added to the /etc/oratab file as needed by Database Configuration Assistant when a database is created Finished running generic part of root script. Now product-specific root actions will be performed. Finished product-specific root actions. 同様の手順を全てのノードで実行します
120 15. 終了 閉じる をクリックして Oracle Database のインストールは終了です 16. 環境変数の設定 Oracle Database インストール ユーザーの環境変数を.bash_profile に設定します 設定後 再ログインすることで環境変数が反映されます Oracle Database インストール ユーザー $HOME/.bash_profile ファイル設定例 umask 022 export ORACLE_BASE=/u01/app/oracle export ORACLE_HOME=/u01/app/oracle/product/ /dbhome_1 export PATH=$ORACLE_HOME/bin:$PATH export ORACLE_SID=<ORACLE DATABASE SID> export LANG=ja_JP.UTF-8 export NLS_LANG=Japanese_Japan.AL32UTF8 5.4 データベースのアップグレード 続いて RAC データベースのアップグレードを実施します アップグレードの手順は 4.5 データべースのアップグレード を参照してください
121 付録 A 用個別パッチ適用 Linux 環境において から へのアップグレードを行う際には Patch を適用する必要があります この Patch が未適用の場合には アップグレードが失敗します ここでは Patch の適用手順を紹介します 本ガイドでは まず特定のノードから適用を開始して適用が必要な全てのパッチ適用を完了させてから 他ノードへ同様の手順で適用を行うものとします 必ず 一つのノードでパッチ適用が完了してから 次のノードへパッチを適用してください A-1 OPatch の用意 Patch を適用するには OPatch のバージョンが 以上である必要があります 最新の OPatch をダウンロード後 任意のディレクトリへ配置して zip ファイルを展開します そして OPatch のバージョンを確認します なお OPatch が保存されたディレクトリを <OPatch_DIRECTORY> とします [oracle@node01]$ cd <OPatch_DIRECTORY> [oracle@node01]$ unzip p _102000_linux-x86-64.zip [oracle@node01]$./opatch/opatch version Invoking OPatch OPatch Version: 以上であることを確認 OPatch succeeded. A-2 Patch の適用 1. パッチファイル解凍 Patch をダウンロード後 任意のディレクトリへ配置して zip ファイルを展開します なお Patch が保存されたディレクトリを <PATCH_TOP_DIR> とします [oracle@node01]$ cd <PATCH_TOP_DIR> [oracle@node01]$ unzip p _10205_linux-x86-64.zip zip ファイルを展開すると任意のディレクトリ下に というディレクトリが作成されます 2. コンフリクト確認全てのノード上で Oracle Clusterware と Oracle Dataase のホームに対して実施します 以下のコマンドを実行し コンフリクトするパッチが適用されてい無いことを確認してください <Oracle Clusterwar> [grid@node01]$ <OPatch_DIRECTORY>/OPatch/opatch prereq \ CheckConflictAgainstOHWithDetail \ -phbasedir./ oh <CRS_HOME> Invoking OPatch Oracle Interim Patch Installer version Copyright (c) 2010, Oracle Corporation. All rights reserved. PREREQ session
122 Oracle Home : /u01/app/10.2.0/crs Central Inventory : /u01/app/oracle/orainventory from : /etc/orainst.loc OPatch version : OUI version : OUI location : /u01/app/10.2.0/crs/oui Log file location : /u01/app/10.2.0/crs/cfgtoollogs/opatch/opatch _ pm.log Patch history file: /u01/app/10.2.0/crs/cfgtoollogs/opatch/opatch_history.txt Invoking prereq "checkconflictagainstohwithdetail" Prereq "checkconflictagainstohwithdetail" passed. OPatch succeeded. 成功すれば コンフリクトするパッチはありません <Oracle Databas> [oracle@node01]$ <OPatch_DIRECTORY>/OPatch/opatch prereq \ CheckConflictAgainstOHWithDetail \ -phbasedir./ oh <DB_HOME> Invoking OPatch Oracle Interim Patch Installer version Copyright (c) 2009, Oracle Corporation. All rights reserved. PREREQ session Oracle Home : /u01/app/oracle/product/10.2.0/db_1 Central Inventory : /u01/app/oracle/orainventory from : /etc/orainst.loc OPatch version : OUI version : OUI location : /u01/app/oracle/product/10.2.0/db_1/oui Log file location : /u01/app/oracle/product/10.2.0/db_1/cfgtoollogs/opatch/opatch _ pm.log Patch history file: /u01/app/oracle/product/10.2.0/db_1/cfgtoollogs/opatch/opatch_history.txt Invoking prereq "checkconflictagainstohwithdetail" Prereq "checkconflictagainstohwithdetail" passed. OPatch succeeded. 成功すれば コンフリクトするパッチはありません 3. CRS 起動確認 oracle ユーザーで以下のコマンドを実施して CRS が起動されていることを確認します 起動されていない場合は 起動します [oradcle@node01]$ crs_stat -t
123 4. パッチ適用 root ユーザーで以下のコマンドを実行して パッチを適用します opatch auto コマンドは Oracle Clusterware ホームと Oracle Database ホームそれぞれに自動でパッチを適用します リモート ノードへは適用されないため 個別に適用を行います ただし 複数のノードで同時に実行せず 1 つのノードへパッチ適用が完了してから順次別のノードへ適用してください <root ユーザー > [root@node01]# unset NLS_LANG [root@node01]# export LANG=C [root@node01]# export PATH<OPatch_DIRECTORY>:$PATH [root@node01]# cd <PATCH_TOP_DIR>/ [root@node01]# <OPatch_DIRECTORY>/OPatch/opatch auto auto_patch.pl: log file is /tmp/log/patch/10.2/ /opatchauto_ _20:57:25.log Discovering environment to patch Checking if Clusterware is up Looking for configured cluster nodes node01 node02 Getting Local node name Looking for configured databases on node node01 Databases configured on node node01 are: orcl Determining ORACLE_HOME paths for configured databases Retrieving configured services for Database orcl There are 0 services configured for Database orcl Oracle Home /u01/app/oracle/product/10.2.0/db_1 is configured with Database(s)-> orcl Oracle user for /u01/app/oracle/product/10.2.0/db_1 is oracle opatch version is Oracle CRS user is oracle Cluster nodes are node01 node02 Node to patch is node01 Using /u01/app/10.2.0/crs/opatch/opatch for opatch The patch is applicable for this CRS Home /u01/app/10.2.0/crs Oracle version for Oracle Home /u01/app/oracle/product/10.2.0/db_1 is The patch is applicable for this Oracle Home /u01/app/oracle/product/10.2.0/db_1 Patch node node01? (y/n/abort/n/n1-n2/help): y y と入力して継続します Applying patch on node node01 stopping instance on node01 with /u01/app/oracle/product/10.2.0/db_1/bin/srvctl stop instance -d orcl -i orcl1 stopping listener on node01 with /u01/app/10.2.0/crs/bin/srvctl stop listener -n node01 stopping nodeapps on node01 with /u01/app/10.2.0/crs/bin/srvctl stop nodeapps -n node01 shutting down CRS stack on node01 with /u01/app/10.2.0/crs/bin/crsctl stop crs Sleeping 15 second(s) Executing /tmp/log/patch/10.2/ /custom/scripts/prerootpatch.sh -crshome /u01/app/10.2.0/ crs -crsuser oracle as root on node
124 Executing /tmp/log/patch/10.2/ /custom/scripts/prepatch.sh -crshome /u01/app/10.2.0/crs as oracle on node01 Executing /tmp/log/patch/10.2/ /custom/server/*/custom/scripts/prepatch.sh -dbhome /u01/app/oracle/product/10.2.0/db_1 as oracle on node01 Executing /u01/app/10.2.0/crs/opatch/opatch napply -local -silent -oh /u01/app/10.2.0/crs -id as oracle on node01 Executing /u01/app/10.2.0/crs/opatch/opatch napply custom/server/ -local -silent -oh /u01/app/oracle/product/10.2.0/db_1 -id as oracle on node01 Executing /tmp/log/patch/10.2/ /custom/scripts/postpatch.sh -crshome /u01/app/10.2.0/crs as oracle on node01 Executing /tmp/log/patch/10.2/ /custom/server/*/custom/scripts/postpatch.sh -dbhome /u01/app/oracle/product/10.2.0/db_1 as oracle on node01 Executing /tmp/log/patch/10.2/ /custom/scripts/postrootpatch.sh -crshome /u01/app/10.2.0/crs as root on node01 no services for database orcl configured on node node01 List of patched nodes: node01 auto_patch.pl finished 5. パッチ適用確認 oracle ユーザーで以下のコマンドを実行し Oracle Clusterware ホームにパッチが適用されていることを確認します <OPatch_DIRECTORY>/OPatch/opatch lsinventory -oh <CRS_HOME> 以下は実行したコマンドの出力結果例の抜粋です 適用済みのパッチとして Patch が表示されていることを確認してください <OPatch_DIRECTORY>/OPatch/opatch lsinventory -oh <CRS_HOME> Invoking OPatch Oracle Interim Patch Installer バージョン Copyright (c) 2009, Oracle Corporation. All rights reserved Oracle ホーム : /u01/app/10.2.0/crs 中央インベントリ : /u01/app/oracle/orainventory 元 : /etc/orainst.loc OPatch のバージョン : OUI のバージョン : OUI の場所 : /u01/app/10.2.0/crs/oui ログ ファイルの場所 : /u01/app/10.2.0/crs/cfgtoollogs/opatch/opatch _ 午後.log Patch history file: /u01/app/10.2.0/crs/cfgtoollogs/opatch/opatch_history.txt Lsinventory Output file location : /u01/app/10.2.0/crs/cfgtoollogs/opatch/lsinv/lsinventory _ 午後.txt インストールされた最上位製品 (2): Oracle Clusterware Oracle Database 10g Release 2 Patch Set この Oracle ホームには 2 の製品がインストールされています
125 仮パッチ (1) : 適用済みのパッチを確認します Patch : applied on Mon Sep 05 17:39:37 JST 2011 Unique Patch ID: Created on 17 Jan 2011, 03:04:47 hrs PST8PDT Bugs fixed: , , , , , , , , , , 複数のノードで構成される RAC システム Local node = node01 Remote node = node OPatch succeeded. oracle ユーザーで以下のコマンドを実行し Oracle Database ホームにパッチが適用されているかを確認します [oracle@node01]$ <OPatch_DIRECTORY>/OPatch/opatch lsinventory -oh <DB_HOME> 以下は実行したコマンドの出力結果例の抜粋です 適用済みのパッチとして Patch が表示されていることを確認してください [oracle@node01]$ <OPatch_DIRECTORY>/OPatch/opatch lsinventory -oh <DB_HOME> Invoking OPatch Oracle Interim Patch Installer バージョン Copyright (c) 2009, Oracle Corporation. All rights reserved Oracle ホーム : /u01/app/oracle/product/10.2.0/db_1 中央インベントリ : /u01/app/oracle/orainventory 元 : /etc/orainst.loc OPatch のバージョン : OUI のバージョン : OUI の場所 : /u01/app/oracle/product/10.2.0/db_1/oui ログ ファイルの場所 : /u01/app/oracle/product/10.2.0/db_1/cfgtoollogs/opatch/opatch _ 午後.log Patch history file: /u01/app/oracle/product/10.2.0/db_1/cfgtoollogs/opatch/opatch_history.txt Lsinventory Output file location : /u01/app/oracle/product/10.2.0/db_1/cfgtoollogs/opatch/lsinv/lsinventory _ 午後.txt インストールされた最上位製品 (2): Oracle Database 10g Oracle Database 10g Release 2 Patch Set この Oracle ホームには 2 の製品がインストールされています 仮パッチ (1) : 適用済みのパッチを確認します Patch : applied on Mon Sep 05 17:40:00 JST 2011 Unique Patch ID: Created on 17 Jan 2011, 03:04:34 hrs PST8PDT
126 Bugs fixed: , , , , , , , , , , 複数のノードで構成される RAC システム Local node = node01 Remote node = node OPatch succeeded. 6. 別ノードへのパッチ適用非共有 Grid Infrastructure ホームの場合は クラスタを構成する全てのノードで上記手順を繰り返し 全てのノードにパッチを適用します
127 付録 B 用個別パッチ適用 Linux 環境において から へのアップグレードを行う際には Patch を適用する必要があります この Patch が未適用の場合には アップグレードが失敗します ここでは Patch の適用手順を紹介します 本ガイドでは まず特定のノードから適用を開始して適用が必要な全てのパッチ適用を完了させてから 他ノードへ同様の手順で適用を行うものとします 必ず 一つのノードでパッチ適用が完了してから 次のノードへパッチを適用してください B-1 OPatch の用意 Patch を適用するには OPatch のバージョンが 以上である必要があります 最新の OPatch をダウンロード後 任意のディレクトリへ配置して zip ファイルを展開します そして OPatch のバージョンを確認します なお OPatch が保存されたディレクトリを <OPatch_DIRECTORY> とします [oracle@node01]$ cd <OPatch_DIRECTORY> [oracle@node01]$ unzip p _111000_linux-x86-64.zip [oracle@node01]$./opatch/opatch version Invoking OPatch OPatch Version: 以上であることを確認 OPatch succeeded. B-2 Patch の適用 1. パッチファイル解凍 Patch をダウンロード後 任意のディレクトリへ配置して zip ファイルを展開します なお Patch が保存されたディレクトリを <PATCH_TOP_DIR> とします [oracle@node01]$ cd <PATCH_TOP_DIR> [oracle@node01]$ unzip p _111070_linux-x86-64.zip zip ファイルを展開すると任意のディレクトリ下に というディレクトリが作成されます 2. コンフリクト確認全てのノード上で Oracle Clusterware と Oracle Dataase のホームに対して実施します 以下のコマンドを実行し コンフリクトするパッチが適用されてい無いことを確認してください <Oracle Clusterwar> [oracle@node01]$ <OPatch_DIRECTORY>/OPatch/opatch prereq \ CheckConflictAgainstOHWithDetail -phbasedir./ oh <CRS_HOME> Invoking OPatch Oracle Interim Patch Installer version Copyright (c) 2011, Oracle Corporation. All rights reserved. PREREQ session Oracle Home : /u01/app/oracle/product/11.1.0/db_1 Central Inventory : /u01/app/orainventory from : /etc/orainst.loc OPatch version :
128 OUI version : OUI location : /u01/app/oracle/product/11.1.0/db_1/oui Log file location : /u01/app/oracle/product/11.1.0/db_1/cfgtoollogs/opatch/opatch _ pm.log Patch history file: /u01/app/oracle/product/11.1.0/db_1/cfgtoollogs/opatch/opatch_history.txt Invoking prereq "checkconflictagainstohwithdetail" Prereq "checkconflictagainstohwithdetail" passed. OPatch succeeded. 成功すれば コンフリクトするパッチはありません <Oracle Database> [oracle@node01]$ <OPatch_DIRECTORY>/OPatch/opatch prereq \ CheckConflictAgainstOHWithDetail -phbasedir./ oh <DB_HOME> Invoking OPatch Oracle Interim Patch Installer バージョン Copyright (c) 2011, Oracle Corporation. All rights reserved UTIL session Oracle ホーム : /u01/app/oracle/product/11.1.0/db_1 中央インベントリ : /u01/app/orainventory 元 : /etc/orainst.loc OPatch のバージョン : OUI のバージョン : OUI の場所 : /u01/app/oracle/product/11.1.0/db_1/oui Log file location : /u01/app/oracle/product/11.1.0/db_1/cfgtoollogs/opatch/opatch _ pm.log Patch history file: /u01/app/oracle/product/10.2.0/db_1/cfgtoollogs/opatch/opatch_history.txt Invoking prereq "checkconflictagainstohwithdetail" Prereq "checkconflictagainstohwithdetail" passed. OPatch succeeded. 成功すれば コンフリクトするパッチはありません 3. CRS 停止確認パッチを適用する前に CRS が停止されていることを確認します 本ガイドでは以下の手順で CRS を停止します [oracle@node01]$ srvctl stop database -d orcl -i $ORACLE_SID [oracle@node01]$ srvctl stop asm -n node01 [oracle@node01]$ srvctl stop asm -n node02 [oracle@node01]$ srvctl stop nodeapps -n node01 [oracle@node01]$ srvctl stop nodeapps -n node02 [oracle@node01]$ su [root@node01]# crsctl stop crs 4. prerootpatch.sh 実行 root ユーザーで以下のコマンドを実行して ロックされているファイルを解除します [root@node01]# cd <PATCH_TOP_DIR> / [root@node01]# custom/scripts/prerootpatch.sh -crshome $ORA_CRS_HOME -crsuser oracle Checking to see if Oracle CRS stack is down
129 Oracle CRS stack is down now. 5. Oracle Clusterware ホームに prepatch.sh 実行 oracle ユーザーで以下のコマンドを実行して Oracle Clusterware ホームのロックされているファイルを解除します su - oracle [oracle@node01]$ cd /tmp/log/patch/ [oracle@node01]$ export PATH=$PATH:/tmp/LOG/Patch/OPatch [oracle@node01]$ custom/scripts/prepatch.sh -crshome $ORA_CRS_HOME custom/scripts/prepatch.sh completed successfully. 6. Oracle Database ホームに prepatch.sh 実行 oracle ユーザーで以下のコマンドを実行して Oracle Database ホームのロックされているファイルを解除します [oracle@node01]$ custom/server/ /custom/scripts/prepatch.sh > -dbhome $ORACLE_HOME custom/server/ /custom/scripts/prepatch.sh completed successfully. 7. Oracle Clusterware ホームにパッチを適用 oracle ユーザーで以下のコマンドを実行して Oracle Clusterware ホームへパッチを適用します [oracle@node01]$ <OPatch_DIRECTORY>/OPatch/opatch napply -local -oh $ORA_CRS_HOME \ > -id Invoking OPatch Oracle Interim Patch Installer バージョン Copyright (c) 2011, Oracle Corporation. All rights reserved UTIL session Oracle ホーム : /u01/app/11.1.0/crs 中央インベントリ : /u01/app/orainventory 元 : /etc/orainst.loc OPatch のバージョン : OUI のバージョン : OUI の場所 : /u01/app/11.1.0/crs/oui ログ ファイルの場所 : /u01/app/11.1.0/crs/cfgtoollogs/opatch/opatch _ 午前.log Patch history file: /u01/app/11.1.0/crs/cfgtoollogs/opatch/opatch_history.txt Invoking utility "napply" Checking conflict among patches... Checking if Oracle Home has components required by patches... Checking conflicts against Oracle Home... OPatch continues with these patches: 続行しますか [y n] Y y と入力して継続します User Responded with: Y Running prerequisite checks... セキュリティの問題について通知を受ける電子メール アドレスを指定し Oracle Configuration Manager をインストールして開始してください My Oracle Support の電子メール アドレス / ユーザー名
130 を使用すればより簡単です 詳細は にアクセスしてください 電子メール アドレス / ユーザー名 : セキュリティの問題について通知を受け取るための電子メール アドレスが指定されていません セキュリティの問題に関する通知を今後も受け取りませんか ([Y] はい, [N] いいえ ) [N]: Y y と入力して継続します -local オプションを選択したため OPatch はローカル システムにのみパッチを適用します ローカル システムのこの ORACLE_HOME 以外で実行している Oracle インスタンスを停止してください (Oracle ホーム = '/u01/app/11.1.0/crs') ローカル システムにパッチを適用する準備ができましたか [y n] Y y と入力して継続します User Responded with: Y パッチ 'NApply' の影響を受けるファイルをリストア用にバックアップしています 少し時間がかかります... Execution of 'sh /tmp/log/patch/ /custom/scripts/pre -apply ': Pre-patch script verification complete. Verification exit code 0 Return Code = 0 Applying patch ApplySession は仮パッチ ' ' を OH '/u01/app/11.1.0/crs' に適用中パッチ ' ' の影響を受けるファイルをロールバック用にバックアップしています 少し時間がかかります... コンポーネント oracle.crs, にパッチを適用中... ファイルを "/u01/app/11.1.0/crs/bin/cemutlo" にコピー中 ファイルを "/u01/app/11.1.0/crs/srvm/utl/rootinstalladd" にコピー中 ApplySession は仮パッチ ' ' をインベントリに追加中 Verifying the update... Inventory check OK: Patch ID is registered in Oracle Home inventory with proper meta-data. Files check OK: Files from Patch ID are present in Oracle Home. ローカル システムにパッチが適用されました ローカル システムを再起動します UtilSession: N-Apply done. OPatch succeeded. 8. Oracle Database ホームにパッチを適用 oracle ユーザーで以下のコマンドを実行して Oracle Database ホームへパッチを適用します [oracle@node01]$ <OPatch_DIRECTORY>/OPatch/opatch napply custom/server/ -local \ > -oh $ORACLE_HOME -id , Invoking OPatch Oracle Interim Patch Installer バージョン Copyright (c) 2011, Oracle Corporation. All rights reserved UTIL session Oracle ホーム : /u01/app/oracle/product/11.1.0/db_1 中央インベントリ : /u01/app/orainventory 元 : /etc/orainst.loc
131 OPatch のバージョン : OUI のバージョン : OUI の場所 : /u01/app/oracle/product/11.1.0/db_1/oui ログ ファイルの場所 : /u01/app/oracle/product/11.1.0/db_1/cfgtoollogs/opatch/opatch _ 午前.log Patch history file: /u01/app/oracle/product/11.1.0/db_1/cfgtoollogs/opatch/opatch_history.txt Invoking utility "napply" Checking conflict among patches... Checking if Oracle Home has components required by patches... Checking conflicts against Oracle Home... OPatch continues with these patches: 続行しますか [y n] y y と入力して継続します User Responded with: Y Running prerequisite checks... セキュリティの問題について通知を受ける電子メール アドレスを指定し Oracle Configuration Manager をインストールして開始してください My Oracle Support の電子メール アドレス / ユーザー名を使用すればより簡単です 詳細は にアクセスしてください 電子メール アドレス / ユーザー名 : セキュリティの問題について通知を受け取るための電子メール アドレスが指定されていません セキュリティの問題に関する通知を今後も受け取りませんか ([Y] はい, [N] いいえ ) [N]: Y -local オプションを選択したため OPatch はローカル システムにのみパッチを適用します ローカル システムのこの ORACLE_HOME 以外で実行している Oracle インスタンスを停止してください (Oracle ホーム = '/u01/app/oracle/product/11.1.0/db_1') ローカル システムにパッチを適用する準備ができましたか [y n] y y と入力して継続します User Responded with: Y パッチ 'NApply' の影響を受けるファイルをリストア用にバックアップしています 少し時間がかかります... Applying patch ApplySession は仮パッチ ' ' を OH '/u01/app/oracle/product/11.1.0/db_1' に適用中パッチ ' ' の影響を受けるファイルをロールバック用にバックアップしています 少し時間がかかります... コンポーネント oracle.rdbms, にパッチを適用中... ファイルを "/u01/app/oracle/product/11.1.0/db_1/bin/clscfg" にコピー中 ファイルを "/u01/app/oracle/product/11.1.0/db_1/srvm/utl/rootlocaladd" にコピー中 ApplySession は仮パッチ ' ' をインベントリに追加中 Verifying the update... Inventory check OK: Patch ID is registered in Oracle Home inventory with proper meta-data. Files check OK: Files from Patch ID are present in Oracle Home. ターゲット install に対してメイクを実行中ターゲット install に対してメイクを実行中 ローカル システムにパッチが適用されました ローカル システムを再起動します UtilSession: N-Apply done. OPatch succeeded
132 9. Oracle Clusterware ホームに postpatch.sh 実行 oracle ユーザーで以下のスクリプトを実行して Oracle Clusterware ホームの構成を元に戻します custom/scripts/postpatch.sh -crshome $ORA_CRS_HOME Oracle CRS_ENV_FILE is not specified but using /u01/app/11.1.0/crs/install/params.crs for parameter definitions Oracle CRS_ENV_FILE is not specified Oracle CRS_SCRIPT_FILE is not specified but using all the Oracle CRS scripts. Reading /u01/app/11.1.0/crs/install/params.crs.. Reading /u01/app/11.1.0/crs/install/params.crs.. Copying file /u01/app/11.1.0/crs/bin/racgons to /u01/app/11.1.0/crs/inventory/templates/bin/racgons Parsing file /u01/app/11.1.0/crs/bin/racgons Reapplying file permissions on /u01/app/11.1.0/crs/bin/clssproxy Reapplying file permissions on /u01/app/11.1.0/crs/bin/oclskd 10. Oracle Database ホームに postpatch.sh 実行 oracle ユーザーで以下のスクリプトを実行して Oracle Database ホームの構成を元に戻します custom/server/ /custom/scripts/postpatch.sh \ > -dbhome $ORACLE_HOME Reading /u01/app/oracle/product/11.1.0/db_1/install/params.ora.. Reading /u01/app/oracle/product/11.1.0/db_1/install/params.ora.. Parsing file /u01/app/oracle/product/11.1.0/db_1/bin/racgwrap Parsing file /u01/app/oracle/product/11.1.0/db_1/css/admin/init.cssd Parsing file /u01/app/oracle/product/11.1.0/db_1/bin/ocssd Reapplying file permissions on /u01/app/oracle/product/11.1.0/db_1/lib/libsrvm11.so Reapplying file permissions on /u01/app/oracle/product/11.1.0/db_1/lib/libsrvmhas11.so 11. postrootpatch.sh 実行 root ユーザーで以下のスクリプトを実行して Grid Infrastructure ホームの設定を戻します スクリプトを実行すると CRS が起動されます [oracle@node01]$ su [root@node01]# whoami root root ユーザーでログインしていることを確認 [root@node01]# custom/scripts/postrootpatch.sh -crshome $ORA_CRS_HOME Checking to see if Oracle CRS stack is already up... Checking to see if Oracle CRS stack is already starting Startup will be queued to init within 30 seconds. Waiting for the Oracle CRSD and EVMD to start Oracle CRS stack installed and running under init(1m) 12. Oracle Clusterware ホームへのパッチ適用確認 Oracle Clusterware ホームへ正常にパッチが適用されているかを確認します [oracle@node01]$ <OPatch_DIRECTORY>/OPatch/opatch lsinventory -oh $ORA_CRS_HOME Invoking OPatch Oracle Interim Patch Installer version Copyright (c) 2011, Oracle Corporation. All rights reserved
133 Oracle Home : /u01/app/11.1.0/crs Central Inventory : /u01/app/orainventory from : /etc/orainst.loc OPatch version : OUI version : OUI location : /u01/app/11.1.0/crs/oui Log file location : /u01/app/11.1.0/crs/cfgtoollogs/opatch/opatch _ pm.log Patch history file: /u01/app/11.1.0/crs/cfgtoollogs/opatch/opatch_history.txt Lsinventory Output file location : /u01/app/11.1.0/crs/cfgtoollogs/opatch/lsinv/lsinventory _ pm.txt Installed Top-level Products (2): Oracle Clusterware Oracle Database 11g Patch Set There are 2 products installed in this Oracle Home. Interim patches (1) : 適用済みのパッチを確認します Patch : applied on Mon Sep 05 17:54:25 JST 2011 Unique Patch ID: Created on 23 Mar 2011, 16:09:33 hrs PST8PDT Bugs fixed: , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , Rac system comprising of multiple nodes Local node = node01 Remote node = node OPatch succeeded
134 13. Oracle Database ホームへのパッチ適用確認 Oracle Database ホームへ正常にパッチが適用されているかを確認します <OPatch_DIRECTORY>/OPatch/opatch lsinventory -detail \ > -oh $ORACLE_HOME Invoking OPatch Oracle Interim Patch Installer version Copyright (c) 2011, Oracle Corporation. All rights reserved. Oracle Home : /u01/app/oracle/product/11.1.0/db_1 Central Inventory : /u01/app/orainventory from : /etc/orainst.loc OPatch version : OUI version : OUI location : /u01/app/oracle/product/11.1.0/db_1/oui Log file location : /u01/app/oracle/product/11.1.0/db_1/cfgtoollogs/opatch/opatch _ pm.log Patch history file: /u01/app/oracle/product/11.1.0/db_1/cfgtoollogs/opatch/opatch_history.txt Lsinventory Output file location : /u01/app/oracle/product/11.1.0/db_1/cfgtoollogs/opatch/lsinv/lsinventory _ pm.txt Installed Top-level Products (2): Oracle Database 11g Oracle Database 11g Patch Set There are 2 products installed in this Oracle Home. Interim patches (1) : 適用済みのパッチを確認します Patch : applied on Mon Sep 05 17:54:54 JST 2011 Unique Patch ID: Created on 23 Mar 2011, 16:09:28 hrs PST8PDT Bugs fixed: , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , Rac system comprising of multiple nodes Local node = node01 Remote node = node OPatch succeeded. 14. 別ノードへのパッチ適用非共有 Grid Infrastructure ホームの場合は クラスタを構成する全てのノードで上記手順を繰り返し 全てのノードにパッチを適用します
135 付録 C 用個別パッチ適用 Linux 環境において から へのアップグレードを行う際には Patch を適用する必要があります この Patch が未適用の場合には アップグレードが失敗します ここでは Patch の適用手順を紹介します 本ガイドでは まず特定のノードから適用を開始して適用が必要な全てのパッチ適用を完了させてから 他ノードへ同様の手順で適用を行うものとします 必ず 一つのノードでパッチ適用が完了してから 次のノードへパッチを適用してください C-1 OPatch の用意 Patch を適用するには OPatch のバージョンが 以上である必要があります 最新の OPatch をダウンロード後 任意のディレクトリへ配置して zip ファイルを展開します そして OPatch のバージョンを確認します なお OPatch が保存されたディレクトリを <OPatch_DIRECTORY> とします <oracle> [oracle@node01]$ cd <OPatch_DIRECTORY> [oracle@node01]$ unzip p _112000_linux-x86-64.zip [oracle@node01]$./opatch/opatch version Invoking OPatch OPatch Version: 以上であることを確認 OPatch succeeded. C-2 Patch の適用 1. パッチファイル解凍 Patch をダウンロード後 任意のディレクトリへ配置して zip ファイルを展開します なお Patch が保存されたディレクトリを <PATCH_TOP_DIR> とします [oracle@node01]$ cd <PATCH_TOP_DIR> [oracle@node01]$ unzip p _112010_linux-x86-64.zip zip ファイルを展開すると任意のディレクトリ下に というディレクトリが作成されます 2. コンフリクト確認全てのノード上で Oracle Grid Infrastructure と Oracle Dataase のホームに対して実施します 以下のコマンドを実行し コンフリクトするパッチが適用されてい無いことを確認してください < Oracle Grid Infrastructure > [oracle@node01]$ <OPatch_DIRECTORY>/OPatch/opatch prereq \ > CheckConflictAgainstOHWithDetail -phbasedir <PATCH_TOP_DIR>/ \ > -oh <GI_HOME> Invoking OPatch Oracle Interim Patch Installer バージョン Copyright (c) 2011, Oracle Corporation. All rights reserved PREREQ session
136 Oracle Home : /u01/app/11.2.0/grid Central Inventory : /u01/app/orainventory from : /etc/orainst.loc OPatch version : OUI version : Log file location : /u01/app/11.2.0/grid/cfgtoollogs/opatch/opatch _ 午後.log Invoking prereq "checkconflictagainstohwithdetail" Prereq "checkconflictagainstohwithdetail" passed. OPatch succeeded. 成功すれば コンフリクトするパッチはありません <Oracle Database> [oracle@node01]$ <OPatch_DIRECTORY>/OPatch/opatch prereq \ > CheckConflictAgainstOHWithDetail -phbasedir <PATCH_TOP_DIR>/ oh <DB_HOME> Invoking OPatch Oracle Interim Patch Installer バージョン Copyright (c) 2011, Oracle Corporation. All rights reserved PREREQ session Oracle Home : /u01/app/oracle/product/11.2.0/dbhome_1 Central Inventory : /u01/app/orainventory from : /u01/app/oracle/product/11.2.0/dbhome_1/orainst.loc OPatch version : OUI version : Log file location : /u01/app/11.2.0/grid/cfgtoollogs/opatch/opatch _ 午後.log Invoking prereq "checkconflictagainstohwithdetail" Prereq "checkconflictagainstohwithdetail" passed. OPatch succeeded. 成功すれば コンフリクトするパッチはありません 3. CRS リソース停止 oracle ユーザーで以下のコマンドを実施して Database ホームから起動されているリソースを停止します [oracle@node01]$ srvctl stop home -o $ORACLE_HOME -s /tmp/statusfile -n `hostname` [oracle@node01]$ ps -ef grep oracle root :39 pts/0 00:00:00 su - oracle oracle :39 pts/0 00:00:00 -bash oracle :45 pts/0 00:00:00 ps -ef oracle :45 pts/0 00:00:00 grep oracle oracle ユーザで実行されているリソースがないことを確認
137 4. prerootpatch.sh 実行 root ユーザーで以下のコマンドを実行して 保護されているファイルを解除します 複数のノードで同時実行はしないで下さい su - [root@node01]# whoami root root ユーザーでログインしていることを確認 [root@node01]# <GI_HOME>/crs/install/rootcrs.pl unlock :15:17: Parsing the host name :15:17: Checking for super user privileges :15:17: User has super user privileges CRS-4133: Oracle High Availability Services has been stopped. Successfully unlock /u01/app/11.2.0/grid 5. Oracle Clusterware ホームに prepatch.sh 実行 oracle ユーザーで以下のコマンドを実行して Oracle Clusterware ホームのロックされているファイルを解除します [root@node01]# su - oracle [oracle@node01]$ whoami oracle oracle ユーザーでログインしていることを確認 [oracle@node01]$ cd <PATCH_TOP_DIR>/ [oracle@node01]$ custom/server/ /custom/scripts/prepatch.sh -dbhome <DB_HOME> custom/scripts/prepatch.sh completed successfully. 6. Oracle Grid Infrastructure ホームにパッチを適用 grid ユーザーで以下のコマンドを実行して Oracle Grid Infrastructure ホームへパッチを適用します [oracle@node01]$ su - grid [oracle@node01]$ whoami grid grid ユーザーでログインしていることを確認 [grid@node01]$ cd <PATCH_TOP_DIR>/ [grid@node01]$ <OPatch_DIRECTORY>/OPatch/opatch napply -local -oh <GI_HOME> -id Invoking OPatch Oracle Interim Patch Installer バージョン Copyright (c) 2009, Oracle Corporation.All rights reserved. UTIL session Oracle ホーム : /u01/app/11.2.0/grid 中央インベントリ : /u01/app/orainventory 元 : /etc/orainst.loc OPatch のバージョン : OUI のバージョン : OUI の場所 : /u01/app/11.2.0/grid/oui ログ ファイルの場所 : /u01/app/11.2.0/grid/cfgtoollogs/opatch/opatch _ 午後.log Patch history file: /u01/app/11.2.0/grid/cfgtoollogs/opatch/opatch_history.txt
138 Invoking utility "napply" Checking conflict among patches... Checking if Oracle Home has components required by patches... Checking conflicts against Oracle Home... OPatch continues with these patches: 続行しますか [y n] y y と入力して継続します User Responded with: Y Running prerequisite checks... -local オプションを選択したため OPatch はローカル システムにのみパッチを適用します ローカル システムのこの ORACLE_HOME 以外で実行している Oracle インスタンスを停止してください (Oracle ホーム = '/u01/app/11.2.0/grid') ローカル システムにパッチを適用する準備ができましたか [y n] y y と入力して継続します User Responded with: Y パッチ 'NApply' の影響を受けるファイルをリストア用にバックアップしています 少し時間がかかります... Applying patch ApplySession は仮パッチ ' ' を OH '/u01/app/11.2.0/grid' に適用中パッチ ' ' の影響を受けるファイルをロールバック用にバックアップしています 少し時間がかかります... コンポーネント oracle.crs, にパッチを適用中... ファイルを "/u01/app/11.2.0/grid/bin/appagent.bin" にコピー中ファイルを "/u01/app/11.2.0/grid/bin/appvipcfg" にコピー中ファイルを "/u01/app/11.2.0/grid/bin/appvipcfg.pl" にコピー中 < 省略 > ファイルを "/u01/app/11.2.0/grid/srvm/mesg/prvpus.msg" にコピー中ファイルを "/u01/app/11.2.0/grid/srvm/mesg/sclcus.msg" にコピー中ファイルを "/u01/app/11.2.0/grid/srvm/mesg/sclsus.msg" にコピー中 ApplySession は仮パッチ ' ' をインベントリに追加中 Verifying the update... Inventory check OK: Patch ID is registered in Oracle Home inventory with proper meta-data. Files check OK: Files from Patch ID are present in Oracle Home. ローカル システムにパッチが適用されました ローカル システムを再起動します UtilSession: N-Apply done. OPatch succeeded. 7. Oracle Database ホームにパッチを適用
139 oracle ユーザーで以下のコマンドを実行して Oracle Database ホームへパッチを適用します su - oracle [oracle@node01]$ whoami oracle oracle ユーザーでログインしていることを確認 [oracle@node01]$ cd <PATCH_TOP_DIR>/ [oracle@node01]$ <OPatch_DIRECTORY>/OPatch/opatch napply custom/server/ \ > -local oh <DB_HOME> -id Invoking OPatch Oracle Interim Patch Installer バージョン Copyright (c) 2009, Oracle Corporation.All rights reserved. UTIL session Oracle ホーム : /u01/app/oracle/product/11.2.0/dbhome_1 中央インベントリ : /u01/app/orainventory 元 : /etc/orainst.loc OPatch のバージョン : OUI のバージョン : OUI の場所 : /u01/app/oracle/product/11.2.0/dbhome_1/oui ログ ファイルの場所 : /u01/app/oracle/product/11.2.0/dbhome_1/cfgtoollogs/opatch/opatch _ 午後.log Patch history file: /u01/app/oracle/product/11.2.0/dbhome_1/cfgtoollogs/opatch/opatch_history.txt Invoking utility "napply" Checking conflict among patches... Checking if Oracle Home has components required by patches... Checking conflicts against Oracle Home... OPatch continues with these patches: 続行しますか [y n] y y と入力して継続します User Responded with: Y Running prerequisite checks... -local オプションを選択したため OPatch はローカル システムにのみパッチを適用します ローカル システムのこの ORACLE_HOME 以外で実行している Oracle インスタンスを停止してください (Oracle ホーム = '/u01/app/oracle/product/11.2.0/dbhome_1') ローカル システムにパッチを適用する準備ができましたか [y n] y y と入力して継続します User Responded with: Y パッチ 'NApply' の影響を受けるファイルをリストア用にバックアップしています 少し時間がかかります... Applying patch ApplySession は仮パッチ ' ' を OH '/u01/app/oracle/product/11.2.0/dbhome_1' に適用中パッチ ' ' の影響を受けるファイルをロールバック用にバックアップしています 少し時間がかかります... コンポーネント oracle.rdbms, にパッチを適用中... ファイルを "/u01/app/oracle/product/11.2.0/dbhome_1/bin/cluvfy" にコピー中ファイルを "/u01/app/oracle/product/11.2.0/dbhome_1/bin/crsdiag.pl" にコピー中ファイルを "/u01/app/oracle/product/11.2.0/dbhome_1/bin/gnsd" にコピー中 < 省略 > ファイルを "/u01/app/oracle/product/11.2.0/dbhome_1/srvm/mesg/prvpus.msg" にコピー中ファイルを "/u01/app/oracle/product/11.2.0/dbhome_1/srvm/mesg/sclcus.msg" にコピー中ファイルを "/u01/app/oracle/product/11.2.0/dbhome_1/srvm/mesg/sclsus.msg" にコピー中
140 ApplySession は仮パッチ ' ' をインベントリに追加中 Verifying the update... Inventory check OK: Patch ID is registered in Oracle Home inventory with proper meta-data. Files check OK: Files from Patch ID are present in Oracle Home. ターゲット install に対してメイクを実行中ターゲット install に対してメイクを実行中 ローカル システムにパッチが適用されました ローカル システムを再起動します UtilSession: N-Apply done. OPatch succeeded. 8. Agent ディレクトリのパーミッション変更パッチ適用後 grid ユーザーで以下のスクリプトを実行して パーミッションを変更します su - grid [grid@node01]$ whoami grid grid ユーザーでログインしていることを確認 [grid@node01]$ chmod +w <GI_HOME>/log/<nodename>/agent/ [grid@node01]$ chmod +w <GI_HOME>/log/<nodename>/agent/crsd [grid@node01]$ ls -ld <GI_HOME>/log/<nodename>/agent/ drwxrwxr-t 4 root oinstall 月 29 14:16 /u01/app/11.2.0/grid/log/rac01/agent/ パーミッションが drwxrwxr であることを確認 [grid@node01]$ ls -ld <GI_HOME>/log/<nodename>/agent/crsd drwxrwxr 6 root oinstall 月 29 22:12 /u01/app/11.2.0/grid/log/rac01/agent/crsd/ パーミッションが drwxrwxr であることを確認 9. Oracle Database ホームに postpatch.sh 実行 oracle ユーザーで以下のスクリプトを実行して Oracle Database ホームの構成を元に戻します [grid@node01]$ su oracle [oracle@node01]$ whoami oracle oracle ユーザーでログインしていることを確認 [oracle@node01]$ cd <PATCH_TOP_DIR>/ [oracle@node01]$ custom/server/ /custom/scripts/postpatch.sh -dbhome <DB_HOME> Reading /u01/app/oracle/product/11.2.0/dbhome_1/install/params.ora.. Reading /u01/app/oracle/product/11.2.0/dbhome_1/install/params.ora.. Parsing file /u01/app/oracle/product/11.2.0/dbhome_1/bin/racgwrap Reapplying file permissions on /u01/app/oracle/product/11.2.0/dbhome_1/lib/libgns11.so Reapplying file permissions on /u01/app/oracle/product/11.2.0/dbhome_1/lib/libgnsjni11.so Reapplying file permissions on /u01/app/oracle/product/11.2.0/dbhome_1/lib/libagfw11.so
141 10. postrootpatch.sh 実行 root ユーザーで以下のスクリプトを実行して Grid Infrastructure ホームの設定を戻します スクリプトを実行すると CRS が起動されます 複数のノードで同時実行はしないでください su - [root@node01]# whoami root root ユーザーでログインしていることを確認 [root@node01]#<gi_home>/crs/install/rootcrs.pl patch :17:38: Parsing the host name :17:38: Checking for super user privileges :17:38: User has super user privileges Using configuration parameter file: /u01/app/11.2.0/grid/crs/install/crsconfig_params CRS-4123: Oracle High Availability Services has been started. 11. CRS リソース起動 oracle ユーザーで以下のコマンドを実施して 停止した Database ホームのリソースを起動します [root@node01]# su - oracle [oracle@node01]$ whoami oracle oracle ユーザーでログインしていることを確認 [oracle@node01]$ srvctl stop start -o <DB_HOME> -s /tmp/statusfile -n `hostname` 12. Oracle Grid Infrastructure ホームへのパッチ適用確認 Oracle Grid Infrastructure ホームへ正常にパッチが適用されているかを確認します [oracle@node01]$ su - grid [grid@node01]$ whoami root root ユーザーでログインしていることを確認 [grid@node01]$ <OPatch_DIRECTORY>/OPatch/opatch lsinventory -oh <GI_HOME> Invoking OPatch Oracle Interim Patch Installer バージョン Copyright (c) 2011, Oracle Corporation. All rights reserved Oracle Home : /u01/app/11.2.0/grid Central Inventory : /u01/app/orainventory from : /etc/orainst.loc OPatch version : OUI version : Log file location : /u01/app/11.2.0/grid/cfgtoollogs/opatch/opatch _ 午後.log Lsinventory Output file location : /u01/app/11.2.0/grid/cfgtoollogs/opatch/lsinv/lsinventory _ 午後.txt インストールされた最上位製品 (1): Oracle Grid Infrastructure この Oracle ホームには 1 の製品がインストールされています 仮パッチ (1) : 適用済みのパッチを確認します Patch : applied on Wed Sep 14 18:12:41 JST
142 Unique Patch ID: Created on 25 Oct 2010, 07:07:18 hrs PST8PDT Bugs fixed: , , , , , , 複数のノードで構成される RAC システム Local node = node01 Remote node = node OPatch succeeded. 13. Oracle Database ホームへのパッチ適用確認 Oracle Database ホームへ正常にパッチが適用されているかを確認します [grid@node01]$ su - oracle [oracle@node01]$ whoami oracle oracle ユーザーでログインしていることを確認 [oracle@node01]$ <OPatch_DIRECTORY>/OPatch/opatch lsinventory -oh <DB_HOME> Invoking OPatch Oracle Interim Patch Installer バージョン Copyright (c) 2011, Oracle Corporation. All rights reserved Oracle Home : /u01/app/oracle/product/11.2.0/dbhome_1 Central Inventory : /u01/app/orainventory from : /etc/orainst.loc OPatch version : OUI version : Log file location : /u01/app/oracle/product/11.2.0/dbhome_1/cfgtoollogs/opatch/opatch _ 午後.log Lsinventory Output file location : /u01/app/oracle/product/11.2.0/dbhome_1/cfgtoollogs/opatch/lsinv/lsinventory _ 午後.txt インストールされた最上位製品 (1): Oracle Database 11g この Oracle ホームには 1 の製品がインストールされています 仮パッチ (1) : 適用済みのパッチを確認します Patch : applied on Wed Sep 14 18:15:47 JST 2011 Unique Patch ID: Created on 25 Oct 2010, 07:07:02 hrs PST8PDT Bugs fixed: , , , , , 複数のノードで構成される RAC システム Local node = node01 Remote node = node
143 OPatch succeeded. 14. 別ノードへのパッチ適用非共有 Grid Infrastructure ホームの場合は クラスタを構成する全てのノードで上記手順を繰り返し 全てのノードにパッチを適用します
144 付録 D 用個別パッチ適用 Linux 環境において から へのアップグレードを行う際には Patch を適用する必要があります この Patch が未適用の場合には アップグレードが失敗します ここでは Patch の適用手順を紹介します 本ガイドでは まず特定のノードから適用を開始して適用が必要な全てのパッチ適用を完了させてから 他ノードへ同様の手順で適用を行うものとします 必ず 一つのノードでパッチ適用が完了してから 次のノードへパッチを適用してください D-1 OPatch の用意 Patch を適用するには OPatch のバージョンが 以上である必要があります 最新の OPatch をダウンロード後 任意のディレクトリへ配置して zip ファイルを展開します そして OPatch のバージョンを確認します なお OPatch が保存されたディレクトリを <OPatch_DIRECTORY> とします [oracle@node01]$ cd <OPatch_DIRECTORY> [oracle@node01]$ unzip p _112000_linux-x86-64.zip [oracle@node01]$./opatch/opatch version Invoking OPatch OPatch Version: 以上であることを確認 OPatch succeeded. D-2 Oracle Configuration Manager(OCM) ファイル作成 grid ユーザーで opatch auto 実行時に使用する OCM のレスポンスファイルを作成します そして 作成した OCM ファイルのパーミッションを oracle ユーザーと grid ユーザーでアクセスできるように変更します [oracle@node01]$ su - grid [root@node01]$ whoami grid grid ユーザーでログインしていることを確認 [grid@node01]$ export LANG=C [grid@node01]$ export ORACLE_HOME=<GI_HOME> [grid@node01]$ export JAVA_HOME=<GI_HOME>/jdk/jre [grid@node01]$ cd /tmp [grid@node01]$ <OPatch_DIRECTORY>/OPatch/ocm/bin/emocmrsp [grid@node01]$ chmod 777 /tmp/ocm.rsp [grid@node01]$ ls -l /tmp/ocm.rsp -rwxrwxrwx 1 grid oinstall 621 Sep 8 22:30 /tmp/ocm.rsp
145 D-3 Patch の適用 Oracle Database 11g Release 2 Real Application Clusters 1. パッチファイル解凍 Patch をダウンロード後 grid ユーザーで専用のディレクトリへ配置して zip ファイルを展開します 解凍したディレクトリには Patch 関連以外のファイルがあるとパッチを適用することができないため 不要なファイルが無いことを確認してください Patch が保存されたディレクトリを <PATCH_TOP_DIR> とします [grid@node01]$ cd <PATCH_TOP_DIR> [grid@node01]$ unzip p _112020_linux-x86-64.zip [grid@node01]$ ls -la 合計 260 drwxr-xr-x 3 grid oinstall 4096 Feb 21 02:45. drwxrwxrwx 3 grid oinstall 4096 Feb 21 02:54.. drwxrwxr-x 4 grid oinstall 4096 Jul rwxrwxrwx 1 grid oinstall Sep 8 21:52 p _112020_linux-x86-64.zip 上記以外のファイルがないことを確認 zip ファイルを展開すると任意のディレクトリ下に というディレクトリが作成されます 2. コンフリクト確認全てのノード上で Oracle Grid Infrastructure と Oracle Dataase のホームに対して実施します 以下のコマンドを実行し コンフリクトするパッチが適用されてい無いことを確認してください < Oracle Grid Infrastructure > [grid@node01]$ <OPatch_DIRECTORY>/OPatch/opatch prereq \ > CheckConflictAgainstOHWithDetail -phbasedir <PATCH_TOP_DIR> Invoking OPatch Oracle Interim Patch Installer バージョン Copyright (c) 2011, Oracle Corporation. All rights reserved PREREQ session Oracle Home : /u01/app/11.2.0/grid Central Inventory : /u01/app/orainventory from : /etc/orainst.loc OPatch version : OUI version : Log file location : /u01/app/11.2.0/grid/cfgtoollogs/opatch/opatch _ 午前.log Invoking prereq "checkconflictagainstohwithdetail" Prereq "checkconflictagainstohwithdetail" passed. OPatch succeeded. 成功すれば 適用することができます
146 <Oracle Databas> su - oracle [oracle@node01]$ whoami oracle oracle ユーザーでログインしていることを確認 [oracle@node01]$ <OPatch_DIRECTORY>/OPatch/opatch prereq \ > CheckConflictAgainstOHWithDetail -phbasedir <PATCH_TOP_DIR> Invoking OPatch Oracle Interim Patch Installer バージョン Copyright (c) 2011, Oracle Corporation. All rights reserved PREREQ session Oracle Home : /u01/app/oracle/product/11.2.0/dbhome_1 Central Inventory : /u01/app/orainventory from : /etc/orainst.loc OPatch version : OUI version : Log file location : /u01/app/oracle/product/11.2.0/dbhome_1/cfgtoollogs/opatch/opatch _ 午前.log Invoking prereq "checkconflictagainstohwithdetail" Prereq "checkconflictagainstohwithdetail" passed. OPatch succeeded. 成功すれば 適用することができます 3. CRS 起動確認 grid ユーザーで以下のコマンドを実施して CRS が起動されていることを確認します 起動されていない場合は 起動します [oracle@node01]$ su - grid [grid@node01]$ whoami grid grid ユーザーでログインしていることを確認 [grid@node01]$ crsctl check cluster -all ************************************************************** node01: CRS-4537: Cluster Ready Services is online CRS-4529: Cluster Synchronization Services is online CRS-4533: Event Manager is online ************************************************************** node02: CRS-4537: Cluster Ready Services is online CRS-4529: Cluster Synchronization Services is online CRS-4533: Event Manager is online **************************************************************
147 4. Oracle Grid Infrastructure ホームへパッチ適用 root ユーザーで以下のコマンドを実行して パッチを適用します 本パッチは opatch auto コマンドで Oracle Grid Infrastructure ホームと Oracle Database ホームそれぞれに自動でパッチを適用されないため 個別に適用します また リモート ノードへは適用されないため 個別に適用を行います ただし 複数のノードで同時に実行せず 1 つのノードへパッチ適用が完了してから順次別のノードへ適用してください まず root ユーザーにて opatch auto コマンドで Oracle Grid Infrastructure ホームへパッチを適用します <root ユーザー > [grid@node01]$ su - root [root@node01]$ whoami root root ユーザーでログインしていることを確認 [root@node01]# export LANG=C [root@node01]# export PATH=<OPatch_DIRECTORY>:$PATH [root@node01]# cd <PATCH_TOP_DIR> [root@node01]# <OPatch_DIRECTORY>/OPatch/opatch auto <PATCH_TOP_DIR> \ > -oh <GI_HOME> -ocmrf /tmp/ocm.rsp Executing /usr/bin/perl /tmp/patch/opatch/crs/patch112.pl -patchdir /tmp/patch -patchn Patch3 -oh /u01/app/11.2.0/grid -ocmrf /tmp/ocm.rsp -paramfile /u01/app/11.2.0/grid/crs/install/crsconfig_params opatch auto log file location is /tmp/patch/opatch/crs/log/opatchauto _ log Detected Oracle Clusterware install Using configuration parameter file: /u01/app/11.2.0/grid/crs/install/crsconfig_params Enter 'yes' if you have unzipped this patch to an empty directory to proceed (yes/no):yes yes を入力して 続行します Successfully unlock /u01/app/11.2.0/grid patch /tmp/patch/patch3/ apply successful for home /u01/app/11.2.0/grid ACFS-9300: ADVM/ACFS distribution files found. ACFS-9312: Existing ADVM/ACFS installation detected. ACFS-9314: Removing previous ADVM/ACFS installation. ACFS-9315: Previous ADVM/ACFS components successfully removed. ACFS-9307: Installing requested ADVM/ACFS software. ACFS-9308: Loading installed ADVM/ACFS drivers. ACFS-9321: Creating udev for ADVM/ACFS. ACFS-9323: Creating module dependencies - this may take some time. ACFS-9327: Verifying ADVM/ACFS devices. ACFS-9309: ADVM/ACFS installation correctness verified. CRS-4123: Oracle High Availability Services has been started
148 5. Oracle Database ホームへパッチ適用続けて root ユーザーにて opatch auto コマンドで Oracle Database ホームへパッチを適用します <root ユーザー > export LANG=C export PATH<OPatch_DIRECTORY>:$PATH cd <PATCH_TOP_DIR> <OPatch_DIRECTORY>/OPatch/opatch auto <PATCH_TOP_DIR> \ > -oh <DB_HOME> -ocmrf /tmp/ocm.rsp Executing /usr/bin/perl /tmp/log/patch/opatch/crs/patch112.pl -patchdir /tmp/log/patch -patchn Patch3 -ocmrf /tmp/ocm.rsp -paramfile /u01/app/11.2.0/grid/crs/install/crsconfig_params opatch auto log file location is /tmp/log/patch/opatch/crs/log/opatchauto _ log Detected Oracle Clusterware install Using configuration parameter file: /u01/app/11.2.0/grid/crs/install/crsconfig_params Enter 'yes' if you have unzipped this patch to an empty directory to proceed (yes/no):yes yes を入力して 続行します patch /tmp/patch/patch3/ apply successful for home /u01/app/oracle/product/11.2.0/dbhome_1 6. パッチ適用確認 grid ユーザーで以下のコマンドを実行し Oracle Grid Infrastructure ホームにパッチが適用されていることを確認します [root@node01]# su - grid [grid@node01]$ whoami grid oracle ユーザーでログインしていることを確認 [grid@node01]$ <OPatch_DIRECTORY>/opatch lsinventory -oh <GI_HOME> 以下は実行したコマンドの出力結果例の抜粋です 適用済みのパッチとして Patch と Patch Patch の 3 つのパッチが表示されていることを確認してください [root@node01]# su - grid [grid@node01]$ whoami grid grid ユーザーでログインしていることを確認 [grid@node01]$ <OPatch_DIRECTORY>/OPatch/opatch lsinventory -oh <GI_HOME> Oracle Interim Patch Installer version Copyright (c) 2011, Oracle Corporation. All rights reserved. Oracle Home : /u01/app/11.2.0/grid Central Inventory : /u01/app/orainventory from : /u01/app/11.2.0/grid/orainst.loc OPatch version : OUI version : Log file location : /u01/app/11.2.0/grid/cfgtoollogs/opatch/opatch _ am.log Lsinventory Output file location : /u01/app/11.2.0/grid/cfgtoollogs/opatch/lsinv/lsinventory _ am.txt Installed Top-level Products (1): 適用済みのパッチを確認します Oracle Grid Infrastructure
149 There are 1 products installed in this Oracle Home. There are no Interim patches installed in this Oracle Home. Rac system comprising of multiple nodes Local node = node01 Remote node = node OPatch succeeded. oracle ユーザーで以下のコマンドを実行し Oracle Database ホームにパッチが適用されているかを確認します [grid@node01]$ su - oracle [oracle@node01]$ whoami oracle oracle ユーザーでログインしていることを確認 [oracle@node01]$ <OPatch_DIRECTORY>/OPatch/opatch lsinventory -oh <DB_HOME> 以下は実行したコマンドの出力結果例の抜粋です 適用済みのパッチとして Patch Patch が表示されていることを確認してください [oracle@node01]$ <OPatch_DIRECTORY>/OPatch/opatch lsinventory -oh <DB_HOME> Oracle Interim Patch Installer バージョン Copyright (c) 2011, Oracle Corporation. All rights reserved Oracle Home : /u01/app/oracle/product/11.2.0/dbhome_1 Central Inventory : /u01/app/orainventory from : /u01/app/oracle/product/11.2.0/dbhome_1/orainst.loc OPatch version : OUI version : Log file location : /u01/app/oracle/product/11.2.0/dbhome_1/cfgtoollogs/opatch/opatch _ 午前.log Lsinventory Output file location : /u01/app/oracle/product/11.2.0/dbhome_1/cfgtoollogs/opatch/lsinv/lsinventory _ 午前.txt インストールされた最上位製品 (1): Oracle Database 11g この Oracle ホームには 1 の製品がインストールされています 仮パッチ (1) : 適用済みのパッチを確認します Patch : applied on Tue Feb 21 03:34:50 JST 2012 Unique Patch ID: Created on 28 Jul 2011, 12:37:42 hrs PST8PDT Bugs fixed: 複数のノードで構成される RAC システム Local node = node
150 Remote node = node OPatch succeeded. 7. 別ノードへのパッチ適用非共有 Grid Infrastructure ホームの場合は クラスタを構成する全てのノードで上記手順を繰り返し 全てのノードにパッチを適用します
151 付録 E ダウングレード 本章では Oracle RAC 構成の からアップグレード前のバージョンへのダウングレード方法について記載します 全てのダウングレードについて アップグレード元のリリースにのみダウングレードできることに注意してください たとえば Oracle Database 10g Releaase 2( ) から Oracle Database 11g Release 2(11.2) にアップグレードした場合は その後 Oracle Database 11g リリース 1(11.1) にダウングレードすることはできません Oracle Database 10g Release 2( ) にのみダウングレードできます ダウングレードはアップグレードに不具合が生じた場合の切り戻し手段として使用します 本ガイドでは 以下の手順でデータベースと Oracle Database のダウングレードを行っていきます 1. 各バージョンに応じた Patch の適用 2. データベースのダウングレードの実行 3. アップグレード後の確認事項 E-1 Patch の適用ダウングレードを実行する前の事前準備として アップグレード前のバージョンに応じた Patch を適用する必要があります 各バージョンに応じた Patch は次の通りです の場合 :Patch を適用 の場合 :Patch を適用 Patch を適用する場合は次の手順を実行してください E-1-1 Patch 適用手順 の場合 Patch を適用する必要があります Patch を MOS からダウンロードしてください なお Patch が保存されたディレクトリを <PATCH_TOP_DIR> とします 1. 環境変数設定 oracle ユーザーでログインをし Oracle Database 11g R2( ) 用の環境変数を設定します [root@node01]# su -oracle [oracle@node01]$ whoami oracle oracle ユーザーでログインしていることを確認 [oracle@node01]$ export ORACLE_HOME=<11201_DB_HOME> [oracle@node01]$ export PATH=$ORACLE_HOME/bin:$PATH 2. パッチファイル解凍 Patch をダウンロード後 任意のディレクトリへ配置して zip ファイルを展開します なお Patch が保存されたディレクトリを <PATCH_TOP_DIR> とします [oracle@node01]$ cd <PATCH_TOP_DIR> [oracle@node01]$ unzip p _112010_generic.zip zip ファイルを展開すると任意のディレクトリ下に というディレクトリが作成されます 3. コンフリクト確認全てのノード上で Oracle Dataase のホームに対して実施します 以下のコマンドを実行し コンフリクトするパッチが適用されてい無いことを確認してください [oracle@node01]$ <OPatch_DIRECTORY>/OPatch/opatch prereq \ > CheckConflictAgainstOHWithDetail -phbasedir./ oh <11201_DB_HOME>
152 Invoking OPatch Oracle Interim Patch Installer バージョン Copyright (c) 2011, Oracle Corporation. All rights reserved Oracle Home : /u01/app/oracle/product/11.2.0/dbhome_1 Central Inventory : /u01/app/orainventory from : /etc/orainst.loc OPatch version : OUI version : Log file location : /u01/app/oracle/product/11.2.0/dbhome_1/cfgtoollogs/opatch/opatch _ 午後.log Invoking prereq "checkconflictagainstohwithdetail" Prereq "checkconflictagainstohwithdetail" passed. OPatch succeeded. 成功すれば コンフリクトするパッチはありません 4. パッチ適用 oracle ユーザーで以下のコマンドを実行して Oracle Dataase のホームへパッチを適用します 本ガイドでは -local オプションをつけて各ノード個別にパッチを適用します [oracle@node01]$ cd <PATCH_TOP_DIR>/ [oracle@node01]$ <OPatch_DIRECTORY>/OPatch/opatch apply -local Invoking OPatch Oracle Interim Patch Installer バージョン Copyright (c) 2011, Oracle Corporation. All rights reserved Oracle Home : /u01/app/oracle/product/11.2.0/dbhome_1 Central Inventory : /u01/app/orainventory from : /etc/orainst.loc OPatch version : OUI version : Log file location : /u01/app/oracle/product/11.2.0/dbhome_1/cfgtoollogs/opatch/opatch _ 午後.log Applying interim patch ' ' to OH '/u01/app/oracle/product/11.2.0/dbhome_1' Verifying environment and performing prerequisite checks... 続行しますか [y n] y y と入力して継続します User Responded with: Y All checks passed. セキュリティの問題について通知を受ける電子メール アドレスを指定し Oracle Configuration Manager をインストールして開始してください My Oracle Support の電子メール アドレス / ユーザー名を使用すればより簡単です 詳細は にアクセスしてください 電子メール アドレス / ユーザー名 : セキュリティの問題について通知を受け取るための電子メール アドレスが指定されていません セキュリティの問題に関する通知を今後も受け取りませんか ([Y] はい, [N] いいえ ) [N]: Y Backing up files... コンポーネント oracle.rdbms.dbscripts, にパッチを適用中... Patch successfully applied Log file location:
153 /u01/app/oracle/product/11.2.0/dbhome_1/cfgtoollogs/opatch/opatch _ 午後.log 5. パッチ適用確認 oracle ユーザーで以下のコマンドを実行し Oracle Clusterware ホームにパッチが適用されているかを確認します $ORACLE_HOME/OPatch/opatch lsinventory -oh <11201_DB_HOME> 以下は実行したコマンドの出力結果例の抜粋です 適用済みのパッチとして Patch が表示されていることを確認してください $ORACLE_HOME/OPatch/opatch lsinventory -oh <11201_DB_HOME> Patch : applied on Wed Sep 14 15:09:48 JST 2011 Unique Patch ID: Created on 18 Aug 2011, 01:00:00 hrs PST8PDT Bugs fixed: 適用済みのパッチを確認します 6. 別ノードへのパッチ適用全てのノードで上記手順を繰り返し パッチを適用します
154 E-1-2 Patch 適用手順 の場合 Patch を適用する必要があります Patch を MOS からダウンロードしてください なお Patch が保存されたディレクトリを <PATCH_TOP_DIR> とします 1. 環境変数設定 Oracle Database 11g R2( ) 用の環境変数を設定します export ORACLE_HOME=<11202_DB_HOME> export PATH=$ORACLE_HOME/bin:$PATH 2. パッチファイル解凍 Patch をダウンロード後 任意のディレクトリへ配置して zip ファイルを展開します cd <PATCH_TOP_DIR> unzip p _112020_generic.zip zip ファイルを展開すると任意のディレクトリ下に というディレクトリが作成されます 3. コンフリクト確認全てのノード上で Oracle Dataase のホームに対して実施します 以下のコマンドを実行し コンフリクトするパッチが適用されてい無いことを確認してください <OPatch_DIRECTORY>/OPatch/opatch prereq \ > CheckConflictAgainstOHWithDetail -phbasedir./ oh <11202_DB_HOME> Invoking OPatch Oracle Interim Patch Installer バージョン Copyright (c) 2011, Oracle Corporation. All rights reserved Oracle Home : /u01/app/oracle/product/11.2.0/dbhome_1 Central Inventory : /u01/app/orainventory from : /etc/orainst.loc OPatch version : OUI version : Log file location : /u01/app/oracle/product/11.2.0/dbhome_1/cfgtoollogs/opatch/opatch _ 午後.log Invoking prereq "checkconflictagainstohwithdetail" Prereq "checkconflictagainstohwithdetail" passed. OPatch succeeded. 成功すれば コンフリクトするパッチはありません
155 4. パッチ適用 oracle ユーザーで以下のコマンドを実行して Oracle Dataase のホームへパッチを適用します 本ガイドでは -local オプションをつけて各ノード個別にパッチを適用します cd <PATCH_TOP_DIR>/ <OPatch_DIRECTORY>/OPatch/opatch apply -local Invoking OPatch Oracle Interim Patch Installer バージョン Copyright (c) 2011, Oracle Corporation. All rights reserved Oracle Home : /u01/app/oracle/product/11.2.0/dbhome_1 Central Inventory : /u01/app/orainventory from : /etc/orainst.loc OPatch version : OUI version : Log file location : /u01/app/oracle/product/11.2.0/dbhome_1/cfgtoollogs/opatch/opatch _ 午後.log Applying interim patch ' ' to OH '/u01/app/oracle/product/11.2.0/dbhome_1' Verifying environment and performing prerequisite checks... 続行しますか [y n] y y と入力して継続します User Responded with: Y All checks passed. セキュリティの問題について通知を受ける電子メール アドレスを指定し Oracle Configuration Manager をインストールして開始してください My Oracle Support の電子メール アドレス / ユーザー名を使用すればより簡単です 詳細は にアクセスしてください 電子メール アドレス / ユーザー名 : セキュリティの問題について通知を受け取るための電子メール アドレスが指定されていません セキュリティの問題に関する通知を今後も受け取りませんか ([Y] はい, [N] いいえ ) [N]: Y Backing up files... コンポーネント oracle.rdbms.dbscripts, にパッチを適用中... Patch successfully applied Log file location: /u01/app/oracle/product/11.2.0/dbhome_1/cfgtoollogs/opatch/opatch _ 午後.log 5. パッチ適用確認 oracle ユーザーで以下のコマンドを実行し Oracle Clusterware ホームにパッチが適用されているかを確認します [oracle@node01]$ <OPatch_DIRECTORY>/OPatch/opatch lsinventory -oh <11202_DB_HOME>
156 以下は実行したコマンドの出力結果例の抜粋です 適用済みのパッチとして Patch が表示されていることを確認してください <OPatch_DIRECTORY>/OPatch/opatch lsinventory -oh <11202_DB_HOME> Patch : applied on Wed Sep 14 15:09:48 JST 2011 Unique Patch ID: Created on 18 Aug 2011, 01:40:53 hrs PST8PDT Bugs fixed: 適用済みのパッチを確認します 6. 別ノードへのパッチ適用全てのノードで上記手順を繰り返し パッチを適用します
157 E-2 データベースのダウングレードの実行 Oracle Database のインストール ユーザーでシステムにログインします E-2-1 タイム ゾーン ファイルの確認アップグレード前のバージョンが 以前のバージョンでデータベースのアップグレード時にタイム ゾーンのアップグレードを行った場合 ダウングレードを実行する際にタイム ゾーン ファイルのコピーが必要となります これは タイム ゾーンのダウングレードが行えないためです 次のディレクトリに timezlrg_14.dat と timezone_14.dat 以前のバージョン (1 から 14 まで ) のファイルが存在するかを確認します [oracle@node01]$ ls <BASE_DB_HOME>/oracore/zoneinfo timezlrg_14.dat と timezone_14.dat 以前のバージョン (1 から 14 まで ) までのファイルが存在しない場合は <11203_DB_HOME>/oracore/zoneinfo からファイルのコピーを実行してください 次のコマンドはコピーが必要な場合 複数回実行してください [oracle@node01]$ cp <11203_DB_HOME>/oracore/zoneinfo/timezlrg_<version_number>.dat \ > <BASE_DB_HOME>/oracore/zoneinfo/timezlrg_<version_number>.dat [oracle@node01]$ cp <11203_DB_HOME>/oracore/zoneinfo/timezone_<version_number>.dat \ > <BASE_DB_HOME>/oracore/zoneinfo/timezone_<version_number>.dat E-2-2 Database Control の停止 Database Control が構成済みの場合 Database Control を停止します [oracle@node01]$ emctl stop dbconsole E-2-3 環境変数の設定次のように Oracle Database 用の環境変数をセットします ORACLE_HOME=<11203_DB_HOME> ORACLE_SID=<DB_SID> PATH=<11203_DB_HOME>/bin:$PATH [oracle@node01]$ export ORACLE_HOME=<11203_DB_HOME> [oracle@node01]$ export ORACLE_SID=<DB_SID> [oracle@node01]$ export PATH=<11203_DB_HOME>/bin:$PATH
158 E-2-4 データベースのダウングレードデータベースをダウングレードします Oracle Database 11g Release 2 Real Application Clusters 1. SQL*Plus で SYSDBA 権限を持つユーザーとして データベース インスタンスに接続します [oracle@node01]$ sqlplus / as sysdba 2. cluster_database 初期化パラメーターを FALSE へ設定します SQL> ALTER SYSTEM SET CLUSTER_DATABASE=FALSE SCOPE=SPFILE; 3. データベースを停止します [oracle@node01]$ srvctl stop database -d <DB_NAME> 4. 後の手順で catdwgrd.sql を実行するため <11203_DB_HOME>/rdbms/admin ディレクトリへ移動します [oracle@node01]$ cd <11203_DB_HOME>/rdbms/admin 5. SQL*Plus で SYSDBA 権限を持つユーザーとして データベース インスタンスに接続します [oracle@node01]$ sqlplus / as sysdba 6. ダウングレードモードでインスタンスを起動します 既にデータベースが起動している場合はインスタンスを停止してから ダウングレードモードでインスタンスを再起動します SQL> STARTUP DOWNGRADE 7. Database Control が構成されている場合は SYSMAN ユーザーを削除します SQL> DROP USER SYSMAN CASCADE; 8. ダウングレード結果の取得を開始します SQL> SPOOL downgrade.log 9. catdwgrd.sql を実行します 10. ダウングレード結果の取得を終了します SQL> SPOOL OFF
159 11. インスタンスを停止します SQL> SHUTDOWN IMMEDIATE 12.SQL*Plus を終了します SQL> EXIT 13. 次のように ダウングレードする Oracle Database 用の環境変数をセットします ORACLE_HOME=<BASE_DB_HOME> PATH=<BASE_DB_HOME>/bin:$PATH export ORACLE_HOME=<BASE_DB_HOME> export PATH=<BASE_DB_HOME>/bin:$PATH 14. バックアップを取得したアップグレード前のバージョンの構成ファイルをリストアします その後 アップグレード前の初期化パラメーター ファイルをリストアします 15.SQL*Plus で SYSDAB 権限を持つユーザーとしてデータベース インスタンスに接続します sqlplus / as sysdba 16. アップグレード前にバックアップを取得した pfile から spfile をリストアします SQL> CREATE SPFILE = <spfile_path> FROM PFILE = <pfile_path> ; SQL> EXIT 17. 後の手順で catrelod.sql を実行するため <BASE_DB_HOME >/rdbms/admin ディレクトリへ移動します $ cd <BASE_DB_HOME>/rdbms/admin 18.SQL*Plus で SYSDBA 権限を持つユーザーとして データベース インスタンスに接続します $ sqlplus / as sysdba 19. アップグレード モードでインスタンスを起動します SQL> STARTUP UPGRADE 20. リロード結果の取得を開始します SQL> SPOOL reload.log
160 21.catrelod.sql を実行して ダウングレードしたデータベース内の該当するバージョンの全てのデータベース コンポーネントをリロードします 22. リロード結果の取得を終了します SQL> SPOOL OFF 23.cluster_database 初期化パラメーターを TRUE へ戻します SQL> ALTER SYSTEM SET CLUSTER_DATABASE=TRUE SCOPE=SPFILE; 24. インスタンスを再起動します SQL> SHUTDOWN IMMEDIATE SQL> STARTUP 25.utlrp.sql を実行して 状態が INVALID である可能性のある PL/SQL モジュール ( パッケージ プロシージャ 型などを含む ) を全て再コンパイルします 26. データベースのバージョンがダウングレードされていることを確認します SQL> SELECT * FROM V$VERSION; 27. 次のように Oracle Database 用の環境変数をセットします ORACLE_HOME=<11203_DB_HOME> PATH=<BASE_DB_HOME>/bin:$PATH [oracle@node01]$ export ORACLE_HOME=< 11203_DB_HOME> [oracle@node01]$ export PATH=$ORACLE_HOME/bin:$PATH 28.Clusterware へダウングレードしたデータベース情報を登録します [oracle@node01]$ <11203_DB_HOME>/bin/srvctl downgrade database -d orcl \ -o <BASE_DB_HOME> -t <BASE_VERSION> 例 ) のバージョンへダウングレードする場合 [oracle@node01]$ /u01/app/oracle/product/ /dbhome_1/bin/srvctl \ > downgrade database -d orcl -o /u01/app/oracle/product/ /dbhome_1 \ > -t
161 29.Clusterware へダウングレードしたデータベース情報が登録されていることを確認します export ORACLE_HOME=<BASE_DB_HOME> srvctl config db -d <DB_NAME> 例 ) のバージョンへダウングレードした場合 [oracle@node01]$ export RACLE_HOME=/u01/app/oracle/product/ /dbhome_1 [oracle@node01]$ srvctl config db -d orcl 一意のデータベース名 : orcl データベース名 : orcl Oracle ホーム : /u01/app/oracle/product/ /dbhome_1 ダウングレードされたホームディレクトリであることを確認 Oracle ユーザー : oracle spfile: +DATA/orcl/spfileorcl.ora ドメイン : 開始オプション : open 停止オプション : immediate データベース ロール : PRIMARY 管理ポリシー : AUTOMATIC サーバー プール : orcl データベース インスタンス : orcl1,orcl2 ディスク グループ : DATA サービス : データベースは管理者によって管理されています
162 E-3 Oracle Clusterware のダウングレードこの項のリストア手順では Oracle Clusterware 構成を Oracle Clusterware 11g R2( ) のアップグレード前の状態にリストアします 11g R2( ) のアップグレード中またはアップグレード後に実行した構成変更は削除され リカバリできません 注意 ) のバージョン以上へのダウングレードと 未満 (11g R1) のダウングレード手順は違います E g Release 1 以下のバージョンへダウングレードするの場合 Oracle Clusterware を以前のリリースにリストアするには 次の手順を実行します 1. 全てのリモート ノード (Node1 以外 ) で 次のコマンド構文を root ユーザーで実行します 注意 : 実行するノードの順番は ロカール ノード (Node1) 以外のリモート ノードから実行を行い 最後にローカル ノードで実行してください [oracle@node02]$ su - [root@node02]# whoami root root ユーザであることを確認 [root@node02]# hostname node02 ノード 2 にログインしていることを確認 [root@node02]# <11203_GI_HOME>/crs/install/rootcrs.pl -downgrade [-force] これにより 11g Release 2(11.2) リソースと 11g Release 2(11.2) スタックが停止します 11g Release 2(11.2) の部分インストールまたは失敗したインストールを停止して 以前のリリースの Oracle Clusterware をリストアする場合は このコマンドで -force フラグを使用します 次に例を示します [root@node02]# /u01/app/11.2.0/grid/crs/install/rootcrs.pl downgrade Using configuration parameter file: /u01/app/11.2.0/grid/crs/install/crsconfig_params CRS-2791: Starting shutdown of Oracle High Availability Services-managed resources on 'node02' CRS-2673: Attempting to stop 'ora.crsd' on 'node02' CRS-2790: 'node02' 上にある Cluster Ready Services 管理下のリソースの停止を開始しています CRS-2673: 'ora.listener.lsnr'('node02') の停止を試行しています CRS-2673: 'ora.listener_scan1.lsnr'('node02') の停止を試行しています CRS-2673: 'ora.orcl.orcl2.inst'('node02') の停止を試行しています CRS-2673: 'ora.orcl.db'('node02') の停止を試行しています CRS-2677: 'ora.listener_scan1.lsnr'('node02') の停止が成功しました CRS-2673: 'ora.scan1.vip'('node02') の停止を試行しています CRS-2677: 'ora.listener.lsnr'('node02') の停止が成功しました CRS-2673: 'ora.node02.vip'('node02') の停止を試行しています CRS-2677: 'ora.scan1.vip'('node02') の停止が成功しました CRS-2672: 'ora.scan1.vip'('node01') の起動を試行しています CRS-2677: 'ora.node02.vip'('node02') の停止が成功しました CRS-2672: 'ora.node02.vip'('node01') の起動を試行しています CRS-2676: 'ora.node02.vip'('node01') の起動が成功しました CRS-2676: 'ora.scan1.vip'('node01') の起動が成功しました CRS-2672: 'ora.listener_scan1.lsnr'('node01') の起動を試行しています CRS-2677: 'ora.orcl.orcl2.inst'('node02') の停止が成功しました CRS-2677: 'ora.orcl.db'('node02') の停止が成功しました CRS-2672: 'ora.orcl.db'('node01') の起動を試行しています CRS-2676: 'ora.listener_scan1.lsnr'('node01') の起動が成功しました CRS-2676: 'ora.orcl.db'('node01') の起動が成功しました CRS-2673: 'ora.ons'('node02') の停止を試行しています CRS-2677: 'ora.ons'('node02') の停止が成功しました CRS-2673: 'ora.net1.network'('node02') の停止を試行しています
163 CRS-2677: 'ora.net1.network'('node02') の停止が成功しました CRS-2673: 'ora.orcl.db'('node02') の停止を試行しています CRS-2677: 'ora.orcl.db'('node02') の停止が成功しました CRS-2672: 'ora.orcl.db'('node01') の起動を試行しています CRS-2676: 'ora.orcl.db'('node01') の起動が成功しました CRS-2792: 'node02' 上にある Cluster Ready Services 管理下のリソースの停止が完了しました CRS-2677: Stop of 'ora.crsd' on 'node02' succeeded CRS-2673: Attempting to stop 'ora.mdnsd' on 'node02' CRS-2673: Attempting to stop 'ora.cluster_interconnect.haip' on 'node02' CRS-2673: Attempting to stop 'ora.ctssd' on 'node02' CRS-2673: Attempting to stop 'ora.evmd' on 'node02' CRS-2677: Stop of 'ora.evmd' on 'node02' succeeded CRS-2677: Stop of 'ora.cluster_interconnect.haip' on 'node02' succeeded CRS-2677: Stop of 'ora.mdnsd' on 'node02' succeeded CRS-2677: Stop of 'ora.ctssd' on 'node02' succeeded CRS-2673: Attempting to stop 'ora.cssd' on 'node02' CRS-2677: Stop of 'ora.cssd' on 'node02' succeeded CRS-2673: Attempting to stop 'ora.diskmon' on 'node02' CRS-2673: Attempting to stop 'ora.crf' on 'node02' CRS-2677: Stop of 'ora.diskmon' on 'node02' succeeded CRS-2677: Stop of 'ora.crf' on 'node02' succeeded CRS-2673: Attempting to stop 'ora.gipcd' on 'node02' CRS-2677: Stop of 'ora.gipcd' on 'node02' succeeded CRS-2673: Attempting to stop 'ora.gpnpd' on 'node02' CRS-2677: Stop of 'ora.gpnpd' on 'node02' succeeded CRS-2793: Shutdown of Oracle High Availability Services-managed resources on 'node02' has completed CRS-4133: Oracle High Availability Services has been stopped. Successfully downgraded Oracle clusterware stack on this node 2. 全てのリモート ノードで rootcrs.pl -downgrade スクリプトが完了したら ローカル ノードで以下のコマンドを実行します <BASE_CRS_HOME> は以前の Oracle Clusterware インストールのホーム <BASE_VERSION> は以前の Oracle Clusterware インストールのリリース番号です su - [root@node01]# whoami root root ユーザであることを確認 [root@node01]# hostname node01 ノード 1 にログインしていることを確認 [root@node01]# <11203_GI_HOME>/crs/install/rootcrs.pl -downgrade -lastnode \ > -oldcrshome <BASE_CRS_HOME> -version <BASE_VERSION> [-force] このスクリプトを実行すると OCR がダウングレードされ Grid ホームからバイナリが削除されます 11g Release 2(11.2) の部分インストールまたは失敗したインストールを停止して 以前のリリースの Oracle Clusterware をリストアする場合は このコマンドで -force フラグを使用します 次に例を示します [root@node01]# /u01/app/11.2.0/grid/crs/install/rootcrs.pl -downgrade \ > -lastnode -oldcrshome /u01/app/10.2.0/crs -version Using configuration parameter file: /u01/app/11.2.0/grid/crs/install/crsconfig_params CRS-2791: Starting shutdown of Oracle High Availability Services-managed resources on 'node01' CRS-2673: Attempting to stop 'ora.crsd' on 'node01' CRS-2790: 'node01' 上にある Cluster Ready Services 管理下のリソースの停止を開始しています CRS-2673: 'ora.node01.vip'('node01') の停止を試行しています CRS-2673: 'ora.listener_scan3.lsnr'('node01') の停止を試行しています CRS-2673: 'ora.cvu'('node01') の停止を試行しています CRS-2673: 'ora.listener_scan2.lsnr'('node01') の停止を試行しています CRS-2673: 'ora.listener.lsnr'('node01') の停止を試行しています CRS-2673: 'ora.orcl.db'('node01') の停止を試行しています CRS-2673: 'ora.oc4j'('node01') の停止を試行しています
164 CRS-2673: 'ora.listener_scan1.lsnr'('node01') の停止を試行しています CRS-2673: 'ora.orcl.orcl1.inst'('node01') の停止を試行しています CRS-2677: 'ora.listener_scan3.lsnr'('node01') の停止が成功しました CRS-2673: 'ora.scan3.vip'('node01') の停止を試行しています CRS-2677: 'ora.listener_scan2.lsnr'('node01') の停止が成功しました CRS-2673: 'ora.scan2.vip'('node01') の停止を試行しています CRS-2677: 'ora.node01.vip'('node01') の停止が成功しました CRS-2677: 'ora.cvu'('node01') の停止が成功しました CRS-2677: 'ora.listener.lsnr'('node01') の停止が成功しました CRS-2673: 'ora.node02.vip'('node01') の停止を試行しています CRS-2677: 'ora.listener_scan1.lsnr'('node01') の停止が成功しました CRS-2673: 'ora.scan1.vip'('node01') の停止を試行しています CRS-2677: 'ora.orcl.db'('node01') の停止が成功しました CRS-2677: 'ora.scan3.vip'('node01') の停止が成功しました CRS-2677: 'ora.scan2.vip'('node01') の停止が成功しました CRS-2677: 'ora.node02.vip'('node01') の停止が成功しました CRS-2677: 'ora.scan1.vip'('node01') の停止が成功しました CRS-2677: 'ora.orcl.orcl1.inst'('node01') の停止が成功しました CRS-2677: 'ora.oc4j'('node01') の停止が成功しました CRS-2673: 'ora.ons'('node01') の停止を試行しています CRS-2677: 'ora.ons'('node01') の停止が成功しました CRS-2673: 'ora.net1.network'('node01') の停止を試行しています CRS-2677: 'ora.net1.network'('node01') の停止が成功しました CRS-2792: 'node01' 上にある Cluster Ready Services 管理下のリソースの停止が完了しました CRS-2677: Stop of 'ora.crsd' on 'node01' succeeded CRS-2673: Attempting to stop 'ora.cluster_interconnect.haip' on 'node01' CRS-2673: Attempting to stop 'ora.ctssd' on 'node01' CRS-2673: Attempting to stop 'ora.evmd' on 'node01' CRS-2673: Attempting to stop 'ora.mdnsd' on 'node01' CRS-2677: Stop of 'ora.cluster_interconnect.haip' on 'node01' succeeded CRS-2677: Stop of 'ora.mdnsd' on 'node01' succeeded CRS-2677: Stop of 'ora.evmd' on 'node01' succeeded CRS-2677: Stop of 'ora.ctssd' on 'node01' succeeded CRS-2673: Attempting to stop 'ora.cssd' on 'node01' CRS-2677: Stop of 'ora.cssd' on 'node01' succeeded CRS-2673: Attempting to stop 'ora.diskmon' on 'node01' CRS-2673: Attempting to stop 'ora.crf' on 'node01' CRS-2677: Stop of 'ora.diskmon' on 'node01' succeeded CRS-2677: Stop of 'ora.crf' on 'node01' succeeded CRS-2673: Attempting to stop 'ora.gipcd' on 'node01' CRS-2677: Stop of 'ora.gipcd' on 'node01' succeeded CRS-2673: Attempting to stop 'ora.gpnpd' on 'node01' CRS-2677: Stop of 'ora.gpnpd' on 'node01' succeeded CRS-2793: Shutdown of Oracle High Availability Services-managed resources on 'node01' has completed CRS-4133: Oracle High Availability Services has been stopped. Successfully downgraded OCR to Run root.sh from the old crshome on all the cluster nodes one at a time to start the Clusterware successful deletion of votedisk /u02/oracle/storage/vot01.ora. Now formatting voting disk: /u02/oracle/storage/vot01.ora successful addition of votedisk /u02/oracle/storage/vot01.ora. successful deletion of votedisk /u02/oracle/storage/vot02.ora. Now formatting voting disk: /u02/oracle/storage/vot02.ora successful addition of votedisk /u02/oracle/storage/vot02.ora. successful deletion of votedisk /u02/oracle/storage/vot03.ora. Now formatting voting disk: /u02/oracle/storage/vot03.ora successful addition of votedisk /u02/oracle/storage/vot03.ora. 3. ローカル ノードのスクリプトが完了すると クラスタの各メンバー ノードで順番に以前のリリースの Oracle Clusterware インストール ホームから root.sh を実行するよう求められます この作業を完了すると ダウングレードが完了します 注意 :root.sh は必ずインストール ノード (Node1) から実行します [oracle@node01]$ su
165 whoami root root ユーザであることを確認 hostname node01 ノード 1 にログインしていることを確認 [root@node01]# <BASE_CRS_HOME>\root.sh 以前のリリースの Oracle Clusterware インストール ホームから root.sh を実行すると Oracle Clusterware スタックが再起動し 古いバージョンで Oracle Clusterware に登録された全てのリソースが起動します また 古い初期化スクリプトが以前のリリースの Oracle Clusterware スタックを実行するように構成されます 次に例を示します <Node1 実行例 > [oracle@node01]$ su - [root@node01]# whoami root root ユーザであることを確認 [root@node01]# hostname node01 ノード 1 にログインしていることを確認 [root@node01]# /u01/app/10.2.0/crs/root.sh WARNING: directory '/u01/app/10.2.0' is not owned by root Checking to see if Oracle CRS stack is already configured Setting the permissions on OCR backup directory Setting up NS directories Oracle Cluster Registry configuration upgraded successfully WARNING: directory '/u01/app/10.2.0' is not owned by root clscfg: EXISTING configuration version 3 detected. clscfg: version 3 is 10G Release 2. assigning default private interconnect name node01 for node 0. assigning default hostname node01 for node 0. Successfully accumulated necessary OCR keys. Using ports: CSS=49895 CRS=49896 EVMC=49898 and EVMR= node <nodenumber>: <nodename> <private interconnect name> <hostname> node 0: node01 node01 node01 clscfg: Arguments check out successfully. NO KEYS WERE WRITTEN. Supply -force parameter to override. -force is destructive and will destroy any previous cluster configuration. Oracle Cluster Registry for cluster has already been initialized Startup will be queued to init within 30 seconds. Adding daemons to inittab Expecting the CRS daemons to be up within 600 seconds. CSS is active on these nodes. node01 CSS is inactive on these nodes. node02 Local node checking complete. Run root.sh on remaining nodes to start CRS daemons. <Node2 実行例 > [oracle@node01]$ su - [root@node01]# whoami
166 root root ユーザであることを確認 hostname node01 ノード 2 にログインしていることを確認 [root@node02]# /u01/app/10.2.0/crs/root.sh WARNING: directory '/u01/app/10.2.0' is not owned by root Checking to see if Oracle CRS stack is already configured Setting the permissions on OCR backup directory Setting up NS directories Oracle Cluster Registry configuration upgraded successfully WARNING: directory '/u01/app/10.2.0' is not owned by root clscfg: EXISTING configuration version 3 detected. clscfg: version 3 is 10G Release 2. assigning default private interconnect name node01 for node 0. assigning default hostname node01 for node 0. Successfully accumulated necessary OCR keys. Using ports: CSS=49895 CRS=49896 EVMC=49898 and EVMR= node <nodenumber>: <nodename> <private interconnect name> <hostname> node 0: node01 node01 node01 clscfg: Arguments check out successfully. NO KEYS WERE WRITTEN. Supply -force parameter to override. -force is destructive and will destroy any previous cluster configuration. Oracle Cluster Registry for cluster has already been initialized Startup will be queued to init within 30 seconds. Adding daemons to inittab Expecting the CRS daemons to be up within 600 seconds. CSS is active on these nodes. node01 node02 CSS is active on all nodes. Waiting for the Oracle CRSD and EVMD to start Oracle CRS stack installed and running under init(1m) 4. ダウングレードしたことを確認します [oracle@node01]$ <BASE_CRS_HOME>/bin/crsctl query crs activeversion 次にコマンド出力例を示します [oracle@node01]$ /u01/app/10.2.0/crs/bin/crsctl query crs activeversion クラスタ上の Oracle Clusterware のアクティブなバージョンは [ ] です
167 E 以上のバージョンへダウングレードするの場合 Oracle Clusterware を以前のリリースにリストアするには 次の手順を実行します 1. 全てのリモート ノード (Node1 以外 ) で 次のコマンド構文を root ユーザーで実行します 注意 : 実行するノードの順番は ロカールノード (Node1) 以外のリモート ノードから実行を行い 最後にローカル ノードで実行してください [oracle@node02]$ su - [root@node02]# whoami root root ユーザであることを確認 [root@node02]# hostname node02 ノード 2 にログインしていることを確認 [root@node02]# <11203_GI_HOME>/crs/install/rootcrs.pl -downgrade -oldcrshome \ > <BASE_GI_HOME> -version <BASE_VERSION> [-force] これにより 11g Release 2(11.2) リソースと 11g Release 2(11.2) スタックが停止します 11g Release 2(11.2) の部分インストールまたは失敗したインストールを停止して 以前のリリースの Oracle Clusterware をリストアする場合は このコマンドで -force フラグを使用します 次に例を示します [oracle@node02]$ su - [root@node02]# whoami root root ユーザであることを確認 [root@node02]# hostname node02 ノード 2 にログインしていることを確認 [root@node02]# cd /u01/app/ /grid/crs/install/ [root@node02]#./rootcrs.pl -downgrade -oldcrshome /u01/app/ /grid \ > -version Using configuration parameter file: /u01/app/ /grid/crs/install/crsconfig_params CRS-2791: Starting shutdown of Oracle High Availability Services-managed resources on 'node02' CRS-2673: Attempting to stop 'ora.crsd' on 'node02' CRS-2790: 'node02' 上にある Cluster Ready Services 管理下のリソースの停止を開始しています CRS-2673: 'ora.crs.dg'('node02') の停止を試行しています CRS-2673: 'ora.registry.acfs'('node02') の停止を試行しています CRS-2673: 'ora.data.dg'('node02') の停止を試行しています CRS-2673: 'ora.listener.lsnr'('node02') の停止を試行しています CRS-2673: 'ora.listener_scan1.lsnr'('node02') の停止を試行しています CRS-2677: 'ora.listener_scan1.lsnr'('node02') の停止が成功しました CRS-2673: 'ora.scan1.vip'('node02') の停止を試行しています CRS-2677: 'ora.listener.lsnr'('node02') の停止が成功しました CRS-2673: 'ora.node02.vip'('node02') の停止を試行しています CRS-2677: 'ora.node02.vip'('node02') の停止が成功しました CRS-2672: 'ora.node02.vip'('node01') の起動を試行しています CRS-2677: 'ora.scan1.vip'('node02') の停止が成功しました CRS-2672: 'ora.scan1.vip'('node01') の起動を試行しています CRS-2677: 'ora.data.dg'('node02') の停止が成功しました CRS-2677: 'ora.registry.acfs'('node02') の停止が成功しました CRS-2676: 'ora.scan1.vip'('node01') の起動が成功しました CRS-2676: 'ora.node02.vip'('node01') の起動が成功しました CRS-2672: 'ora.listener_scan1.lsnr'('node01') の起動を試行しています CRS-2676: 'ora.listener_scan1.lsnr'('node01') の起動が成功しました CRS-2677: 'ora.crs.dg'('node02') の停止が成功しました CRS-2673: 'ora.asm'('node02') の停止を試行しています CRS-2677: 'ora.asm'('node02') の停止が成功しました CRS-2673: 'ora.ons'('node02') の停止を試行しています CRS-2677: 'ora.ons'('node02') の停止が成功しました
168 CRS-2673: 'ora.net1.network'('node02') の停止を試行しています CRS-2677: 'ora.net1.network'('node02') の停止が成功しました CRS-2792: 'node02' 上にある Cluster Ready Services 管理下のリソースの停止が完了しました CRS-2677: Stop of 'ora.crsd' on 'node02' succeeded CRS-2673: Attempting to stop 'ora.ctssd' on 'node02' CRS-2673: Attempting to stop 'ora.evmd' on 'node02' CRS-2673: Attempting to stop 'ora.asm' on 'node02' CRS-2673: Attempting to stop 'ora.drivers.acfs' on 'node02' CRS-2673: Attempting to stop 'ora.mdnsd' on 'node02' CRS-2677: Stop of 'ora.mdnsd' on 'node02' succeeded CRS-2677: Stop of 'ora.evmd' on 'node02' succeeded CRS-2677: Stop of 'ora.ctssd' on 'node02' succeeded CRS-2677: Stop of 'ora.asm' on 'node02' succeeded CRS-2673: Attempting to stop 'ora.cluster_interconnect.haip' on 'node02' CRS-2677: Stop of 'ora.cluster_interconnect.haip' on 'node02' succeeded CRS-2673: Attempting to stop 'ora.cssd' on 'node02' CRS-2677: Stop of 'ora.drivers.acfs' on 'node02' succeeded CRS-2677: Stop of 'ora.cssd' on 'node02' succeeded CRS-2673: Attempting to stop 'ora.crf' on 'node02' CRS-2677: Stop of 'ora.crf' on 'node02' succeeded CRS-2673: Attempting to stop 'ora.gipcd' on 'node02' CRS-2677: Stop of 'ora.gipcd' on 'node02' succeeded CRS-2673: Attempting to stop 'ora.gpnpd' on 'node02' CRS-2677: Stop of 'ora.gpnpd' on 'node02' succeeded CRS-2793: Shutdown of Oracle High Availability Services-managed resources on 'node02' has completed CRS-4133: Oracle High Availability Services has been stopped. Successfully downgraded Oracle Clusterware stack on this node 2. 全てのリモート ノードで rootcrs.pl -downgrade スクリプトが完了したら ローカル ノードで以下のコマンドを実行します <BASE_CRS_HOME> は以前の Oracle Clusterware インストールのホーム <BASE_VERSION> は以前の Oracle Clusterware インストールのリリース番号です su - [root@node01]# whoami root root ユーザであることを確認 [root@node01]# hostname node01 ノード 2 にログインしていることを確認 [root@node01]# <11203_GI_HOME>/crs/install/rootcrs.pl -downgrade -lastnode \ > -oldcrshome <BASE_GI_HOME> -version <BASE_VERSION> [-force] このスクリプトを実行すると OCR がダウングレードされ Grid ホームからバイナリが削除されます 11g Release 2(11.2) の部分インストールまたは失敗したインストールを停止して 以前のリリースの Oracle Clusterware をリストアする場合は このコマンドで -force フラグを使用します 次に例を示します [oracle@node01]$ su - [root@node01]# whoami root root ユーザであることを確認 [root@node01]# hostname node01 ノード 2 にログインしていることを確認 [root@node01]# rootcrs.pl -downgrade -lastnode \ -oldcrshome /u01/app/11.2.0/grid -version Using configuration parameter file: /u01/app/ /grid/crs/install/crsconfig_params CRS-2791: Starting shutdown of Oracle High Availability Services-managed resources on 'node01' CRS-2673: Attempting to stop 'ora.crsd' on 'node01'
169 CRS-2791: 'node01' 上にある Oracle 高可用性サービス管理下のリソースのシャットダウンを開始しています CRS-2673: 'ora.crsd'('node01') の停止を試行しています CRS-2677: 'ora.crsd'('node01') の停止が成功しました CRS-2673: 'ora.cssdmonitor'('node01') の停止を試行しています CRS-2673: 'ora.ctssd'('node01') の停止を試行しています CRS-2673: 'ora.asm'('node01') の停止を試行しています CRS-2673: 'ora.drivers.acfs'('node01') の停止を試行しています CRS-2673: 'ora.mdnsd'('node01') の停止を試行しています CRS-2677: 'ora.cssdmonitor'('node01') の停止が成功しました CRS-2677: 'ora.mdnsd'('node01') の停止が成功しました CRS-2677: 'ora.ctssd'('node01') の停止が成功しました CRS-2677: 'ora.drivers.acfs'('node01') の停止が成功しました CRS-2677: 'ora.asm'('node01') の停止が成功しました CRS-2673: 'ora.cssd'('node01') の停止を試行しています CRS-2677: 'ora.cssd'('node01') の停止が成功しました CRS-2673: 'ora.gpnpd'('node01') の停止を試行しています CRS-2673: 'ora.diskmon'('node01') の停止を試行しています CRS-2677: 'ora.gpnpd'('node01') の停止が成功しました CRS-2673: 'ora.gipcd'('node01') の停止を試行しています CRS-2677: 'ora.gipcd'('node01') の停止が成功しました CRS-2677: 'ora.diskmon'('node01') の停止が成功しました CRS-2793: 'node01' 上にある Oracle 高可用性サービス管理下のリソースのシャットダウンが完了しました CRS-4133: Oracle High Availability Services has been stopped. CRS-4123: Oracle High Availability Services has been started. CRS-2672: Attempting to start 'ora.gipcd' on 'node01' CRS-2672: Attempting to start 'ora.mdnsd' on 'node01' CRS-2676: Start of 'ora.gipcd' on 'node01' succeeded CRS-2676: Start of 'ora.mdnsd' on 'node01' succeeded CRS-2672: Attempting to start 'ora.gpnpd' on 'node01' CRS-2676: Start of 'ora.gpnpd' on 'node01' succeeded CRS-2672: Attempting to start 'ora.cssdmonitor' on 'node01' CRS-2676: Start of 'ora.cssdmonitor' on 'node01' succeeded CRS-2672: Attempting to start 'ora.cssd' on 'node01' CRS-2672: Attempting to start 'ora.diskmon' on 'node01' CRS-2676: Start of 'ora.diskmon' on 'node01' succeeded CRS-2676: Start of 'ora.cssd' on 'node01' succeeded CRS-2672: Attempting to start 'ora.drivers.acfs' on 'node01' CRS-2672: Attempting to start 'ora.ctssd' on 'node01' CRS-2676: Start of 'ora.ctssd' on 'node01' succeeded CRS-2676: Start of 'ora.drivers.acfs' on 'node01' succeeded CRS-2672: Attempting to start 'ora.asm' on 'node01' CRS-2676: Start of 'ora.asm' on 'node01' succeeded CRS-2791: Starting shutdown of Oracle High Availability Services-managed resources on 'node01' CRS-2673: Attempting to stop 'ora.gpnpd' on 'node01' CRS-2673: Attempting to stop 'ora.cssdmonitor' on 'node01' CRS-2673: Attempting to stop 'ora.ctssd' on 'node01' CRS-2673: Attempting to stop 'ora.asm' on 'node01' CRS-2673: Attempting to stop 'ora.drivers.acfs' on 'node01' CRS-2673: Attempting to stop 'ora.mdnsd' on 'node01' CRS-2677: Stop of 'ora.cssdmonitor' on 'node01' succeeded CRS-2677: Stop of 'ora.gpnpd' on 'node01' succeeded CRS-2677: Stop of 'ora.mdnsd' on 'node01' succeeded CRS-2677: Stop of 'ora.ctssd' on 'node01' succeeded CRS-2677: Stop of 'ora.drivers.acfs' on 'node01' succeeded CRS-2677: Stop of 'ora.asm' on 'node01' succeeded CRS-2673: Attempting to stop 'ora.cssd' on 'node01'
170 CRS-2677: Stop of 'ora.cssd' on 'node01' succeeded CRS-2673: Attempting to stop 'ora.gipcd' on 'node01' CRS-2677: Stop of 'ora.gipcd' on 'node01' succeeded CRS-2793: Shutdown of Oracle High Availability Services-managed resources on 'node01' has completed CRS-4133: Oracle High Availability Services has been stopped. CRS-4123: Oracle High Availability Services has been started. CRS-2672: 'ora.gipcd'('node01') の起動を試行しています CRS-2672: 'ora.mdnsd'('node01') の起動を試行しています CRS-2676: 'ora.gipcd'('node01') の起動が成功しました CRS-2676: 'ora.mdnsd'('node01') の起動が成功しました CRS-2672: 'ora.gpnpd'('node01') の起動を試行しています CRS-2676: 'ora.gpnpd'('node01') の起動が成功しました CRS-2672: 'ora.cssdmonitor'('node01') の起動を試行しています CRS-2676: 'ora.cssdmonitor'('node01') の起動が成功しました CRS-2672: 'ora.cssd'('node01') の起動を試行しています CRS-2679: 'ora.diskmon'('node01') のクリーニングを試行しています CRS-2681: 'ora.diskmon'('node01') のクリーニングが成功しました CRS-2672: 'ora.diskmon'('node01') の起動を試行しています CRS-2676: 'ora.diskmon'('node01') の起動が成功しました CRS-2676: 'ora.cssd'('node01') の起動が成功しました CRS-2672: 'ora.ctssd'('node01') の起動を試行しています CRS-2672: 'ora.drivers.acfs'('node01') の起動を試行しています CRS-2676: 'ora.ctssd'('node01') の起動が成功しました CRS-2676: 'ora.drivers.acfs'('node01') の起動が成功しました CRS-2672: 'ora.asm'('node01') の起動を試行しています CRS-2676: 'ora.asm'('node01') の起動が成功しました CRS-2672: 'ora.crsd'('node01') の起動を試行しています CRS-2676: 'ora.crsd'('node01') の起動が成功しました CRS-2673: 'ora.crsd'('node01') の停止を試行しています CRS-2677: 'ora.crsd'('node01') の停止が成功しました Successfully downgraded OCR to CRS-2672: 'ora.crsd'('node01') の起動を試行しています CRS-2676: 'ora.crsd'('node01') の起動が成功しました CRS-2791: 'node01' 上にある Oracle 高可用性サービス管理下のリソースのシャットダウンを開始しています CRS-2673: 'ora.crsd'('node01') の停止を試行しています CRS-2677: 'ora.crsd'('node01') の停止が成功しました CRS-2673: 'ora.gpnpd'('node01') の停止を試行しています CRS-2673: 'ora.cssdmonitor'('node01') の停止を試行しています CRS-2673: 'ora.ctssd'('node01') の停止を試行しています CRS-2673: 'ora.asm'('node01') の停止を試行しています CRS-2673: 'ora.drivers.acfs'('node01') の停止を試行しています CRS-2673: 'ora.mdnsd'('node01') の停止を試行しています CRS-2677: 'ora.cssdmonitor'('node01') の停止が成功しました CRS-2677: 'ora.gpnpd'('node01') の停止が成功しました CRS-2677: 'ora.mdnsd'('node01') の停止が成功しました CRS-2677: 'ora.drivers.acfs'('node01') の停止が成功しました CRS-2677: 'ora.ctssd'('node01') の停止が成功しました CRS-2677: 'ora.asm'('node01') の停止が成功しました CRS-2673: 'ora.cssd'('node01') の停止を試行しています CRS-2677: 'ora.cssd'('node01') の停止が成功しました CRS-2673: 'ora.diskmon'('node01') の停止を試行しています CRS-2673: 'ora.gipcd'('node01') の停止を試行しています CRS-2677: 'ora.gipcd'('node01') の停止が成功しました CRS-2677: 'ora.diskmon'('node01') の停止が成功しました CRS-2793: 'node01' 上にある Oracle 高可用性サービス管理下のリソースのシャットダウンが完了しました CRS-4133: Oracle High Availability Services has been stopped
171 Successfully downgraded Oracle Clusterware stack on this node Run '/u01/app/11.2.0/grid/bin/crsctl start crs' on all nodes 3. インベントリ情報更新 Oracle Grid Infrastructure のインベントリ情報をダウングレードした ORACLE ホームディレクトリが有効になるように設定します grid ユーザーでログインし 次のコマンドを実行します su - grid [grid@node01]$ whoami grid grid ユーザーでログインしていることを確認 [grid@node01]$ cd /u01/app/ /grid/oui/bin [grid@node01]$./runinstaller -nowait -noconsole -waitforcompletion \ > -ignoresysprereqs -updatenodelist -silent CRS=false ORACLE_HOME=<11203_GI_HOME> [grid@node01]$./runinstaller -nowait -noconsole -waitforcompletion \ > -ignoresysprereqs -updatenodelist -silent CRS=true ORACLE_HOME=<BASE_GI_HOME> 次に例を示します [root@node01]# su - grid [grid@node01]$ whoami grid grid ユーザーでログインしていることを確認 [grid@node01]$ cd /u01/app/11.2.0/grid/oui/bin [grid@node01]$./runinstaller -nowait -noconsole -waitforcompletion \ > -ignoresysprereqs -updatenodelist -silent CRS=false > ORACLE_HOME=/u01/app/ /grid Oracle Universal Installer を起動中です... スワップ領域の確認中 : 500MB を超えている必要があります. 実際 4094MB 問題なし The inventory pointer is located at /etc/orainst.loc The inventory is located at /u01/app/orainventory [grid@node01]$./runinstaller -nowait -noconsole -waitforcompletion \ > -ignoresysprereqs -updatenodelist -silent CRS=true \ > ORACLE_HOME=/u01/app/11.2.0/grid Oracle Universal Installer を起動中です... スワップ領域の確認中 : 500MB を超えている必要があります. 実際 4094MB 問題なし The inventory pointer is located at /etc/orainst.loc The inventory is located at /u01/app/orainventory
172 ダウングレードした ORACLE ホームディレクトリが有効であることをインベントリ情報から確認します /u01/app/orainventory/contentsxml/inventory.xml grep NAME /u01/app/orainventory/contentsxml/inventory.xml grep NAME <HOME NAME="Ora11g_gridinfrahome1" LOC="/u01/app/11.2.0/grid" TYPE="O" IDX="1" CRS="true"> ダウングレードされた ORACEL ホームディレクトリの行が CRS="true" になっていることを確認 <HOME NAME="Ora11g_gridinfrahome2" LOC="/u01/app/ /grid" TYPE="O" IDX="3"> の ORACEL ホームディレクトリの行に CRS="true" が無いことを確認 全てのノードで確認をしてください 4. Oracle Clusterware 起動 CRS を起動させれば ダウングレード完了です su - [root@node01]# whoami root root ユーザーでログインしていることを確認 [root@node01]# <BASE_GI_HOME>/bin/crsctl start crs 次に例を示します [grid@node01]$ su - [grid@node01]$ whoami grid grid ユーザーでログインしていることを確認 [root@node01]# /u01/app/11.2.0/grid/bin/crsctl start crs CRS-4123: Oracle High Availability Services has been started
173 E-3-3 Oracle Clusterware のダウングレード確認 1. Oracle Clusterware ダウングレード確認 Oracle Clusterware ダウングレードされていることを確認します <BASE_GI_HOME>/bin crsctl query crs activeversion 次に へダウングレードされている場合の例を示します /u01/app/11.2.0/grid/ bin crsctl query crs activeversion Oracle Clusterware active version on the cluster is [ ] ダウングレードされたバージョンになっていることを確認 2. Oracle ASM インスタンスのダウングレード確認 grid ユーザーで SQL*PLUS にログインし ASM インスタンスのバージョンを確認します su - grid [grid@node01]$ whoami grid grid ユーザーでログインしていることを確認 [oracle@node01]$ sqlplus / as sysasm SQL> select * from gv$version; 次に へダウングレードされている場合の例を示します [root@node01]# su - grid [grid@node01]$ whoami grid grid ユーザーでログインしていることを確認 [oracle@node01]$ sqlplus / as sysasm SQL> select * from gv$version; INST_ID BANNER Oracle Database 11g Enterprise Edition Release bit Production 1 PL/SQL Release Production 1 CORE Production 1 TNS for Linux: Version Production 1 NLSRTL Version Production ダウングレードした になっていることを確認 3. CRS リソースの確認 grid ユーザーで CRS リソースが起動していることを確認します [grid@node01]$ crsctl stat res -t 次に へダウングレードされている場合の例を示します [grid@node01]$ crsctl stat res -t NAME TARGET STATE SERVER STATE_DETAILS Local Resources
174 ora.crs.dg ONLINE ONLINE node01 ONLINE ONLINE node02 ora.data.dg ONLINE ONLINE node01 ONLINE ONLINE node02 ora.listener.lsnr ONLINE ONLINE node01 ONLINE ONLINE node02 ora.asm ONLINE ONLINE node01 Started ONLINE ONLINE node02 Started ora.eons ONLINE ONLINE node01 ONLINE ONLINE node02 ora.gsd OFFLINE OFFLINE node01 OFFLINE OFFLINE node02 ora.net1.network ONLINE ONLINE node01 ONLINE ONLINE node02 ora.ons ONLINE ONLINE node01 ONLINE ONLINE node02 ora.registry.acfs ONLINE ONLINE node01 ONLINE ONLINE node Cluster Resources ora.listener_scan1.lsnr 1 ONLINE ONLINE node02 ora.listener_scan2.lsnr 1 ONLINE ONLINE node01 ora.listener_scan3.lsnr 1 ONLINE ONLINE node01 ora.oc4j 1 OFFLINE OFFLINE ora.orcl.db 1 ONLINE ONLINE node01 Open 2 ONLINE ONLINE node02 Open ora.scan1.vip 1 ONLINE ONLINE node02 ora.scan2.vip 1 ONLINE ONLINE node01 ora.scan3.vip 1 ONLINE ONLINE node01 ora.node01.vip 1 ONLINE ONLINE node01 ora.node02.vip 1 ONLINE ONLINE node
175 E-3-4 Oracle Enterprise Manager Database Control データのリストア Database Control をアップグレード前の Oracle ホームにリストアします リストアするには アップグレードを実行する前に アップグレード前の準備 で取得した Database Control データのバックアップを使用します リストアを行うには以下手順を使用します 注 :Database Control が起動した状態で行います 注 : リスナーを起動しておく必要があります 注 :emdwgrd ユーティリティを実行中に SYS ユーザーのパスワードが求められます 1. 次のように Oracle Database の環境変数をセットします ORACLE_HOME=<BASE_DB_HOME> ORACLE_SID=<DB_SID> PATH=$ORACLE_HOME/bin:$PATH LD_LIBRARY_PATH=$ORACLE_HOME/lib:$LD_LIBRARY_PATH SHLIB_PATH=$ORACLE_HOME/lib:$SHLIB_PATH EM_REMCP=/usr/bin/scp TEMP=/tmp 以下に本ガイドでの実行例を記載します [oracle@node01]$ export ORACLE_HOME=/u01/app/oracle/product/ /dbhome_1/bin [oracle@node01]$ export ORACLE_SID=orcl1 [oracle@node01]$ export PATH=$ORACLE_HOME/bin:$PATH [oracle@node01]$ export LD_LIBRARY_PATH=$ORACLE_HOME/lib:$LD_LIBRARY_PATH [oracle@node01]$ export SHLIB_PATH=$ORACLE_HOME/lib:$SHLIB_PATH [oracle@node01]$ export EM_REMCP=/usr/bin/scp [oracle@node01]$ export TEMP=/tmp [oracle@node01]$ env env コマンドで環境変数が設定されていることを確認 ORACLE_HOME=/u01/app/oracle/product/ /dbhome_1 ORACLE_SID=orcl1 PATH=/u01/app/oracle/product/ /dbhome_1/bin:/usr/kerberos/sbin:/usr/kerberos/bin:/usr/local/sbin: /usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin:/root/bin LD_LIBRARY_PATH=/u01/app/oracle/product/ /dbhome_1/lib SHLIB_PATH=/u01/app/oracle/product/ /dbhome_1/lib EM_REMCP=/usr/bin/scp TEMP=/tmp の Oracle ホームの bin ディレクトリに移動します [oracle@node01]$ cd <11203_DB_HOME>/bin 3. アップグレード時に作成した Database Control データのバックアップを emdwgrd ユーティリティを用いて リストアします [oracle@node01]$ cd <11203_DB_HOME>/bin [oracle@node01]$ emdwgrd -restore -temptablespace TEMP -cluster \ > -sid $ORACLE_SID -path <Save_Direcroty>
176 次に例を示します cd /u01/app/oracle/product/ /dbhome_1/bin emdwgrd -restore -temptablespace TEMP -cluster -sid orcl \ > -path /home/oracle/backup/ /oem Enter sys password for database orcl1? SYS ユーザーのパスワードを記入して続行 Database Unique Name : orcl データベース名を記入して続行 Wed Sep 14 17:18: Validating DB Connection to orcl1... pass Enter sysman password for database orcl1? Wed Sep 14 17:18: Validating TEMP tablespace in orcl1... pass RCP = /usr/bin/scp -rp, REMSH = /usr/bin/ssh node01.jp.oracle.com: Connection refused retval = 1 output = err= checkfileonhost: fexist = 0 errocc = 0 node02.jp.oracle.com: Connection refused retval = 1 output = err= checkfileonhost: fexist = 0 errocc = 0 shared = 0 Wed Sep 14 17:21: Creating directory... created Wed Sep 14 17:21: Stopping DB Control on all Nodes Please Execute '/tmp/racdwgrd_dbctl.sh' on node01, node02. Press yes to continue when the operations are successful. Continue (yes/no)? yes yes を記入して続行... stopped Wed Sep 14 17:21: dropping sysman schema... dropped Wed Sep 14 17:21: Recreating sysman user... recreated Wed Sep 14 17:21: Restoring DB Control files Executing Restore directories to node node01 restore -- src /home/oracle/backup/ /oem/backup/node01/node01_orcl, dest /u01/app/oracle/product/11.1.0/db_1/node01_orcl restore -- src /home/oracle/backup/ /oem/backup/node01/sysman, dest /u01/app/oracle/product/11.1.0/db_1/sysman Executing Restore directories to node node02 restore -- src /home/oracle/backup/ /oem/backup/node02/node02_orcl, dest /u01/app/oracle/product/11.1.0/db_1/node02_orcl restore -- src /home/oracle/backup/ /oem/backup/node02/sysman, dest /u01/app/oracle/product/11.1.0/db_1/sysman... restored Wed Sep 14 17:21: Importing sysman schema... imported Wed Sep 14 17:36: Recompiling invalid objects... recompiled Wed Sep 14 17:37: restoring dbms_jobs... restored Wed Sep 14 17:37: restoring dbms_registry... restored Wed Sep 14 17:39: DB Control was restored successfully. Wed Sep 14 17:39: Starting DB Control On All nodes Please Execute '/tmp/racdwgrd_dbctl.sh' on node01, node02. Press yes to continue when the operations are successful. Continue (yes/y)? yes yes を記入して続行... started Wed Sep 14 17:39: Dump directory was dropped successfully
177 日本オラクル株式会社 東京都港区北青山 オラクル青山センター 無断転載を禁ず このドキュメントは単に情報として提供され 内容は予告なしに変更される場合があります このドキュメントに誤りが無いことの保証や 商品性又は特定目的への適合性の黙示的な保証や条件を含め明示的又は黙示的な保証や条件は一切無いものとします 日本オラクル株式会社は このドキュメントについていかなる責任も負いません また このドキュメントによって直接又は間接にいかなる契約上の義務も負うものではありません このドキュメントを形式 手段 ( 電子的又は機械的 ) 目的に関係なく 日本オラクル株式会社の書面による事前の承諾なく 複製又は転載することはできません Oracle JD Edwards PeopleSoft 及び Siebel は 米国オラクル コーポレーション及びその子会社 関連会社の登録商標です その他の名称は 各社の商標または登録商標です Red Hat は米国およびその他の国で Red Hat,Inc の登録商標または商標です Linux は Linus Torvals の商標です その他の各種製品名は 各社の製品名称 商標または登録商標です 本資料に記載されているシステム名 製品名等には 必ずしも商品表示 ((R) TM) を付記していません
Oracle_Database_11g_Release2_RAC_Upgrade_Guide
Oracle Database 11g Release 2 Patch Set 1 (11.2.0.2) 適用ガイド 作成日 : 2011-01-11 更新日 : 2011-06-20 Version: 1.3 Copyright 2010, Oracle. All rights reserved. - 1 - 目次 1 はじめに... 3 1.1 out-of-place アップグレードと in-place
Oracle Database 11g Release 2 Oracle Restart Patch Set 2 ( ) 適用ガイド Linux x86-64 版 作成日 : 更新日 : Version: 1.0
Oracle Database 11g Release 2 Oracle Restart Patch Set 2 (11.2.0.3) 適用ガイド Linux x86-64 版 作成日 : 2011-11-21 更新日 : Version: 1.0 目次 1 はじめに... 3 1.1 参考文献... 3 1.2 用語一覧... 4 1.3 表記規則... 6 1.4 アップグレード パスの決定...
Oracle DB RAC with ASM Installation Guide on Linux x86
Oracle Database 11g Release 2 Oracle Restart Patch Set 2 (11.2.0.3) 適用ガイド Windows x64 (64-Bit) 版 作成日 : 2012-01-16 更新日 : Version: 1.0 目次 1 はじめに... 3 1.1 対象者... 3 1.2 参考資料... 3 1.3 省略表記... 4 1.4 表記規則...
Oracle DB RAC with ASM Installation Guide on Linux x86
Oracle Database 11g Release 2 (11.2.0.3) Real Application Clusters インストレーション ガイド Linux x86-64 版 作成日 : 2011-11-16 更新日 Version: 1.0 目次 1 はじめに... 3 1.1 参考資料... 3 1.2 省略表記... 3 1.3 表記規則... 4 2 概要... 5 2.1
Oracle DB RAC with ASM Installation Guide on Linux x86
Oracle Database 11g Release 2 Real Application Clusters Patch Set 2 (11.2.0.3) 適用ガイド Windows x64 (64-Bit) 版 作成日 : 2012-01-10 更新日 : 2012-01-10 Version: 1.0 目次 1 はじめに... 4 1.1 対象者... 4 1.2 参考資料... 4 1.3
Oracle DB RAC with ASM Installation Guide on Linux x86
Oracle Database 11g Release 2 (11.2.0.3) Oracle Restart インストレーション ガイド Windows x64(64-bit) 版 作成日 : 2012-01-16 更新日 : Version: 1.0 目次 1 はじめに... 3 1.1 対象者... 3 1.2 参考資料... 3 1.3 省略表記... 4 1.4 表記規則... 4 2 概要...
Microsoft Word - nvsi_050090jp_oracle10g_vlm.doc
Article ID: NVSI-050090JP Created: 2005/04/20 Revised: Oracle Database10g VLM 環境での NetVault 動作検証 1. 検証目的 Linux 上で稼動する Oracle Database10g を大容量メモリ搭載環境で動作させる場合 VLM に対応したシステム設定を行います その環境において NetVault を使用し
Microsoft Word - nvsi_080188jp_r1_netvault_oracle_rac_backup_complemental_guide_j_174x217.doc
Oracle RAC 環境における NetVault Backup バックアップ & リストア補足資料 バックボーン ソフトウエア株式会社 Doc# NVSI-080188JP Copyrights 著作権 2009 BakBone Software Oracle RAC 環境における NetVault Backup バックアップ & リストア補足資料 Version 1.1 本ガイドは Oracle
目次 1 はじめに 参考資料 省略表記 表記規則 概要 インストール インストール環境と事前準備 ハードウェア要件とメモリーの確認 ハードウェア要件... 5
Oracle Database 12c Release 2 (12.2.0.1) 単一インスタンス データベースインストレーション ガイド Linux x86-64 版 作成日 :2017-03-06 更新日 : Version:1.0-1 - 目次 1 はじめに... 3 1.1 参考資料... 3 1.2 省略表記... 3 1.3 表記規則... 3 2 概要... 4 2.1 インストール...
IPM Release 2.6 へのアップグ レード
CHAPTER 3 この章では 以前のリリースの IPM を IPM Release 2.6 にアップグレードする方法について説明します 取り上げる項目は次のとおりです 前のリリースの IPM からのアップグレード (P.3-2) IPM 2.6 の移行パス (P.3-3) Windows でのリモートデータの移行 (P.3-4) Solaris でのリモートデータの移行 (P.3-6) IPM サーバと
Oracle Database Clientクイック・インストレーション・ガイド, 10gリリース 1( ) for Linux x86-64
Oracle Database Client クイック インストレーション ガイド 10g リリース 1(10.1.0.3)for Linux x86-64 部品番号 : B15538-01 原典情報 : B14403-01 Oracle Database Client Quick Installation Guide 10g Release 1 (10.1.0.3) for Linux x86-64
Slide 1
Oracle Data Guard の構築とフェイルオーバー実行例 日本オラクル株式会社 以下の事項は 弊社の一般的な製品の方向性に関する概要を説明するものです また 情報提供を唯一の目的とするものであり いかなる契約にも組み込むことはできません 以下の事項は マテリアルやコード 機能を提供することをコミットメント ( 確約 ) するものではないため 購買決定を行う際の判断材料になさらないで下さい
Microsoft Word - nvsi_100222jp_oracle_exadata.doc
Article ID: NVSI-100222JP Created: 2010/10/22 Revised: -- Oracle Exadata v2 バックアップ動作検証 1. 検証目的 Oracle Exadata Version 2 上で稼動する Oracle Database11g R2 Real Application Clusters( 以下 Oracle11g R2 RAC) 環境において
<Documents Title Here>
Oracle Application Server 10g Release 2 (10.1.2) for Microsoft Windows Business Intelligence Standalone Oracle Application Server 10g Release 2 (10.1.2) for Microsoft Windows Business Intelligence Standalone
Oracle Business Intelligence Standard Edition One のインストール
Oracle Business Intelligence Standard Edition One のインストール 第 1 版 作成日 :2007 年 7 月 31 日 更新日 :2007 年 7 月 31 日 目次 はじめに... 3 Ⅰ. インストール作業... 4 Ⅱ. 起動状況の確認... 8 Ⅱ-1. Oracle BI Administration Tool の起動... 8 Ⅱ-2.
Oracle Database 11g Release 2 Oracle Grid Infrastructure インストール
1 2 本資料では 以下の省略表記を使用している箇所があります 名称 11g Release 2 Automatic Storage Manegement Configuration Assistant Cluster Time Synchronization Service Cluster Verification Utility Database Configuration Assistant
OpenAM 9.5 インストールガイド オープンソース ソリューション テクノロジ ( 株 ) 更新日 : 2013 年 7 月 19 日 リビジョン : 1.8
OpenAM 9.5 インストールガイド オープンソース ソリューション テクノロジ ( 株 ) 更新日 : 2013 年 7 月 19 日 リビジョン : 1.8 目次 1. はじめに 1 1.1 本文書の目的... 1 1.2 前提条件... 1 1.3 略語...1 2. 事前準備 2 2.1 ホスト名の名前解決... 2 3. Linix 版パッケージ 3 3.1 システム要件... 3 3.1.1
Oracle DB 10g R2 構築手順
HP Integrity サーバ + HP-UX 11i v2(11.23) Oracle DB 10g R2 構築手順 2. データベースの構築 初版 2006/06 目次 2 データベースの構築... 2 データベースの構築... 3 2.1 DBCA を使用したデータベース作成スクリプトの生成... 3 2.2 データベース作成スクリプトの編集... 22 2.3 データベース作成スクリプトの実行...
目次 1. HLA Fusion 3.0 がインストール可能な環境 HLA Fusion 3.0 のインストール HLA Fusion 3.4 のインストール 初期設定用データベース接続 ( 初めての方のみ ) 既存データベースのUpg
目次 1. HLA Fusion 3.0 がインストール可能な環境... 1 2. HLA Fusion 3.0 のインストール... 2 3. HLA Fusion 3.4 のインストール... 4 4. 初期設定用データベース接続 ( 初めての方のみ )... 5 5. 既存データベースのUpgrade 方法 (HLA Fusion 3~3.3 を既に使用の方 )... 7 6. インストールが成功したかの確認...
改版履歴 版数 改版日付 改版内容 /03/14 新規作成 2013/03まで製品サイトで公開していた WebSAM DeploymentManager Ver6.1 SQL Server 2012 製品版のデータベース構築手順書 ( 第 1 版 ) を本 書に統合しました 2
第 1 版 改版履歴 版数 改版日付 改版内容 1 2013/03/14 新規作成 2013/03まで製品サイトで公開していた WebSAM DeploymentManager Ver6.1 SQL Server 2012 製品版のデータベース構築手順書 ( 第 1 版 ) を本 書に統合しました 2 目次 1. 使用しているデータベース (DPMDBI インスタンス ) を SQL Server
DB Oracle Single Instance Installation Guide for Windows-x64
Oracle Database 12c Release 1 (12.1.0.2) 単一インスタンス データベースインストレーション ガイド Windows x86-64 版 作成日 : 2014-09- 01 更新日 : 2014-09- 26 Version: 1.1-1 - 目次 1 はじめに... 3 1.1 参考資料... 3 1.2 省略表記... 3 1.3 表記規則... 3 2 概要...
WebSAM Storage ReplicationNavigator WebSAM Storage ReplicationNavigator Oracle RAC Option 本製品を販売する場合 事前に下記問い合わせ先へご連絡をお願いします < 問い合わせ先 > 8. 問い合わせ窓口 を参照し
WebSAM Storage ReplicationNavigator WebSAM Storage ReplicationNavigator Oracle RAC Option 本製品を販売する場合 事前に下記問い合わせ先へご連絡をお願いします < 問い合わせ先 > 8. 問い合わせ窓口 を参照してください 製品概要 WebSAM Storage ReplicationNavigator は istorage
Installation Guide for Linux
Installation Guide for Linux for Linux Acronis Japan 1. はじめに... 2 1.1. 対象オペレーティングシステム... 2 2. エージェントのダウンロード... 3 3. Linux パッケージ... 3 3.1. Cent0S... 3 3.2. Ubuntu... 4 3.3. 手動でパッケージをインストールする場合... 5 4. エージェントのインストール...
スライド 1
Tivoli Access Manager for Enterprise Single Sign-On v8.1 Unofficial Installation Guide 2010 SRCHACK.ORG 本資料について IBM のシングルサインオン製品 Tivoli Access Manager for Enterprise Single Sign-On v8.1 の導入手順を srchack.org
Oracle Application Server 10g(9
Oracle Application Server 10g (9.0.4) for Microsoft Windows J2EE Oracle Application Server 10g (9.0.4) for Microsoft Windows J2EE and Web Cache...2...3...3...4...6...6...6 OS...9...10...12...13...24...24
使用する前に
この章では Cisco Secure ACS リリース 5.5 以降から Cisco ISE リリース 2.4 システムへのデー タ移行に使用される Cisco Secure ACS to Cisco ISE Migration Tool について説明します 移行の概要 1 ページ Cisco Secure ACS から データ移行 1 ページ Cisco Secure ACS to Cisco ISE
ServerView RAID Manager VMware vSphere ESXi 6 インストールガイド
ServerView RAID Manager VMware vsphere ESXi 6 インストールガイド 2018 年 11 月 27 日富士通株式会社 アレイを構築して使用する場合 RAID 管理ツールの ServerView RAID Manager を使用します VMware vsphere ESXi 6.x ( 以後 ESXi 6 または ESXi と略します ) サーバで ServerView
目次 1. 動作環境チェック 動作必要環境 Java のインストール Java のインストール Firebird のインストール Firebird のインストール Adobe Reader のインストール
ORCA PROJECT Linux 対応版インストールマニュアル (Version 2.0.0 対応 ) Ubuntu 10.04 Lucid 用 2.0.0 版 2013 年 3 月 8 日 目次 1. 動作環境チェック...3 1.1. 動作必要環境...3 2. Java のインストール...3 2.1. Java のインストール...3 3. Firebird のインストール...4 3.1.
Airwave_upgrade.pdf
Aruba Networks 社 Airwave バージョンアップ手順書 複製禁止 取扱注意 平成 25 年 7 月 1 目次 1. はじめに... 3 2. 事前準備... 4 2.1. 準備するもの... 4 2.2. アップグレードパス... 4 2.3. 32BITOS と 64BITOS について... 5 3. 事前作業... 6 3.1. 定期バックアップファイルの取得... 6 3.2.
ServerView ESXi CIM Provider / ServerView RAID Core Provider VMware vSphere ESXi 6.0 インストールガイド
ServerView ESXi CIM Provider / ServerView RAID Core Provider VMware vsphere ESXi 6.0 インストールガイド 2018 年 10 月 9 日富士通株式会社 VMware vsphere ESXi 6.0 をインストールしたサーバを監視 管理する場合 ServerView ESXi CIM Provider / ServerView
SLAMD導入手順
SLAMD 導入手順 2007 年 5 月 日本 LDAP ユーザ会 関口薫 目次 1 はじめに...1 1.1 目的...1 1.2 SLAMD とは...1 1.3 ソフトウェア環境...2 2 LDAP サーバのインストール 設定...2 2.1 SLAMD の設定...2 2.2 OpenLDAP の設定...3 3 SLAMD サーバのインストール 設定...3 3.1 JDK のインストール...3
Oracle Application Server 10g( )インストール手順書
Oracle Application Server 10g (10.1.2) for Microsoft Windows J2EE Oracle Application Server 10g (10.1.2) for Microsoft Windows J2EE and Web Cache...2...3...3...4...6...6...6 OS...9...10...12...13...25...25
Oracle DB RAC with ASM Installation Guide on Linux x86
Oracle Database 11g Release 2 (11.2.0.3) Real Application Clusters インストレーション ガイド Windows x64(64-bit) 版 作成日 : 2012-01-10 更新日 : Version: 1.0 目次 1 はじめに... 3 1.1 対象者... 3 1.2 参考資料... 3 1.3 省略表記... 4 1.4 表記規則...
Red Hat Enterprise Linux 6 Portable SUSE Linux Enterprise Server 9 Portable SUSE Linux Enterprise Server 10 Portable SUSE Linux Enterprise Server 11 P
Dynamic System Analysis (DSA) を使用した稼動システムのインベントリー情報収集について 本文 IBM Dynamic System Analysis (DSA) は サーバーのインベントリ情報を収集し ファイル出力することが可能な診断ツールです 稼動システムのインベントリー情報を収集することで 障害時の問題判別を円滑に実施することができます 以下の IBM の Web サイトから入手することが可能です
目次 1 はじめに 参考資料 省略表記 表記規則 概要 インストール インストール環境と事前準備 ハードウェア要件とメモリーの確認 ネットワーク要件の確認... 8
Oracle Database 12c Release 2 (12.2.0.1) Real Application Clusters インストレーション ガイド Linux x86-64 版 作成日 : 2017-06-19 Version: 1.0-1 - 目次 1 はじめに... 3 1.1 参考資料... 3 1.2 省略表記... 3 1.3 表記規則... 4 2 概要... 5 2.1
RADIUS サーバを使用して NT のパスワード期限切れ機能をサポートするための Cisco VPN 3000 シリーズ コンセントレータの設定
RADIUS サーバを使用して NT のパスワード期限切れ機能をサポートするための Cisco VPN 3000 シリーズコンセントレータの設定 目次 概要前提条件要件使用するコンポーネントネットワーク図 VPN 3000 コンセントレータの設定グループの設定 RADIUS の設定 Cisco Secure NT RADIUS サーバの設定 VPN 3000 コンセントレータ用のエントリの設定 NT
IBM Internet Security Systems NTFS ファイルシステム必須 一覧の 以後にリリースされた Service Pack (Release 2 等は除く ) は特に記載の無い限りサポートいたします メモリ 最小要件 512MB 推奨要件 1GB 最小要件 9GB 推奨要件
SiteProtector 2.0 Service Pack 9.0 システム要件 2012 年 2 月 13 日 SiteProtector 2.0 Service Pack 9.0 システム要件... 1 Service Pack 9.0 - SiteProtector システム要件... 1 Service Pack 9.0 仮想環境... 1 Deployment Manager のインストール要件...
intra-mart Accel Platform
セットアップガイド (WebSphere 編 ) 第 4 版 2014-01-01 1 目次 intra-mart Accel Platform 改訂情報 はじめに 本書の目的 前提条件 対象読者 各種インストール 設定変更 intra-mart Accel Platform 構成ファイルの作成 WebSphereの設定 Java VM 引数の設定 トランザクション タイムアウトの設定 データベース接続の設定
<MW-400k > InterSec/MW400k アップデート適用手順書 2017 年 8 月 1 版
InterSec/MW400k アップデート適用手順書 2017 年 8 月 1 版 改版履歴 版数 改版日付 内容 1 2017 年 8 月 新規作成 - 2 - 目次 商標について... - 4 - はじめに... - 5 - アップデートモジュール適用時の注意 制限事項...- 6 - スタンドアロン構成...- 6 - フェイルオーバクラスタ構成...- 7-1.
Veritas System Recovery 16 Management Solution Readme
Veritas System Recovery 16 Management Solution Readme この README について Veritas System Recovery 16 のソフトウェア配信ポリシーのシステム要件 Veritas System Recovery 16 Management Solution のシステム要件 Veritas System Recovery 16 Management
インテル® Parallel Studio XE 2019 Composer Edition for Fortran Windows : インストール・ガイド
インテル Parallel Studio XE 2019 Composer Edition for Fortran Windows インストール ガイド エクセルソフト株式会社 Version 1.0.0-20180918 目次 1. はじめに....................................................................................
Microsoft Word - nvsi_090200jp_r1_nvbsvr_mscs.doc
Article ID: NVSI-090200JP_R1 Created: 2010/2/4 Revised: 2010/9/17 NetVault Backup サーバと Windows Server 2008 / フェールオーバークラスタとの統合 1. 検証目的 Windows Server 2008 では アプリケーションの可用性を高めるフェールオーバークラスタ機能を提供しています 本検証では
Microsoft Word - Win-Outlook.docx
Microsoft Office Outlook での設定方法 (IMAP および POP 編 ) How to set up with Microsoft Office Outlook (IMAP and POP) 0. 事前に https://office365.iii.kyushu-u.ac.jp/login からサインインし 以下の手順で自分の基本アドレスをメモしておいてください Sign
ADempiere (3.5)
ADempiere (3.5) インストールマニュアル ADempiere Community Contents 改定履歴... 3 1 はじめに... 4 2 動作環境... 4 3 事前準備... 5 3.1 Java JDK のセットアップ... 5 3.1.1 Java JDK のダウンロード... 5 3.1.2 Java JDK のインストール... 5 3.1.1 Java JDK のパス設定...
Oracle Application Server 10g (9.0.4) for Linux x86 インストール手順 - J2EE実行環境編
Oracle Application Server 10g Release 2 (10.1.2) for Linux x86 J2EE Oracle Application Server 10g Release 2 (10.1.2) for Linux J2EE and Web Cache J2EE Oracle Application Server 10g Release 2 (10.1.2) J2EE
NSR-500 Create DVD Installer Procedures
Creating NSR-500 DVD Installer Overview This document describes how to create DVD installer for the NSR-500 series. Applicable Model NSR-500 Series To be required * Windows (XP, Vista or 7) installed PC
はじめに このドキュメントではftServerに関する障害調査を行う際に 必要となるログ データの取得方法を説明しています ログ データの取得には 初期解析用のデータの取得方法と 詳細な調査を行うときのデータ取得方法があります 特別な理由でOS 側のログが必要となった場合には RHELログの取得につ
ftserver におけるログ取得手順 (Linux 編 ) Rev 0.5: 2017/06/08 1 はじめに このドキュメントではftServerに関する障害調査を行う際に 必要となるログ データの取得方法を説明しています ログ データの取得には 初期解析用のデータの取得方法と 詳細な調査を行うときのデータ取得方法があります 特別な理由でOS 側のログが必要となった場合には RHELログの取得について
ドライバインストールガイド
PRIMERGY Single Port ファイバーチャネルカード (8Gbps) Dual Port ファイバーチャネルカード (8Gbps) (PG-FC205/PG-FC205L) (PG-FC206/PG-FC206L) CA092276-8938-01 ドライバインストールガイド i 目次 1. ドライバのインストール / アンインストール方法... 3 1.1. ドライバのダウンロード
Microsoft Word - 01-RAC11gR2_for_HPUX-overview.doc
Oracle Database 11g Release 2 Oracle RAC 11g Release 2 for HP-UX Itanium Copyright 2010. Oracle. All Rights Reserved. HP IT Oracle GRID Center Oracle GRID Center HP Oracle IT IT HP 28 14 Oracle Database
SAMBA Stunnel(Windows) 編 1. インストール 1 セキュア SAMBA の URL にアクセスし ログインを行います xxx 部分は会社様によって異なります xxxxx 2 Windows 版ダウンロード ボ
操作ガイド Ver.2.3 目次 1. インストール... - 2-2. SAMBA Stunnel 利用... - 8-2.1. 接続確認... - 8-2.2. 編集... - 11-2.3. インポート... - 14-2.4. 削除... - 15-2.5 フォルダショートカットの作成... - 16-3. 動作環境... - 18-4. 参考資料 ( 接続状況が不安定な場合の対処方法について
MENU 키를 누르면 아래의 화면이 나타납니다
Stand-Alone Digital Video Recorder Advanced MPEG-4 DVR 16 Channel Models クライアントソフト 再インストールマニュアル くまざわ書店専用 日本語版 1 V1.07-n307 This document contains preliminary information and subject to change without notice.
Red Hat Enterprise Linuxのcron(8)デーモンにデフォルト定義されたtmpwatch命令の動作による、WebOTXのトラブル対処方法
Red Hat Enterprise Linux の cron(8) デーモンにデフォルト定義された tmpwatch 命令の動作による WebOTX のトラブル対処方法 2009 年 2 月 NEC 第二システムソフトウェア事業部 1. 概要 Red Hat Enterprise Linux では OS インストール後の初期状態において cron(8) デーモンによって実行される命令が複数定義されます
RICOH Device Manager Pro バックアップ/バージョンアップ作業手順書
RICOH Device Manager Pro バックアップ / バージョンアップ作業手順書 1. 概要 本手順書は DeviceManagerPro 機器アドレス帳データ確認用ツール操作手順書.pdf での作業を実施する前に実施する RICOH Device Manager Pro( 以降 DMPro と表現 ) のバージョンアップとそれに伴うバックアップの作業手順を記載した手順書です page
System Monitoring Plug-in for NEC Storage
Oracle Enterprise Manager Cloud Control NEC Storage Plug-in 概要 IT システムが社会に浸透しインフラストラクチャとして重要な役割を担う時代にいたり その性能を保つということがシステム管理者として非常に重要なことになっています その中でもストレージシステムはシステムにおける最終的なデータストアとして その入出力の性能がシステム全体の性能に大きな影響を及ぼします
— intra-mart Accel Platform セットアップガイド (WebSphere編) 第7版
Copyright 2013 NTT DATA INTRAMART CORPORATION 1 Top 目次 intra-mart Accel Platform セットアップガイド (WebSphere 編 ) 第 7 版 2016-12-01 改訂情報はじめに本書の目的前提条件対象読者各種インストール 設定変更 intra-mart Accel Platform 構成ファイルの作成 WebSphereの設定
2. インストールの方法 インストールの手順は まずインストーラーをサイトからダウンロードし イールドブック カリキュレーターと Java Web Start をインストールします 次にイールドブック カリキュレーターを起動してサーバー接続し Java のファイルをダウンロードします 以下の手順に従
The Yield Book Calculator インストールガイド 本ガイドの内容 1. 必要システム. 1 2. インストールの方法. 2 3. Java Web Start / Java Runtime Environment (JRE). 8 4. プロキシの設定. 9 5. 言語の設定. 10 6. アンインストールの方法. 11 1.. 必要システム イールドブック カリキュレーターのインストールと動作に必要なシステムは以下のとおりです
GHS混合物分類判定システムインストールマニュアル
GHS 混合物分類判定システムインストールマニュアル ~ ダウンロード版 ~ Ver.3.0 目次 1 はじめに... 1 1.1 目的... 1 1.2 本手順書について... 1 1.3 動作環境... 2 2 インストール... 3 2.1 Windows 8(8.1) Windows10 のセットアップ事前準備... 3 2.2 セットアップツールの実行... 5 2.3 必須コンポーネント...
任意の間隔での FTP 画像送信イベントの設定方法 はじめに 本ドキュメントでは AXIS ネットワークカメラ / ビデオエンコーダにおいて任意の間隔で画像を FTP サー バーへ送信するイベントの設定手順を説明します 設定手順手順 1:AXIS ネットワークカメラ / ビデオエンコーダの設定ページ
はじめに 本ドキュメントでは AXIS ネットワークカメラ / ビデオエンコーダにおいて任意の間隔で画像を FTP サー バーへ送信するイベントの設定手順を説明します 設定手順手順 1:AXIS ネットワークカメラ / ビデオエンコーダの設定ページにアクセスする 1.Web ブラウザを起動します FW v6.50 以下の場合は Internet Explorer を FW v7.10 以降の場合は
手順書
財務応援 Ai システム Windows 7 へのセットアップ手順 Windows 7 に 財務応援 Ai システム をセットアップする場合の手順について説明します なお Windows 7 で財務応援 Ai 企業会計 / 公益法人会計 / 社会福祉法人会計 / 医療会計を使用する場合 以下の条件があります 財務応援 Ai システムが Ver.3.0 以降であること データベースが SQL Server
PostgreSQL Plus 管理者ガイド
2.4 旧バージョンからの移行 ここでは PostgreSQL Plus V1.0 および V1.1 から PostgreSQL Plus V2.0 にインスタンスの資産 を移行する手順について説明します PostgreSQL Plus V1.0 および V1.1 は PostgreSQL 7.3 をベースとしています また PostgreSQL Plus V2.0 は PostgreSQL 7.4
『テクノス』V2プログラムインストール説明書
土木積算システム テクノス V2 プログラム インストール説明書 ( 第 3 版 ) 目 次 1. テクノス V2 プログラム インストールの概要...3 2. テクノス V2 のプログラム ドライバ インストール...4 3. テクノス V2 の初期起動...10 4. アンインストール...11 5. 補足 ( 動作環境 )...11 2. 1. テクノス V2 プログラム インストールの概要
DB12.1.0.2 Oracle Single Database Installation Guide for Linux x86-64
Oracle Database 12c Release 1 (12.1.0.2) Oracle Single Instance インストレーション ガイド Linux x86-64 版 作 成 日 : 2014-09- 18 Version: 1.0-1 - 目 次 1 はじめに... 3 1.1 参 考 資 料... 3 1.2 省 略 表 記... 3 1.3 表 記 規 則... 3 2 概
MF mypresto インストールガイド 目次 新規インストールの手順 (Windows 版 )... 2 MF mypresto の起動 (Windows 版 )... 7 新規インストールの手順 (Mac 版 )... 8 MF mypresto の起動 (Mac 版 ) 新規イン
MF mypresto インストールガイド 目次 新規インストールの手順 (Windows 版 )... 2 MF mypresto の起動 (Windows 版 )... 7 新規インストールの手順 (Mac 版 )... 8 MF mypresto の起動 (Mac 版 )... 11 新規インストールの手順 (CentOS 版 )... 12 MF mypresto の起動 (CentOS 版
アーカイブ機能インストールマニュアル
Microsoft SQL Server 2005 SQL Server Management Studio データベースバックアップ設定マニュアル 1. 注意事項... 1 2.SQL Server 2005 Integration Services (SSIS) インストール... 2 3. データベースのバックアッププラン作成方法... 3 4. データベースのバックアップ...
SAMBA Stunnel(Mac) 編 1. インストール 1 セキュア SAMBA の URL にアクセスし ログインを行います xxxxx 部分は会社様によって異なります xxxxx 2 Mac OS 版ダウンロー
操作ガイド Ver.2.3 目次 1. インストール... - 2-2. SAMBA Stunnel 利用... - 5-2.1. 接続確認... - 5-2.2. 編集... - 9-2.3. インポート... - 12-2.4. 削除... - 14-3. 動作環境... - 15-4. 参考資料 ( 接続状況が不安定な場合の対処方法について )... - 16-4.1. サービスの再起動...
目次 1. はじめに 本文書の目的 前提条件 略語 事前準備 ホスト名の名前解決 Linux 版パッケージ システム要件 ソフトウェア要件 パッケージ構成
OpenAM 11 インストールガイド オープンソース ソリューション テクノロジ ( 株 ) 作成日 : 更新日 : 2013 年 12 月 26 日 2018 年 10 月 15 日 リビジョン : 1.7 目次 1. はじめに 1 1.1 本文書の目的...1 1.2 前提条件...1 1.3 略語...1 2. 事前準備 2 2.1 ホスト名の名前解決...2 3. Linux 版パッケージ
Microsoft Word - SSI_Smart-Trading_QA_ja_ doc
サイゴン証券会社 (SSI) SSI Smarttrading の設定に関する Q&A 06-2009 Q&A リスト 1. Q1 http://smarttrading.ssi.com.vn へアクセスしましたが 黒い画面になり X のマークが左上に出ている A1 原因はまだ設定していない アドミニストレータで設定しない あるいは自動設定プログラムがお客様の PC に適合しないと考えられます 解決方法アドミニストレータの権限のユーザーでログインし
Oracle Real Application Clusters 10g: 第4世代
Oracle Real Application Clusters 10g: Angelo Pruscino, Oracle Gordon Smith, Oracle Oracle Real Application Clusters RAC 10g Oracle RAC 10g Oracle Database 10g Oracle RAC 10g 4 Oracle Database 10g Oracle
Symantec AntiVirus の設定
CHAPTER 29 Symantec AntiVirus エージェントを MARS でレポートデバイスとしてイネーブルにするためには Symantec System Center コンソールをレポートデバイスとして指定する必要があります Symantec System Center コンソールはモニタ対象の AV エージェントからアラートを受信し このアラートを SNMP 通知として MARS に転送します
第 3 章 メディア障害とバックアップ リカバリ この章では メディア障害の発生に備えたバックアップ方法と 障害時の基本的なリカバリ方法につい て説明します 1. メディア リカバリ概要 2. ファイルの多重化 3. アーカイブ モードの設定 4. バックアップ概要 5. 一貫性バックアップ ( オ
はじめに コース概要と目的 データベースのバックアップの取得方法 障害発生時のリカバリ方法について習得します 受講対象者 データベース管理者の方 前提条件 データベース アーキテクチャ および データベース マネジメント コースを受講された方 または 同等の知識をお持ちの方 テキスト内の記述について 構文 [ ] 省略可能 { A B } A または B のどちらかを選択 n _ 数値の指定 デフォルト値
MIRACLE System Savior操作手順書
バックアップ / リストア作業手順書 Copyright 2000-2013 MIRACLE LINUX CORPORATION All rights reserved Ver.1.1 変更履歴日付 作成者 Revision 対象 変更内容 2013/07/02 青山雄一 1.0 全体 初版作成 2013/12/27 青山雄一 1.1 全体 V2R4 対応 Copyright 2000-2013 MIRACLE
