Oracle Solaris Legacy Containers 構築・運用手順書

Size: px
Start display at page:

Download "Oracle Solaris Legacy Containers 構築・運用手順書"

Transcription

1 Oracle Solaris Legacy Containers 構築 運用手順書 2013 年 12 月 第 1.1 版 富士通株式会社

2 使用条件 著作権 商標権 その他の知的財産権についてコンテンツ ( 文書 画像 音声等 ) は 著作権 商標権 その他の知的財産権で保護されています 本コンテンツは 個人的に使用する範囲でプリントアウトまたはダウンロードできます ただし これ以外の利用 ( ご自分のページへの再利用や他のサーバへのアップロード等 ) については 当社または権利者の許諾が必要となります 保証の制限本コンテンツについて 当社は その正確性 商品性 ご利用目的への適合性等に関して保証するものではなく そのご利用により生じた損害について 当社は法律上のいかなる責任も負いかねます 本コンテンツは 予告なく変更 廃止されることがあります 商標について UNIX は 米国およびその他の国におけるオープン グループの登録商標です SPARC Enterprise SPARC64 およびすべての SPARC 商標は 米国 SPARC International, Inc. のライセンスを受 けて使用している 同社の米国およびその他の国における商標または登録商標です Oracle と Java は Oracle Corporation およびその子会社 関連会社の米国およびその他の国における登録商標 です その他各種製品名は 各社の製品名称 商標または登録商標です i

3 はじめに 本書の内容 本書は Oracle Solaris Legacy Containers の構築 運用を目的に 物理サーバから仮想サーバへの移行 および移行後の運用 管理を解説しています Oracle Solaris Legacy Containers を構築 運用する場合は 事前に必ず以下の Oracle Solaris ゾーン関連のドキュメントをご一読ください 富士通 SPARC Enterprise: 技術情報 Technical Park - Oracle Solaris コンテナを使ってみよう オラクル社ドキュメント - Solaris Containers - FAQs for Solaris 8 Containers and Solaris 9 Containers - Solaris 8 Containers ( マニュアル ) - Solaris 9 Containers ( マニュアル ) 留意事項 本書では Oracle Solaris を Solaris Oracle Solaris Legacy Containers を OSLC と記載することがあります ii

4 目 次 1. Oracle Solaris ゾーンへの移行 flarcreate コマンドを用いた移行 flarcreate コマンドの概要 flarcreate コマンドによる移行手順 外付け HDD を含む環境での移行 移行先で別の外付け HDD を使用する場合 移行先で外付け HDD を使用できない場合 物理デバイスを含む環境の移行 参考 フラッシュアーカイブ取得にかかる時間 リソース設定 運用 CPU リソース CPU リソースの概要 リソースプールの設定 専用 CPU(dedicated-cpu) の設定 CPU リソースの管理 運用 メモリリソース メモリリソースの概要 capped-memory の設定 メモリリソースの管理 運用 NIC リソース NIC リソースの概要 NIC の共有設定 NIC の排他設定 NIC リソースの運用 管理 HDD リソース HDD リソースの概要 ZFS でのクォータ管理 HDD リソースの管理 運用 バックアップ リストア バックアップ iii

5 non-global zone のバックアップ リストア non-global zone のリストア 共有デバイスの利用方法 ファイルシステム ディレクトリの共有 Oracle Solaris ゾーンにおけるファイルシステムの概要 ディレクトリ共有の設定手順 リムーバブルメディアの共有 global zone とマウントポイントを共有する non-global zone のディレクトリへマウントする 留意事項 non-global zone を停止できない場合 ホスト ID を変更する場合 マシン名を sun4u や sun4us に変更する方法 コンテナをインストールしたホストと異なるホストでブートする場合 iv

6 1.Oracle Solaris ゾーンへの移行 1-1.flarcreate コマンドを用いた移行 Solaris 8 以降でサポートされる flarcreate コマンドを使用した 移行の手法を以下に示す 注意 flarcreate コマンドは 内部で実行される cpio コマンドの仕様の為 2GB 以上のファイルはアーカイブに含まれず 自動的に除外される ( どのファイルを除外したかメッセージも出力されない ) flarcreate 実行前に 大規模ファイルの有無を確認し 存在する場合は 個別にコピーを実施する必要がある flarcreate コマンドの概要 flarcreate コマンドは 既存の OS 環境からフラッシュアーカイブを作成するコマンドである この flarcreate コマンドを用いて 既存の物理マシン環境を 円滑に移行することが可能である flarcreate コマンドは OS 標準の機能であるため 移行元の環境に特別なパッケージをインストールせずに利用することができる なお作成したフラッシュアーカイブは 万一を考慮して保管しておく事を推奨する flarcreate コマンドによる移行手順 ここでは 以下の構成を想定した場合の移行手順を解説する 移行元 表 1-1. 移行元環境 マシンスペック 機種 PRIMEPOWER 100 CPU UltraSPARC IIe 500MHz 1 メモリ 1024MB HDD 32GB( 実使用量 10GB) OS 環境 OS Solaris 8 2/02 IP アドレス アーカイブ対象 全スライス アーカイブ出力先 /export アーカイブ出力名 s8.flar 1

7 移行先 表 1-2. 移行先環境 マシンスペック 機種 SPARC Enterprise M4000 CPU SPARC64 VII+ 2.66GHz 2 (8 コア 2 スレッド=16 スレッド ) メモリ 8GB HDD 300GB OS 環境 OS Solaris 10 10/08 IP アドレス FTP サーバ サービス稼働中 Solaris 8 コンテナ インストール済み (OS バンドル ) 仮想環境 (zone 設定 ) zone 名 s8zone zone パス /zone/s8zone CPU global zone と共有 メモリ global zone と共有 ネットワークインターフェース global zone と共有 (shared) 構成 図 1-1. 移行環境の構成図 2

8 移行元での作業 1) アーカイブ化されるファイルの容量を確認 Solaris8# df k Filesystem kbytes used avail capacity Mounted on /dev/dsk/c1t0d0s % / /devices % /devices fd % /dev/fd /dev/dsk/c1t0d0s % /var swap % /tmp /dev/dsk/c1t0d0s % /opt /dev/dsk/c1t0d0s % /export 使用しているファイル容量の合計は = KB 約 10GB である アーカイブ化により 1 割程度ファイルサイズが大きくなるため アーカイブファイルの容量は約 11GB と見積もる 本環境の場合 5の /export には約 15GB の空き容量があるので /export をアーカイブファイルの出力先として指定することができる 2) アーカイブファイルの作成 Solaris8# flarcreate -S n s8image c /export/s8.flar -S は事前にアーカイブに必要な容量をチェックするオプション -c は圧縮するオプション -n はアーカイブの説明 ( 名前 ) を記載するオプション 作成したフラッシュアーカイブは 万一を考慮して保管しておく事を推奨する 3) アーカイブファイルを移行先に FTP 転送 移行先の /export ディレクトリ直下に s8.flar というファイル名で転送する 移行先での作業 Solaris 10 10/08 以降は Oracle Solaris Legacy Containers のランタイム環境が OS にバンドルされている Oracle Solaris Legacy Containers ランタイム環境とは Solaris 10 上で Solaris 8 コンテナを稼動させるために必要なコンポーネントである 3

9 Solaris 10 との非互換インタフェースを Oracle Solaris Legacy Containers ランタイム環境が吸収することで バイナリを変更することなく Solaris 10 上で Solaris 8 コンテナが動作する 図 1-2. Oracle Solaris Legacy Containers ランタイム環境 Solaris 8/9 コンテナを構築するためには 以下の移行先の条件を備えている必要がある Solaris 10 10/08 以降 Solaris 10 10/08 以降にバンドルされている Oracle Solaris Legacy Containers を使うためには 以下の鍵開けパッケージをインストールする必要がある Solaris 8 Containers を使用する場合 :SUNWs8brandk Solaris 9 Containers を使用する場合 :SUNWs9brandk パッケージは Oracle 社のソフトウェアダウンロードのページから入手する URL: 4) Solaris の OS バージョンを確認 global-zone# cat /etc/release 5) Solaris8 コンテナのランタイム環境がインストールされていることを確認 global-zone# pkginfo SUNWs8brandr global-zone# pkginfo SUNWs8brandu 4

10 6) 鍵開けパッケージをインストール global-zone# global-zonepkgadd d SUNWs8brandk 7) Solaris 8 の non-global zone を作成 global-zone# zonecfg z s8zone s8zone: そのような構成済み zone はありません 8) zone の種類を Solaris 8 ブランド zone として指定 zonecfg:s8zone > create -t SUNWsolaris8 9) zone パスを指定 zonecfg:s8zone > set zonepath=/zone/s8zone 10) 新規で NIC を追加 zonecfg:s8zone> add net 11) IP アドレス / ネットマスクを指定 zonecfg:s8zone:net > set address= /24 12) 使用する物理 NIC を指定 zonecfg:s8zone:net > set physical=bge0 デフォルトでは物理 NIC の設定は iptype=shared となっている 物理 NIC を non-global zone で占有する場合は iptype=exclusive に変更する 13) ネットワークの設定を終了 zonecfg:s8zone:net > end 5

11 14) 設定した内容を検証 zonecfg:s8zone > verify 15) 設定した内容を確定 zonecfg:s8zone > commit 16) zonecfg を終了 zonecfg:s8zone > exit 17) Solaris 8zone をインストール global-zone# zoneadm -z s8zone install -u -a /export/s8.flar -u オプションを使用すると sys-unconfig が実行され移行元のシステム ID が削除される 移行元のシステム ID をそのまま使用する場合は -u の代わりに -p オプションを指定する -a はアーカイブを指定するオプションである 1-2. 外付け HDD を含む環境での移行 外付け HDD を含む環境での移行に関しては 主に次の 2 つのケースが考えられる 1. 移行先で別の外付け HDD を使用する場合 2. 移行先で外付け HDD を使用できない場合 なお 移行元の外付け HDD は移行先のサーバでサポートされない場合が多いので ここでは記載しない 6

12 移行先で別の外付け HDD を使用する場合 図 1-3. 別の外付け HDD を使用する場合 Oracle Solaris ゾーン上にフラッシュアーカイブを展開して作成した Solaris 8/9 コンテナから 外付け HDD を利用できるように設定する 以下の SAN ストレージを使用している環境においての移行手順について解説する 構成 図 1-4. 移行環境の構成 7

13 移行元 表 1-3. 移行元環境 マシンスペック 機種 PRIMEPOWER 250 CPU SPARC64 V 1.98GHz x1 メモリ 1GB HDD 73GB( 実使用量 10GB) HBA ファイバーチャネルカード (2GBps/PW008FC3) ( 設定済み ) OS 環境 OS Solaris 8 2/02 IP アドレス LUN マウントポイント /lun01( マウント済み ) アーカイブ対象 /lun01 を除外した全スライス アーカイブ出力先 /lun01 アーカイブ出力名 s8.flar 移行先 表 1-4. 移行先環境 マシンスペック機種 SPARC Enterprise M4000 CPU SPARC64 VII+ 2.66GHz 2 (8 コア 2 スレッド=16 スレッド ) メモリ 8GB HDD 300GB HBA シングルチャネル 8Gbps ファイバーチャネルカード (SE0X7F21F) ( 未設定 ) OS 環境 OS Solaris 10 10/08 IP アドレス Solaris8 コンテナインストール済み LUN マウントポイント /lun01( アンマウント状態 ) 仮想環境 (zone 設定 ) zone 名 s8zone 8

14 zone パス CPU メモリネットワークインターフェース LUN マウントポイント /zone/s8zone global zone と共有 global zone と共有 global zone と共有 (shared) /lun01 (/zone/s8zone/root/vol01) SAN ストレージ 表 1-5. SAN ストレージ環境 移行元機種接続方法移行先機種接続方法 ETERNUS4000 FC-AL ETERNUS DX80 S2 FC-AL 移行先では non-global zone に直接 LUN をマウントする 作業概要 図 1-5. 作業概要 9

15 移行元での作業 1) LUN マウントポイントを -x オプションで除外し フラッシュアーカイブを作成 # flarcreate -S -x /lun01 -n s8zone -c /lun01/s8.flar Solaris8 の flarcreate コマンドでは複数のディレクトリを除外指定する事が出来ない 複数のディレクトリを除外指定したい場合 アーカイブに含めない全ディレクトリ ファイルの除外リストを作成し -F オプションで読み込ませる必要がある 作成したフラッシュアーカイブは 万一を考慮して保管しておく事を推奨する 移行先での作業 2) 移行先で SAN ストレージを使用するために HBA ドライバのインストール 設定などを行う 3) global zone にマウントポイントを作成 global-zone# mkdir /lun01 4) format コマンドでディスクデバイス名を確認 [m4000@root]#format Searching for disks...done AVAILABLE DISK SELECTIONS: 0. c0t0d0 1. c3t0d0 5) LUN をマウント global-zone# mount -F ufs /dev/dsk/c3t0d0s0 /lun01 1) でフラッシュアーカイブの出力先として LUN を指定しているため non-global zone をインストールする際 global zone に LUN をマウントしておく必要がある 6) 1) で作成したフラッシュアーカイブを ftp で移行先に転送する 10

16 7) Solaris 8 の non-global zone を作成 global-zone# zonecfg z s8zone s8zone: そのような構成済み zone はありません 8) zone の種類を Solaris 8 ブランド zone として指定 zonecfg:s8zone > create -t SUNWsolaris8 9) zone パスを指定 zonecfg:s8zone > set zonepath=/zone/s8zone 10) 新規で NIC を追加 zonecfg:s8zone> add net 11) IP アドレス / ネットマスクを指定 zonecfg:s8zone:net > set address= /24 12) 使用する物理 NIC を指定 zonecfg:s8zone:net > set physical=bge0 13) 設定を終了 zonecfg: s8zone:net > end zonecfg:s8zone > verify zonecfg:s8zone > commit zonecfg:s8zone > exit 14) Solaris 8 のアーカイブファイルを zone にインストール global-zone# zoneadm -z s8zone install -u -a /lun01/s8.flar -u オプションを使用すると sys-unconfig が実行され移行元のシステム ID が削除される 移行元のシステム ID をそのまま使用する場合は -u の代わりに -p オプションを指定する 11

17 15) global zone で LUN をアンマウント global-zone# umount /lun01 現時点では global zone に LUN をマウントしているため non-global zone にはマウントできない non-global zone のインストールが完了した後に global zone から LUN をアンマウントし non-global zone へマウントする 16) s8zone の設定を編集する # zonecfg z s8zone 17) 新しくデバイスを追加する zonecfg: s8zone > add device 18) デバイスとして LUN を指定する zonecfg: s8zone:device> set match=/dev/dsk/c3t0d0s0 zonecfg: s8zone:device> set match=/dev/rdsk/c3t0d0s0 19) 終了 zonecfg: s8zone:device> end zonecfg: s8zone > verify zonecfg: s8zone > commit zonecfg: s8zone > exit 20) s8zone を起動 global-zone# zoneadm -z s8zone boot 21) s8zonezone へログイン global-zone# zlogin -C s8zone 初めてログインする場合は -C オプションを付けてコンソールに接続する コンソールで初めて接続されると non-global zone は初期化処理を実行する 22) vfstab を編集 s8zone# vi /etc/vfstab /dev/dsk/c3t0d0s0 /dev/rdsk/c3t0d0s0 /lun0 ufs 2 12

18 23) OS 再起動 s8zone# shutdown -y -g0 -i 移行先で外付け HDD を使用できない場合 移行先で外付け HDD を使用できない場合 移行元では exclude(-x) オプションを付けずに flarcreate コマンドを実行して 外付け HDD を含めた全データをアーカイブ化する 図 1-6. HDD を使用できない場合 外付け HDD のデータを含めてアーカイブ化するため アーカイブファイルのサイズが大きくなることが予想される 移行元のローカル HDD の空き容量が不足している場合は NFS などを用いて他のサーバのローカル HDD にアーカイブファイルを出力するなどの 対応が必要である また移行先においても アーカイブファイルの展開に必要な容量をローカル HDD に確保しておく必要がある 1-3. 物理デバイスを含む環境の移行データベースなど特定ディスクを物理 (raw) デバイスとして使用している場合 移行先では別の物理デバイスを使用することになる 移行先の非グローバルゾーンから物理デバイスをアクセスできるよう 事前にグローバルゾーンから zonecfg(1m) を使用してアクセスを許可しておき 移行元の物理デバイスから移行先の物理デバイスに dd(1m) コマンドでデータをコピーする 13

19 1-4. 参考 フラッシュアーカイブ取得にかかる時間 以下の環境でフラッシュアーカイブを取得した場合の時間を 参考として示す ( 本資料の他の環境とはスペック 状態が異なります ) 参考 1 マシンスペック OS Solaris 8 2/02 機種 PRIMEPOWER 200 CPU SPARC64 GP 400MHz 2 メモリ 1024MB 実使用量 ( 実際に利用しているディスク容量 ) 3.7GB フラッシュアーカイブの出力先 ローカルディスク 上記の場合 フラッシュアーカイブ作成 ( 圧縮無し ) に約 15 分かかった 参考 2 Solaris 10 のフラッシュアーカイブ取得時の実績となる アーカイブの出力用に 移行先 Solaris 10( グローバルゾーン ) のローカルディスクを一時的に NFS マウントしている マシンスペック OS Solaris 10 9/10 機種 SPARC Enterprise M3000 CPU SPARC64 VII+ 2.86GHz 2 メモリ 8192MB 実使用量 ( 実際に利用しているディスク容量 ) 113GB フラッシュアーカイブの出力先 NFS マウント先 上記の場合 フラッシュアーカイブ作成 ( 圧縮無し ) に 約 115 分かかった 同条件で 出力先を DAT160 にした場合は DAT の平均書込み速度を 17.0GB/h を仮定した場合 机上では約 400 分掛かる計算になる 実使用量が多い場合は NFS などサーバのディスクをアーカイブ出力先にする事も選択肢の 1 つと考えられる 実際の作業時には フラッシュアーカイブの出力先や フラッシュアーカイブ取得後のデータ転送方法によって 全体の作業時間は異なるので 作業時間の見積もり時には注意が必要である 14

20 2. リソース設定 運用 2-1.CPU リソース CPU リソースの概要 プロセッサセット Oracle Solaris ゾーンでは 1 つの物理 CPU は コア数 スレッド数の仮想 CPU に分割され 各 zone に再分配する たとえば SPARC Enterprise M4000 は プロセッサあたり 4 コア コアあたり 2 スレッドの SPARC64 VII+ プロセッサが最大 4 つ搭載可能である そのため SPARC Enterprise M4000 は 16 コア 2 スレッド= 最大 32 の仮想 CPU を持つ 図 2-1. 仮想 CPU 分割された仮想 CPU はプロセッサセットと呼ばれるグループにまとめられる プロセッサセットでは 仮想 CPU の最小数と最大数を定義することで 負荷に応じたリソースの取得 開放を行う 15

21 図 2-2. プロセッサセット間のリソース移動 Oracle Solaris ゾーンをインストールした直後は pset_default というプロセッサセットのみが存在し 全ての CPU リソースが pset_default に割り当てられている リソースプール プロセッサセットはさらに リソースプールと呼ばれるグループに関連付けされ 各 zone へは リソースプール単位で割り当てられる 1 つのリソースプールを複数の zone に割り当てて共有させることもできるし 1 つのリソースプールを 1 つの zone で占有させることもできる 図 2-3. リソースプールの共有と占有 16

22 リソースプールでは相対的な重要度を定義でき 負荷に応じて重要度の低いリソースプールから 重要度の高いリソースプールへプロセッサセット内のリソースが移動する この機能により 重要度の低いリソースプールを使用している zone で高負荷が発生した場合であっても 重要度の高い zone 重要度の高いプロセスを安定して稼動させることが可能になる 図 2-4. リソースプールの共有と占有 リソースプールの設定 1 つのリソースプールを複数の non-global zone に割り当てることで CPU リソースを共有することができる ここでは リソースプールを構成し zone1(non-global zone) に割当てする手順を解説する 17

23 表 2-1. CPU リソース構成 CPU リソース スケジューリングクラス FSS リソースプール名 pool_1 リソースプールの重要度 2 プロセッサセット名 pset_1 CPU リソースの最小数 2 CPU リソースの最大数 4 1) 現在のデフォルトスケジューリングクラスを確認 global-zone# dispadmin d TS (Time Sharing) 2) デフォルトスケジューリングクラスを FSS に変更 global-zone# dispadmin -d FSS 3) TS スケジューリングクラスで実行されているプロセスを確認 global-zone# ps -efc grep TS 4) 実行中の TS プロセスがある場合は FSS に変更 global-zone# priocntl -s -c FSS -i pid プロセス ID 5) リソースプールサービスを有効化 global-zone# svcadm enable svc:/system/pools:default 6) ダイナミックリソースプールサービスを有効化 global-zone# svcadm enable system/pools/dynamic:default 18

24 7) 定義ファイルの作成 global-zone# pooladm -s 8) リソースプール (pool_1) を作成 global-zone# poolcfg -c 'create pool pool_1' 9) リソースプールの重要度を設定 global-zone# poolcfg -c 'modify pool pool_1(int pool.importance=2)' pool.importance の値が他のリソースプールと同じ もしくは下回っている場合 負荷に応じて他のリソースプールに CPU リソースが移動する場合がある pset_default を含めリソースプールの pool.importance 値は デフォルトで 1 である 10) 最小 CPU 数 =2 最大 CPU 数 =4 のプロセッサセット (pset_1) を作成 global-zone# poolcfg -c 'create pset pset_1(uint pset.min = 2 ; uint pset.max = 4 )' 11) リソースプール (pool_1) にプロセッサセット (pset_1) を対応付け global-zone# poolcfg -c 'associate pool pool_1(pset pset_1)' 12) 定義したリソースプール構成をインスタンス化 global-zone# pooladm -c 13) 現在の動的構成の内容で更新 global-zone# pooladm -s 14) non-global zone のリソース設定を編集 global-zone# zonecfg -z zone1 19

25 15) non-global zone のリソースプールを割り当てる zonecfg: zone1> set pool="pool_1" 16) 設定した内容を検証 zonecfg: zone1> verify 17) 設定した内容を確定 zonecfg: zone1> commit 18) zonecfg を終了 zonecfg: zone1> exit 19) non-global zone を再起動 global-zone# zoneadm -z zone1 reboot zonecfg コマンド等で zone の設定を変更した場合 必ずその zone を再起動する必要がある 13)~18) の手順を複数の non-global zone に対して行うことで 1 つのリソースプールを複数の non-global zone と共有することができる また 1 つのリソースプールを 1 つの non-global zone に割り当てて 排他的にリソースプールを使用することもできる システムの設計ポリシー上 non-global zone に割当てる CPU 数を固定したい場合は ダイナミックリソースプールサービスを無効にして 最小 CPU 数 最大 CPU 数を一致させる 専用 CPU(dedicated-cpu) の設定 Solaris10 8/07 以降で提供された機能 dedicated-cpu を設定することで リソースプールを構成せずに 1つの non-global zone に特定の CPU リソースを専用で割り当てることができる リソースプールとは違い dedicated-cpu では事前にプロセッサセットやリソースプールを構成する必要は無く zone 起動時に自動的に dedicated-cpu のプールが作成される リソースプールと dedicated-cpu は 排他的な機能であるため 同時に構成することは出来ない リソースプールを構成している状態で dedicated-cpu を構成しようとするとエラーが発生する 20

26 zonecfg: zone1> add dedicated-cpu pool プロパティはすでに設定されています 持続的プールには dedicated-cpu 資源との互換性がありません ここでは以下の構成で dedicated-cpu を構成し zone1(non-global zone) に割当てる手順を解説する 表 2-2. dedicated-cpu 構成 dedicated-cpu 設定リソースプールの重要度 2 CPU リソースの最小数 4 CPU リソースの最大数 8 1) 既にリソースプールを構成している場合 リソースプールの設定を解除 global-zone# pooladm -x 2) リソースプールの機能を停止 global-zone# pooladm -d 3) リソースプールの状態を確認 global-zone# pooladm pooladm: プール状態ファイルをオープンできませんでした : 機能がアクティブでありません 4) non-global zone のリソース設定を編集 global-zone# zonecfg -z zone1 5) 既に non-global zone にリソースプールを割り当てている場合は解除 zonecfg: zone1> clear pool 21

27 6) dedicated-cpu を設定 zonecfg: zone1> add dedicated-cpu 7) 最小 CPU 数と最大 CPU 数を設定 zonecfg: zone1:dedicated-cpu> set ncpus=4-8 ncpus 値は範囲で指定することも 絶対値として指定することも出来る 例 :ncpus=4 8) 重要度を設定 zonecfg: zone1:dedicated-cpu> set importance=2 9) 設定を終了 zonecfg: s8zone:net > end zonecfg:s8zone > verify zonecfg:s8zone > commit zonecfg:s8zone > exit 10) non-global zone を再起動 global-zone# zoneadm -z zone1 reboot zonecfg コマンド等で zone の設定を変更した場合 必ずその zone を再起動する必要がある システムの設計ポリシー上 non-global zone に割当てる CPU 数を固定する必要がある場合は dedicated-cpu の ncpus は絶対値を設定すること ( 範囲指定すると CPU 数が変動する可能性がある ) CPU リソースの管理 運用 zone に専用のリソースプールを割り当てている場合でも リソースプール間において負荷に応じたリソースの移動が発生することがある たとえば 以下の構成でリソースプールを構成したとする 22

28 表 2-3. リソースプール構成 プール名 pool name 重要度 pool.importance 仮想 CPU 最小数 pset.min 仮想 CPU 最大数 pset.max pool_ pool_ pool_default pool_1 を使用する zone の負荷が下がった場合 pool_1 で使用されていないリソースは 徐々に pool_default に戻される pool_1 では pset.min=2 と定義しているため どれだけ負荷が下がっても 2 つの CPU リソースは確保している 図 2-5. リソースの返却 また pool_2 を使用する zone の負荷が上がった場合は pool_default の中から空いている CPU リソースが pool_2 へ移動する 23

29 図 2-6. リソースの取得 dedicated-cpu を設定している場合においても デフォルトプールとの間で負荷に応じたリソースの移動は発生する pool.importance および pset.min pset.max の値は CPU リソースの共有 排他制御に関わる設定であり non-global zone に要求されるパフォーマンスや重要度に応じて これらの値を設定する必要がある なお 複数の non-global zone を運用する場合 1 つの zone にリソースを占有させると 他の zone へ大きな影響を与えてしまう場合がある システムの設計ポリシーの観点でシステムを安定稼動させる必要がある場合は ダイナミックリソースサービスを無効とし non-global zone に割当てる CPU 数 (pset.min pset.max ncpus の値 ) を固定して設計する必要がある さらに 各 zone に対する CPU リソースの配分を設計 構築した後も それが正しく反映され 運用上に問題が無いかを確認することが重要である 1)non-global zone が使用するリソースプールを確認する global-zone# zonecfg -z zone1 info pool pool: pool_1 この値が未設定の場合 デフォルトプールが使用される 2) リソースプールとプロセッサセットを確認する global-zone# pooladm system default string system.comment 24

30 int system.version 1 boolean system.bind-default true string system.poold.objectives wt-load ~ 省略 ~ pool pool_1 リソースプール pool_1 の設定 int pool.sys_id 8 boolean pool.active true boolean pool.default false string pool.scheduler FSS int pool.importance 1 string pool.comment uint pool.scm.maxcpushares 4 pset pset_1 << プロセッサセット pset_1 を使用 pset pset_1 プロセッサセット pset_1 の設定 int pset.sys_id 2 boolean pset.default false uint pset.min 2 << 仮想 CPU の最小数 uint pset.max 4 << 仮想 CPU の最大数 string pset.units population uint pset.load 0 uint pset.size 2 << 現在の仮想 CPU の確保数 string pset.comment cpu プロセッサセット pset_1 が使用中の仮想 CPU int cpu.sys_id 7 string cpu.comment string cpu.status on-line cpu int cpu.sys_id 6 string cpu.comment string cpu.status on-line ~ 省略 ~ 25

31 3)global zone から各 zone の CPU 使用率を確認する global-zone# prstat -Z ZONEID NPROC SWAP RSS MEMORY TIME CPU ZONE M 34M 0.9% 5:08:53 12% zone M 1689M 43% 21:15:26 0.3% global M 265M 6.7% 0:47:12 0.0% zone2 3) は zone1 に過度の負荷を掛けた結果である 2) で pset.max 4 と定義しているため zone1 が使用可能な CPU リソースは最大で 4 である 本環境での全体の CPU リソース数は 4 プロセッサ 4 コア 2 スレッド =32 であるため zone1 に過度の負荷を掛けた状態であっても CPU 使用率は 4(zone1 の最大 CPU 数 )/32( 全体の CPU リソース数 )=12.5% を上回ることはない 2-2. メモリリソース メモリリソースの概要 Oracle Solaris ゾーンでは global zone および non-global zone で物理マシン上のメモリリソースは 共有されている プロセスからメモリリソースを要求した時点で空きリソースが存在すれば 即座にプロセスはメモリリソースを確保する CPU リソースとは違い メモリリソースの場合は 重要度を設定したり 特定の zone に対して排他的に割当てを行うことが出来ない 1 つのzone が多くのメモリを占有し リソースが不足している状態で プロセスを実行した場合 そのプロセスはメモリ領域を確保できず 起動に失敗してしまう このような事態を避けるため Oracle Solaris ゾーンには capped-memory と呼ばれる zone 毎にメモリの上限値を設定する機能が実装されている 26

32 図 2-7. capped-memory capped-memory の設定 zone1(non-global zone) に以下の構成で capped-memory を設定する手順について解説する 表 2-4. capped-memory 構成 capped-memory 設定物理 CPU の上限値 SWAP 領域の上限値ロックメモリ 1GB 3GB 100MB 1) 物理マシンに搭載されているメモリ容量を確認 global-zone# prtconf grep Memory Memory size: 3968 Megabytes 2) 共有可能な SWAP 領域を確認 global-zone# swap s 合計 : k バイト割り当て済み k 予約済み = k 使用済み, k 使用可 3) non-global zone のリソース設定を編集 global-zone# zonecfg -z zone1 27

33 4) 新しく資源制御を作成 zonecfg: zone1> add capped-memory 5) 物理メモリの上限を設定 zonecfg: zone1:capped-memory> set physical=1g 6) SWAP 領域の上限を設定 zonecfg: zone1:capped-memory> set swap=3g SWAP 領域の上限設定では 物理メモリと SWAP 領域の合計量の上限値を設定する 上記の場合 SWAP 領域の上限として 3GB を設定しているが 物理メモリの上限が 1GB なので 実際に SWAP 領域として使用できるのは 2GB である この zone において 3GB を超えるメモリ領域を必要とするプロセスは実行することができない 7) ロックメモリを設定 zonecfg: zone1:capped-memory> set locked=100m(*) 物理メモリは mlock(3c) や shmctl(2) にてロックされる この値を設定しない場合 zone でロックできるメモリは無制限 ( 注 1) となる capped-memory physical を設定している場合は その値までロックすることができる デフォルトでは設定無しの状態となっている 注 1:zone で使用するメモリ量を制限する値であるため 必要が無ければ設定は不要である 11) 設定を終了 zonecfg: s8zone:net > end zonecfg:s8zone > verify zonecfg:s8zone > commit zonecfg:s8zone > exit 12) non-global zone を再起動 global-zone# zoneadm -z zone1 reboot 28

34 メモリリソースの管理 運用 capped-memory は メモリ使用量を上限値以内に抑えようとする機能であり 一時的に上限値を上回る場合があるため 注意が必要である たとえば physical=1g swap=3g で capped-memory を設定し 2GB のメモリ領域を必要とするプロセスを実行したとする この場合 一旦は物理メモリ上に 2GB の領域を確保し その後 物理メモリの使用量を上限値である 1GB に抑えるため 2GB のうちの 1GB を SWAP 領域に徐々にページアウトしていく 図 2-8. capped-memory の動き このように capped-memory を設定している環境であっても 一時的に zone が物理メモリを占有してしまうケースが存在する 1 つの zone がメモリリソースを占有しないように swap 値で zone が使用可能なメモリ空間の総容量を指定する必要がある たとえば swap=3g と指定した場合 その zone が使用できるメモリ空間の総容量は 3GB であり この値以上の領域を必要とするプロセスは起動できない CPU リソースが不足している状態でプロセスを起動した場合 そのプロセスは遅延しながらも処理を継続することが可能である しかし メモリリソースが不足している場合は プロセスは起動することが出来ない これは CPU リソースとメモリリソースでの大きな違いである このことを考慮して capped-memory の値を設定する必要がある 各 zone で実行されるプロセスが どのくらいメモリリソースを使用しているかは 以下のコマンドで確認する 29

35 global-zone# prstat Z ZONEID NPROC SWAP RSS MEMORY TIME CPU ZONE M 1544M 39% 11:48:24 0.2% global M 282M 7.1% 0:10:07 0.0% zone M 29M 0.7% 0:00:40 0.0% zone2 2-3.NIC リソース NIC リソースの概要 Oracle Solaris ゾーンでは 1 つの物理 NIC を複数の zone で共有させることができる 物理 NIC を複数の zone で共有する場合 global zone と同じセグメントに non-global zone の IP アドレスを設定することで 物理サーバと同じように TCP/IP で通信できる 図 2-9. NIC の共有設定 物理 NIC を共有している環境において ある zone が大量のトラフィックを消費したとする この場合 物理 NIC がボトルネックとなり 他の zone のパフォーマンスも低下してしまう このように zone がトラフィックを占有することを防ぐためには 各 zone で別々の物理 NIC を割り当てる必要がある 図 NIC の排他設定 30

36 また global zone とは別に non-global zone だけの独立したネットワークを構成することもできる 図 独立したネットワーク NIC の共有設定 以下の構成で zone1(non-global zone) に NIC の共有設定を行う手順について解説する 表 2-5. ネットワーク構成 物理マシン (global zone) NIC( インタフェース名 ) eth0 IP アドレス ネットマスク デフォルトゲートウェイ non-global zone NIC( インタフェース名 ) eth0 (global zone と共有 ) IP アドレス ネットマスク デフォルトゲートウェイ ) non-global zone のリソースを編集 global-zone# zonecfg -z zone1 31

37 2) 新規で NIC を追加 zonecfg:zone1> add net 3) IP アドレス / ネットマスクを指定 zonecfg:zone1:net > set address= /24 4) NIC の共有 / 専有を設定 zonecfg:zone1:net > set ip-type=shared デフォルト設定が shared のため NIC を共有する場合は設定不要 排他したい場合は ip-type=exclusive と設定する 5) 使用する物理 NIC を指定 zonecfg:zone1:net > set physical=eth0 6) 設定を終了 zonecfg: s8zone:net > end zonecfg:s8zone > verify zonecfg:s8zone > commit zonecfg:s8zone > exit 7) non-global zone を再起動 global-zone# zoneadm -z zone1 reboot 8) global zone からネットワークの状態を確認 global-zone# ifconfig a lo0: flags= <up,loopback,running,multicast,ipv4,virtual> mtu 8232 index 1 inet netmask ff lo0:1: flags= <up,loopback,running,multicast,ipv4,virtua L> mtu 8232 index 1 zone s9zone inet netmask ff

38 eth0: flags= <up,broadcast,running,multicast,ipv4> mtu 1500 index 2 inet netmask ffffff00 broadcast ether 0:14:4f:d3:bd:a2 eth0:1: flags= <up,broadcast,running,multicast,ipv4> mtu 1500 index 2 zone zone1 inet netmask ffffff00 broadcast global zone から ifconfig コマンドでネットワークの状態を確認すると 仮想 NIC eth0:1 が追加され zone1 に割り当てられていることが分かる NIC 共有設定の場合 global zone のルーティングテーブルおよびデフォルトルートの設定が non-global zone に継承される このため zonecfg の net リソースには non-global zone のデフォルトゲートウェイを設定するための defrouter プロパティが存在するが 設定する必要はない 以下は zone1 にログインして ルーティングテーブルを表示した結果である zone1# netstat -rn Routing Table: IPv4 Destination Gateway Flags Ref Use Interface default UG 通常 ルーティングテーブルに変更を加える場合は route コマンドを使用するが non-global zone のルーティングテーブルは route コマンドでの編集ができない zone1# route delete / writing to routing socket: Not owner delete net /24: gateway : Not owner non-global zone に global zone とは 別のデフォルトゲートウェイを設定する必要がある場合は ip-type=exclusive にして defrouter プロパティに その値を設定する global-zone# zonecfg -z zone1 zonecfg:zone1> ip-tye=exclusive zonecfg:zone1> add net zonecfg:zone1:net > set address= /24 33

39 zonecfg:zone1:net > set physical=eth1 zonecfg:zone1:net > set defrouter= NIC の排他設定 他の zone に影響されない 安定したネットワークサービスを提供するためには NIC を排他的に zone に割り当てる必要がある ここでは以下の構成で zone1(non-global zone) に NIC の排他設定を行う手順について解説する 表 2-6. ネットワーク構成 物理マシン (global zone) NIC( インタフェース名 ) eth0 IP アドレス ネットマスク デフォルトゲートウェイ non-global zone NIC( インタフェース名 ) eth1 IP アドレス ネットマスク デフォルトゲートウェイ 上記は 物理マシンに 2 枚の NIC を搭載していることを想定している NIC を排他的に non-global zone に割り当てる場合 zone で使用する NIC eth1 は global zone 上で非活性にしておき non-global zone で活性化する必要がある 1) global zone でインタフェースの状態を確認 global-zone# ifconfig a lo0: flags= <up,loopback,running,multicast,ipv4,virtual> mtu 8232 index 1 inet netmask ff eth0: flags= <broadcast,running,multicast,ipv4> mtu 1500 index 3 inet netmask ffffff00 broadcast ether 0:14:4f:d3:bd:a0 eth1: flags= <up,broadcast,running,multicast,ipv4> mtu 1500 index 2 inet netmask 0 broadcast ether 0:14:4f:d3:bd:a2 34

40 2) global zone で NIC が活性化されている場合は 非活性にする global-zone# ifconfig eth1 unplumb 3) non-global zone のリソースを編集 global-zone# zonecfg -z zone1 4) IP タイプを排他に変更 zonecfg:zone1>set ip-type=exclusive 5) 新規で NIC を追加 zonecfg:zone1> add net 6) 使用する物理 NIC を指定 zonecfg:zone1:net > set physical=eth1 ここで非活性化されている物理 NIC を指定する 7) デフォルトゲートウェイを設定 zonecfg:zone1:net > set defrouter= ) 設定を終了 zonecfg: zone1:net> end 9) 設定した内容を検証 zonecfg: zone1> verify 10) 設定した内容を確定 zonecfg: zone1> commit 35

41 11) zonecfg を終了 zonecfg: zone1> exit 12) non-global zone にログイン global-zone# zlogin zone1 [zone ' zone1' pts/2 に接続されました ] Last login: Thu Dec 4 18:22:13 on pts/2 Sun Microsystems Inc. SunOS 5.9 Generic May ) non-global zone でインタフェースと NIC を関連付け zone1# ifconfig eth1 plumb 14) IP アドレスを設定 zone1# vi /etc/hostname.eth ) ネットマスクを設定 zone1# vi /etc/netmasks ) デフォルトゲートウェイを指定 zone1# vi /etc/defaultrouter ) non-global zone からログアウト zone1# exit [zone 'zone1' pts/2 への接続が閉じられました ] 36

42 18) non-global zone を再起動 global-zone# zoneadm -z zone1 reboot NIC リソースの運用 管理 各 zone の CPU メモリ使用率は prstat コマンドでの監視が可能であるが NIC の場合は 各 zone におけるトラフィックの使用率を監視するコマンドは用意されていない netstat コマンドでインタフェース毎のトラフィックは監視できるが 複数の zone で NIC を共有している場合 どの zone がトラフィックを占有しているか判断できない netstat コマンドでのトラフィック監視 global-zone# netstat i Name Mtu Net/Dest Address Ipkts Ierrs Opkts Oerrs Collis Queue lo loopback localhost eth global global また non-global zone に対して NIC の排他設定を行った場合 global zone から netstat コマンドや ifconfig コマンドを実行してもインタフェースは表示されない global-zone# ifconfig a lo0: flags= <up,loopback,running,multicast,ipv4,virtual> mtu 8232 index 1 inet netmask ff Eth0: flags= <broadcast,running,multicast,ipv4> mtu 1500 index 3 inet netmask ffffff00 broadcast ether 0:14:4f:d3:bd:a0 この状態で non-global zone のトラフィックを監視するには 以下のコマンドを non-global zone にログインして実行する必要がある 37

43 NIC の排他設定を行った non-global zone でトラフィック監視 zone1# netstat i Name Mtu Net/Dest Address Ipkts Ierrs Opkts Oerrs Collis Queue lo loopback localhost e1000g zone1 zone HDD リソース HDD リソースの概要 Oracle Solaris ゾーンでは non-global zone の固有ディレクトリは zone パスとして任意のディレクトリに配置される 図 Oracle Solaris ゾーンのディレクトリ構成 もし / と同じスライス上に non-global zone を配置した場合 global zone と non-global zone はディスク領域を共有していることになる このような構成の場合 non-global zone でのディスク領域の消費が global zone のシステム停止を引き起こす可能性がある そのため non-global zone の固有ディレクトリは / とは別のスライス上に配置することが望ましい / とは別のスライス上に zone 用のディレクトリを配置 38

44 global zone# df -h ファイルシステム サイズ使用済み使用可能容量 マウント先 /dev/dsk/c1t0d0s0 6.3G 5.6G 609M 91% / /dev/dsk/c1t1d0s0 135G 34G 99G 26% /zone 上記構成のように / とは別のスライス上に /zone を作成し /zone 配下に non-global zone を構築すれば non-global zone によるディスク領域の消費が global zone に影響することはない しかし /zone 配下に複数の non-global zone を構築した場合は 1 つの non-global zone による領域の消費が 他の zone へ影響をおよぼす可能性がある このような事態を避けるために zone 毎に異なるスライスを使用するか ZFS を用いてクォータ管理を行う必要がある ZFS でのクォータ管理 各 zone が使用する CPU やメモリなどのハードウェアリソースの使用量を制限する機能が提供されているが HDD に関しては zone 毎に使用量を制限することが出来ない しかし Oracle Solaris 10 で新たにサポートされたファイルシステム ZFS を用いれば HDD の使用量をフォルダ単位で制限することができる ZFS 上に non-global zone の固有ディレクトリを配置することで 各 zone が使用する HDD 使用量を制限できる 手順としては まず ZFS でフォーマットしたスライスを /zone にマウントする そして non-global zone の固有ディレクトリを /zone 配下に配置し 各ディレクトリのサイズを制限する 1) HDD のスライス情報を確認 global zone# format Searching for disks...done 39

45 2) c0t1d0 を ZFS 用に使用する AVAILABLE DISK SELECTIONS: 0. c0t0d0 <sfdsk type1.0; SUN72G cyl alt 2 hd 24 sec 424> /pci@780/pci@0/pci@9/scsi@0/sd@0,0 1. c0t1d0 <sfdsk type1.0; SUN72G cyl alt 2 hd 24 sec 424> /pci@780/pci@0/pci@9/scsi@0/sd@1,0 Specify disk (enter its number): 1 selecting c0t1d0 [disk formatted] 3) パーティションを表示 format> p partition> p Current partition table (original): Total disk cylinders available: (reserved cylinders) Part Tag Flag Cylinders Size Blocks 0 unassigned wm GB (14087/0/0) unassigned wm 0 0 (0/0/0) 0 2 unassigned wm 0 0 (0/0/0) 0 3 unassigned wm 0 0 (0/0/0) 0 4 unassigned wm 0 0 (0/0/0) 0 5 unassigned wm 0 0 (0/0/0) 0 6 unassigned wm 0 0 (0/0/0) 0 7 unassigned wm 0 0 (0/0/0) 0 スライス 0 を割り当てる 4) format を終了 partition> q format> q 5) ZFS コマンドで c0t1d0s0 を zfs-vol という ZFS プールを作成し割り当てる global zone# zpool create -f zfs-vol c0t1d0s0 40

46 6) df コマンドで確認 global zone# df -h ファイルシステム サイズ使用済み使用可能容量 マウント先 /dev/dsk/c0t0d0s0 67G 2.1G 65G 4% / zfs-vol 67G 1K 67G 1% /zfs-vol zfs-vol という ZFS プールが /zfs-vol としてマウントされている zfs-vol プールを作成後 / zfs-vol/zone/sol8-zone という ZFS フォルダを作成しようとした場合 以下のエラーが発生するが これは / zfs-vol/zone/ という親フォルダが存在していないためである global zone# zfs create zfs-vol/zone/sol8-zone cannot create 'zfs-vol/zone/sol8-zone': parent does not exist 7) /zone/sol8-zone を作成し df コマンドで確認 global zone# zfs create zfs-vol/sol8-zone global zone# df -h Filesystem size used avail capacity Mounted on /dev/dsk/c0t0d0s0 67G 2.1G 65G 4% / zfs-vol 67G 18K 67G 1% /zfs-vol zfs-vol/sol8-zone 67G 18K 67G 1% /zfs-vol/sol8-zone 8) ZFS プールの一覧を確認 global zone# zpool list NAME SIZE USED AVAIL CAP HEALTH ALTROOT zfs-vol 68G 142K 68.0G 0% ONLINE - 9) sol9-zone という ZFS フォルダを作成 ( このフォルダに対して制限を行う ) global zone# zfs create zfs-vol/sol9-zone global zone# df -h ファイルシステム サイズ使用済み使用可能容量 マウント先 /dev/dsk/c0t0d0s0 67G 2.1G 65G 4% / zfs-vol 67G 18K 67G 1% /zfs-vol zfs-vol/sol8-zone 67G 18K 67G 1% /zfs-vol/sol8-zone zfs-vol/sol9-zone 67G 18K 67G 1% /zfs-vol/sol9-zone zfs create を行うと ZFS プールと同じ容量のディレクトリが表示されるが 容量が増えたわけではない 41

47 10) sol9-zone の使用領域を 10GB に制限 global zone# zfs set quota=10g zfs-vol/sol9-zone global zone# df -h ファイルシステム サイズ使用済み使用可能容量 マウント先 /dev/dsk/c0t0d0s0 67G 2.1G 65G 4% / zfs-vol 67G 21K 67G 1% /zfs-vol zfs-vol/sol8-zone 67G 18K 67G 1% /zfs-vol/sol8-zone zfs-vol/sol9-zone 10G 18K 10G 1% /zfs-vol/sol9-zone sol9-zone で容量が 10GB に減っている事を確認 ZFS 上に non-global zone を構築する際は non-global zone をインストールする前にパーミッションの設定を編集する必要がある ZFS フォルダを作成した直後のパーミッションは以下の通りである global zone# ls -la /zfs-vol/ drwxr-xr-x 2 root root 2 12 月 19 16:37 sol8-zone drwxr-xr-x 4 root root 4 1 月 22 16:40 sol9-zone /zfs-vol/ sol8-zone に所有者グループ その他のユーザーに対して読み取り権 およびアクセス権が与えられている この状態で /zfs-vol/ sol8-zone を zone パスとして non-global zone のインストールを行うと以下のエラーが発生する global zone# zoneadm -z s8zone install -u -a /lun01/s8.flar /zfs-vol/sol9-zone must not be group readable. /zfs-vol/sol9-zone must not be group executable. /zfs-vol/sol9-zone must not be world readable. /zfs-vol/sol9-zone must not be world executable. could not verify zonepath /zfs-vol/sol9-zone because of the above errors. zoneadm: zone s9zone failed to verify この場合 所有者グループ その他のユーザーに対するアクセス権を解除して再度 non-global zone のインストールを行う 42

48 global zone# chmod 700 /zfs-vol/sol8-zone global zone# ls -la /zfs-vol/ drwx root root 2 12 月 19 16:37 sol8-zone drwxr-xr-x 4 root root 4 1 月 22 16:40 sol9-zone HDD リソースの管理 運用 global zone から各 zone のディスク領域の消費量を確認するには df コマンドおよび du コマンドを実行する 1) df コマンドでスライス情報を確認 global-zone# df -h ファイルシステム サイズ使用済み使用可能容量 マウント先 /dev/dsk/c1t0d0s0 6.3G 5.6G 609M 91% / /dev/dsk/c1t1d0s0 135G 34G 99G 26% /zone non-global zone 用である /zone に 135GB の領域があり 内 34GB が使用中 2) du コマンドで各 zone のサイズを確認 global-zone# du -sh /zone/* 32G 2G /zone/s8zone /zone/s9zone /zone のデータ量によっては du コマンドの結果表示に時間が掛かるものの global zone から 各 zone のディスク領域の消費量を把握することが可能である 同様の手順で non-global zone からも 当該 zone のディスク領域の消費量を確認することができる 3) non-global zone へログインし df コマンドでスライス情報を確認 global-zone# zlogin s9zone s9zone# df -h ファイルシステムサイズ使用済み使用可能容量マウント先 /dev/dsk/c1t0d0s0 135G 34G 99G 26% / global zone から見た /zone が non-global zone からは / として表示されている 43

49 4) du コマンドで当該 zone でのディスク使用量を確認 s9zone# du -sh / 2G また ZFS でフォーマットされたスライス上に non-global zone を構築している場合は df コマンドのみで各 zone に割り当てたサイズ 使用量を容易に確認することができる 5) global zone から df コマンドで確認 global-zone# df -h ファイルシステム サイズ使用済み使用可能容量 マウント先 /dev/dsk/c0t0d0s0 67G 5.4G 61G 9% / zfs-vol 67G 22K 65G 1% /zfs-vol zfs-vol/sol8-zone 67G 18K 65G 1% /zfs-vol/sol8-zone zfs-vol/sol9-zone 10G 2.0G 8G 20% /zfs-vol/sol9-zone 6) non-global zone から df コマンドで確認 global-zone# zlogin s9zone s9zone# df -h ファイルシステムサイズ使用済み使用可能容量マウント先 / 10G 2.0G 8G 20% / 44

50 3. バックアップ リストア non-global zone(oslc 環境を含む ) 単体のバックアップ / リストアは 以下の 2 つに関して実施する 実施対象 構成定義 データ本体 情報保存箇所 /etc/zones/ 配下 zonepath 配下 なお 本章では UFS ファイルシステム上に構築した zone のバックアップ リストアについて説明していますが ZFS ファイルシステムにおいても考え方は同じです 3-1. バックアップ non-global zone の構成定義情報とデータ本体部分のバックアップ方法について説明する non-global zone のバックアップ ここでは cpio と ufsdump を使用したバックアップ手順について説明する ufsdump コマンドを使用したバックアップ non-global zone のフルバックアップ手順を以下に示す No 説明 1 non-global zone の状態を確認 2 non-global zone を停止 3 non-global zone の構成定義情報を出力する 4 non-global zone をシステムから切り離す 5 non-global zone をバックアップ 6 切り離した non-global zone をシステムに組み込む 7 non-global zone を起動 1) non-global zone の状態を確認 global-zone# zoneadm list -vc ID NAME STATUS PATH BRAND IP 0 global running / native xxxx 1 zone2 running /zone/zone2 native xxxx 対象の zone 45

51 2) non-global zone を停止 global-zone# zlogin zone2 'shutdown -y -g0 -i0' 3) 停止状態 (installed) になったことを確認 global-zone# zoneadm list -vc ID NAME STATUS PATH BRAND IP 0 global running / native xxxx 1 zone2 installed /zone/zone2 native xxxx 対象の zone 4) non-global zone の構成定義情報を出力する global-zone# zonecfg -z zone2 export > /export/share/zone2.config /export/share/ 配下に zone2.config ファイルとしてバックアップする場合 5) non-global zone をシステムから切り離す global-zone# zoneadm -z zone2 detach また 切り離した後 構成済みの状態 (configured) になることを確認 global-zone# zoneadm list -vc ID NAME STATUS PATH BRAND IP 0 global running / native xxxx 1 zone2 configured /zone/zone2 native xxxx 対象の zone 6) non-global zone をバックアップ global-zone# ufsdump 0f /export/share/zone2.ufsdump /zone/zone2 DUMP: Date of this level 0 dump: Thu Mar 10 19:03: DUMP: Date of last level 0 dump: the epoch DUMP: Dumping /dev/rdsk/c1t1d0s4 (< 機器名 >:/zone) to /export/zone2.ufsdump. DUMP: Mapping (Pass I) [regular files] DUMP: Mapping (Pass II) [directories] DUMP: Writing 32 Kilobyte records DUMP: Estimated blocks ( MB). DUMP: Dumping (Pass III) [directories] 46

52 DUMP: Dumping (Pass IV) [regular files] DUMP: blocks ( MB) on 1 volume at KB/sec DUMP: DUMP IS DONE バックアップ完了 global-zone# 7) 切り離した non-global zone をシステムに組み込む global-zone# zoneadm -z zone2 attach 8) 停止状態 (installed) になったことを確認 global-zone# zoneadm list -vc ID NAME STATUS PATH BRAND IP 0 global running / native xxxx 1 zone2 installed /zone/zone2 native xxxx 対象の zone 9) non-global zone を起動 global-zone# zoneadm -z zone2 boot 10) 起動後 稼働状態 (running) になっていることを確認 global-zone# zoneadm list -vc ID 0 1 NAME global zone2 STATUS running running PATH / /zone/zone2 BRAND native native IP xxxx xxxx 対象の zone cpio コマンドを使用したバックアップ non-global zone のフルバックアップ手順を以下に示す No 説明 1 non-global zone の状態を確認 2 non-global zone を停止する 3 non-global zone の構成定義情報を出力する 4 non-global zone の root ディレクトリへ移動する 5 non-global zone をバックアップする 6 non-global zone を起動する 47

53 1) non-global zone の状態を確認 global-zone# zoneadm list -vc ID NAME STATUS PATH BRAND IP 0 global running / native xxxx 1 zone2 running /zone/zone2 native xxxx 対象の zone 2) non-global zone を停止 global-zone# zlogin zone2 'shutdown -y -g0 -i0' 3) 停止状態 (installed) になったことを確認 global-zone# zoneadm list -vc ID NAME STATUS PATH BRAND IP 0 global running / native xxxx 1 zone2 installed /zone/zone2 native xxxx 対象の zone 4) non-global zone の構成定義情報を出力する global-zone# zonecfg -z zone2 export > /export/share/zone2.config /export/share/ 配下に zone2.config ファイルとしてバックアップする場合 5) non-global zone の root ディレクトリへ移動する global-zone# cd /zone/zone2/root 6) non-global zone をバックアップする global-zone# find. fstype lofs prune o local cpio oc O /export/share/ zone2.cpi -fstype ファイルシステムのタイプを指定するオプション -prune 直前に指定されたディレクトリを無視するオプション -o 複数条件を指定するオプション -local ローカルファイルシステムのみ検索するオプション 48

54 7) non-global zone を起動 global-zone# zoneadm -z zone2 boot 8) 起動後 稼働状態 (running) になっていることを確認 global-zone# zoneadm list -vc ID 0 1 NAME global zone2 STATUS running running PATH / /zone/zone2 BRAND native native IP xxxx xxxx 対象の zone 3-2. リストア non-global zone の構成定義情報とデータ本体部分のリストア方法について説明する non-global zone のリストア ここでは ufsrestore cpio によるリストア手順について説明する ufsrestore コマンドを使用したリストアここでは ufsrestore コマンドを利用して non-global zone をリストアする手順を解説する その際 以下の点に留意する必要がある ufsrestore コマンドの実行前に non-global zone の構成定義情報 (config ファイル ) をインポートする ufsrestore コマンドで指定できるバックアップファイルは ufsdump コマンドで取得したファイルのみ non-global zone のリストア手順を以下に示す No 説明 1 non-global zone の状態を確認 2 non-global zone を停止 3 non-global zone をアンインストール 4 non-global zone を削除 5 non-global zone の構成定義情報 (config ファイル ) をインポートする 6 作業ディレクトリを non-global zone の先頭パスに変更 7 ufsdump にて取得したバックアップファイルをリストアする 8 non-global zone をシステムに組み込む 9 non-global zone を起動 49

55 1) non-global zone の状態を確認 global-zone# zoneadm list -vc ID NAME STATUS PATH BRAND IP 0 global running / native xxxx 1 zone2 running /zone/zone2 native xxxx 対象の zone 2) non-global zone を停止 global-zone# zlogin zone2 'shutdown -y -g0 -i0' 3) 停止状態 (installed) になったことを確認 global-zone# zoneadm list -vc ID NAME STATUS PATH BRAND IP 0 global running / native xxxx 1 zone2 installed /zone/zone2 native xxxx 対象の zone 4) non-global zone をアンインストール global-zone# zoneadm -z zone2 uninstall zone zone2 を uninstall してよろしいですか (y/[n])? y 5) non-global zone の構成定義情報が古い場合は削除 global-zone# zonecfg -z zone2 delete zone zone2 を削除してよろしいですか (y/[n])? y グローバル zone のフルリストア実施後等 構成定義情報が最新でない場合 6) 4non-global zone の構成定義情報 (config ファイル ) をインポートする global-zone# zonecfg z zone2 f /export/share/zone2.config 5) を実施した場合のみ実施する 7) インポートした non-global zone の状態を確認 global-zone# zoneadm list -vc ID NAME STATUS PATH BRAND IP 0 global running / native xxxx 1 zone2 configured /zone/zone2 native xxxx 対象の zone 50

56 8) 作業ディレクトリを non-global zone の先頭パスに変更 global-zone# cd /zone 9) ufsdump にて取得したバックアップファイルをリストアする global-zone# ufsrestore rf /export/share/zone2.ufsdump 10) non-global zone をシステムに組み込む global-zone# zoneadm -z zone2 attach 11) 停止状態 (installed) になったことを確認 global-zone# zoneadm list -vc ID NAME STATUS PATH BRAND IP 0 global running / native xxxx 1 zone2 installed /zone/zone2 native xxxx 対象の zone 12) non-global zone を起動 global-zone# zoneadm -z zone2 boot 13) 起動後 稼働状態 (running) になったことを確認 global-zone# zoneadm list -vc ID NAME STATUS PATH BRAND IP 0 global running / native xxxx 1 zone2 running /zone/zone2 native xxxx 対象の zone cpio コマンドを使用したリストア ここでは cpio コマンドを利用して non-global zone をリストアする手順を解説する その際 以下の点に留意する必要がある cpio コマンドの実行前に non-global zone の構成定義情報 (config ファイル ) をインポートする 51

57 non-global zone のリストア手順を以下に示す No 説明 1 non-global zone の状態を確認 2 non-global zone を停止 3 non-global zone をアンインストール 4 non-global zone を削除 5 non-global zone の構成定義情報 (config ファイル ) をインポートする 6 cpio にて取得したバックアップファイルをリストアする 7 non-global zone を起動 1) non-global zone の状態を確認 global-zone# zoneadm list -vc ID NAME STATUS PATH BRAND IP 0 global running / native xxxx 1 zone2 running /zone/zone2 native xxxx 対象の zone 2) non-global zone を停止 global-zone# zlogin zone2 'shutdown -y -g0 -i0' 3) 停止状態 (installed) になったことを確認 global-zone# zoneadm list -vc ID 0 1 NAME global zone2 STATUS running installed PATH / /zone/zone2 BRAND native native IP xxxx xxxx 対象の zone 4) non-global zone をアンインストール global-zone# zoneadm -z zone2 uninstall zone zone2 を uninstall してよろしいですか (y/[n])? y 5) non-global zone の構成定義情報が古い場合は削除 global-zone# zonecfg -z zone2 delete zone zone2 を削除してよろしいですか (y/[n])? y global zone のフルリストア実施後等 構成定義情報が最新でない場合 52

58 6) non-global zone の構成定義情報 (config ファイル ) をインポートする global-zone# zonecfg z zone2 f /export/share/zone2.config 5) を実施した場合のみ実施する 7) インポートした non-global zone の状態を確認 global-zone# zoneadm list -vc ID NAME STATUS PATH BRAND IP 0 global running / native xxxx 1 zone2 configured /zone/zone2 native xxxx 対象の zone 8) cpio コマンドで取得したバックアップファイルから non-global zone をインストール global-zone# zoneadm z zone2 install p a /export/zone2/zone2.cpio 9) 停止状態 (installed) になることを確認 global-zone# zoneadm list -vc ID NAME STATUS PATH BRAND IP 0 global running / native xxxx 1 zone2 installed /zone/zone2 native xxxx 対象の zone 10) non-global zone を起動 global-zone# zoneadm -z zone2 boot 11) 稼働状態 (running) になったことを確認 global-zone# zoneadm list -vc ID NAME STATUS PATH BRAND IP 0 global running / native xxxx 1 zone2 running /zone/zone2 native xxxx 対象の zone 53

59 4. 共有デバイスの利用方法 4-1. ファイルシステム ディレクトリの共有 Oracle Solaris ゾーンにおけるファイルシステムの概要 Oracle Solaris ゾーンでは non-global zone は固有ディレクトリのルートディレクトリより上部へアクセスすることができない これは non-global zone 間でのアクセスでも同じであり 一方の non-global zone が他の global zone の固有ディレクトリにアクセスすることはできない 図 4-1. non-global zone は固有ディレクトリ global zone と non-global zone および non-global zone 間でファイルシステム ディレクトリの共有が必要な場合 zonecfg コマンドを用いて設定を行う必要がある ディレクトリ共有の設定手順 ここでは global zone の /export/share ディレクトリを non-global zone と共有する手順について解説する 1) global zone に共有用のディレクトリを作成する global-zone# mkdir /export/share 54

60 2) non-global zone にログイン global-zone# zlogin zone2 [zone ' zone2' pts/2 に接続されました ] Last login: Thu Dec 4 18:22:13 on pts/2 Sun Microsystems Inc. SunOS 5.9 Generic May ) non-global zone にマウントポイントを作成する zone2# mkdir /share パーミッションの問題があるため 必ず non-global zone にログインしてディレクトリ作成する global zone の共有ディレクトリを non-global zone にマウントした場合 位置関係は次のようになる 図 4-2. ディレクトリの位置関係 4) non-global zone からログアウト zone2# exit [zone 'zone2' pts/2 への接続が閉じられました ] 5) zonecfg コマンドで zone2 を編集 global-zone# zonecfg -z zone2 55

61 6) 新規でマウントの設定 zonecfg: zone2>add fs 7) non-global zone 側のマウントポイントを指定 zonecfg: zone2:fs>set dir=/share 8) global zone 側の共有ディレクトリを指定 zonecfg: zone2:fs> set special=/export/share 9) ファイルタイプをループバックファイルシステムとして指定 zonecfg: zone2:fs> set type=lofs 10) 読み書き可能なファイルシステムとして指定 zonecfg: zone2:fs> set options= [rw,nodevices] 11) 設定した内容を確認 zonecfg: zone2:fs>info fs: dir: /share special: /export/share raw が指定されていません type: lofs options: [rw,nodevices] 12) 設定を終了 zonecfg: s8zone:net > end zonecfg:s8zone > verify zonecfg:s8zone > commit zonecfg:s8zone > exit 56

62 13) non-global zone を再起動 global-zone# zoneadm -z zone2 reboot 読み書き可能なディレクトリとして共有している場合 同時書き込みによりファイルに不整合が生じる可能性がある たとえば zone1 の管理者が共有ディレクトリ内のファイルを読み書き可能な状態で開いているとする zone1# vi share.txt "share.txt" 0 行 0 バイト 同じファイルを zone2 の管理者が開く場合も 読み書き可能な状態で開いてしまう zone2# vi share.txt "share.txt" 0 行 0 バイト この場合 両者ともファイルに対する書き込み権を保持しているため 同時に書き込みが可能である zone1 管理者の書き込み "share.txt" 0 行 0 バイト zone2 管理者の書き込み "share.txt" 0 行 0 バイト zone1 zone2 の順序でファイルへの保存を行った場合 最後にファイルを保存した zone2 の管理者の編集内容が反映される zone1# cat share.txt zone2 管理者の書き込み 57

63 また 特定の non-global zone へは読み取り権限のみを付与することも可能である その場合 手順 10) で以下の設定を行う zonecfg: zone2:fs> options= [r,nodevices,ro] 読み取り専用で設定されている状態で non-global zone からファイルの作成 編集を行うと次のメッセージが表示される zone2# touch /share/test.txt touch: cannot change times on /share/test.txt 4-2. リムーバブルメディアの共有 ファイルシステムやディレクトリと同じように CD-ROM などのリムーバブルメディアにおいても zone 間で共有することが可能である リムーバブルメディアを共有する場合 Oracle Solaris ゾーンの仕組み上 いくつかの設定方法が存在する global zone とマウントポイントを共有する mount コマンドで global zone に CD-ROM をマウントし そのマウントポイントを non-global zone と共有することで non-global zone からリムーバブルメディアへの読み書きが可能になる 1) global zone に CD-ROM をマウントする global-zone# mount -F hsfs /dev/dsk/cxtxdxsx /cdrom 2) non-global zone にログイン global-zone# zlogin zone2 [zone ' zone2' pts/2 に接続されました ] Last login: Thu Dec 4 18:22:13 on pts/2 Sun Microsystems Inc. SunOS 5.9 Generic May

64 3) non-global zone にマウントポイントを作成する zone2# mkdir /mnt/cdrom パーミッションの問題があるため 必ず non-global zone にログインしてディレクトリ作成する 4) non-global zone からログアウト zone2# exit [zone 'zone2' pts/2 への接続が閉じられました ] 5) zonecfg コマンドで zone2 を編集 global-zone# zonecfg -z zone2 6) 新規でマウントの設定 zonecfg: zone2>add fs 7) non-global zone 側のマウントポイントを指定 zonecfg: zone2:fs>set dir=/mnt/cdrom 8) global zone 側のマウントポイントを指定 zonecfg: zone2:fs> set special=/cdrom 9) ファイルタイプをループバックファイルシステムとして指定 zonecfg: zone2:fs> set type=lofs 10) 読み取り専用のファイルシステムとして指定 zonecfg: zone2:fs> options= [r,nodevices,ro] 59

65 11) 設定した内容を確認 zonecfg: zone2:fs>info fs: dir: /mnt/cdrom special: /cdrom raw が指定されていません type: lofs options: [r,nodevices,ro] 12) マウントの設定を終了 zonecfg: zone2:fs>end 13) 設定した内容を検証 zonecfg: zone2> verify 14) 設定した内容を確定 zonecfg: zone2> commit 15) zonecfg を終了 zonecfg: zone2> exit 16) non-global zone を再起動 global-zone# zoneadm -z zone2 reboot 上記手順を複数の non-global zone で行うことで 1 つのリムーバブルメディアを複数の zone で共有することが可能である non-global zone のディレクトリへマウントする 前項の方法でマウント アンマウントを行った場合は 設定を反映させるために non-global zone を再起動させる必要がある 60

66 この他にも global zone からリムーバブルメディアを直接 non-global zone のディレクトリへマウントする方法がある この場合 即座に設定内容が反映されるため zone の再起動は必要ない 1) 現在の global zone でのマウント状態を確認 global-zone# cat /etc/mnttab grep cdrom 2) 既に CD-ROM をマウントしている場合は マウントポイントを解除する global-zone# umount /cdrom 3) non-global zone にログイン global-zone# zlogin zone2 [zone ' zone2' pts/2 に接続されました ] Last login: Thu Dec 4 18:22:13 on pts/2 Sun Microsystems Inc. SunOS 5.9 Generic May ) non-global zone に共有用のディレクトリを作成する zone2# mkdir /mnt/cdrom パーミッションの問題があるため 必ず non-global zone にログインしてディレクトリ作成する 5) non-global zone からログアウト zone2# exit [zone 'zone2' pts/2 への接続が閉じられました ] 6) global zone から non-global zone の領域に CD-ROM をマウント global-zone# mount -F hsfs /dev/dsk/cxtxdxsx /zone/zone2/root/mnt/cdrom 61

67 この方法は zone の再起動を必要としないというメリットがあるが 同時にデメリットもある global zone から直接 non-global zone の固有ディレクトリにマウントしているため マウントポイントに対するアクセス権を保持する zone とのみ共有可能である たとえば 前述の手順のように global zone から zone2 にマウントした場合 global zone と zone2 は CD-ROM を共有しているが その他の zone とは共有することができない 62

68 5. 留意事項 5-1.non-global zone を停止できない場合 global zone から non-global zone の /tmp にアクセスした状態では non-global zone を正常にシャットダウンすることができない これは non-global zone がシャットダウン時に /tmp をクリアしようとするが global zone からのセッションが残っているため /tmp をアンマウントできないことが原因である 1) global zone から non-global zone の /tmp にアクセス global-zone# cd /zone/zone2/root/tmp/ 2) non-global zone の停止コマンドを実行する global-zone# zlogin zone2 'shutdown -y -g0 -i5' 3) non-global zone の状態を確認 global-zone# zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared 13 zone2 down /zone/zone2 solaris9 shared 通常の停止状態は installed であるが シャットダウンのプロセスを正常終了できず down 状態になってしまう この状態では non-global zone を再起動できない global-zone# zoneadm -z zone2 boot zoneadm: zone 'zone2': zone is already booted この場合の対処方法としては 以下の方法が存在する 該当セッションから cd コマンドで別のディレクトリへ移動する 該当セッションを切断する 63

69 該当セッションを操作可能な場合は cd コマンドで別のディレクトリへ移動することで対処できるが どのユーザーのセッションなのか分からない場合は セッションを調べて強制的に切断する必要がある 1) non-global zone の /tmp にアクセスしているセッションを調べる global-zone# fuser -c /zone/zone2/root/tmp/ /zone/zone2/root/tmp: 21255c 2) セッションを切断する global-zone# kill -s ABRT 21255c 3) non-global zone を停止する global-zone# zoneadm -z zone2 halt 4) zone の状態を確認 global-zone# zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared 13 zone2 installed /zone/zone2 solaris9 shared 5) non-global zone を起動する global-zone# zoneadm -z zone2 boot 5-2. ホスト ID を変更する場合 物理サーバから Oracle Solaris ゾーンへ移行した場合 ホスト ID は新しく置き換えられる アプリケーションよっては ホスト ID に依存しているものも存在するため これらのアプリケーションでは ホスト ID の相違により正常に稼動しないこともある このような場合 zonecfg を用いて 移行元のホスト ID を使用するように設定を変更することができる 64

70 1) zone の設定情報を編集 global-zone# zonecfg -z s8zone zonecfg:s8zone> add attr 2) 属性名を hostid に設定 zonecfg:s8zone:attr> set name=hostid 3) type を string に設定 zonecfg:s8zone:attr> set type=string 4) 設定を終了 zonecfg: s8zone:net > end zonecfg:s8zone > verify zonecfg:s8zone > commit zonecfg:s8zone > exit 5-3. マシン名を sun4u や sun4us に変更する方法 Oracle Solaris 10 システムが sun4v マシン上で稼働している場合でも uname コマンドによって返されるマシン名が sun4u となるように設定することができる 1) zone の設定情報を編集 global-zone# zonecfg -z s8zone zonecfg:s8zone> add attr 2) 属性名を machine に設定 zonecfg:s8-zone:attr> set name=machine 3) type を string に設定 zonecfg:s8-zone:attr> set type=string 65

71 4) value を sun4u に設定 zonecfg:s8-zone:attr> set value=sun4u 5) 設定を終了 zonecfg: s8zone:net > end zonecfg:s8zone > verify zonecfg:s8zone > commit zonecfg:s8zone > exit 5-4. コンテナをインストールしたホストと異なるホストでブートする場合 Oracle Solaris Legacy Containers をインストールしたホストと異なるホストで Oracle Solaris Legacy Containers をブートする場合は /usr/lib/brand/solaris8/s8_p2v コマンド /usr/lib/brand/solaris9/s9_p2v コマンドを実行する必要がある 移行前のシステムに最新のパッチが適用できない場合でも 最低限必要となるパッチは /usr/lib/brand/solaris8/s8_p2v コマンド /usr/lib/brand/solaris9/s9_p2v コマンドを実行する際に自動的に適用される /usr/lib/brand/solaris8/s8_p2v 実行時に自動的に適用されるパッチは 以下の通り SunOS 5.8: linker patch SunOS 5.8: /kernel/fs/mntfs and /kernel/fs/sparcv9/mntfs patch SunOS 5.8: /usr/lib/libldap.so.4 patch SunOS 5.8: ptree patch SunOS 5.8: /kernel/fs/autofs and /usr/lib/autofs/automountd patch SunOS 5.8: Patch for sysidnet 上記のパッチのアーカイブは SUNWs8brandk ( 鍵開け ) パッケージをインストールすると 以下のディレクトリに格納される /usr/lib/brand/solaris8/files/patches 66

72 /usr/lib/brand/solaris9/s9_p2v 実行時に自動的に適用されるパッチは 以下の通り SunOS 5.9: ptree Patch SunOS 5.9: linker Patch 上記のパッチのアーカイブは SUNWs9brandk ( 鍵開け ) パッケージをインストールすると 以下のディレクトリに格納される /usr/lib/brand/solaris9/files/patches 67

73 改版履歴 改版日時 版数 改版内容 新規作成 Solaris 10 環境のフラッシュアーカイブ取得時間を追記 68

74

Oracle SolarisにおけるCPUリソースの制限方法

Oracle SolarisにおけるCPUリソースの制限方法 Oracle Solaris における リソースの制限方法 2012 年 11 月第 1.0 版富士通株式会社 はじめに 本書の読み方 本書の内容 Oracle Solaris 環境で利用できるリソースの制限方法を紹介しています アプリケーションのライセンス形態 ( 利用 単位での課金 ) の検討などにご利用ください 本書はOracle Solaris 11 環境を前提に記載しています 留意事項 本書では

More information

Oracle Solarisゾーンによるハード・パーティショニング

Oracle Solarisゾーンによるハード・パーティショニング Oracle ホワイト ペーパー 2014 年 10 月 はじめに このドキュメントでは Oracle Solarisゾーン (Oracle Solarisコンテナとしても知られる ) によるハード パーティショニングを パーティション化された環境向けのオラクル ライセンス ポリシーに準拠するために使用する方法について説明します 以下に説明する承認済みのハード パーティション構成は あらゆるタイプのOracle

More information

Oracle Solaris コンテナを使ってみよう ~構築/運用編~

Oracle Solaris コンテナを使ってみよう ~構築/運用編~ Oracle Solaris コンテナを使ってみよう ~ 構築 / 運用編 ~ 2011 年 10 月 ( 第 2 版 ) 富士通株式会社 はじめに 本書は Oracle Solaris 10 9/10 で提供される機能をベースに作成しています 最新の Oracle Solaris の情報については マニュアルにてご確認ください Oracle Solaris 10 Documentation (Oracle

More information

Oracle Solaris コンテナを使ってみよう (構築・運用手順書)

Oracle Solaris コンテナを使ってみよう (構築・運用手順書) Oracle Solaris コンテナを使ってみよう ( 構築 運用手順書 ) 第 2 版 富士通株式会社 1 All Right Reserved Copyright(C) FUJITSU LIMITED 2011 Oracle Solaris コンテナを使ってみよう ( 構築 運用手順書 ) 本資料について Solais コンテナに関する構築 運用手順を紹介しています 導入 構築ガイド Solaris

More information

CLUSTERPRO MC StorageSaver 2.2 for Linux リリースメモ 2017(Apr) NEC Corporation ライセンス パッケージのインストール セットアップ マニュアル 補足事項 注意事項

CLUSTERPRO MC StorageSaver 2.2 for Linux リリースメモ 2017(Apr) NEC Corporation ライセンス パッケージのインストール セットアップ マニュアル 補足事項 注意事項 リリースメモ 2017(Apr) NEC Corporation ライセンス パッケージのインストール セットアップ マニュアル 補足事項 注意事項 はしがき 本書は ( 以後 StorageSaver と記載します ) の 動作に必要な手順について説明します (1) 商標および登録商標 Red Hat は 米国およびその他の国における Red Hat,Inc. の商標または登録商標です Oracle

More information

Oracle Solarisコンテナを使ってみよう ~概要/設計編~

Oracle Solarisコンテナを使ってみよう ~概要/設計編~ Oracle Solaris コンテナを使ってみよう ~ 概要 / 設計編 ~ 2011 年 10 月 ( 第 2 版 ) 富士通株式会社 はじめに 本書は Oracle Solaris 10 9/10 で提供される機能をベースに作成しています 最新の Oracle Solaris の情報については マニュアルにてご確認ください Oracle Solaris 10 Documentation (Oracle

More information

Solaris 10 10/08 OSにおける統合インストーラの注意事項

Solaris 10 10/08 OSにおける統合インストーラの注意事項 Solaris 10 10/08 OS における統合インストーラの注意事項 Solaris 10 10/08 OSのインストールにおいて 統合インストーラの以下の機能が利用できません また ZFSルートファイルシステムのインストールは未サポートです 1 Solaris OSインストール 2 Solaris OSと製品のインストール 3 製品の追加インストール 4 フラッシュアーカイブを使用したインストール

More information

CLUSTERPRO MC StorageSaver 1.1 for Linux リリースメモ 2015(Jun) NEC Corporation ライセンス パッケージのインストール セットアップ マニュアル 補足事項 注意事項

CLUSTERPRO MC StorageSaver 1.1 for Linux リリースメモ 2015(Jun) NEC Corporation ライセンス パッケージのインストール セットアップ マニュアル 補足事項 注意事項 リリースメモ 2015(Jun) NEC Corporation ライセンス パッケージのインストール セットアップ マニュアル 補足事項 注意事項 はしがき 本書は ( 以後 StorageSaver と記載します ) の 動作に必要な手順について説明します (1) 商標および登録商標 Red Hat は 米国およびその他の国における Red Hat,Inc. の商標または登録商標です SUSE

More information

CLUSTERPRO MC RootDiskMonitor 2.3 for Linux HW-RAID 監視機能 リリースメモ 2018(Jun) NEC Corporation ライセンス パッケージのインストール セットアップ マニュアル

CLUSTERPRO MC RootDiskMonitor 2.3 for Linux HW-RAID 監視機能 リリースメモ 2018(Jun) NEC Corporation ライセンス パッケージのインストール セットアップ マニュアル CLUSTERPRO MC RootDiskMonitor 2.3 for Linux HW-RAID 監視機能 リリースメモ 2018(Jun) NEC Corporation ライセンス パッケージのインストール セットアップ マニュアル はしがき 本書は CLUSTERPRO MC RootDiskMonitor 2.3 for Linux HW-RAID 監視機能 ( 以後 HWRAIDMON

More information

CLUSTERPRO MC RootDiskMonitor 1.1 for Linux リリースメモ 2013(Sep) NEC Corporation ライセンス パッケージのインストール セットアップ マニュアル

CLUSTERPRO MC RootDiskMonitor 1.1 for Linux リリースメモ 2013(Sep) NEC Corporation ライセンス パッケージのインストール セットアップ マニュアル リリースメモ 2013(Sep) NEC Corporation ライセンス パッケージのインストール セットアップ マニュアル はしがき 本書は ( 以後 RootDiskMonitor と記載しま す ) の動作に必要な手順について説明します (1) 商標および登録商標 Red Hat は 米国およびその他の国における Red Hat,Inc. の登録商標または商標です SUSE は 米国およびその他の国における

More information

Microsoft Word - nvsi_050090jp_oracle10g_vlm.doc

Microsoft Word - nvsi_050090jp_oracle10g_vlm.doc Article ID: NVSI-050090JP Created: 2005/04/20 Revised: Oracle Database10g VLM 環境での NetVault 動作検証 1. 検証目的 Linux 上で稼動する Oracle Database10g を大容量メモリ搭載環境で動作させる場合 VLM に対応したシステム設定を行います その環境において NetVault を使用し

More information

CLUSTERPRO MC ProcessSaver 2.1 for Linux リリースメモ 2016(Mar) NEC Corporation ライセンス パッケージのインスト ル セットアップ マニュアル 障害発生時の手順 補足事項 注意事項

CLUSTERPRO MC ProcessSaver 2.1 for Linux リリースメモ 2016(Mar) NEC Corporation ライセンス パッケージのインスト ル セットアップ マニュアル 障害発生時の手順 補足事項 注意事項 リリースメモ 2016(Mar) NEC Corporation ライセンス パッケージのインスト ル セットアップ マニュアル 障害発生時の手順 補足事項 注意事項 改版履歴 版数 改版 内容 1.0 2015.03 新規作成 2.0 2016.03 MC 2.1 に対応 i はしがき 本書は ( 以後 ProcessSaver と記載します ) の 動作に必要な手順について説明します (1) 商標および登録商標

More information

ZFSを使ってみよう~基本編~ - ストレージプールの構成 -

ZFSを使ってみよう~基本編~ - ストレージプールの構成 - 4. ストレージプールの構成 0 ストレージプールの種類 2 種類のストレージプール ストレージプール ルートプール 仮想的なストレージデバイス物理ディスクやパーティション データファイルで構成 OS 起動用のストレージプール 従来のシステムボリュームを構成 (/ swap /usr /var /opt /sbinなど) プール名用途構成タイミング構成可能な RAID レベル備考 ストレージプールユーザ領域の管理適時

More information

Systemwalker Network Assist V10.0/V11.0L10/11.0

Systemwalker Network Assist V10.0/V11.0L10/11.0 Systemwalker Network Assist V10.0/V11.0 ノード定義データ適用ガイド 第 1.4 版 2006 年 02 月 20 日 Microsoft(R) Windows NT(R)/Microsoft(R) Windows(R) 2000/Microsoft(R) Windows Server(TM) 2003 Solaris(TM) Operating System

More information

スライド 1

スライド 1 普通のこと OpenSolaris にとって 普通のこと を 普通に 話してみたいと思います ユーザーズグループの活動の話 勉強会や ML IRC にきてね apache 2.2 # svcadm enable apache22 # svcs -xv apache22 svc:/network/http:apache22 (Apache 2.2 HTTP server) State: online

More information

Microsoft Word - WE-InstMan382J sol.doc

Microsoft Word - WE-InstMan382J sol.doc WebEdge 3.8.2J インストール ガイド マニュアル バージョン 3.8.2 2007 年 12 月 Open Technologies 目次 1. WebEdge 3.8.2 のインストール... 1 1.1 必要とされるシステム... 1 1.1.1 ハードウェア... 1 1.1.2 ソフトウェア... 1 1.1.3 必要とされるプラウザ... 1 1.1.4 必要な設定情報...

More information

Microsoft Word - nvsi_060132jp_datadomain_restoreDRAFT4.doc

Microsoft Word - nvsi_060132jp_datadomain_restoreDRAFT4.doc Article ID: NVSI-060132JP Created: 2006/11/28 Revised: - DataDomain を使用した NetVault Backup VTL レプリケーション環境における複製先からのリストア 1. 概要 NetVault Backup 7.1.2 と DataDomain OS 3.3.2.3-27034 以前の組み合わせで NetVault の仮想テープ

More information

Microsoft Word - nvsi_090196_r1_vaultdr_offline_rhel_dualpath.doc

Microsoft Word - nvsi_090196_r1_vaultdr_offline_rhel_dualpath.doc Article ID: NVSI-090196JP_R1 Created: 2009/08/17 Revised: 2010/07/9 Multipath 構成の RHEL5.3 での VaultDR Offline 追加復旧手順 1. 概要 Multipath 構成の Red Hat Enterprise Linux 5.3 は OS 内部に LUN 固有の ID を含んでいる場合があります その場合

More information

Slide 1

Slide 1 第 91 回夜な夜な! なにわオラクル塾 Oracle Sun 第 8 弾 Solaris 11 でのゾーン新機能 日本オラクル株式会社システム事業統括ソリューション統括本部 2012 年 10 月 10 日 以下の事項は 弊社の一般的な製品の方向性に関する概要を説明するものです また 情報提供を唯一の目的とするものであり いかなる契約にも組み込むことはできません

More information

PostgreSQL Plus 管理者ガイド

PostgreSQL Plus 管理者ガイド 2.4 旧バージョンからの移行 ここでは PostgreSQL Plus V1.0 および V1.1 から PostgreSQL Plus V2.0 にインスタンスの資産 を移行する手順について説明します PostgreSQL Plus V1.0 および V1.1 は PostgreSQL 7.3 をベースとしています また PostgreSQL Plus V2.0 は PostgreSQL 7.4

More information

Linux修正適用手順書

Linux修正適用手順書 PowerChute Business Edition v6.1.2j 改版履歴 2005/07/22 第 1.0 版新規作成 2005/08/05 第 1.1 版誤表記等を一部修正 - 2 - もくじ 1. 本書について...4 2. 作業の流れ...5 3. 適用対象製品の確認...6 3.1. インストール形式の確認...6 3.2.bin ファイルで製品をインストールした場合の確認...7

More information

Microsoft Word - ssVPN MacOS クライアントマニュアル_120版.doc

Microsoft Word - ssVPN  MacOS クライアントマニュアル_120版.doc Mac OS クライアントソフトマニュアル 第 1.10/1.20 版 2014 年 1 月 7 日 - 目次 - はじめに... 3 1 動作環境... 3 2 インストール... 3 3 ssvpn の起動... 3 4 システム環境設定 ( Mac OS X 10.8, 10.9 )... 5 4.1 システム環境設定手順... 5 5 接続先設定 編集 削除... 8 5.1 新規接続先を設定する...

More information

目次 1 VirtualBoot for Hyper-V とは バックアップを実行するマシンの設定 確認すべきこと SPX によるバックアップ VirtualBoot for Hyper-V を実行するマシンの設定 確

目次 1 VirtualBoot for Hyper-V とは バックアップを実行するマシンの設定 確認すべきこと SPX によるバックアップ VirtualBoot for Hyper-V を実行するマシンの設定 確 ShadowProtect SPX Hyper-V VirtualBoot 2016 年 3 月 11 日 ストレージクラフトテクノロジー合同会社 1 目次 1 VirtualBoot for Hyper-V とは... 4 2 バックアップを実行するマシンの設定... 5 2.1 確認すべきこと... 5 2.2 SPX によるバックアップ... 5 3 VirtualBoot for Hyper-V

More information

VNX ファイル ストレージの管理

VNX ファイル ストレージの管理 VNX ファイル ストレージの管理 この章は 次の項で構成されています VNX ファイル ストレージ管理について, 1 ページ 手順の概要, 2 ページ CIFS の使用, 3 ページ NFS エクスポートの使用, 8 ページ VNX ファイル ストレージ管理について VNX ファイル および VNX Unified アカウントでは Common Internet File System CIFS

More information

Microsoft Windows Internet Explorer は 米国 Microsoft Corporation の 米国およびその他の国における登録商標または商標です Linux は Linus Torvalds 氏の日本およびその他の国における登録商標または商標です Red Hat

Microsoft Windows Internet Explorer は 米国 Microsoft Corporation の 米国およびその他の国における登録商標または商標です Linux は Linus Torvalds 氏の日本およびその他の国における登録商標または商標です Red Hat 作成日 :2017/07/06 ******************************************************************************* ** ** ** FUJITSU Cloud Service K5 ** ** ** ** ソフトウェアカフェテリアサービス向けソフトウェア説明書 ** ** Linux 版 ** ** Interstage

More information

DIRECTIONS

DIRECTIONS Juniper SRX 日本語マニュアル 1. Junos OS インストール & アップグレード はじめに Junos OS のインストールとアップグレード方法について説明します 手順内容は SRX300 Junos OS 15.1X49-D140 にて確認を実施しております 2018 年 8 月 2 アジェンダ 1. ソフトウェアのダウンロード 2. ソフトウェアのインストール準備 3. CLI

More information

CLUSTERPRO MC RootDiskMonitor 2.3 for Linux リリースメモ 2018(Jun) NEC Corporation ライセンス パッケージのインストール セットアップ マニュアル

CLUSTERPRO MC RootDiskMonitor 2.3 for Linux リリースメモ 2018(Jun) NEC Corporation ライセンス パッケージのインストール セットアップ マニュアル リリースメモ 2018(Jun) NEC Corporation ライセンス パッケージのインストール セットアップ マニュアル はしがき 本書は ( 以後 RootDiskMonitor と記載します ) の動作に必要な手順について説明します (1) 商標および登録商標 Red Hat Red Hat Enterprise Linux は 米国およびその他の国における Red Hat, Inc.

More information

SAMBA Stunnel(Windows) 編 1. インストール 1 セキュア SAMBA の URL にアクセスし ログインを行います xxx 部分は会社様によって異なります xxxxx 2 Windows 版ダウンロード ボ

SAMBA Stunnel(Windows) 編 1. インストール 1 セキュア SAMBA の URL にアクセスし ログインを行います   xxx 部分は会社様によって異なります xxxxx 2 Windows 版ダウンロード ボ 操作ガイド Ver.2.3 目次 1. インストール... - 2-2. SAMBA Stunnel 利用... - 8-2.1. 接続確認... - 8-2.2. 編集... - 11-2.3. インポート... - 14-2.4. 削除... - 15-2.5 フォルダショートカットの作成... - 16-3. 動作環境... - 18-4. 参考資料 ( 接続状況が不安定な場合の対処方法について

More information

マニュアル訂正連絡票

マニュアル訂正連絡票 < マニュアル訂正連絡票 > ASP PC ファイルサーバ説明書 V28 [J2K0-5740-01C2] 2017 年 12 月 26 日発行 修正箇所 ( 章節項 )5.3.2.3 サーバ環境の設定 作成時のアクセス権 PC ファイルサーバ上に,Windows がファイルまたはディレクトリを作成する際のアクセス権を設定する. 所有者, グループ, その他に対してそれぞれ, 読み込み, 書き込み,

More information

FUJITSU Storage ETERNUS BE50 S2 運用ガイド Symantec Backup Exec 2014 修正適用編

FUJITSU Storage ETERNUS BE50 S2 運用ガイド Symantec Backup Exec 2014 修正適用編 FUJITSU Storage ETERNUS BE50 S2 運用ガイド Symantec Backup Exec 2014 修正適用編 改版履歴 版数改版日変更内容 1.0 版 2015 年 2 月初版 2 はじめに 本書は FUJITSU Storage ETERNUS BE50 S2 に Backup Exec 2014 の修正プログラムを適用する手順について説明した資料です 本書は 事前の予告なく変更される場合があります

More information

SAMBA Stunnel(Mac) 編 1. インストール 1 セキュア SAMBA の URL にアクセスし ログインを行います xxxxx 部分は会社様によって異なります xxxxx 2 Mac OS 版ダウンロー

SAMBA Stunnel(Mac) 編 1. インストール 1 セキュア SAMBA の URL にアクセスし ログインを行います   xxxxx 部分は会社様によって異なります xxxxx 2 Mac OS 版ダウンロー 操作ガイド Ver.2.3 目次 1. インストール... - 2-2. SAMBA Stunnel 利用... - 5-2.1. 接続確認... - 5-2.2. 編集... - 9-2.3. インポート... - 12-2.4. 削除... - 14-3. 動作環境... - 15-4. 参考資料 ( 接続状況が不安定な場合の対処方法について )... - 16-4.1. サービスの再起動...

More information

HP Device Manager4.7インストール・アップデート手順書

HP Device Manager4.7インストール・アップデート手順書 Technical white paper HP Device Manager4.7 インストール アップデート手順書 目次 はじめに 2 HPDM の構成の概要 3 1. インストール先のサーバーの準備 4 2.HPDM Softpaq の入手と展開 6 3.HPDM の新規インストール 9 4. マスターリポジトリの設定 17 5.HPDM のアップデート 20 1 はじめに 本資料では HP

More information

CLUSTERPRO MC ProcessSaver ApsEdition 1.0 for Linux リリースメモ 2012(Sep) NEC Corporation ライセンス パッケージのインストール セットアップ マニュアル 補足事項 注意事項

CLUSTERPRO MC ProcessSaver ApsEdition 1.0 for Linux リリースメモ 2012(Sep) NEC Corporation ライセンス パッケージのインストール セットアップ マニュアル 補足事項 注意事項 CLUSTERPRO MC ProcessSaver ApsEdition 1.0 for Linux リリースメモ 2012(Sep) NEC Corporation ライセンス パッケージのインストール セットアップ マニュアル 補足事項 注意事項 はしがき 本書は CLUSTERPRO MC ProcessSaver ApsEdition 1.0 for Linux ( 以後 ProcessSaver

More information

Microsoft Windows Internet Explorer は 米国 Microsoft Corporation の 米国およびその他の国における登録商標または商標です Linux は Linus Torvalds 氏の日本およびその他の国における登録商標または商標です Red Hat

Microsoft Windows Internet Explorer は 米国 Microsoft Corporation の 米国およびその他の国における登録商標または商標です Linux は Linus Torvalds 氏の日本およびその他の国における登録商標または商標です Red Hat 作成日 :2017/07/06 ******************************************************************************* ** ** ** FUJITSU Cloud Service K5 ** ** ** ** ソフトウェアカフェテリアサービス向けソフトウェア説明書 ** ** Linux 版 ** ** Interstage

More information

使用する前に

使用する前に この章では Cisco Secure ACS リリース 5.5 以降から Cisco ISE リリース 2.4 システムへのデー タ移行に使用される Cisco Secure ACS to Cisco ISE Migration Tool について説明します 移行の概要 1 ページ Cisco Secure ACS から データ移行 1 ページ Cisco Secure ACS to Cisco ISE

More information

GenieATM 6300-T / 6200-T シリーズ 1. 基本的な機器オペレーションのために 1-1. 機器への接続 機器への接続方法は 以下の 2 通りがあります シリアルポートを使用してログインする LAN 経由で Telnet または SSH を使用して仮想 Interface からロ

GenieATM 6300-T / 6200-T シリーズ 1. 基本的な機器オペレーションのために 1-1. 機器への接続 機器への接続方法は 以下の 2 通りがあります シリアルポートを使用してログインする LAN 経由で Telnet または SSH を使用して仮想 Interface からロ 1. 基本的な機器オペレーションのために 1-1. 機器への接続 機器への接続方法は 以下の 2 通りがあります シリアルポートを使用してログインする LAN 経由で Telnet または SSH を使用して仮想 Interface からログインする 工場出荷時は装置の IP アドレスが設定されていないので Telnet, SSH ではログインできません この資料では シリアルポートを使用する場合の方法を説明します

More information

CLUSTERPRO MC RootDiskMonitor 1.0 for Windows FAQ 集 2013(Mar) NEC Corporation 導入に関する質問 運用に関する質問 動作環境に関する質問

CLUSTERPRO MC RootDiskMonitor 1.0 for Windows FAQ 集 2013(Mar) NEC Corporation 導入に関する質問 運用に関する質問 動作環境に関する質問 CLUSTERPRO MC RootDiskMonitor 1.0 for Windows FAQ 集 2013(Mar) NEC Corporation 導入に関する質問 運用に関する質問 動作環境に関する質問 改版履歴 版数改版内容 1.0 2013.3.29 新規作成 i はしがき 本書は CLUSTERPRO MC RootDiskMonitor 1.0 for Windows ( 以後 RootDiskMonitor

More information

Microsoft Word - MOPatch-1.doc

Microsoft Word - MOPatch-1.doc Oracle for SAP MOPatch 利用マニュアル 2007 年 12 月 5 日日本オラクル株式会社 SAP サポート チーム Ver1.1-1 - MOPatch とは... 3 前提条件... 3 MOPatch の入手方法... 3 MOPatch dry-run モードでの実行... 4 MOPatch の実行... 5-2 - MOPatch とは MOPatch は Multiple

More information

OpenAM 9.5 インストールガイド オープンソース ソリューション テクノロジ ( 株 ) 更新日 : 2013 年 7 月 19 日 リビジョン : 1.8

OpenAM 9.5 インストールガイド オープンソース ソリューション テクノロジ ( 株 ) 更新日 : 2013 年 7 月 19 日 リビジョン : 1.8 OpenAM 9.5 インストールガイド オープンソース ソリューション テクノロジ ( 株 ) 更新日 : 2013 年 7 月 19 日 リビジョン : 1.8 目次 1. はじめに 1 1.1 本文書の目的... 1 1.2 前提条件... 1 1.3 略語...1 2. 事前準備 2 2.1 ホスト名の名前解決... 2 3. Linix 版パッケージ 3 3.1 システム要件... 3 3.1.1

More information

t20s3-fn09.pdf

t20s3-fn09.pdf 目次 PRIMERGY TX200 S3 non-raid フリー OS 動作確認情報 2007/09/12 富士通株式会社 PRIMERGY TX200 S3 FreeBSD 6.2-RELEASE 動作確認...2 PRIMERGY TX200 S3 Debian GNU/Linux 4.0 動作確認...5 PRIMERGY TX200 S3 Fedora Core 5 動作確認...8 PRIMERGY

More information

CLUSTERPRO MC RootDiskMonitor 2.3 for Windows リリースメモ 2018(Jun) NEC Corporation はじめに ライセンス 動作要件 セットアップ マニュアル

CLUSTERPRO MC RootDiskMonitor 2.3 for Windows リリースメモ 2018(Jun) NEC Corporation はじめに ライセンス 動作要件 セットアップ マニュアル MC RootDiskMonitor 2.3 for Windows リリースメモ 2018(Jun) NEC Corporation はじめに ライセンス 動作要件 セットアップ マニュアル 改版履歴 版数 改版 内容 1.0 2015.3 新規作成 2.0 2016.3 Microsoft.NET Framework のダウンロード先 URL を追記 3.0 2017.4 バージョンアップに伴い改版

More information

Microsoft Word - nvsi_090203_r1_sanboot_vaultdr.doc

Microsoft Word - nvsi_090203_r1_sanboot_vaultdr.doc Article ID: NVSI-090203JP_R1 Created: 2009/11/26 Revised: 2010/07/09 IBM BladeCenter H/HS22 と IBM DS4300 の SAN Boot 構成での VaultDR Offline 動作検証 1. 概要 NetVault Backup(NVB) の VaultDR Offline オプションは OS のバックアップを実現します

More information

改版履歴 版数 改版日付 改版内容 /03/14 新規作成 2013/03まで製品サイトで公開していた WebSAM DeploymentManager Ver6.1 SQL Server 2012 製品版のデータベース構築手順書 ( 第 1 版 ) を本 書に統合しました 2

改版履歴 版数 改版日付 改版内容 /03/14 新規作成 2013/03まで製品サイトで公開していた WebSAM DeploymentManager Ver6.1 SQL Server 2012 製品版のデータベース構築手順書 ( 第 1 版 ) を本 書に統合しました 2 第 1 版 改版履歴 版数 改版日付 改版内容 1 2013/03/14 新規作成 2013/03まで製品サイトで公開していた WebSAM DeploymentManager Ver6.1 SQL Server 2012 製品版のデータベース構築手順書 ( 第 1 版 ) を本 書に統合しました 2 目次 1. 使用しているデータベース (DPMDBI インスタンス ) を SQL Server

More information

PRIMERGY RX300 S6 SAS コントローラカード <RAID 5> フリーOS 動作確認情報

PRIMERGY RX300 S6 SAS コントローラカード <RAID 5> フリーOS 動作確認情報 PRIMERGY RX300 S6 SAS アレイコントローラカード フリー OS 動作確認情報 2010/06/30 富士通株式会社目次 PRIMERGY RX300 S6 CentOS 5.5 (x86) 動作確認... 2 PRIMERGY RX300 S6 CentOS 5.5 (x86_64) 動作確認... 7 PRIMERGY RX300 S6 ubuntu 10.04

More information

製品組み込み手順書 Oracle Tuxedo (Linux版)  

製品組み込み手順書 Oracle Tuxedo (Linux版)   製品組込み手順書 Oracle Tuxedo (Linux 版 ) 作成日 : Aug 13, 2009 更新日 : May 18, 2009 版 : 1.1 製品組込み手順書 Oracle Tuxedo (Linux 版 ) 目次 はじめに... 1 目的...1 環境...1 関連文書...1 作業概要... 2 作業内容...2 作業フロー...2 作業ステップ詳細...2 管理対象...3

More information

Microsoft PowerPoint - ShadowProtectIT手順書_ ppt

Microsoft PowerPoint - ShadowProtectIT手順書_ ppt ShadowProtect IT Edition バックアップ取得手順書 2011 年 3 月 Asgent, Inc. ShadowProtect IT Edition バックアップ取得フロー 本手順書は ShadowProtect IT Editionを利用し Windowsシステムのバックアップをオンラインにて取得する標準的なフローを記載しております 構成として バックアップ対象のサーバー パソコン

More information

Sun ZFS Storage Applianceを使用してOracle Solaris Zoneを実装する方法

Sun ZFS Storage Applianceを使用してOracle Solaris Zoneを実装する方法 Sun ZFS Storage Appliance を使用して Oracle Solaris Zone を 実装する方法 2012 年 5 月 Andrew Ness 著 この記事では Sun ZFS Storage Applianceを使用してOracle Solaris Zoneを実装し 仮想 Oracle Solaris インスタンスを作成する方法について説明します Oracle Solaris

More information

CLUSTERPRO MC StorageSaver istorage M シリーズ使用時の設定手順 (HP-UX 版 Linux 版 Windows 版 ) 2013(Sep) NEC Corporation istorage M シリーズを使用する場合の StorageSaver 設定手順 (H

CLUSTERPRO MC StorageSaver istorage M シリーズ使用時の設定手順 (HP-UX 版 Linux 版 Windows 版 ) 2013(Sep) NEC Corporation istorage M シリーズを使用する場合の StorageSaver 設定手順 (H CLUSTERPRO MC StorageSaver istorage M シリーズ使用時の設定手順 (HP-UX 版 Linux 版 Windows 版 ) 2013(Sep) NEC Corporation istorage M シリーズを使用する場合の StorageSaver 設定手順 (HP-UX 版 ) istorage M シリーズを使用する場合の StorageSaver 設定手順

More information

プレゼンテーション

プレゼンテーション Solaris Container Zone Japan OpenSolaris Users Group Leader Internet WEB System WEB Router w FW Stack Router w FW Switch Stack Switch L.A. L.A. L.A. Server Server Server L.A. L.A. L.A. Switch Stack Switch

More information

改版履歴 版数 改版 内容 新規作成 Microsoft.NET Framework のダウンロード先 URL を追記 バージョンアップに伴い改版 i

改版履歴 版数 改版 内容 新規作成 Microsoft.NET Framework のダウンロード先 URL を追記 バージョンアップに伴い改版 i リリースメモ 2017 (Apr) NEC Corporation はじめに ライセンス 動作要件 StorageSaver のインストール StorageSaver のアンインストール StorageSaver のアップデートインストール セットアップ マニュアル 補足事項 注意事項 改版履歴 版数 改版 内容 1.0 2015.3 新規作成 2.0 2016.3 Microsoft.NET Framework

More information

Microsoft Word - nvsi_090200jp_r1_nvbsvr_mscs.doc

Microsoft Word - nvsi_090200jp_r1_nvbsvr_mscs.doc Article ID: NVSI-090200JP_R1 Created: 2010/2/4 Revised: 2010/9/17 NetVault Backup サーバと Windows Server 2008 / フェールオーバークラスタとの統合 1. 検証目的 Windows Server 2008 では アプリケーションの可用性を高めるフェールオーバークラスタ機能を提供しています 本検証では

More information

改版履歴 版数改版内容 新規作成 i

改版履歴 版数改版内容 新規作成 i リリースメモ 2015(Mar) NEC Corporation はじめに ライセンス 動作要件 ProcessSaver のインストール ProcessSaver のアンインストール ProcessSaver のアップデートインストール セットアップ マニュアル 改版履歴 版数改版内容 1 2015.3 新規作成 i はしがき 本書は ( 以後 ProcessSaver と記載します ) の動作に必要な手順について説明します

More information

CLUSTERPRO MC StorageSaver istorage M シリーズ使用時の設定手順 (HP-UX 版 Linux 版 Windows 版 ) 2013(Apr) NEC Corporation istorage M シリーズを使用する場合の StorageSaver 設定手順 (H

CLUSTERPRO MC StorageSaver istorage M シリーズ使用時の設定手順 (HP-UX 版 Linux 版 Windows 版 ) 2013(Apr) NEC Corporation istorage M シリーズを使用する場合の StorageSaver 設定手順 (H CLUSTERPRO MC StorageSaver istorage M シリーズ使用時の設定手順 (HP-UX 版 Linux 版 Windows 版 ) 2013(Apr) NEC Corporation istorage M シリーズを使用する場合の StorageSaver 設定手順 (HP-UX 版 ) istorage M シリーズを使用する場合の StorageSaver 設定手順

More information

MIRACLE System Savior操作手順書

MIRACLE System Savior操作手順書 バックアップ / リストア作業手順書 Copyright 2000-2013 MIRACLE LINUX CORPORATION All rights reserved Ver.1.1 変更履歴日付 作成者 Revision 対象 変更内容 2013/07/02 青山雄一 1.0 全体 初版作成 2013/12/27 青山雄一 1.1 全体 V2R4 対応 Copyright 2000-2013 MIRACLE

More information

ServerView RAID Manager VMware vSphere ESXi 6 インストールガイド

ServerView RAID Manager VMware vSphere ESXi 6 インストールガイド ServerView RAID Manager VMware vsphere ESXi 6 インストールガイド 2018 年 11 月 27 日富士通株式会社 アレイを構築して使用する場合 RAID 管理ツールの ServerView RAID Manager を使用します VMware vsphere ESXi 6.x ( 以後 ESXi 6 または ESXi と略します ) サーバで ServerView

More information

PC にソフトをインストールすることによって OpenVPN でセキュア SAMBA へ接続することができます 注意 OpenVPN 接続は仮想 IP を使用します ローカル環境にて IP 設定が被らない事をご確認下さい 万が一仮想 IP とローカル環境 IP が被るとローカル環境内接続が行えなくな

PC にソフトをインストールすることによって OpenVPN でセキュア SAMBA へ接続することができます 注意 OpenVPN 接続は仮想 IP を使用します ローカル環境にて IP 設定が被らない事をご確認下さい 万が一仮想 IP とローカル環境 IP が被るとローカル環境内接続が行えなくな 操作ガイド Ver.2.3 目次 1. インストール... - 2-2. SAMBA Remote 利用... - 9-2.1. 接続確認... - 9-2.2. 自動接続... - 11-2.3. 編集... - 13-2.4. インポート... - 16-2.5. 削除... - 18-2.6. 参考資料 ( 接続状況が不安定な場合の対処方法について )... - 19-2.6.1. サービスの再起動...

More information

CLUSTERPRO MC RootDiskMonitor 1.0 for Windows インストールガイド 2013(Mar) NEC Corporation はじめに 製品導入の事前準備 本製品のインストール 本製品の初期設定 本製品のアンインストール

CLUSTERPRO MC RootDiskMonitor 1.0 for Windows インストールガイド 2013(Mar) NEC Corporation はじめに 製品導入の事前準備 本製品のインストール 本製品の初期設定 本製品のアンインストール CLUSTERPRO MC RootDiskMonitor 1.0 for Windows インストールガイド 2013(Mar) NEC Corporation はじめに 製品導入の事前準備 本製品のインストール 本製品の初期設定 本製品のアンインストール 改版履歴 版数 改版 内容 1.0 2012.9 新規作成 2.0 2013.3 FAQ 集 はじめての RootDiskMonitor テスト手順書

More information

XEN 仮想マシンの移植 Islandcenter.jp 2009/04/14 既に作成済みの XEN 仮想マシンを移植する方法を説明します 仮想マシンイメージは 通常 /var/lib/xen/image/myvmachine に作成されていますが このファイルを tar 圧縮してリムーバブルメデ

XEN 仮想マシンの移植 Islandcenter.jp 2009/04/14 既に作成済みの XEN 仮想マシンを移植する方法を説明します 仮想マシンイメージは 通常 /var/lib/xen/image/myvmachine に作成されていますが このファイルを tar 圧縮してリムーバブルメデ XEN 仮想マシンの移植 2009/04/14 既に作成済みの XEN 仮想マシンを移植する方法を説明します 仮想マシンイメージは 通常 /var/lib/xen/image/myvmachine に作成されていますが このファイルを tar 圧縮してリムーバブルメディアにコピーするなり rsync で他のコンピュータにコピーしたり あるいはバックアップされて今は使われていないイメージを戻して再利用することができます

More information

Oracle Solaris 11 ゾーンを使ってみよう(実践編) 手順書

Oracle Solaris 11 ゾーンを使ってみよう(実践編) 手順書 Oracle Solaris 11 ゾーンを使ってみよう ( 実践編 ) 手順書 第 1.0 版富士通株式会社 使用条件 著作権 商標権 その他の知的財産権について コンテンツ ( 文書 画像 音声等 ) は 著作権 商標権 その他の知的財産権で保護されています 本コンテンツは 個人的に使用する範囲でプリントアウトまたはダウンロードできます ただし これ以外の利用 ( ご自分のページへの再利用や他のサーバへのアップロード等

More information

PRIMERGY TX100 S3 未サポートOS動作検証確認情報

PRIMERGY TX100 S3 未サポートOS動作検証確認情報 ソフトウェア名称 SAS アレイコントローラカード MegaRAID SAS 9260-8i 動作確認結果 オンボード SATA アレイコントローラ ( ソフトウェア RAID) CentOS 6.1(x86) ( 注 6) ( 注 7) CentOS 6.1(x86_64) ( 注 6) ( 注 7) CentOS 6.0(x86) ( 注 6) ( 注 5) CentOS

More information

r10s4-fn03.pdf

r10s4-fn03.pdf 目次 PRIMERGY RX100 S4 non-raid フリー OS 動作確認情報 2007/08/23 富士通株式会社 PRIMERGY RX100 S4 FreeBSD 6.2 動作確認...2 PRIMERGY RX100 S4 Debian 4.0 動作確認...5 PRIMERGY RX100 S4 Fedora Core 6 動作確認...8 PRIMERGY RX100 S4 Vine

More information

ESMPRO/ServerManager Ver. 6 変更履歴

ESMPRO/ServerManager Ver. 6 変更履歴 ESMPRO/ServerManager Ver. 6 変更履歴 [Ver. 6.37] ilo 搭載装置において ESMPRO/ServerManager の IML 監視機能を利用して Non-RAID 構成のディスクの障害を通報できるよう機能強化しました ESMPRO/ServerManager が使用している Apache Struts を Apache Struts 2.5.17 に更新しました

More information

PRIMERGY TX100 S3 未サポートOS動作検証確認情報

PRIMERGY TX100 S3 未サポートOS動作検証確認情報 ソフトウェア名称 SAS アレイコントローラカード MegaRAID SAS 9260-8i 動作確認結果 オンボード SATA アレイコントローラ ( ソフトウェア RAID) CentOS 6.0(x86) ( 注 6) ( 注 5) CentOS 6.0(x86_64) ( 注 6) ( 注 5) CentOS 5.7(x86) ( 注 6) ( 注 5)

More information

はじめに 本書は Express5800/ft サーバに Red Hat Enterprise Linux 6 Server 及び ft Server Control Software がインストールされており OS がインストールされている内蔵ディス クに空き容量がある場合に 追加でボリュームを作

はじめに 本書は Express5800/ft サーバに Red Hat Enterprise Linux 6 Server 及び ft Server Control Software がインストールされており OS がインストールされている内蔵ディス クに空き容量がある場合に 追加でボリュームを作 Red Hat Enterprise Linux 6 Server 未使用領域のボリューム作成手順書 NEC Express サーバ Express5800/ft サーバシリーズ 2013 年 03 月第 2 版 はじめに 本書は Express5800/ft サーバに Red Hat Enterprise Linux 6 Server 及び ft Server Control Software がインストールされており

More information

BIGLOBE クラウドホスティングネットワーク設定パッチインストール手順 (CentOS6) 1.1 版 (2017 年 12 月 11 日 ) ビッグローブ株式会社

BIGLOBE クラウドホスティングネットワーク設定パッチインストール手順 (CentOS6) 1.1 版 (2017 年 12 月 11 日 ) ビッグローブ株式会社 BIGLOBE クラウドホスティングネットワーク設定パッチインストール手順 (CentOS6) 1.1 版 (2017 年 12 月 11 日 ) ビッグローブ株式会社 目次 1. はじめに... 1 2. ネットワーク設定パッチのインストール手順... 2 2.1. インストール済みチェック... 2 2.2. インストール... 2 2.3. 詳細確認... 3 3. ネットワーク接続できないサーバの対処手順...

More information

『テクノス』V2プログラムインストール説明書

『テクノス』V2プログラムインストール説明書 土木積算システム テクノス V2 プログラム インストール説明書 ( 第 3 版 ) 目 次 1. テクノス V2 プログラム インストールの概要...3 2. テクノス V2 のプログラム ドライバ インストール...4 3. テクノス V2 の初期起動...10 4. アンインストール...11 5. 補足 ( 動作環境 )...11 2. 1. テクノス V2 プログラム インストールの概要

More information

アーカイブ機能インストールマニュアル

アーカイブ機能インストールマニュアル Microsoft SQL Server 2008 SQL Server Management Studio データベースバックアップ設定マニュアル 1. 注意事項... 1 2. データベースのバックアッププラン作成方法... 2 3. データベースのバックアップ... 8 4. データベースの復元方法について... 11 5. データベースのログの圧縮... 13 Copyright(c)

More information

ServerView RAID Manager VMware vSphere ESXi 5 インストールガイド

ServerView RAID Manager VMware vSphere ESXi 5 インストールガイド ServerView RAID Manager VMware vsphere ESXi 5 2017 年 9 月 5 日富士通株式会社 インストールガイド アレイを構築して使用する場合 RAID 管理ツールの ServerView RAID Manager を使用します VMware vsphere ESXi 5.x( 以後 ESXi 5 または ESXi と略します ) サーバで ServerView

More information

GHS混合物分類判定システムインストールマニュアル

GHS混合物分類判定システムインストールマニュアル GHS 混合物分類判定システムインストールマニュアル ~ ダウンロード版 ~ Ver.3.0 目次 1 はじめに... 1 1.1 目的... 1 1.2 本手順書について... 1 1.3 動作環境... 2 2 インストール... 3 2.1 Windows 8(8.1) Windows10 のセットアップ事前準備... 3 2.2 セットアップツールの実行... 5 2.3 必須コンポーネント...

More information

改訂履歴 版番号改訂日改訂者改訂内容 年 2 月 2 日ネットワールド 新規 I

改訂履歴 版番号改訂日改訂者改訂内容 年 2 月 2 日ネットワールド 新規   I 2016 年 2 月 2 日 第 1.0 版 www.networld.co.jp 株式会社ネットワールド 改訂履歴 版番号改訂日改訂者改訂内容 1.0 2016 年 2 月 2 日ネットワールド 新規 www.networld.co.jp/product/cisco/ I 免責事項 本書のご利用は お客様ご自身の責任において行われるものとします 本書に記載する情報については 株式会社ネットワールド

More information

UEFI環境におけるWindows Serverバックアップのシステム回復手順

UEFI環境におけるWindows Serverバックアップのシステム回復手順 UEFI 環境における Windows Server バックアップのシステム回復手順 2011 年 7 月 富士通株式会社 改訂履歴 改版日時 版数 改版内容 2011.7.12 1.0 新規作成 -2- 目次 UEFI 環境における Windows Server バックアップのシステム回復手順 はじめに...4 1 システム回復手順...5 1.1 パーティション作成...6 1.2 Windows

More information

ReTRY HUB

ReTRY HUB USB デバイス接続制御アダプター ReTRY HUB 型番 CT USB4HUB 設定ソフト Ver1.0 版 マニュアル http://www.centech.jp 2017/04/21 製品仕様 商品名 型番 ReTRY HUB CT USB4HUB サイズ 縦 75mm x 横 120mm x 高さ15mm( 突起部含まず ) 重量 約 230g( 本体のみ ) 消費電流 12V 30mA(

More information

Windows AIKを使用したPE2

Windows AIKを使用したPE2 Windows AIK を使用した PE2.0 ベースの起動 CD 作成方法 この資料では マイクロソフト社から提供されている Windows AIK( 自動インストールキット ) を使用して Windows PE 2.0 ベースの起動 CD を作成する方法をご紹介します Image Backup や LB コピーコマンダーなどの製品 CD やリカバリーメディアは 主に DOS や Linux 環境で動作するため

More information

スライド 1

スライド 1 XCoveryTB インストール時エラーコード対応マニュアル インストール前の HDD 診断方法について P2 よく発生するエラーコード一覧 エラーコード 1030 1040 原因 C ドライブがブートドライブでない場合 (XP/VISTA の場合 ) C ドライブがブートドライブでない場合 (Windows7 の場合 ) 1400 C ドライブの残余スペースが少ない場合 (5GB 未満の場合 )

More information

PRIMERGY TX100 S1 未サポートOS動作検証確認情報

PRIMERGY TX100 S1 未サポートOS動作検証確認情報 PRIMERGY TX100 S1 未サポート OS 動作検証確認情報 ソフトウェア名称 SAS アレイコントローラカード オンボード SATA アレイコントローラ Non-RAID 動作確認結果 動作確認結果 動作確認結果 CentOS 5.5(x86) ( 注 6) ( 注 6) - CentOS 5.5(x86_64) ( 注 6) ( 注 6) - CentOS

More information

CLUSTERPRO MC RootDiskMonitor CLUSTERPRO MC StorageSaver for BootDisk 仮想環境 ( ゲスト OS) での設定手順 (Linux 版 Windows 版 ) 2017(Apr) NEC Corporation 仮想環境 ( ゲスト

CLUSTERPRO MC RootDiskMonitor CLUSTERPRO MC StorageSaver for BootDisk 仮想環境 ( ゲスト OS) での設定手順 (Linux 版 Windows 版 ) 2017(Apr) NEC Corporation 仮想環境 ( ゲスト CLUSTERPRO MC RootDiskMonitor CLUSTERPRO MC StorageSaver for BootDisk 仮想環境 ( ゲスト OS) での設定手順 (Linux 版 Windows 版 ) 2017(Apr) NEC Corporation 仮想環境 ( ゲスト OS) で RootDiskMonitor を使用する場合の設定手順 (Linux 版 ) 仮想環境

More information

PRIMERGY TX150 S7 SAS アレイコントローラカード <RAID 5> フリーOS 動作確認情報

PRIMERGY TX150 S7 SAS アレイコントローラカード <RAID 5> フリーOS 動作確認情報 PRIMERGY TX150 S7 SAS アレイコントローラカード フリー OS 動作確認情報 2010/05/31 富士通株式会社目次 PRIMERGY TX150 S7 CentOS 5.4 (x86) 動作確認... 2 PRIMERGY TX150 S7 CentOS 5.4 (x86_64) 動作確認... 7 PRIMERGY TX150 S7 CentOS 5.4

More information

Microsoft Word - XOOPS インストールマニュアルv12.doc

Microsoft Word - XOOPS インストールマニュアルv12.doc XOOPS インストールマニュアル ( 第 1 版 ) 目次 1 はじめに 1 2 XOOPS のダウンロード 2 3 パッケージの解凍 4 4 FFFTP によるファイルアップロード手順 5 5 ファイルアップロード後の作業 11 6 XOOPS のインストール 15 7 インストール後の作業 22 8 XOOPS ログイン後の作業 24 愛媛県総合教育センター情報教育研究室 Ver.1.0.2

More information

ServerView RAID Manager VMware vSphere ESXi 5 インストールガイド

ServerView RAID Manager VMware vSphere ESXi 5 インストールガイド ServerView RAID Manager VMware vsphere ESXi 5 インストールガイド 2015 年 2 月 9 日富士通株式会社 アレイを構築して使用する場合 RAID 管理ツールの ServerView RAID Manager を使用します VMware vsphere ESXi 5.x( 以後 ESXi 5 と略します ) サーバで ServerView RAID Manager

More information

<MW-400k > InterSec/MW400k アップデート適用手順書 2017 年 8 月 1 版

<MW-400k > InterSec/MW400k アップデート適用手順書 2017 年 8 月 1 版 InterSec/MW400k アップデート適用手順書 2017 年 8 月 1 版 改版履歴 版数 改版日付 内容 1 2017 年 8 月 新規作成 - 2 - 目次 商標について... - 4 - はじめに... - 5 - アップデートモジュール適用時の注意 制限事項...- 6 - スタンドアロン構成...- 6 - フェイルオーバクラスタ構成...- 7-1.

More information

音声認識サーバのインストールと設定

音声認識サーバのインストールと設定 APPENDIX C 次のタスクリストを使用して 音声認識ソフトウェアを別の音声認識サーバにインストールし 設定します このタスクは Cisco Unity インストレーションガイド に記載されている詳細な手順を参照します ドキュメントに従って 正しくインストールを完了してください この付録の内容は Cisco Unity ライセンスに音声認識が含まれていること および新しい Cisco Unity

More information

CLUSTERPRO MC ProcessSaver 2.1 for Windows 構築ガイド 2016(Mar) NEC Corporation はじめに 責任範囲 適用範囲 概要 事前準備 クラスタ設定

CLUSTERPRO MC ProcessSaver 2.1 for Windows 構築ガイド 2016(Mar) NEC Corporation はじめに 責任範囲 適用範囲 概要 事前準備 クラスタ設定 CLUSTERPRO MC ProcessSaver 2.1 for Windows 構築ガイド 2016(Mar) NEC Corporation はじめに 責任範囲 適用範囲 概要 事前準備 クラスタ設定 改版履歴 版数 改版 内容 1.0 2015.03 新規作成 2.0 2016.03 CLUSTERPRO 対応バージョン修正 i はしがき 本書では CLUSTERPRO MC ProcessSaver

More information

CLUSTERPRO MC StorageSaver for BootDisk 2.1 (for Windows) インストールガイド 2016(Mar) NEC Corporation はじめに 製品導入の事前準備 本製品のインストール 本製品の初期設定 本製品のアンインストール

CLUSTERPRO MC StorageSaver for BootDisk 2.1 (for Windows) インストールガイド 2016(Mar) NEC Corporation はじめに 製品導入の事前準備 本製品のインストール 本製品の初期設定 本製品のアンインストール CLUSTERPRO MC StorageSaver for BootDisk 2.1 (for Windows) インストールガイド 2016(Mar) NEC Corporation はじめに 製品導入の事前準備 本製品のインストール 本製品の初期設定 本製品のアンインストール 改版履歴 版数 改版 内容 1.0 2015.3 新規作成 2.0 2016.3 バージョンアップに伴い改版 i はしがき

More information

データ移行ツール ユーザーガイド Data Migration Tool User Guide SK kynix Inc Rev 1.01

データ移行ツール ユーザーガイド Data Migration Tool User Guide SK kynix Inc Rev 1.01 データ移行ツール ユーザーガイド Data Migration Tool User Guide SK kynix Inc. 2014 Rev 1.01 1 免責事項 SK hynix INC は 同社の製品 情報および仕様を予告なしに変更できる権利を有しています 本資料で提示する製品および仕様は参考情報として提供しています 本資料の情報は 現状のまま 提供されるものであり 如何なる保証も行いません

More information

UNIX とは? 1969 年 米国のベル研究所で開発されたオペレーティングシステム特徴 文字ベースの対話型 OS マルチユーザ 複数のユーザが同時に利用できる マルチタスク マルチプロセス 複数の処理を平行して行える タイムシェアリング 一定の時間に区切って処理を行う 複数の処理を平行しているよう

UNIX とは? 1969 年 米国のベル研究所で開発されたオペレーティングシステム特徴 文字ベースの対話型 OS マルチユーザ 複数のユーザが同時に利用できる マルチタスク マルチプロセス 複数の処理を平行して行える タイムシェアリング 一定の時間に区切って処理を行う 複数の処理を平行しているよう Linux の基礎とインストール 技術部第 2 技術グループ加藤慶尚 UNIX とは? 1969 年 米国のベル研究所で開発されたオペレーティングシステム特徴 文字ベースの対話型 OS マルチユーザ 複数のユーザが同時に利用できる マルチタスク マルチプロセス 複数の処理を平行して行える タイムシェアリング 一定の時間に区切って処理を行う 複数の処理を平行しているように見える UNIX のシステム

More information

インストール手順書 Systemwalker for Symfoware Server Message Monitoring Tool 11.1

インストール手順書 Systemwalker for Symfoware Server Message Monitoring Tool 11.1 ************************************************************************ ** イ ン ス ト ー ル 手 順 書 ** ** Systemwalker for Symfoware Server Message Monitoring Tool 11.1 ** ************************************************************************

More information

Microsoft Word - AFT_3TB_HDD_install_guide doc

Microsoft Word - AFT_3TB_HDD_install_guide doc AFT 及び 3TB HDD への OS インストール 目次 概要 P.1 動作確認構成 P.1 対応要件 P.1 Server 対応一覧 P.2 OS 対応一覧 P.3 OS インストール方法 P.4 AFT P.4 3TB P.8 AFT +3TB P.10 2012.01.26: ぷらっとホーム技術部山﨑作成 2012.02.06: ぷらっとホーム技術部山﨑更新 2012.02.09: ぷらっとホーム技術部山﨑更新

More information

SAMBA Remote(Mac) 編 PC にソフトをインストールすることによって OpenVPN でセキュア SAMBA へ接続することができます 注意 OpenVPN 接続は仮想 IP を使用します ローカル環境にて IP 設定が被らない事をご確認下さい 万が一仮想 IP とローカル環境 IP

SAMBA Remote(Mac) 編 PC にソフトをインストールすることによって OpenVPN でセキュア SAMBA へ接続することができます 注意 OpenVPN 接続は仮想 IP を使用します ローカル環境にて IP 設定が被らない事をご確認下さい 万が一仮想 IP とローカル環境 IP 操作ガイド Ver.2.3 目次 1. インストール... - 2-2. SAMBA Remote 利用... - 5-2.1. 接続確認... - 5-2.2. 自動接続... - 10-2.3. 編集... - 12-2.4. インポート... - 15-2.5. 削除... - 17-2.6. 参考資料 ( 接続状況が不安定な場合の対処方法について )... - 18-2.6.1. サービスの再起動...

More information

システム管理者ガイド GIGAPOD 3 システム管理者ガイド - 負荷分散構成 第 1.01 版 2013 年 3 月 改訂履歴 No バージョン 日付 作成者 改訂者 補足 /09 トライポッドワークス 初稿 /03 トライポッドワークス cr

システム管理者ガイド GIGAPOD 3 システム管理者ガイド - 負荷分散構成 第 1.01 版 2013 年 3 月 改訂履歴 No バージョン 日付 作成者 改訂者 補足 /09 トライポッドワークス 初稿 /03 トライポッドワークス cr GIGAPOD 3 - 負荷分散構成 第 1.01 版 2013 年 3 月 改訂履歴 No バージョン 日付 作成者 改訂者 補足 001 1.00 2012/09 トライポッドワークス 初稿 002 1.01 2013/03 トライポッドワークス cron 設定内容の追記 ( 対象バージョン :3.00.03) Copyright (c) Tripodworks Co.,LTD. All Rights

More information

CLUSTERPRO MC ProcessSaver 1.0 for Windows 構築ガイド 2012(Sep) NEC Corporation はじめに責任範囲適用範囲概要事前準備クラスタ設定

CLUSTERPRO MC ProcessSaver 1.0 for Windows 構築ガイド 2012(Sep) NEC Corporation はじめに責任範囲適用範囲概要事前準備クラスタ設定 CLUSTERPRO MC ProcessSaver 1.0 for Windows 構築ガイド 2012(Sep) NEC Corporation はじめに責任範囲適用範囲概要事前準備クラスタ設定 改版履歴 版数改版内容 1.0 2012.09 新規作成 i はしがき 本書では CLUSTERPRO MC ProcessSaver 1.0 for Windows ( 以後 ProcessSaver

More information

<< 目次 >> 1 PDF コンバータのインストール ライセンスコードの入力 PDF にフォントを埋め込みたい場合の設定 PDF オートコンバータ EX で使用しない場合 PDF コンバータ単体で使用する場合の説明 PDF コンバータのアン

<< 目次 >> 1 PDF コンバータのインストール ライセンスコードの入力 PDF にフォントを埋め込みたい場合の設定 PDF オートコンバータ EX で使用しない場合 PDF コンバータ単体で使用する場合の説明 PDF コンバータのアン PDF コンバータ V5.X インストール ガイド Page0 > 1 PDF コンバータのインストール... 2 2 ライセンスコードの入力... 6 3 PDF にフォントを埋め込みたい場合の設定... 9 4 PDF オートコンバータ EX で使用しない場合 PDF コンバータ単体で使用する場合の説明... 10 5 PDF コンバータのアンインストール... 16 6 お問合せ...

More information

2

2 クラウドサービス設定マニュアル (CentOS6 版 ) 第 1.1 版 2017 年 3 月 13 日 作成日 最終更新日 2016 年 7 月 29 日 2017 年 3 月 13 日 青い森クラウドベース株式会社 1 2 目次 1. はじめに... 5 2. 組織 VDC ネットワークの新規作成... 6 2-1. ネットワークタイプの選択... 7 2-2. ネットワークの構成... 8 2-3.

More information

目次 1. Azure Storage をインストールする Azure Storage のインストール Azure Storage のアンインストール Azure Storage を使う ストレージアカウントの登録... 7

目次 1. Azure Storage をインストールする Azure Storage のインストール Azure Storage のアンインストール Azure Storage を使う ストレージアカウントの登録... 7 QNAP Azure Storage ユーザーガイド 発行 : 株式会社フォースメディア 2014/6/2 Rev. 1.00 2014 Force Media, Inc. 目次 1. Azure Storage をインストールする... 3 1.1. Azure Storage のインストール... 3 1.2. Azure Storage のアンインストール... 5 2. Azure Storage

More information

Total Disc Makerサイレントインストールガイド

Total Disc Makerサイレントインストールガイド Total Disc Maker サイレントインストールガイド M0007740 RevA ご注意 本書の内容の一部または全部を無断で転載 複写 複製 改ざんすることは固くお断りします 本書の内容については 予告なしに変更することがあります 最新の情報はお問い合わせください 本書の内容については 万全を期して作成いたしましたが 万一ご不審な点や誤り 記載もれなど お気づきの点がありましたらご連絡ください

More information

2-3- 基 Linux のシステム管理に関する知識 1 独立行政法人情報処理推進機構

2-3- 基 Linux のシステム管理に関する知識 1 独立行政法人情報処理推進機構 2-3- 基 Linux のシステム管理に関する知識 1 2-3- 基.Linux のシステム管理に関する知識 オープンソースオペレーティングシステムとしてもっとも利用が期待される Linux のシステム管理に関して 実際の開発 運用の際に必要 Ⅰ. 概要な管理知識 手法の種類と特徴 内容を理解し Linux をサーバとして運用するために必要なノウハウを実務レベルとして学ぶ 基本編ではサーバ単体の管理を中心に学ぶ

More information

インストールの前に

インストールの前に インストールガイド 本書は CADSUPER Lite を新規インストールする際の手順を説明するものです インストールの前に... 2 ID-BOX ドライバの注意点... 2 CADSUPER シェル拡張について... 3 Andor アップデートサービスについて... 4 インストールの方法... 5 CADSUPER Lite インストールの手順... 5 CADSUPER シェル拡張インストールの手順...

More information

Microsoft Word - PCOMM V6.0_FAQ.doc

Microsoft Word - PCOMM V6.0_FAQ.doc 日本 IBM システムズ エンジニアリング メインフレーム サーバー部 2012 年 3 月 目次 1 サポートされる環境について... 3 1.1 接続先ホスト (System z, IBM i) の OS のバージョンに制約がありますか?... 3 1.2 PCOMM を導入する PC のスペックの推奨はありますか?... 3 1.3 PCOMM は Windows 7 に対応していますか?...

More information

Microsoft Word - ManagerIPChange.doc

Microsoft Word - ManagerIPChange.doc 管理サーバの IP アドレス ( ホスト名 ) 変更手順 対応バージョン SSC1.1 / SSC1.2 / SSC1.3 概要 管理サーバのIPアドレス ( ホスト名 ) を変更する場合の 設定変更手順を記載します # 本文では IPアドレス変更手順について記載しておりますので # ホスト名変更の場合は IPアドレスをホス名に読み替えてください SystemProvisinoning 同一ネットワークセグメント内の

More information

HANDyTRUSt「携帯電話操作編《(DOCOMO 900シーズ)

HANDyTRUSt「携帯電話操作編《(DOCOMO 900シーズ) HANDyTRUSt スマートフォン操作編 本書について 本書は スマートフォン (Windows Mobile 6.0) に対応した取扱説明書です 本書に記載されている画面およびラストはメージです 実際の製品とは異なる場合があります 本書の内容を一部 または全部を無断転載することは禁止されています 本書の内容は 将来 予告なしに変更することがあります 利用環境 HANDyTRUSt をご利用になる際

More information

第 2 版

第 2 版 第 2 版 改版履歴 版数 改版日付 改版内容 1 2015/04 新規作成 2 2016/08 アップグレード時の注意事項を追加 URLをSQL Server 2014 用のURLに変更 2 目次 1. 使用しているデータベースを SQL Server 2014 へアップグレードする手順... 5 2. SQL Server 2014 にデータベースを構築する手順... 6 2.1. データベースの作成...

More information