Amazon CloudWatch - ユーザーガイド

Save this PDF as:
 WORD  PNG  TXT  JPG

Size: px
Start display at page:

Download "Amazon CloudWatch - ユーザーガイド"

Transcription

1 Amazon CloudWatch ユーザーガイド

2 Amazon CloudWatch: ユーザーガイド Copyright 2018 Amazon Web Services, Inc. and/or its affiliates. All rights reserved. Amazon's trademarks and trade dress may not be used in connection with any product or service that is not Amazon's, in any manner that is likely to cause confusion among customers, or in any manner that disparages or discredits Amazon. All other trademarks not owned by Amazon are the property of their respective owners, who may or may not be affiliated with, connected to, or sponsored by Amazon.

3 Table of Contents Amazon CloudWatch とは... 1 CloudWatch へのアクセス... 1 AWS の関連サービス... 1 CloudWatch の詳細... 2 概念... 2 名前空間 ディメンション... 4 統計... 5 パーセンタイル... 7 アラーム... 8 制限... 8 リソース 準備作業 アマゾンウェブサービス (AWS) にサインアップ Amazon CloudWatch コンソールにサインインする AWS CLI のセットアップ ご利用開始にあたって シナリオ : 予想請求額のモニタリング ステップ 1: 請求アラートを有効にする 手順 2: 請求アラームを作成する 手順 3: アラームの状態をチェックする 手順 4: 請求アラームを編集する 手順 5: 請求アラームを削除する シナリオ : をパブリッシュする 手順 1: データ構成を定義する 手順 2: CloudWatch にを追加する 手順 3: CloudWatch から統計を取得する 手順 4: コンソールでグラフを表示する ダッシュボードの使用 ダッシュボードを作成する グラフを追加または削除する グラフを移動 またはサイズを変更する グラフを編集する CloudWatch ダッシュボードで手動でをグラフ化する グラフ名を変更する テキストウィジェットを追加 または削除する アラームの追加または削除 複数リージョンにあるリソースをモニタリングする グラフをリンク またはリンク解除する [ お気に入り ] リストにダッシュボードを追加する 更新間隔を変更する 時間範囲またはタイムゾーン形式を変更する の使用 利用可能なを表示する 利用可能なを検索する の統計を取得する 特定のリソースの統計を取得する 統計をリソース間で集計 Auto Scaling グループ別に統計を集計する AMI 別に統計を集計する をグラフ化 をグラフ化する グラフの時間範囲またはタイムゾーン形式を変更する iii

4 グラフの Y 軸を変更する グラフのからアラームを作成する カスタムをパブリッシュする 高解像度の ディメンションを使用する 単一データポイントをパブリッシュする 統計セットをパブリッシュする 値ゼロ (0) をパブリッシュする Metric Math を使用する CloudWatch グラフに数式を追加する Metric Math 構文と関数 Metric Math を GetMetricData API オペレーションと使用する CloudWatch エージェントを使用したとログの収集 CloudWatch エージェントで使用する IAM ロールおよびユーザーを作成する Amazon EC2 インスタンスの CloudWatch エージェントで使用する IAM ロールを作成する オンプレミスサーバーで CloudWatch エージェントを使用するための IAM ユーザーを作成する Amazon EC2 インスタンスに CloudWatch エージェントをインストールする 開始方法 : CloudWatch エージェントを最初のインスタンスにインストールする エージェント設定を使用して追加インスタンスに CloudWatch エージェントをインストールする オンプレミスサーバーに CloudWatch エージェントをインストールする 開始方法 : CloudWatch エージェントを最初のサーバーにインストールする エージェント設定を使用して追加サーバーに CloudWatch エージェントをインストールする CloudWatch エージェント設定ファイルを作成する ウィザードを使用して CloudWatch エージェント設定ファイルを作成する CloudWatch エージェント設定ファイルを手動で作成または編集する CloudWatch エージェントを使用した一般的なシナリオ CloudWatch エージェントにより収集されるにカスタムディメンションを追加する CloudWatch エージェントによって収集されるを集約またはロールアップする CloudWatch エージェントを使用して高解像度を収集する CloudWatch エージェントのトラブルシューティング Run Command を使用して CloudWatch エージェントをインストールする CloudWatch エージェントが開始されない CloudWatch エージェントが実行されていることを確認する の場所 エージェントが起動せず Amazon EC2 リージョンに関するエラーが発生する CloudWatch エージェントファイルとロケーション CloudWatch エージェントによって生成されるログ CloudWatch エージェントを停止して再起動する システムの起動時に CloudWatch エージェントを開始する とディメンションのリファレンス AWS の名前空間 API Gateway API Gateway のディメンション AppStream Amazon AppStream 2.0 の Amazon AppStream 2.0 のディメンション Amazon EC2 Auto Scaling Auto Scaling グループ Auto Scaling グループのディメンション AWS Billing and Cost Management AWS Billing and Cost Management AWS Billing and Cost Management のディメンション Amazon CloudFront Amazon CloudFront CloudFront のディメンション iv

5 Amazon CloudSearch Amazon CloudSearch Amazon CloudSearch のディメンション CloudWatch エージェントにより収集される Windows Server インスタンスで CloudWatch エージェントにより収集される Linux インスタンスで CloudWatch エージェントにより収集される Amazon CloudWatch Events CloudWatch イベントの CloudWatch イベントのディメンション Amazon CloudWatch Logs CloudWatch Logs の CloudWatch Logs のディメンション AWS CodeBuild AWS CodeBuild CloudWatch Metrics AWS CodeBuild CloudWatch Dimensions Amazon Connect AWS DMS AWS Direct Connect AWS Direct Connect の AWS Direct Connect のディメンション Amazon DynamoDB DynamoDB DynamoDB のディメンション Amazon EC C5 および M5 インスタンスのコレクションと計算 Amazon EC2 の Amazon EC2 のディメンション Amazon EC2 スポットフリート Amazon EC2 スポット群の Amazon EC2 スポット群ののディメンション Amazon ECS Amazon ECS Amazon ECS のディメンション Elastic Beanstalk Elastic Beanstalk の Elastic Beanstalk のディメンション Amazon ElastiCache ElastiCache のディメンション ホストレベルの Memcached の Redis の Amazon EBS Amazon EBS の Amazon EBS のディメンション Amazon EFS Amazon EFS の Amazon CloudWatch Amazon EFS のディメンション Elastic Load Balancing Application Load Balancer Application Load Balancer のディメンション Network Load Balancer Network Load Balancer のディメンション Classic Load Balancer Classic Load Balancer のディメンション Amazon EMR Amazon EMR の Amazon EMR ディメンション v

6 Amazon ES Amazon Elasticsearch Service の Amazon Elasticsearch Service のディメンション Elastic Transcoder Elastic Transcoder Elastic Transcoder のディメンション Amazon GameLift フリートの Amazon GameLift キューの Amazon GameLift マッチメーキングの Amazon GameLift Amazon GameLift のディメンション AWS Glue AWS Glue Metrics Dimensions for AWS Glue Metrics Amazon Inspector AWS IoT AWS IoT のディメンション AWS IoT Analytics AWS IoT Analytics Metrics Dimensions for Metrics Amazon Kinesis Data Analytics のディメンション Amazon Kinesis Data Firehose サービスレベル CloudWatch API レベルの CloudWatch データ変換の CloudWatch Amazon Kinesis Data Streams 基本ストリームレベル 拡張シャードレベル Amazon Kinesis のディメンション Amazon Kinesis Video Streams Metrics Amazon Kinesis Video Streams のディメンション AWS KMS AWS KMS AWS KMS のディメンション AWS Lambda AWS Lambda CloudWatch の AWS Lambda のディメンション Amazon Lex Runtime Metrics for Amazon Lex Channel Association Metrics for Amazon Lex Amazon Machine Learning Amazon ML Amazon Machine Learning のディメンション Amazon MQ Broker Metrics Destination (Queue and Topic) Metrics AWS OpsWorks AWS OpsWorks Stacks の AWS OpsWorks のディメンション Amazon Polly Amazon Polly Amazon Polly のディメンション Amazon Redshift vi

7 Amazon Redshift Amazon Redshift のディメンション Amazon RDS Amazon RDS Amazon Aurora Amazon RDS Performance Insights Metrics RDS のディメンション Route Route Route 53 のディメンション Amazon SageMaker Amazon SES Amazon SES の Amazon SES のディメンション Amazon SNS Amazon SNS Amazon Simple Notification Service のディメンション Amazon SQS Amazon SQS Amazon SQS のディメンション Amazon S バケットの Amazon S3 CloudWatch 日次ストレージ Amazon S3 CloudWatch リクエストの Amazon S3 CloudWatch ディメンション AWS Shield アドバンスド AWS Step Functions 実行 アクティビティの Lambda 関数 Amazon SWF AWS Storage Gateway AWS Storage Gateway AWS Storage Gateway のディメンション Amazon Translate CloudWatch Metrics for Amazon Translate CloudWatch Dimensions for Amazon Translate AWS Trusted Advisor Trusted Advisor チェックレベル Trusted Advisor カテゴリレベル Trusted Advisor サービスレベル チェックレベルのディメンション カテゴリレベルのディメンション サービス制限のディメンション Amazon VPC NAT Gateway NAT ゲートウェイ NAT ゲートウェイのディメンション Amazon VPC (VPN) VPN の VPN のディメンション AWS WAF AWS WAF の AWS WAF ディメンション Amazon WorkSpaces Amazon WorkSpaces メトリックス Amazon WorkSpaces メトリックスのディメンション アラームの作成 アラームの状態 vii

8 アラームを評価する アラームの欠落データの処理の設定 データが欠落した場合のアラーム状態の評価方法 高解像度アラーム パーセンタイルベースのアラームおよび少数のデータサンプル CloudWatch アラームでよく使用する機能 SNS トピックの設定 AWS マネジメントコンソールを使用した Amazon SNS トピックの設定 AWS CLI を使用した SNS トピックの設定 アラームの作成または編集 CPU 使用率アラームの作成 AWS マネジメントコンソールを使用した CPU 使用率アラームの設定 AWS CLI を使用した CPU 使用率アラームの設定 ロードバランサーのレイテンシーアラームの作成 AWS マネジメントコンソールを使用したレイテンシーアラームの設定 AWS CLI を使用したレイテンシーアラームの設定 ストレージスループットアラームの作成 AWS マネジメントコンソールを使用したストレージスループットアラームの設定 AWS CLI を使用したストレージスループットアラームの設定 インスタンスを停止 終了 再起動 または復旧するアラームを作成する Amazon CloudWatch アラームへの停止アクションの追加 Amazon CloudWatch アラームへの終了アクションの追加 Amazon CloudWatch アラームへの再起動アクションの追加 Amazon CloudWatch アラームへの復旧アクションの追加 トリガーされたアラームとアクションの履歴の表示 請求アラームの作成 請求アラートを有効にする 請求アラームの作成 アラームのステータスを確認する 請求アラームを削除する Amazon EC2 Auto Scaling アラームを非表示にする CloudWatch とインターフェイス VPC エンドポイントの使用 現在利用できるリージョン CloudWatch の VPC エンドポイントの作成 認証とアクセスコントロール 認証 アクセスコントロール CloudWatch ダッシュボードアクセス許可の更新 アクセス管理の概要 リソースおよびオペレーション リソース所有権について リソースへのアクセスの管理 ポリシー要素の指定 : アクション 効果 プリンシパル ポリシーでの条件の指定 アイデンティティベースのポリシー (IAM ポリシー ) を使用する CloudWatch コンソールを使用するために必要なアクセス権限 CloudWatch での AWS 管理 ( 事前定義 ) ポリシー お客様が管理するポリシーの例 サービスにリンクされたロールの使用 CloudWatch アラームのサービスにリンクされたロールのアクセス許可 CloudWatch アラームのサービスにリンクされたロールの作成 CloudWatch アラームのサービスにリンクされたロールの作成 CloudWatch アラームのサービスにリンクされたロールの削除 Amazon CloudWatch の権限リファレンス API コールのログ作成 CloudTrail 内の CloudWatch 情報 例 : CloudWatch ログファイルエントリ viii

9 ドキュメント履歴 ix

10 CloudWatch へのアクセス Amazon CloudWatch とは Amazon CloudWatch は アマゾンウェブサービス (AWS) リソースと AWS で実行されているアプリケーションをリアルタイムでモニタリングします リソースとアプリケーションで測定する変数であるを収集し 追跡するには CloudWatch を使用できます CloudWatch アラームは 定義するルールに従って通知を送信し また モニタリングしているリソースに自動的に変更を行います たとえば CPU 使用率 および Amazon EC2 インスタンスのディスク読み / 書きをモニタリングし そのデータを基に 増加する負荷を処理する追加のインスタンスを開始すべきかどうかを判断します また このデータを使用して 十分利用されていないインスタンスを停止することで 費用を節約することができます AWS に付属している組込みをモニタリングすることに加えて 独自のカスタムもモニタリングできます CloudWatch を使って リソース使用率 アプリケーションパフォーマンス オペレーションの正常性をシステムワイドに把握できます CloudWatch へのアクセス 次のいずれかの方法で CloudWatch にアクセスできます Amazon CloudWatch コンソール AWS CLI 詳細については AWS Command Line Interface ユーザーガイドの AWS コマンドラインインターフェイスの設定 を参照してください CloudWatch API 詳細については Amazon CloudWatchAPI リファレンス を参照してください AWS SDK 詳細については アマゾンウェブサービスのツール を参照してください AWS の関連サービス Amazon CloudWatch と併せて使用されるサービスは以下のとおりです Amazon Simple Notification Service (Amazon SNS) は 受信登録しているエンドポイントまたはクライアントへのメッセージの配信または送信の統合と管理を行います アラームのしきい値に達したとき Amazon SNS の CloudWatch を使用してメッセージを送信します 詳細については Amazon SNS 通知の設定 (p. 322) を参照してください Amazon EC2 Auto Scaling は ユーザー定義のポリシー ヘルスステータスチェック およびスケジュールに基づいて Amazon EC2 インスタンスを自動的に起動または終了します CloudWatch で Amazon EC2 Auto Scaling アラームを使用して オンデマンドで EC2 インスタンスを拡大縮小することができます 詳細については Amazon EC2 Auto Scaling ユーザーガイドの 動的なスケーリング を参照してください AWS CloudTrail では アカウントの Amazon CloudWatch API 宛ての呼び出し (AWS マネジメントコンソール AWS CLI その他のサービスによって行われる呼び出しを含む ) をモニタリングすることができます CloudTrail のログ作成をオンにすると CloudWatch は Amazon S3 の設定時に指定された CloudTrail バケットにログファイルを書き込みます 詳細については AWS CloudTrail を使用した Amazon CloudWatch API コールのログ記録 (p. 364) を参照してください AWS Identity and Access Management (IAM) は ユーザーに対して AWS リソースへのアクセスを安全に制御するためのウェブサービスです IAM により どのユーザーがお客様の AWS リソースを使用できるか ( 認証 ) それらのユーザーがどのリソースをどのような方法で使用できるか ( 承認 ) を制御できます 詳細については Amazon CloudWatch に対する認証とアクセスコントロール (p. 343) を参照してください 1

11 CloudWatch の詳細 Amazon CloudWatch の詳細 Amazon CloudWatch は 基本的にはのレポジトリーです AWS のサービス (Amazon EC2 など ) は をレポジトリに置き これらのを基に統計が取得されます 独自のカスタムをレポジトリーに置いた場合も それらのを基に統計を取得できます を使用して統計を計算し そのデータをグラフ化して CloudWatch コンソールに表示できます を生成して CloudWatch に送信するその他の AWS リソースの詳細については Amazon CloudWatch とディメンションのリファレンス (p. 108) を参照してください 一定の基準が満たされたときに Amazon EC2 インスタンスを停止 開始 または終了するアラームアクションを設定できます 加えて ユーザー操作なしで Amazon EC2 Auto Scaling および Amazon Simple Notification Service(Amazon SNS) アクションを開始するアラームを作成できます CloudWatch アラーム作成の詳細については アラーム (p. 8) を参照してください AWS クラウドコンピューティングリソースは 高可用性データセンター設備に収容されています 拡張性と信頼性を高めるため 各データセンターは リージョンとして知られる特定の地域に配置されています 各リージョンは 障害が発生しても切り分けてできる限り安定性を高めるため 他のリージョンから完全に分離される設計になっています Amazon CloudWatch は複数のリージョンにまたがってデータを集約することはありません そのため はリージョン間で完全に分離されています 詳細については アマゾンウェブサービス全般のリファレンスの リージョンとエンドポイント を参照してください Amazon CloudWatch の概念 Amazon CloudWatch を理解し使用するために重要な用語と概念を 以下に示します 名前空間 (p. 3) (p. 3) 2

12 名前空間 ディメンション (p. 4) 統計 (p. 5) パーセンタイル (p. 7) アラーム (p. 8) 名前空間 名前空間は CloudWatch のコンテナです 異なる名前空間のは相互に切り離されて 異なるアプリケーションのが誤って同じ統計に集約されないようになっています デフォルトの名前空間はありません CloudWatch に発行する各データポイントには 名前空間を指定する必要があります の作成時に名前空間名を指定できます これらの名前には有効な XML 文字を含める必要があり 長さを 256 文字未満にする必要があります 使用可能な文字は 英数字 (0-9A- Za-z) ピリオド (.) ハイフン (-) アンダースコア (_) スラッシュ (/) ハッシュ (#) コロン (:) です AWS 名前空間では 命名規則 AWS/service が使用されます たとえば Amazon EC2 は AWS/EC2 名前空間を使用します AWS 名前空間のリストについては AWS の名前空間 (p. 109) を参照してください は CloudWatch での基本的な概念です は CloudWatch に発行された時系列のデータポイントのセットを表します は監視対象の変数 データポイントは時間の経過に伴うその変数の値と考えることができます たとえば 特定の EC2 インスタンスの CPU 使用率は Amazon EC2 により提供される 1 つのです データポイント自体は データの収集元のアプリケーションまたはビジネスアクティビティから生成されます AWS のサービスが CloudWatch にを送信し お客様は独自のカスタムを CloudWatch に送信できます データポイントの順序や比率は 任意で選択して 追加できます それらのデータポイントについての統計を 順序付けられた時系列データのセットとして取得できます は作成されたリージョンにのみ存在します は削除できませんが それらに対して新しいデータが発行されない場合 15 か月後に自動的に有効期限切れになります 15 か月以上経過したデータポイントは ローリング方式で期限切れになります つまり 新しいデータポイントが入ってくるたびに 古い 15 か月以上経過したものが削除されます は名前 名前空間 0 以上のディメンションで一意に定義されます 各データポイントには タイムスタンプと ( オプションで ) 測定単位があります 統計をリクエストして返ってきたデータストリームは 名前空間 名 ディメンション ( オプションで ) 単位により識別されます 詳細については 利用可能なを表示する (p. 29) および カスタムをパブリッシュする (p. 45) を参照してください タイムスタンプ 各データポイントには タイムスタンプが付けられる必要があります タイムスタンプは 最大 2 週間前から最大 2 時間後になります ユーザーがタイムスタンプを指定しない場合は データポイントを受信した時間を基に CloudWatch がタイムスタンプを作成します タイムスタンプは 完全な日付 時間 分 秒を含む datetime オブジェクトです ( たとえば T23:59:59Z) 詳細については datetime を参照してください 必須ではありませんが 協定世界時 (UTC) を使用することをお勧めします CloudWatch から統計を取得すると すべての時刻は UTC になります CloudWatch アラームは 現在の UTC 時刻に基づいてをチェックします 現在の UTC 時刻以外のタイムスタンプで CloudWatch にカスタムが送信されると アラームが [ 不十分なデータ ] 状態を表示するか アラームに遅延が生じる可能性があります 3

13 ディメンション の保持 CloudWatch には データが次のように保持されます 期間が 60 秒未満のデータポイントは 3 時間使用できます これらのデータポイントは高解像度カスタムです 期間が 60 秒 (1 分 ) のデータポイントは 15 日間使用できます 期間が 300 秒 (5 分 ) のデータポイントは 63 日間使用できます 期間が 3600 秒 (1 時間 ) のデータポイントは 455 日 (15 か月 ) 間使用できます 最初は短い期間で発行されるデータポイントは 長期的なストレージのため一緒に集計されます たとえば 1 分の期間でデータを収集する場合 データは 1 分の解像度で 15 日にわたり利用可能になります 15 日を過ぎてもこのデータはまだ利用できますが 集計され 5 分の解像度のみで取得可能になります 63 日を過ぎるとこのデータはさらに集計され 1 時間の解像度のみで利用できます CloudWatch は 2016 年 7 月 9 日の時点で 5 分および 1 時間のデータを保持し始めました ディメンション ディメンションは を一意に識別する名前 / 値のペアです 1 あたり最大 10 ディメンションを割り当てることができます 各には それを表す固有の特徴があります ディメンションはその特徴のカテゴリーと考えることができます ディメンションは 統計プランの構造を設計するのに役立ちます ディメンションは の一意の識別子の一部であるため に一意の名前と値のペアを追加するときは常に そのの新しいバリエーションを作成していることになります CloudWatch にデータを送信する AWS のサービスは 各にディメンションを指定します CloudWatch が返す結果にフィルタを掛ける際にディメンションを使用できます たとえば を検索する際に InstanceId ディメンションを指定することにより 特定の EC2 インスタンスの統計を取得できます Amazon EC2 など特定の AWS のサービスが生成するでは CloudWatch は複数のディメンションにまたがるデータを集約する場合があります たとえば ディメンションを指定せずに AWS/EC2 名前空間にあるを検索すると CloudWatch は 指定されたの全データを集約して リクエストされた統計を作成します CloudWatch はディメンション間ではカスタムを集約しません ディメンションの組み合わせ CloudWatch は の名が同じ場合でも ディメンションの一意の各組み合わせを別個のとして扱います 明示的に発行したディメンションの組み合わせを用いてのみ 統計を取得できます 統計を取得するとき 名前空間 名 ディメンションパラメーターに 作成時に使用されたのと同じ値を指定します CloudWatch が集約に使用する開始時間と終了時間も指定できます たとえば 次のプロパティを使用して DataCenterMetric 名前空間内で ServerStats という名前の 4 つの異なるを発行するとします Dimensions: Server=Prod, Domain=Frankfurt, Unit: Count, Timestamp: T12:30:00Z, Value: 105 Dimensions: Server=Beta, Domain=Frankfurt, Unit: Count, Timestamp: T12:31:00Z, Value: 115 Dimensions: Server=Prod, Domain=Rio, Unit: Count, Timestamp: T12:32:00Z, Value: 95 4

14 統計 Dimensions: Server=Beta, Domain=Rio, Value: 97 Unit: Count, Timestamp: T12:33:00Z, これらの 4 つののみを発行した場合 次のディメンションの組み合わせで統計を取得できます Server=Prod,Domain=Frankfurt Server=Prod,Domain=Rio Server=Beta,Domain=Frankfurt Server=Beta,Domain=Rio 次のディメンションの統計を取得したり ディメンションを指定しない場合に統計を取得したりすることはできません Server=Prod Server=Beta Domain=Frankfurt Domain=Rio 統計 統計は 指定した期間のデータの集計です CloudWatch は カスタムデータまたは AWS の他のサービスから CloudWatch に提供されたデータポイントを基に 統計を提供します 集約は 指定した期間内に 名前空間 名 ディメンション データポイントの測定単位を用いて行われます 次の表は利用可能な統計をしています 統計 Minimum Maximum Sum Average 指定された期間に認められた最小値です この値を用いて アプリケーションの低ボリュームのアクティビティを判断できます 指定された期間に認められた最大値です この値を用いて アプリケーションの高ボリュームのアクティビティを判断できます 該当するで加算されたすべての合計値です この統計は の合計ボリュームを判断するのに役立ちます 指定した期間の Sum/SampleCount の値です この統計を Minimum および Maximum と比較することで の全容 および平均使用量がどれくらい Minimum と Maximum に近いかを判断できます この比較は 必要に応じていつリソースを増減させるべきかを知るのに役立ちます SampleCount 統計計算で使用するデータポイントのカウント ( 数 ) です pnn.nn 指定されたパーセンタイルの値 小数点以下最大 2 桁を使用して 任意のパーセンタイルを指定できます (p95.45 など ) パーセンタイル統計は負の値を含むに対して使用することはできません 詳細については パーセンタイル (p. 7) を参照してください 事前計算された統計を追加できます データポイント値の代わりに SampleCount Minimum Maximum Sum の値を指定します ( 平均値は CloudWatch が計算します ) この方法で追加した値は 一致すると関連付けられたその他すべての値と一緒に集約されます 5

15 統計 単位 各統計には 測定単位があります 単位の例は Bytes Seconds Count Percent などです CloudWatch がサポートする単位の全リストについては Amazon CloudWatch API リファレンスの MetricDatum データタイプを参照してください カスタムを作成するときに単位を指定できます 単位を指定しない場合 CloudWatch は単位として None を使用します 単位は データの概念的意味を与えるのに役立ちます CloudWatch は内部的に単位に意味を持たせていませんが 他のアプリケーションでは 単位を基に意味のある情報を引き出すことができます 測定単位を指定するデータポイントは個別に集約されます 単位を指定せずに統計を取得する場合 CloudWatch が同じ単位のデータポイントをすべて 1 つに集約します 単位だけが異なっている 2 つのがある場合 単位ごとに別々の 2 つのデータストリームが返されます 期間 期間とは 特定の Amazon CloudWatch の統計に関連する時間長です 各統計は 指定された期間に収集されたデータの集約を表しています 期間は秒数で定義され 期間の有効な値は または 60 の倍数になります たとえば 6 分の期間を指定するには 期間の値として 360 を使用します 期間の長さを変えることで データの集約方法を調整できます 期間は 最短 1 分から最長 1 日 (86,400 秒 ) までになります デフォルト値は 60 秒です 1 秒のストレージ解像度で定義したカスタムのみが 1 分未満の解像度をサポートします 60 秒未満の期間を設定するオプションは常にコンソールで利用できますが の保存方法に合った期間を選択する必要があります 1 分未満の期間をサポートするの詳細については 高解像度の (p. 46) を参照してください 統計を取得するとき 期間 開始時刻 終了時刻を指定できます これらのパラメーターでは 統計に関連する全体の時間長を決定します 開始時刻と終了時刻のデフォルト値では 過去 1 時間分の統計が得られます 開始時刻と終了時刻に指定した値により CloudWatch により返される期間が決まります たとえば 期間 開始時刻 終了時刻のデフォルト値を使用して統計を取得すると 過去 1 時間で毎分の集約された統計一式が返されます 10 分区切りで集約された統計を取得する場合は 期間を 600 に指定します 1 時間分の集約された統計の場合は 期間を 3600 に設定します 一定期間にわたって統計が集計されると その期間の開始時点に対応する時刻のタイムスタンプが付きます たとえば 午後 7:00~ 午後 8:00 に集計されたデータには 午後 7:00 のタイムスタンプが付きます さらに 午後 7:00~ 午後 8:00 に集計されたデータは午後 7:00 から表示され この期間中に CloudWatch がさらに多くのサンプルを集計するにつれて 集計データの値が変わる場合があります 期間は CloudWatch アラームにとっても重要です 特定のをモニタリングするアラームを作成したなら そのと指定したしきい値を比較するよう CloudWatch に依頼していることになります ユーザーは CloudWatch がその比較を行う方法を広範囲に制御できます どれくらいの期間で比較するかだけでなく 結論までに使用する評価期間数も設定できます たとえば 3 つの評価期間を設定すると CloudWatch は 3 つのデータポイントのウィンドウを比較します 最も古い期間が超過し その他の期間が超過または不足している場合にのみ CloudWatch は通知を送ります 連続して発行されるについては 3 つエラーが発見されるまで CloudWatch は通知を送りません 集計 統計の取得時に指定した期間の長さに従って Amazon CloudWatch は統計を集約します 同一または類似したタイムスタンプを使って 必要なだけ多くのデータポイントを発行できます CloudWatch は期間の長さでそれらのデータポイントを集計します 集約された統計は 詳細モニタリングを利用している場合のみ取得できます 加えて Amazon CloudWatch は複数のリージョンにまたがってデータを集約することはありません 同じタイムスタンプだけでなく 同じ名前空間とディメンションを共有するのデータポイントをパブリッシュできます CloudWatch は それらのデータポイントの集約された統計を返します ま 6

16 パーセンタイル た どのタイムスタンプでも 同じまたは異なるの複数のデータポイントをパブリッシュすることもできます 大きいデータセットの場合 統計セットという事前集約されたデータセットを挿入できます 統計セットにより CloudWatch に多数のデータポイントの Min ( 最小値 ) Max ( 最大値 ) Sum ( 合計 ) SampleCount ( サンプルカウント ) を与えます これは 1 分間に何回もデータを収集する必要がある場合によく使用されます たとえば ウェブページのリクエストレイテンシーに関するがあるとします ウェブページがヒットされるたびにデータを発行することは意味を成しません そこで そのウェブページの全ヒットのレイテンシーを収集してそのデータを毎分集約し その統計セットを CloudWatch に送信することができます Amazon CloudWatch は のソースを区別しません ソースが異なっていても 名前空間とディメンションが同じがパブリッシュされれば CloudWatch はこれを 1 つのとして扱います これは 分散型の 拡大縮小されたシステムのサービスで有用です たとえば ウェブサーバーのアプリケーションのすべてのホストが処理するリクエストのレイテンシーを表すを 1 つにまとめてパブリッシュできます CloudWatch はこれらを 1 つのとして扱い アプリケーション全体ですべてのリクエストの最小値 最大値 平均 合計の統計を取得できるようにします パーセンタイル パーセンタイルは データセットにおける値の相対的な位置を示します たとえば 95 パーセンタイルは 95 パーセントのデータがこの値を下回っており 5 パーセントのデータがこの値を上回っていることを意味します パーセンタイルにより データの分布をよく理解することができます パーセンタイルが使用可能なサービスは 次のとおりです Amazon EC2 Amazon RDS Kinesis Application Load Balancer Elastic Load Balancing API Gateway パーセンタイルは 異常を分離するためによく使用されます 一般的な分布では 95 パーセントのデータが平均から 2 標準偏差以内に収まっており 99.7 パーセントのデータが平均から 3 標準偏差以内に収まっています 3 標準偏差に収まらないデータは 平均値とかけ離れているため 多くの場合異常と見なされます たとえば お客様の満足度を高めるため EC2 インスタンスの CPU 使用率をモニタリングしているとします 平均をモニタリングした場合 異常が見えなくなる可能性があります 最大をモニタリングした場合 1 つの異常のために正しい結果が見えなくなる可能性があります パーセンタイルを使用すると CPU 使用率の 95 パーセンタイルをモニタリングし 負荷が異常に高いインスタンスをチェックできます 他の CloudWatch 統計 ( 平均 最小 最大 合計 ) を使用するのと同じように パーセンタイルを使用してシステムとアプリケーションをモニタリングできます たとえば アラームを作成するとき パーセンタイルを統計関数として使用できます 小数点以下最大 2 桁のパーセンタイルを指定できます (p95.45 など ) カスタムおよび AWS のサービスのでパーセンタイル統計を利用できます ( ただし カスタムの要約されていない raw データポイントを発行することが条件です ) パーセンタイル統計は 値が負の数値のに対して使用することはできません CloudWatch は raw データポイントを使用してパーセンタイルを計算します 統計セットを使用してデータをパブリッシュする場合は 以下の条件のいずれかが真である場合のみ このデータのパーセンタイル統計を取得できます 統計セットの SampleCount が 1 7

17 アラーム 統計セットの最小値と最大値が同一である アラーム アラームを使用すると アクションを自動的に開始することができます アラームは 指定した期間の単一のを監視し 一定期間におけるしきい値との値の関係性に基づいて 1 つ以上の指定されたアクションを実行します アクションは Amazon SNS トピックまたは Auto Scaling ポリシーに送信される通知です アラームはダッシュボードに追加することもできます アラームは 持続している状態変化に対してのみアクションを呼び出します CloudWatch アラームは 特定の状態にあるという理由だけではアクションを呼び出しません 状態が変って 変わった状態が指定期間にわたって維持される必要があります アラームを作成する際 のモニタリング頻度以上の期間を選択します たとえば Amazon EC2 の基本モニタリングでは 5 分ごとにインスタンスのが提供されます 基本モニタリングのにアラームを設定する場合 少なくとも 300 秒 (5 分 ) の期間を選択します Amazon EC2 の詳細モニタリングでは 1 分ごとにインスタンスのが生成されます 詳細モニタリングのにアラームを設定する場合 少なくとも 60 秒 (1 分 ) の期間を選択します 高解像度でアラームを設定する場合 10 秒または 30 秒の期間で高解像度アラームを指定するか 60 秒の倍数の期間で通常のアラームを設定できます 高解像度のアラームには高い料金が発生します 高解像度の詳細については カスタムをパブリッシュする (p. 45) を参照してください 詳細については Amazon CloudWatch アラームの作成 (p. 318) および グラフのからアラームを作成する (p. 45) を参照してください CloudWatch の制限 CloudWatch には以下の制限があります リソース アクション デフォルトの制限 5/ アラーム この制限は変更できません アラーム 10/ 月 / 顧客で無料 アカウントごと リージョンごとに API リクエスト 1,000,000/ 月 / 顧客で無料 カスタム無制限. ダッシュボード アカウントあたり最大 1000 ダッシュボード ダッシュボードウィジェットあたり最大 100 ダッシュボードあたり最大 500 すべてのウィジェットで これらの制限は変更できません DescribeAlarms 1 秒あたり 9 件のトランザクション (TPS). スロットリングなしで 1 秒あたりに実行できるオペレーションリクエストの最大数 制限の引き上げをリクエストできます ディメンション 10/ この制限は変更できません 8

18 制限 リソース GetMetricData デフォルトの制限 1 秒あたり 50 件のトランザクション (TPS). スロットリングなしで 1 秒あたりに実行できるオペレーションリクエストの最大数 API リクエストで使用される StartTime が現在の時刻より 3 時間以内である場合は 180,000 Datapoints Per Second (DPS) StartTime が現在の時刻より 3 時間より長い場合は 90,000 DPS これは スロットリングなしで 1 つ以上の API コールを使用して 1 秒あたりにリクエストできるデータポイントの上限です これらの両方の制限を引き上げることができます GetMetricData 1 つの GetMetricData コールには 最大 100 の MetricDataQuery 構造を含めることができます この制限は変更できません GetMetricStatistics 1 秒あたり 400 件のトランザクション (TPS). スロットリングなしで 1 秒あたりに実行できるオペレーションリクエストの最大数 制限の引き上げをリクエストできます ListMetrics 1 秒あたり 25 件のトランザクション (TPS) スロットリングなしで 1 秒あたりに実行できるオペレーションリクエストの最大数 制限の引き上げをリクエストできます ListMetrics 1 秒あたり 25 件のトランザクション (TPS) スロットリングなしで 1 秒あたりに実行できるオペレーションリクエストの最大数 制限の引き上げをリクエストできます データ MetricDatum 項目間隔 PutMetricAlarm リクエスト 15 か月. この制限は変更できません 20/PutMetricData リクエスト 1 つの MetricDatum オブジェクトに単一値 または多数の値を表す StatisticSet オブジェクトを含めることができます この制限は変更できません 10/ 月 / 顧客で無料 最大値は 1 日 (86,400 秒 ) です この制限は変更できません 1 秒あたり 3 件のトランザクション (TPS). スロットリングなしで 1 秒あたりに実行できるオペレーションリクエストの最大数 制限の引き上げをリクエストできます 9

19 リソース リソース PutMetricData リクエスト デフォルトの制限 HTTP POST リクエストでは 40 KB PutMetricData は スロットリングなしで 1 秒あたりに実行できるオペレーションリクエストの最大数として 1 秒あたり 150 のトランザクションを処理できます (TPS) 制限の引き上げをリクエストできます Amazon SNS メール通知 1,000/ 月 / 顧客で無料 Amazon CloudWatch リソース このサービスを利用する際に役立つ関連リソースは以下の通りです リソース Amazon CloudWatch のよくある質問 リリースノート 本製品に関して開発者からよく寄せられる上位の質問です リリースノートには 最新リリースの概要が記載されています 新機能 解決された問題 既知の問題が具体的に記載されています AWS 開発者リソースセンター資料 コード例 リリースノートをはじめとする AWS ベースの革新的なアプリケーション開発に役立つさまざまな情報が収められた 中心的起点となるリソースセンターです AWS マネジメントコンソール Amazon CloudWatch ディスカッションフォーラム AWS サポート Amazon CloudWatch 製品情報 お問い合わせ コンソールでは プログラミングを行うことなく Amazon CloudWatch とその他の AWS のサービスのほとんどの機能を実行できます Amazon CloudWatch に関連する技術的な質問を提起するための 開発者向けコミュニティベースフォーラムです AWS サポートケースを作成および管理するためのハブ フォーラム 技術上のよくある質問 サービス状態ステータス AWS Trusted Advisor などの便利なリソースへのリンクも含まれています Amazon CloudWatch に関する情報のメインのウェブページ AWS の支払い アカウント設定その他に関する連絡先です 10

20 アマゾンウェブサービス (AWS) にサインアップ 準備作業 Amazon CloudWatch を使用するには AWS アカウントが必要です AWS アカウントがあれば Amazon EC2 などのサービスを利用して CloudWatch コンソール ( ポイントしてクリックするウェブベースのインターフェース ) で表示できるを生成できます 加えて AWS コマンドラインインターフェース (CLI) をインストールし 設定することができます アマゾンウェブサービス (AWS) にサインアップ AWS アカウントを作成すると すべての AWS サービスに自動的にサインアップされます 料金が発生するのは お客様が使用したサービスの分のみです 既に AWS アカウントをお持ちの場合は次の手順に進んでください AWS アカウントをお持ちでない場合は 次にする手順にしたがってアカウントを作成してください サインアップして AWS アカウントを作成するには 1. を開き [AWS アカウントの作成 ] を選択します Note AWS アカウントのルートユーザー認証情報を使用して すでに AWS マネジメントコンソールにサインインしている場合は [Sign in to a different account ( 別のアカウントにサインインする )] を選択します IAM 認証情報を使用して すでにコンソールにサインインしている場合は [Sign-in using root account credentials ( ルートアカウントの資格情報を使ってサインイン )] を選択します [ 新しい AWS アカウントの作成 ] を選択します 2. オンラインの手順に従います サインアップ手順の一環として 通話呼び出しを受け取り 電話のキーパッドを用いて確認コードを入力することが求められます Amazon CloudWatch コンソールにサインインする Amazon CloudWatch コンソールにサインインするには 1. にある CloudWatch コンソールを開きます 2. 必要に応じて ナビゲーションバーを使い リージョンを AWS リソースがあるリージョンに変更します 3. CloudWatch コンソールを初めて使用するのに [Your Metrics ( )] にが表示されている場合があります これは Amazon CloudWatch に無料で自動的にをプッシュする AWS 製品を使用したことがある場合です その他の AWS 製品では を有効にする必要があります 作成済みのアラームがない場合 [Your Alarms] セクションに [Create Alarm] ボタンが表示されます AWS CLI のセットアップ AWS CLI または Amazon CloudWatch CLI を使用して CloudWatch コマンドを実行できます AWS CLI が CloudWatch CLI に取って代わることに注意してください CloudWatch の新しい機能は AWS CLI にのみ含まれます 11

21 AWS CLI のセットアップ AWS CLI をインストールして設定する方法については AWS Command Line Interface ユーザーガイドの AWS コマンドラインインターフェースの設定 を参照してください Amazon CloudWatch CLI をインストールして設定する方法については Amazon CloudWatch CLI Reference の Set Up the Command Line Interface を参照してください 12

22 シナリオ : 予想請求額のモニタリング Amazon CloudWatch の使用開始 以下のシナリオでは Amazon CloudWatch を使用する方法を示します 最初のシナリオでは CloudWatch コンソールを使用して AWS の使用量を追跡して一定の消費のしきい値を超えたときに通知する 請求アラームを作成します 2 つ目のシナリオはより高度なものです AWS コマンドラインインターフェイス (CLI) を使用して GetStarted という仮定のアプリケーション用に 1 つのをパブリッシュします シナリオ 予想請求額のモニタリング (p. 13) をパブリッシュする (p. 16) シナリオ : CloudWatch で予想請求額をモニタリングする このシナリオでは 予想請求額をモニタリングする Amazon CloudWatch アラームを作成します ご使用の AWS アカウントに対する予想請求額のモニタリングを有効にすると 予想請求額が計算されて データとして CloudWatch に 1 日複数回送信されます 請求データは米国東部 ( バージニア北部 ) リージョンに保存され 世界全体の請求額として反映されます このデータには 使用した AWS の各サービスに対する予想請求額と AWS 全体の予想請求額が含まれています 請求額が所定のしきい値を超過したときにメールでアラートを受け取るようにすることができます これらのアラートは CloudWatch によってトリガーされ メッセージが Amazon Simple Notification Service (Amazon SNS) により送信されます タスク ステップ 1: 請求アラートを有効にする (p. 13) 手順 2: 請求アラームを作成する (p. 14) 手順 3: アラームの状態をチェックする (p. 15) 手順 4: 請求アラームを編集する (p. 15) 手順 5: 請求アラームを削除する (p. 16) ステップ 1: 請求アラートを有効にする 予想請求額のアラームを作成する前に 請求アラートを有効にする必要があります 有効にすると 予想 AWS 請求額をモニタリングし 請求データを使用してアラームを作成できます 請求アラートを有効にすると データの収集を無効にできなくなりますが 作成した請求アラームは削除できます 初めて予想請求額のモニタリングを有効にした後 請求データの表示と請求アラートの設定ができるようになるまで約 15 分かかります 要件 ルートアカウント認証情報を使用してサインインする必要があります IAM ユーザーが AWS アカウントの請求アラートを有効にすることはできません 一括請求 ( コンソリデーティッドビリング ) のアカウントの場合 支払いアカウントでログインすると リンクされている各アカウントの請求データを見ることができます リンクされているそれぞれの 13

23 手順 2: 請求アラームを作成する アカウントと一括請求アカウントのどちらに対しても 予想請求合計額とサービスごとの予想請求額のデータを見ることができます 予想請求額のモニタリングを有効にするには 1. にある Billing and Cost Management コンソールを開きます 2. ナビゲーションペインで [Preferences] を選択します 3. [ 請求アラートを受け取る ] を選択します 4. [Save preferences] を選択します 手順 2: 請求アラームを作成する 請求アラートを有効にした後 請求アラームを作成できるようになります このシナリオでは AWS の予想請求額が指定されたしきい値を超えたときにメールメッセージを送信するアラームを作成します Note この手順では 簡単なオプションを使用します 詳細なオプションを使用するには 予想 AWS 請求額をモニタリングする請求アラームの作成で 請求アラームの作成 (p. 339) を参照してください 請求アラームを作成するには 1. にある CloudWatch コンソールを開きます 2. 必要に応じてリージョンを米国東部 ( バージニア北部 ) に変更します 請求データはこのリージョンに保存され 世界全体の請求額を反映します 3. ナビゲーションペインで [Alarms] [Billing] を選択します 4. 月の AWS ご利用料金総額を超過するたびで アラームをトリガーし メール通知が送信されるようにするために超過することが必要な金額 ( 例 : 200) を指定します Tip [Alarm Preview] に 適切な金額を設定するために使用できる料金の見積もりがあります 14

24 手順 3: アラームの状態をチェックする 5. [Send a notification to] で 既存の通知リストを選択するか 新しい通知リストを作成します リストを作成するには [ 新しいリスト ] を選択して アラームがアラーム状態に変わったら通知するメールアドレスを カンマ区切りのリストに入力します 各 E メールアドレスには サブスクリプションの確認メールが送信されます 受信者は E メールアドレスに通知が送信される前に サブスクリプションを確認する必要があります 6. [Create Alarm] を選択します 手順 3: アラームの状態をチェックする 作成したばかりの請求アラームの状態をチェックします アラームのステータスを確認するには 1. にある CloudWatch コンソールを開きます 2. 必要に応じてリージョンを米国東部 ( バージニア北部 ) に変更します 請求データはこのリージョンに保存され 世界全体の請求額を反映します 3. ナビゲーションペインで [Alarms] [Billing] を選択します 4. ポリシーの横にあるチェックボックスをオンにします サブスクリプションが確認されるまで 保留中の確認 と表示されます サブスクリプションが確認された後 更新されたステータスを表示するためにコンソールを更新します 手順 4: 請求アラームを編集する 毎月 AWS で使う金額を 200 USD から 400 USD に増やしたいとします 既存の請求アラームを編集して アラームがトリガーされるしきい値の金額を上げることができます 15

25 手順 5: 請求アラームを削除する 請求アラームを編集するには 1. にある CloudWatch コンソールを開きます 2. 必要に応じてリージョンを米国東部 ( バージニア北部 ) に変更します 請求データはこのリージョンに保存され 世界全体の請求額を反映します 3. ナビゲーションペインで [Alarms] [Billing] を選択します 4. アラームの横にあるチェックボックスをオンにして [Actions] [Modify] の順に選択します 5. 月の AWS ご利用料金総額を超過するたびで アラームをトリガーし メール通知が送信されるようにするために超過することが必要な新しい金額を指定します 6. [Save Changes] を選択します 手順 5: 請求アラームを削除する 不要になった請求アラームは削除できます 請求アラームを削除するには 1. にある CloudWatch コンソールを開きます 2. 必要に応じてリージョンを米国東部 ( バージニア北部 ) に変更します 請求データはこのリージョンに保存され 世界全体の請求額を反映します 3. ナビゲーションペインで [Alarms] [Billing] を選択します 4. アラームの横にあるチェックボックスをオンにして [Actions] [Delete] の順に選択します 5. 確認を求めるメッセージが表示されたら [Yes, Delete] を選択します シナリオ : を CloudWatch にパブリッシュする このシナリオでは AWS Command Line Interface (AWS CLI) を使用して GetStarted という仮定のアプリケーションの 1 つのをパブリッシュします まだ AWS CLI をインストールして設定していない場合 AWS Command Line Interface ユーザーガイドの AWS Command Line Interface のセットアップ を参照してください タスク 手順 1: データ構成を定義する (p. 16) 手順 2: CloudWatch にを追加する (p. 17) 手順 3: CloudWatch から統計を取得する (p. 18) 手順 4: コンソールでグラフを表示する (p. 18) 手順 1: データ構成を定義する このシナリオでは アプリケーションのリクエストレイテンシーを追跡するデータポイントをパブリッシュします の名前と名前空間は わかりやすいものを選択します この例では に RequestLatency という名前を付けて すべてのデータポイントを GetStarted という名前空間に入れます パブリッシュするデータポイントは多数あります これらの集合が 3 時間分のレイテンシーデータを表します 生データは 3 時間にわたって読み取られた 15 個のリクエストレイテンシー読み取り値で構成されています 読み取り値の単位はミリ秒です 16

26 手順 2: CloudWatch にを追加する 1 時間目 : 時間目 : 時間目 : データを CloudWatch にパブリッシュするときは 単一のデータポイントとしてパブリッシュすることも 複数のデータポイントを集約したセット ( 統計セット ) としてパブリッシュすることもできます 集約の最小単位は 1 分間です データポイントを集約して統計セットとして CloudWatch にパブリッシュするときに 4 つの事前定義キー (Sum Minimum Maximum SampleCount) を指定できます ここでは 1 時間目のデータポイントをそれぞれ単一データポイントとしてパブリッシュします 2 時間目と 3 時間目のデータについては データポイントを時間ごとに集約し 統計セットとしてパブリッシュします キーの値を次の表に示します 時間 生データ 合計 Minimum 最大 SampleCount , 113, 189, 65, , 47, 133, 98, 100, 手順 2: CloudWatch にを追加する データ構成の定義が完了すると データを追加できる状態になります データポイントを CloudWatch にパブリッシュするには 1. 最初の時間のデータを追加するには コマンドプロンプトで次の put-metric-data コマンドを実行します 協定世界時 (UTC) で サンプルのタイムスタンプを 2 時間前のタイムスタンプと入れ替えます aws cloudwatch put-metric-data --metric-name RequestLatency --namespace GetStarted \ --timestamp T20:30:00Z --value 87 --unit Milliseconds aws cloudwatch put-metric-data --metric-name RequestLatency --namespace GetStarted \ --timestamp T20:30:00Z --value 51 --unit Milliseconds aws cloudwatch put-metric-data --metric-name RequestLatency --namespace GetStarted \ --timestamp T20:30:00Z --value unit Milliseconds aws cloudwatch put-metric-data --metric-name RequestLatency --namespace GetStarted \ --timestamp T20:30:00Z --value unit Milliseconds 2. 最初の 1 時間よりも 1 時間遅いタイムスタンプを使用して 2 時間目のデータを追加します aws cloudwatch put-metric-data --metric-name RequestLatency --namespace GetStarted \ --timestamp T21:30:00Z --statistic-values Sum=577,Minimum=65,Maximum=189,SampleCount=5 --unit Milliseconds 3. 現在の時刻にデフォルト設定されているタイムスタンプを省略して 3 時間目のデータを追加します aws cloudwatch put-metric-data --metric-name RequestLatency --namespace GetStarted \ 17

27 手順 3: CloudWatch から統計を取得する --statistic-values Sum=806,Minimum=47,Maximum=328,SampleCount=6 --unit Milliseconds 手順 3: CloudWatch から統計を取得する これで CloudWatch にをパブリッシュしたので 次のように get-metric-statistics コマンドを使用してこれらのに基づいた統計を取得できます --start-time と --end-time は パブリッシュした最も早いタイムスタンプが含まれるように 必ずそれよりも前の時刻を指定してください aws cloudwatch get-metric-statistics --namespace GetStarted --metric-name RequestLatency -- statistics Average \ --start-time T00:00:00Z --end-time T00:00:00Z --period 60 出力例を次に示します { "Datapoints": [], "Label": "Request:Latency" } 手順 4: コンソールでグラフを表示する CloudWatch にをパブリッシュし終わったら CloudWatch コンソールを使用して統計グラフを表示できます 統計情報のグラフをコンソールで表示するには 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインで [ ] を選択します 3. [All metrics] タブで 検索ボックスで RequestLatency と入力して Enter キーを押します 4. RequestLatency のチェックボックスを選択します のデータのグラフが上のペインに表示されます 詳細については をグラフ化 (p. 41) を参照してください 18

28 ダッシュボードを作成する Amazon CloudWatch ダッシュボードの使用 Amazon CloudWatch ダッシュボードは CloudWatch コンソールにあるカスタマイズ可能なホームページであり ダッシュボードを使用すれば 異なるリージョンにまたがっているリソースでも 1 つのビューでモニタリングできます CloudWatch ダッシュボードを使用して AWS のリソースのおよびアラームをカスタマイズした状態で表示することができます ダッシュボードでは 以下のことが可能です 複数のリージョンのリソースやアプリケーションの状態を評価するのに役立つ選ばれたおよびアラームを 1 つの画面で表示 各グラフのごとに使用する色を選択できるため 複数のグラフにわたる同一のを追跡しやすくなります 操作イベント中の特定の問題への対処法に関して チームのメンバーにガイダンスを提供する運営計画 操作イベント中により短いコミュニケーションフローで チームメンバーに共有できる重要なリソースとアプリケーション測定の共通表示 コンソール AWS CLI または PutDashboard API を使用してダッシュボードを作成できます コンテンツ CloudWatch ダッシュボードを作成する (p. 19) CloudWatch ダッシュボードにグラフを追加または削除する (p. 20) CloudWatch ダッシュボードのグラフの移動とサイズ変更 (p. 22) CloudWatch ダッシュボードのグラフを編集する (p. 22) CloudWatch ダッシュボードで手動でをグラフ化する (p. 24) CloudWatch ダッシュボードのグラフ名を変更する (p. 25) CloudWatch ダッシュボードからテキストウィジェットの追加や編集 削除をする (p. 25) CloudWatch ダッシュボードよりアラームを追加または削除する (p. 26) CloudWatch ダッシュボードを使用して 複数のリージョンのリソースをモニタリングする (p. 26) CloudWatch ダッシュボードのグラフをリンクまたはリンク解除する (p. 27) [ お気に入り ] リストにダッシュボードを追加する (p. 27) CloudWatch ダッシュボードの更新間隔を変更する (p. 27) CloudWatch ダッシュボードの時間範囲またはタイムゾーン形式を変更する (p. 28) CloudWatch ダッシュボードを作成する CloudWatch ダッシュボードを開始するには まずダッシュボードを作成する必要があります 複数のダッシュボードを作成することができます AWS アカウントでの CloudWatch ダッシュボードの数に制限はありません すべてのダッシュボードはグローバルで リージョン固有ではありません このセクションのステップでは コンソールを使用してダッシュボードを作成します PutDashboard API を使用してダッシュボードを作成することもできます この場合 JSON 文字列を使用してダッシュボードの内容を定義します PutDashboard を使用してダッシュボードを作成する際に 既存のダッシュボードに基づいてダッシュボードを作成するには [ アクション ] [ ソースの表示 / 編集 ] を選択して 新しいダッシュボードに使用する現在のダッシュボードの JSON 文字列を表示してコピーします 19

29 グラフを追加または削除する API を使用したダッシュボード作成の詳細については Amazon CloudWatch API リファレンスの PutDashboard を参照してください コンソールを使用してダッシュボードを作成するには 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインで [Dashboards] [Create dashboard] の順に選択します 3. [Create new dashboard] ダイアログボックスで ダッシュボード名を入力し [Create dashboard] を選択します 4. [Add to this dashboard] ダイアログボックスで 次のいずれかを実行します ダッシュボードにグラフを追加するには [ 折れ線 ] または [ スタックされたエリア ] を選択し [ 設定 ] を選択します [Add metric graph] ダイアログボックスで グラフのを選択し [Create widget] を選択します 14 日を超える期間にわたりデータを公開していないため 特定のがダイアログボックスに表示されない場合は 手動で追加できます 詳細については CloudWatch ダッシュボードで手動でをグラフ化する (p. 24) を参照してください を表示する数をダッシュボードに追加するには [Number] [Configure] を選択します [Add metric graph] ダイアログボックスで グラフのを選択し [Create widget] を選択します ダッシュボードにテキストブロックを追加するには [Text] [Configure] を選択します [ 新しいテキストウィジェット ] ダイアログボックスの [ マークダウン ] で [ マークダウン ] を使用したテキストを追加します [Create widget] を選択します 5. オプションで [Add widget] を選択してステップ 4 を繰り返し 別のウィジェットをダッシュボードに追加します このステップは複数回繰り返すことができます 6. ダッシュボードを保存を選択します CloudWatch ダッシュボードにグラフを追加または削除する モニタリングするリソースについて ダッシュボードに 1 つ以上のを含むグラフを追加できます グラフは不要になったら削除できます グラフをダッシュボードに追加する方法 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインで [Dashboards] を選択し ダッシュボードを選択します 3. [Add widget] を選択します 4. [ 折れ線 ] または [ スタックされたエリア ] を選択した後 [ 設定 ] を選択します 5. [All metrics] タブで をグラフに選択します 14 日を超える期間にわたりデータを公開していないため 特定のがダイアログボックスに表示されない場合は 手動で追加できます 詳細については CloudWatch ダッシュボードで手動でをグラフ化する (p. 24) を参照してください 6. ( オプション ) グラフ化するを選択すると グラフの色を変更できます 変更するには [Graphed metrics] を選択し の横にある色が付いた四角形を選択してカラーピッカーボックスを表示します カラーピッカーの他の色の四角形を選択します カラーピッカーの外側をクリックすると 新しい色がグラフに表示されます または カラーピッカーで 変更したい色を表す 16 進数 6 桁スタンダードの HTML カラーコードを入力して ENTER を押します 7. ( オプション ) グラフ化されたについての詳細情報を表示するには 文にマウスカーソルを合わせます 20

30 グラフを追加または削除する 8. ( オプション ) ウィジェットタイプを変更するには グラフのタイトルエリアの上にマウスを移動し [Widget actions] [Widget type] の順に選択します 9. ( オプション ) に使用する統計を変更するには [ グラフ化した ] [ 統計 ] の順に選択して 使用する統計を選択します 詳細については 統計 (p. 5) を参照してください 10. ( オプション ) グラフに表示される時間範囲を変更するには グラフ上部の [ カスタム ] または [ カスタム ] の左にある期間のいずれかを選択します 11. ( オプション ) 水平の注釈は ダッシュボードユーザーがいつが特定のレベルにまで急上昇したか または が事前定義された範囲内にあるかどうかをすばやく確認するのに役立ちます 水平の注釈を追加するには [Graph options] [Add horizontal annotation] を選択します a. [Label] には 注釈のラベルを入力します b. [Value] には 水平の注釈が表示される値を入力します c. [Fill] には この注釈でフィルシェーディングを使用するかどうかを指定します たとえば 対応するエリアを塗りつぶすには Above または Below を選択します Between を指定すると もう 1 つの Value フィールドが表示され 2 つの値の間のグラフのエリアが塗りつぶされます d. [Axis] では グラフに複数のが含まれる場合 Value の数値が左の Y 軸または右の Y 軸のどちらに関連するを指すかを指定します 注釈の塗りつぶしの色を変更するには 注釈の左側の列の色がついた四角形を選択します 同じグラフに複数の水平注釈を追加するには これらのステップを繰り返します 注釈を非表示にするには 注釈の左の列のチェックボックスをオフにします 注釈を削除するには [Actions] の列の [x] を選択します 12. ( オプション ) 垂直の注釈は 運用イベントや デプロイの開始 / 終了などのマイルストーンをグラフにマークするために役立ちます 垂直の注釈を追加するには [ グラフのオプション ] [ 垂直の注釈の追加 ] を選択します a. [Label] には 注釈のラベルを入力します 注釈で日時のみを表示するには [ ラベル ] フィールドを空白のままにします b. [ 日付 ] に 垂直の注釈が表示される日時を指定します c. [ 範囲 ] で フィルシェーディングを垂直の注釈の前で使用するか 後で使用するか または 2 つの注釈の間に使用するか指定します たとえば 対応するエリアを塗りつぶすには Before または After を選択します Between を指定すると もう 1 つの Date フィールドが表示され 2 つの値の間のグラフのエリアが塗りつぶされます 同じグラフに複数の垂直注釈を追加するには これらのステップを繰り返します 注釈を非表示にするには 注釈の左の列のチェックボックスをオフにします 注釈を削除するには [Actions] の列の [x] を選択します 13. [Create widget] を選択します 14. ダッシュボードを保存を選択します グラフをダッシュボードから削除する方法 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインで [Dashboards] を選択し ダッシュボードを選択します 3. グラフのタイトルにマウスカーソルを合わせ [Widget actions] [Delete] の順に選択します 4. ダッシュボードを保存を選択します 変更を保存する前にダッシュボードから離れる場合は 変更を保存するか破棄するよう求められます 21

31 グラフを移動 またはサイズを変更する CloudWatch ダッシュボードのグラフの移動とサイズ変更 CloudWatch ダッシュボードのグラフを調節したり サイズを変更したりすることができます ダッシュボードのグラフを移動する方法 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインで [Dashboards] を選択し ダッシュボードを選択します 3. 選択アイコンが表示されるまで グラフのタイトルにマウスカーソルを合わせます グラフを選択し ダッシュボード上の移動先にドロップします 4. ダッシュボードを保存を選択します グラフのサイズを変更するには 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインで [Dashboards] を選択し ダッシュボードを選択します 3. サイズを大きくしたり小さくするには グラフにマウスカーソルを合わせ グラフの右下をドラッグします 4. ダッシュボードを保存を選択します 一時的にグラフを拡大するには 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインで [Dashboards] を選択し ダッシュボードを選択します 3. グラフを選択します あるいは グラフのタイトルにマウスカーソルを合わせ [ ウィジェットアクション ] を選択し [ 拡大 ] を選択します CloudWatch ダッシュボードのグラフを編集する タイトルや統計 期間を変更したり を追加や削除したりしてグラフを編集できます グラフに複数のが表示されている場合 関係のないを一時的に非表示にすることで 作業を簡潔に行うことができます ダッシュボードのグラフを編集する方法 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインで [Dashboards] を選択し ダッシュボードを選択します 3. グラフのタイトルにマウスカーソルを合わせ [Widget actions] [Edit] を選択します 4. グラフのタイトルを変更するには タイトルを選択し 新しいタイトルを入力して Enter キーを押します 5. グラフに表示される時間範囲を変更するには グラフ上部の [ カスタム ] または [ カスタム ] の左にある期間のいずれかを選択します 6. グラフの別々の行 グラフの積み上げ行 および数値の間のウィジェットのタイプを変更するには [ カスタム ] の右側にあるボックスを選択し [ 行 ] [ スタックされたエリア ] [ 数値 ] のいずれかを選択します 7. 画面の下部にある [Graphed metrics] タブで 色 統計 または期間を変更できます 22

32 グラフを編集する a. 各行の色を変更するには の横にある色が付いた四角形を選択し カラーピッカーボックスを表示します カラーピッカーの新しい色を選択してから カラーピッカーの外側をクリックすると 新しい色がグラフに表示されます または カラーピッカーで 変更したい色を表す 16 進数 6 桁の HTML カラーコードを入力して ENTER を押します b. 統計を変更するには ウィンドウの左下の [Statistic] を選択し 必要な新しい統計を選択します 詳細については 統計 (p. 5) を参照してください c. ウィンドウの下半分で [ 統計 ] の横にある期間を変更するには [ 期間 ] を選択し 別の値を選択します この新しい設定は ダッシュボードの期間設定自体が Auto に設定されている場合のみ使用されます それ以外の場合は ダッシュボードの期間設定が 個々のウィジェットの期間設定よりも優先されます 8. 水平の注釈を追加または編集するには [Graph options] を選択します a. 水平の注釈を追加するには [Add horizontal annotation] を選択します b. [Label] には 注釈のラベルを入力します c. [Value] には 水平の注釈が表示される値を入力します d. [Fill] では この注釈でフィルシェーディングを使用する方法を指定します たとえば 対応するエリアを塗りつぶすには Above または Below を選択します Between を指定すると もう 1 つの Value フィールドが表示され 2 つの値の間のグラフのエリアが塗りつぶされます 注釈の塗りつぶしの色を変更するには 注釈の左側の列の色がついた四角形を選択します e. [Axis] では グラフに複数のが含まれる場合 Value の数値が左の Y 軸または右の Y 軸のどちらに関連するを指すかを指定します 同じグラフに複数の水平注釈を追加するには これらのステップを繰り返します 注釈を非表示にするには 注釈の左の列のチェックボックスをオフにします 注釈を削除するには [Actions] の列の [x] をクリックします 9. 垂直の注釈を追加または編集するには [ グラフのオプション ] [ 垂直の注釈の追加 ] を選択します a. 垂直の注釈を追加するには [ 垂直の注釈の追加 ] を選択します b. [Label] には 注釈のラベルを入力します 注釈で日時のみを表示するには [ ラベル ] フィールドを空白のままにします c. [ 日付 ] に 垂直の注釈が表示される日時を指定します d. [ 範囲 ] で フィルシェーディングを垂直の注釈の前で使用するか 後で使用するか または 2 つの注釈の間に使用するか指定します たとえば 対応するエリアを塗りつぶすには Before または After を選択します Between を指定すると もう 1 つの Date フィールドが表示され 2 つの値の間のグラフのエリアが塗りつぶされます 同じグラフに複数の垂直注釈を追加するには これらのステップを繰り返します 注釈を非表示にするには 注釈の左の列のチェックボックスをオフにします 注釈を削除するには [Actions] の列の [x] を選択します 10. グラフの凡例の位置を非表示にするか 変更するには グラフのタイトルにマウスカーソルを移動し [ ウィジェットのアクション ] [ 編集 ] の順に選択します [ 凡例 ] にマウスカーソルを移動し [ 非表示 ] [ 下部 ] または [ 右 ] を選択します 11. 変更が完了したら [ ウィジェットの更新 ] を選択します 一時的にダッシュボードのグラフを非表示にすることができます 1. にある CloudWatch コンソールを開きます 23

33 CloudWatch ダッシュボードで手動でをグラフ化する 2. ナビゲーションペインで [Dashboards] を選択し ダッシュボードを選択します 3. グラフのフッターで 凡例の色付きの四角にマウスカーソルを合わせます 四角が X に変わったら それをクリックします 4. を復元するには グレーの四角と名を選択します CloudWatch ダッシュボードで手動でをグラフ化する 過去 14 日間にわたりがデータを発行していない場合 CloudWatch ダッシュボードにグラフを追加するを検索するときに そのを検索できません 既存のグラフにを手動で追加するには 次のステップを使用します 検索で見つからないをグラフに追加するには 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインで [Dashboards] を選択し ダッシュボードを選択します 3. ダッシュボードには を追加する場所にグラフが既に含まれている必要があります 既に含まれていない場合は グラフを作成し を追加します 詳細については CloudWatch ダッシュボードにグラフを追加または削除する (p. 20) を参照してください 4. [ アクション ] [ ソースの表示 / 編集 ] を選択します JSON ブロックが表示されます このブロックは ダッシュボード上のウィジェットとそのコンテンツを指定します このブロックの一部の例を次に示します これは 1 つのグラフを定義します { }, "type": "metric", "x": 0, "y": 0, "width": 6, "height": 3, "properties": { "view": "singlevalue", "metrics": [ [ "AWS/EBS", "VolumeReadOps", "VolumeId", "vol abcdef0" ] ], "region": "us-west-1" } この例では 以下のセクションで このグラフに表示されるを定義します [ "AWS/EBS", "VolumeReadOps", "VolumeId", "vol abcdef0" ] 5. 既にない場合は最後の括弧の後にカンマを追加し カンマの後に同じような括弧で囲んだセクションを追加します この新しいセクションでは グラフに追加するの名前空間 名 および必要なディメンションを指定します 次に例を示します [ "AWS/EBS", "VolumeReadOps", "VolumeId", "vol abcdef0" ], [ "MyNamespace", "MyMetricName", "DimensionName", "DimensionValue" ] JSON でのの形式の詳細については ウィジェットオブジェクトのプロパティ を参照してください 6. [Update] を選択します 24

34 グラフ名を変更する CloudWatch ダッシュボードのグラフ名を変更する CloudWatch がダッシュボードのグラフに対して付けたデフォルト名を変更できます ダッシュボードのグラフ名を変更する方法 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインで [Dashboards] を選択し ダッシュボードを選択します 3. グラフのタイトルにマウスカーソルを合わせ [Widget actions] [Edit] を選択します 4. 上部近くの [Edit graph] 画面の下部で グラフのタイトルを選択します 5. [ タイトル ] で 新しい名前を入力し [OK] ( チェックマーク ) を選択します [ グラフの編集 ] 画面の右下隅にある [ ウィジェットの更新 ] を選択します CloudWatch ダッシュボードからテキストウィジェットの追加や編集 削除をする テキストウィジェットにはマークダウン形式でテキストブロックが含まれます CloudWatch ダッシュボードを使用して テキストウィジェットの追加 編集 削除を行うことができます テキストのウィジェットをダッシュボードに追加する方法 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインで [Dashboards] を選択し ダッシュボードを選択します 3. [Add widget] を選択します 4. [Text] [Configure] を選択します 5. [Markdown] で [Markdown] を使用してテキストを追加し フォーマットを行い [ ウィジェットの作成 ] を選択します 6. ダッシュボードを保存を選択します ダッシュボードのテキストウィジェットを編集する方法 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインで [Dashboards] を選択し ダッシュボードを選択します 3. テキストブロックの右上にマウスカーソルを合わせ [ ウィジェットアクション ] を選択し [ 編集 ] を選択します 4. 必要に応じてテキストを更新し [ ウィジェットの更新 ] を選択します 5. ダッシュボードを保存を選択します テキストウィジェットをダッシュボードから削除する方法 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインで [Dashboards] を選択し ダッシュボードを選択します 3. テキストブロックの右上にマウスカーソルを合わせ [Widget actions] を選択し [Delete] を選択します 4. ダッシュボードを保存を選択します 25

35 アラームの追加または削除 CloudWatch ダッシュボードよりアラームを追加または削除する 作成したアラームをダッシュボードに追加することができます ダッシュボードにある場合 アラームは ALARM 状態になると赤に変わります アラームをダッシュボードに追加するには 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインで [Alarms] を選択し 追加するアラームを選択したら [Add to Dashboard] をクリックします 3. ダッシュボードを選択し ウィジェットタイプ ([Line] [Stacked area] [Number] のいずれか ) を選択して [Add to dashboard] を選択します 4. ダッシュボードのアラームを表示するには ナビゲーションペインの [Dashboards] を選択し ダッシュボードを選択します 5. ( オプション ) 一時的にアラームグラフを大きくするには グラフを選択します 6. ( オプション ) ウィジェットタイプを変更するには グラフのタイトルの上にマウスを移動し [Widget actions] [Widget type] の順に選択します アラームをダッシュボードから削除するには 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインで [Dashboards] を選択し ダッシュボードを選択します 3. グラフのタイトルにマウスカーソルを合わせ [Widget actions] [Delete] の順に選択します 4. ダッシュボードを保存を選択します 変更を保存する前にダッシュボードから離れる場合は 変更を保存するか破棄するよう求められます CloudWatch ダッシュボードを使用して 複数のリージョンのリソースをモニタリングする 1 つの CloudWatch ダッシュボードで 複数のリージョンにある AWS リソースをモニタリングできます たとえば us-west-2 リージョンにある EC2 インスタンスの CPU 使用率と us-east-1 リージョンにある請求を表示するダッシュボードを作成できます 1 つのダッシュボードで 複数のリージョンのリソースをモニタリングするには 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインでを選択します 3. ナビゲーションバーで リージョンを選択します 4. ダッシュボードに追加するを選択します 5. [ アクション ] で [ ダッシュボードに追加 ] を選択します 6. [Add to] で 新しいダッシュボードの名前を入力し [Add to dashboard] を選択します または 既存のダッシュボードに追加するには [Existing dashboard] を選択し ダッシュボードを選択して [Add to dashboard] を選択します 7. 別のリージョンからを追加するには 次のリージョンを選択し 以下のステップを繰り返します 8. ダッシュボードを保存を選択します 26

36 グラフをリンク またはリンク解除する CloudWatch ダッシュボードのグラフをリンクまたはリンク解除する ダッシュボード上のグラフをリンクし 1 つのグラフを拡大または縮小した際に同時に他のグラフも縮小または拡大されるようにできます グラフのリンクを解除し 拡大を 1 つのグラフに行うこともできます ダッシュボードのグラフのリンクする方法 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインで [Dashboards] を選択し ダッシュボードを選択します 3. [Actions] [Link graphs] を選択します ダッシュボードのグラフのリンクを解除するには 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインで [Dashboards] を選択し ダッシュボードを選択します 3. [ アクション ] [ グラフのリンク ] をオフにします [ お気に入り ] リストにダッシュボードを追加する CloudWatch ダッシュボードをお気に入りダッシュボードのリストに追加して すばやく見つけることができます [Favorites] リストは ナビゲーションペインの下部に表示されます [Favorites] リストにダッシュボードを追加するには 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインで ダッシュボードを選択します 3. 追加するには ダッシュボードの横にある星の記号を選択します CloudWatch ダッシュボードの更新間隔を変更する CloudWatch ダッシュボードのデータの更新頻度を変更したり 自動的に更新するよう設定したりできます ダッシュボードの更新間隔を変更する方法 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインで [Dashboards] を選択し ダッシュボードを選択します 3. [Refresh options] メニュー ( 右上 ) で [10 Seconds] [1 Minute] [2 Minutes] [5 Minutes] または [15 Minutes] を選択します ダッシュボードを自動的に更新するには 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインで [Dashboards] を選択し ダッシュボードを選択します 3. [Refresh options] [Auto refresh] を選択します 27

37 時間範囲またはタイムゾーン形式を変更する CloudWatch ダッシュボードの時間範囲またはタイムゾーン形式を変更する ダッシュボードデータを表示するための時間範囲を分 時間 日 週において変更できます ダッシュボードを表示する時間形式をローカルまたは UTC 時間形式に変更することもできます Note 100 に近い数 またはそれ以上の数の高解像度を含むグラフでダッシュボードを作成する場合は ダッシュボードの優れたパフォーマンスを確保するため 時間範囲を 1 時間以内に設定することをお勧めします 高解像度の詳細については 高解像度の (p. 46) を参照してください ダッシュボードで時間範囲を変更する方法 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインで [Dashboards] を選択し ダッシュボードを選択します 3. 次のいずれかを行ってください 1 時間から 1 週間までの期間の あらかじめ定義された範囲 (1 時間 3 時間 12 時間 1 日 3 日 1 週間 ) から 1 つを選択します [custom] [Relative] を選択します 1 分から 15 か月の期間から あらかじめ定義された範囲を 1 つ選択します [custom] [Absolute] を選択します カレンダーの指定またはテキストフィールドを使用して時間範囲を指定します Note 集約期間が [ 自動 ] に設定されている間にグラフの時間範囲を変更すると CloudWatch により期間が変更される可能性があります 期間を手動で設定するには [Actions] を選択し [Period:] に新しい値を選択します ダッシュボードの時間形式を変更する方法 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインで [Dashboards] を選択し ダッシュボードを選択します 3. [custom] を選択します 4. 左上で [UTC] または [ ローカルタイムゾーン ] を選択します 28

38 利用可能なを表示する Amazon CloudWatch の使用 とは システムのパフォーマンスに関するデータです デフォルトでは 複数のサービスがリソースの無料を提供しています (Amazon EC2 インスタンス Amazon EBS ボリューム Amazon RDS DB インスタンスなど ) また Amazon EC2 インスタンスなど 一部のリソースの詳細モニタリングを有効にしたり 独自のアプリケーションを発行したりできます Amazon CloudWatch は 検索 グラフ表示 アラームに備えて アカウント内のすべての (AWS リソースと お使いのアプリケーションの両方 ) をロードすることができます データは 15 か月間保持されるため 最新データと履歴データの両方が表示できます 目次 利用可能なを表示する (p. 29) 利用可能なを検索する (p. 32) の統計を取得する (p. 33) をグラフ化 (p. 41) カスタムをパブリッシュする (p. 45) Metric Math を使用する (p. 48) 利用可能なを表示する はまず名前空間ごとにグループ化され 次に各名前空間内の種々のディメンションの組み合わせごとにグループ化されます たとえば すべての EC2 インスタンス別にまとめた EC2 Auto Scaling グループ別にまとめた EC2 が表示できます Amazon CloudWatch にを送信するのは 使用中の AWS のサービスのみです コンソールを使い 利用可能なを名前空間とディメンション別に表示する 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインでを選択します 3. の名前空間 ( たとえば EC2) を選択します 29

39 利用可能なを表示する 4. のディメンション ( たとえば インスタンス別 ) を選択します 5. [All metrics] タブには 名前空間内のそのディメンションのがすべて表示されます 以下の操作を行うことができます a. テーブルを並べ替えるには 列見出しを使用します b. をグラフ表示するには の横にあるチェックボックスを選択します すべてのを選択するには テーブルの見出し行にあるチェックボックスを選択します c. リソースでフィルタするには リソース ID を選択し [Add to search] を選択します d. でフィルタするには の名前を選択し [Add to search] を選択します 30

40 利用可能なを表示する AWS CLI を使い 利用可能なを名前空間 ディメンション またはごとに表示する CloudWatch をリストするには list-metrics コマンドを使用します すべてのサービス名前空間の一覧については AWS の名前空間 (p. 109) を参照してください 各サービスのとディメンションの一覧については Amazon CloudWatch とディメンションのリファレンス (p. 108) を参照してください 次の例では Amazon EC2 のすべてのを表示する目的で AWS/EC2 名前空間を指定します aws cloudwatch list-metrics --namespace AWS/EC2 出力例を次に示します { "Metrics" : [... { "Namespace": "AWS/EC2", "Dimensions": [ { "Name": "InstanceId", "Value": "i abcdef0" } ], "MetricName": "NetworkOut" }, { "Namespace": "AWS/EC2", "Dimensions": [ { "Name": "InstanceId", "Value": "i abcdef0" } ], "MetricName": "CPUUtilization" }, { "Namespace": "AWS/EC2", 31

41 利用可能なを検索する } ] },... "Dimensions": [ { "Name": "InstanceId", "Value": "i abcdef0" } ], "MetricName": "NetworkIn" 指定したリソースで利用可能なをすべてリストするには 次の例では 指定のインスタンスの結果だけを表示する目的で AWS/EC2 名前空間と InstanceId ディメンションを指定します aws cloudwatch list-metrics --namespace AWS/EC2 --dimensions Name=InstanceId,Value=i abcdef0 すべてのリソースのをリストするには 次の例では 指定のの結果だけを表示する目的で AWS/EC2 名前空間と名を指定します aws cloudwatch list-metrics --namespace AWS/EC2 --metric-name CPUUtilization 利用可能なを検索する ターゲット検索用語を用いて アカウントにあるすべての中から検索できます 名前空間 名 またはディメンション内に一致する結果があるが返されます CloudWatch で利用可能なを検索するには 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインでを選択します 3. [All metrics] タブ上の検索フィールドに 検索語 ( 名 サービス名 リソース名など ) を入力し Enter キーを押します にその検索語が含まれている名前空間がすべて表示されます たとえば volume を検索した場合 名前の一部がその検索語であるを含む名前空間が表示されます 4. 検索結果を含む名前空間を選択すると が表示されます 以下の操作を行うことができます a. 1 つ以上のをグラフ表示するには 各の横にあるチェックボックスを選択します すべてのを選択するには テーブルの見出し行にあるチェックボックスを選択します b. コンソール内のリソースの 1 つを表示するには リソース ID を選択し [Jump to resource] を選択します c. のヘルプを表示するには 名を選択し [What is this?] ( これは何ですか?) を選択します 32

42 の統計を取得する の統計を取得する 次の例では EC2 インスタンスなどのリソースに対する CloudWatch の統計を取得する方法をします 例 特定のリソースの統計を取得する (p. 33) 統計をリソース間で集計 (p. 36) Auto Scaling グループ別に統計を集計する (p. 38) Amazon Machine Image (AMI) 別に統計を集計する (p. 39) 特定のリソースの統計を取得する 次の例では 特定の EC2 インスタンスの最大 CPU 使用率を特定する方法をします 要件 インスタンスの ID が必要です インスタンス ID は Amazon EC2 コンソールまたは describeinstances コマンドを使って取得します デフォルトでは 基本モニタリングが有効化されていますが 詳細モニタリングを有効化することもできます 詳細については Linux インスタンス用 Amazon EC2 ユーザーガイドの インスタンスの詳細モニタリングの有効化または無効化 を参照してください コンソールを使用して特定のインスタンスの平均 CPU 使用率を表示するには 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインでを選択します 3. EC2 の名前空間を選択します 33

43 特定のリソースの統計を取得する 4. インスタンス別のディメンションを選択します 5. 検索フィールドに CPUUtilization と入力して Enter キーを押します 特定のインスタンスの行を選択します すると そのインスタンスの [CPUUtilization] のグラフが表示されます グラフの名前を変更するには 鉛筆アイコンを選択します 時間範囲を変更するには 事前定義済みの値を選択するか [custom] を選択します 34

44 特定のリソースの統計を取得する 6. 統計を変更するには [Graphed metrics] タブを選択します 列見出しまたは個々の値を選択し 統計または事前定義パーセンタイルのうち 1 つを選択するか カスタムパーセンタイル (p95.45 など ) を指定します 7. 期間を変更するには [Graphed metrics] タブを選択します 列見出しまたは個々の値を選択し 次に異なる値を選択します AWS CLI を使い EC2 インスタンスあたりの CPU 使用率を取得するには 次のように get-metric-statistics コマンドを使用し 指定のインスタンスの [CPUUtilization] を取得します aws cloudwatch get-metric-statistics --namespace AWS/EC2 --metric-name CPUUtilization \ --dimensions Name=InstanceId,Value=i abcdef0 --statistics Maximum \ 35

45 統計をリソース間で集計 --start-time T23:18:00 --end-time T23:18:00 --period 360 返される統計は リクエストされた 24 時間間隔の 6 分の値です それぞれの値は 特定の 6 分間の間に指定されたインスタンスの最大 CPU 使用率を表しています データポイントは時系列順に返されません 例に示した出力の先頭 ( 完全な出力には 6 分ごと 24 時間のデータポイントを含む ) を以下に示します { } "Datapoints": [ { "Timestamp": " T00:18:00Z", "Maximum": , "Unit": "Percent" }, { "Timestamp": " T03:18:00Z", "Maximum": , "Unit": "Percent" }, { "Timestamp": " T07:18:00Z", "Maximum": , "Unit": "Percent" },... ], "Label": "CPUUtilization" 統計をリソース間で集計 複数のリソース間で AWS リソースのを集計することができます Amazon CloudWatch は 複数のリージョンをまたがってデータを集計することはできません は リージョン間で完全に独立しています たとえば 詳細モニタリングが有効化されているすべての EC2 インスタンスで統計を集計することができます その場合 基本モニタリングを使用するインスタンスは含まれません そのため 1 分間隔でデータを提供する詳細モニタリング ( 有料 ) を有効化する必要があります 詳細については Linux インスタンス用 Amazon EC2 ユーザーガイドの インスタンスの詳細モニタリングの有効化または無効化 を参照してください この例では EC2 インスタンスの平均 CPU 使用率を取得する方法をします ディメンションを指定していないため CloudWatch は AWS/EC2 名前空間にある全ディメンションの統計を返します その他のの統計を取得するには Amazon CloudWatch とディメンションのリファレンス (p. 108) を参照してください Important AWS 名前空間にあるすべてのディメンションを取得するこの手法は Amazon CloudWatch にパブリッシュするカスタム名前空間では機能しません カスタム名前空間の場合 データポイントを含む統計を取得するには そのデータポイントに関連付けられたディメンション一式をすべて指定する必要があります EC2 インスタンスの平均 CPU 使用率を表示するには 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインでを選択します 3. [EC2] 名前空間を選択し 次に [Across All Instances] を選択します 36

46 統計をリソース間で集計 4. [CPUUtilization] を含む行を選択します すべての EC2 インスタンスのがグラフとして表示されます グラフの名前を変更するには 鉛筆アイコンを選択します 時間範囲を変更するには 事前定義済みの値を選択するか [custom] を選択します 5. 統計を変更するには [Graphed metrics] タブを選択します 列見出しまたは個々の値を選択し 統計または事前定義パーセンタイルのうち 1 つを選択するか カスタムパーセンタイル (p95.45 など ) を指定します 6. 期間を変更するには [Graphed metrics] タブを選択します 列見出しまたは個々の値を選択し 次に異なる値を選択します AWS CLI を使い EC2 インスタンス間での平均で CPU 使用率を取得するには 以下のように get-metric-statistics コマンドを使用します aws cloudwatch get-metric-statistics --namespace AWS/EC2 --metric-name CPUUtilization -- statistics "Average" "SampleCount" \ --start-time T23:18:00 --end-time T23:18:00 --period 3600 出力例を次に示します { "Datapoints": [ { "SampleCount": 238.0, "Timestamp": " T07:18:00Z", "Average": , "Unit": "Percent" }, { "SampleCount": 240.0, "Timestamp": " T09:18:00Z", "Average": , "Unit": "Percent" }, { "SampleCount": 238.0, 37

47 Auto Scaling グループ別に統計を集計する } },... "Timestamp": " T23:18:00Z", "Average": , "Unit": "Percent" ], "Label": "CPUUtilization" Auto Scaling グループ別に統計を集計する Auto Scaling グループ内で EC2 インスタンスの統計を集計することができます Amazon CloudWatch は 複数のリージョンをまたがってデータを集計することはできません は リージョン間で完全に独立しています この例では 1 つの Auto Scaling グループについて ディスクに書き込まれた総バイト数を取得する方法をします 合計は 指定された Auto Scaling グループのすべての EC2 インスタンスで 24 時間おきに 1 分間に対して算出されます コンソールを使い Auto Scaling グループ内のインスタンスの DiskWriteBytes を表示するには 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインでを選択します 3. [EC2] 名前空間を選択し 次に [By Auto Scaling Group] を選択します 4. [DiskWriteBytes] の行と特定の Auto Scaling グループを選択します すると その Auto Scaling グループ内にあるインスタンスのがグラフとして表示されます グラフの名前を変更するには 鉛筆アイコンを選択します 時間範囲を変更するには 事前定義済みの値を選択するか [custom] を選択します 5. 統計を変更するには [Graphed metrics] タブを選択します 列見出しまたは個々の値を選択し 統計または事前定義パーセンタイルのうち 1 つを選択するか カスタムパーセンタイル (p95.45 など ) を指定します 6. 期間を変更するには [Graphed metrics] タブを選択します 列見出しまたは個々の値を選択し 次に異なる値を選択します AWS CLI を使い Auto Scaling グループ内のインスタンスの DiskWriteBytes を取得するには 38

48 AMI 別に統計を集計する 以下のように get-metric-statistics コマンドを使用します aws cloudwatch get-metric-statistics --namespace AWS/EC2 --metric-name DiskWriteBytes --dimensions Name=AutoScalingGroupName,Value=my-asg --statistics "Sum" "SampleCount" \ --start-time T23:18:00 --end-time T23:18:00 --period 360 出力例を次に示します { } "Datapoints": [ { "SampleCount": 18.0, "Timestamp": " T21:36:00Z", "Sum": 0.0, "Unit": "Bytes" }, { "SampleCount": 5.0, "Timestamp": " T21:42:00Z", "Sum": 0.0, "Unit": "Bytes" } ], "Label": "DiskWriteBytes" Amazon Machine Image (AMI) 別に統計を集計する 統計の集計は 詳細モニタリングが有効化されている EC2 インスタンスに対して行うことができます その場合 基本モニタリングを使用するインスタンスは含まれません 詳細については Linux インスタンス用 Amazon EC2 ユーザーガイドの インスタンスの詳細モニタリングの有効化または無効化 を参照してください この例では 指定した AMI を使用するすべてのインスタンスの平均 CPU 使用率を特定する方法をします 平均値は 1 日間 60 秒間隔の平均値です コンソールを使い AMI 別の平均 CPU 使用率を表示するには 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインでを選択します 3. [EC2] 名前空間を選択し 次に [By Image (AMI) Id] を選択します 4. [CPUUtilization] の行と特定の AMI を選択します すると その AMI のがグラフとして表示されます グラフの名前を変更するには 鉛筆アイコンを選択します 時間範囲を変更するには 事前定義済みの値を選択するか [custom] を選択します 39

49 AMI 別に統計を集計する 5. 統計を変更するには [Graphed metrics] タブを選択します 列見出しまたは個々の値を選択し 統計または事前定義パーセンタイルのうち 1 つを選択するか カスタムパーセンタイル (p95.45 など ) を指定します 6. 期間を変更するには [Graphed metrics] タブを選択します 列見出しまたは個々の値を選択し 次に異なる値を選択します AWS CLI を使い AMI 別の平均 CPU 使用率を取得するには 以下のように get-metric-statistics コマンドを使用します aws cloudwatch get-metric-statistics --namespace AWS/EC2 --metric-name CPUUtilization \ --dimensions Name=ImageId,Value=ami-3c47a355 --statistics Average \ --start-time T00:00:00 --end-time T00:00:00 --period 3600 オペレーションは 1 日間 1 分おきの統計を返します それぞれの値は 指定した AMI を実行する EC2 インスタンスの平均 CPU 使用率 (%) を表します 出力例を次に示します { } "Datapoints": [ { "Timestamp": " T07:00:00Z", "Average": , "Unit": "Percent" }, { "Timestamp": " T14:00:00Z", "Average": , "Unit": "Percent" }, { "Timestamp": " T06:00:00Z", "Average": , "Unit": "Percent" },... ], "Label": "CPUUtilization" 40

50 をグラフ化 をグラフ化 CloudWatch コンソールを使って他の AWS サービスが生成したデータをグラフ化すれば より簡単にサービスののアクティビティを把握できます CloudWatch でをグラフ化するには 次の手順を行います コンテンツ をグラフ化する (p. 41) グラフの時間範囲またはタイムゾーン形式を変更する (p. 43) グラフの Y 軸を変更する (p. 44) グラフのからアラームを作成する (p. 45) をグラフ化する CloudWatch コンソールを使用すると を選択し データのグラフを作成することができます CloudWatch では の次の統計が使用できます : Average Minimum Maximum Sum SampleCount 詳細については 統計 (p. 5) を参照してください データは 異なる粒度でデータを表示できます たとば 詳細ビュー ( たとえば 1 分 ) を選択すると トラブルシューティングに役立てることができます 詳細度の低い表示 ( たとえば 1 時間 ) は より広い時間範囲 ( たとえば 3 日 ) を表示して時間の経過に伴う傾向を確認する場合などに役立ちます 詳細については 期間 (p. 6) を参照してください グラフを作成する をグラフ化するには 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインでを選択します 3. [All metrics] タブで 検索フィールドに検索語 ( 名 リソース名など ) を入力し Enter キーを押します たとえば CPUUtilization を検索した場合 そのを持つ名前空間とディメンションが見つかります 4. 検索結果の 1 つを選択すると が表示されます 5. 1 つ以上のをグラフ表示するには 各の横にあるチェックボックスを選択します すべてのを選択するには テーブルの見出し行にあるチェックボックスを選択します 6. グラフ化されたについての詳細情報を表示するには 文にマウスカーソルを合わせます 7. 水平の注釈は グラフユーザーがいつが特定のレベルにまで急上昇したか または が事前定義された範囲内にあるかどうかをすばやく確認するのに役立ちます 水平の注釈を追加するには [Graph options] [Add horizontal annotation] を選択します a. [Label] には 注釈のラベルを入力します b. [Value] には 水平の注釈が表示される値を入力します c. [Fill] には この注釈でフィルシェーディングを使用するかどうかを指定します たとえば 対応するエリアを塗りつぶすには Above または Below を選択します Between を指定すると もう 1 つの Value フィールドが表示され 2 つの値の間のグラフのエリアが塗りつぶされます 41

51 をグラフ化する d. [Axis] では グラフに複数のが含まれる場合 Value の数値が左の Y 軸または右の Y 軸のどちらに関連するを指すかを指定します 注釈の塗りつぶしの色を変更するには 注釈の左側の列の色がついた四角形を選択します 同じグラフに複数の水平注釈を追加するには これらのステップを繰り返します 注釈を非表示にするには 注釈の左の列のチェックボックスをオフにします 注釈を削除するには [Actions] の列の [x] を選択します 8. グラフの URL を取得するには [Actions] [Share] を選択します URL をコピーして 保存または共有します 9. グラフをダッシュボードに追加するには [Actions] [Add to dashboard] を選択します グラフを更新する グラフを更新するには 1. グラフの名前を変更するには 鉛筆アイコンを選択します 2. 時間範囲を変更するには 事前定義済みの値を選択するか [custom] を選択します 詳細については グラフの時間範囲またはタイムゾーン形式を変更する (p. 43) を参照してください 3. 統計を変更するには [Graphed metrics] タブを選択します 列見出しまたは個々の値を選択し 統計または事前定義パーセンタイルのうち 1 つを選択するか カスタムパーセンタイル (p95.45 など ) を指定します 4. 期間を変更するには [Graphed metrics] タブを選択します 列見出しまたは個々の値を選択し 次に異なる値を選択します 5. 水平の注釈を追加するには [Graph options] [Add horizontal annotation] を選択します a. [Label] には 注釈のラベルを入力します b. [Value] には 水平の注釈が表示される値を入力します c. [Fill] には この注釈でフィルシェーディングを使用するかどうかを指定します たとえば 対応するエリアを塗りつぶすには Above または Below を選択します Between を指定すると もう 1 つの Value フィールドが表示され 2 つの値の間のグラフのエリアが塗りつぶされます d. [Axis] では グラフに複数のが含まれる場合 Value の数値が左の Y 軸または右の Y 軸のどちらに関連するを指すかを指定します 注釈の塗りつぶしの色を変更するには 注釈の左側の列の色がついた四角形を選択します 同じグラフに複数の水平注釈を追加するには これらのステップを繰り返します 注釈を非表示にするには 注釈の左の列のチェックボックスをオフにします 注釈を削除するには [Actions] の列の [x] を選択します 6. 更新間隔を変更するには [ 更新オプション ] を選択し 次に [ 自動更新 ] を選択するか [1 分 ] [2 分 ] [5 分 ] または [15 分 ] を選択します を複製する を複製するには 1. [Graphed metrics] タブを選択します 2. [Actions] で [Duplicate] アイコンを選択します 42

52 グラフの時間範囲またはタイムゾーン形式を変更する 3. 必要に応じて複製を更新します グラフの時間範囲またはタイムゾーン形式を変更する グラフの時間範囲またはタイムゾーンの形式を変更することができます 相対時間範囲 グラフに対して相対時間範囲を設定できます グラフに相対時間範囲を指定するには 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインでを選択します 3. ページの一番上に表示されている事前定義済みの範囲から 1 つを選択します 1 時間前から 1 週間前までの選択肢があります 4. 事前定義済みの範囲をもっと表示する場合は [custom] メニューを選択し [Relative] を選択します 事前定義済みの範囲から 1 つを選択します 5 分前から 15 か月前までの選択肢があります 絶対時間範囲 グラフに絶対時間範囲を設定できます グラフに絶対時間範囲を指定するには 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインでを選択します 3. [ カスタム ] メニューを選択して [ 絶対値 ] を選択します カレンダーの指定またはテキストフィールドを使用して時間範囲を指定します タイムゾーン形式を設定する グラフで UTC 時間または現地時間のどちらを使用するかを指定できます グラフのタイムゾーンを指定するには 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインでを選択します 3. [custom] ( カスタム ) メニューを選択し [UTC] または [Local timezone] ( ローカルタイムゾーン ) を選択します グラフを拡大する グラフの粒度を変更し 拡大することで より短い期間のデータを見ることができます 43

53 グラフの Y 軸を変更する グラフを拡大するには 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインでを選択します 3. グラフ領域を選択してドラッグし マウスボタンを放します 4. グラフのズームをリセットするには [Reset zoom] アイコンを選択します グラフの Y 軸を変更する データをより良く把握するため Y 軸のカスタム境界を設定できます たとえば CPUUtilization グラフの境界を 100 パーセントに変更すると グラフを見たときに CPU が低い ( プロットされた線がグラフの下部近くにある ) か 高い ( プロットされた線がグラフの上部近くにある ) かがわかりやすくなります グラフの Y 軸は 2 種類の間で切り替えることができます これは グラフに単位の異なるや値の範囲が大きく異なるが含まれているときに役立ちます グラフの Y 軸を変更するには 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインでを選択します 3. 名前空間 ( たとえば EC2) を選択し 次にディメンション ( たとえば インスタンス別 ) を選択します 4. [All metrics] タブには その名前空間内のそのディメンションのがすべて表示されます をグラフ表示するには の横にあるチェックボックスを選択します 5. [Graph options] タブ上で [Left Y Axis] の [Min] と [Max] の値を指定します [Min] の値は [Max] の値を上回ってはなりません 6. 第 2 の Y 軸を作成するには [Right Y Axis] の [Min] と [Max] の値を指定します 7. 2 つの Y 軸の間を切り替えるには [Graphed metrics] タブを選択します [Y Axis] で [Left Y Axis] または [Right Y Axis] を選択します 44

54 グラフのからアラームを作成する グラフのからアラームを作成する をグラフ化した後 グラフのからアラームを作成できます こうすることで 多くのアラームフィールドの入力が自動で行われます グラフのからアラームを作成するには 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインでを選択します 3. 名前空間 ( たとえば EC2) を選択し 次にディメンション ( たとえば インスタンス別 ) を選択します 4. [All metrics] タブには その名前空間内のそのディメンションのがすべて表示されます をグラフ表示するには の横にあるチェックボックスを選択します 5. に対してアラームを作成するには [Graphed metrics] タブを選択します [Actions] で アラームアイコンを選択します 6. [ アラームしきい値 ] で アラームの一意の名前とアラームのを入力します [Whenever] で しきい値と期間の数を指定します 7. [Actions] で アラームがトリガーされたときに アラームが実行するアクションのタイプを選択します 8. ( オプション ) [Period] で 異なる値を選択します [Statistic] で [Standard] を選択してリストからいずれかの統計を指定するか [Custom] を選択してパーセンタイル (p95.45 など ) を指定します 9. [Create Alarm] を選択します カスタムをパブリッシュする AWS CLI または API を使用して 独自のを CloudWatch にパブリッシュできます AWS マネジメントコンソールでパブリッシュしたの統計グラフを表示できます CloudWatch は 一連のデータポイントとしてに関するデータを格納します 各データポイントには関連するタイムスタンプがあります さらに 統計セットという集約されたデータポイント一式をパブリッシュすることもできます トピック 高解像度の (p. 46) ディメンションを使用する (p. 46) 単一データポイントをパブリッシュする (p. 47) 統計セットをパブリッシュする (p. 48) 45

55 高解像度の 値ゼロ (0) をパブリッシュする (p. 48) 高解像度の 各は次のいずれかです 詳細度が 1 分のデータを含む 標準の解像度 詳細度が 1 秒のデータを含む高解像度 AWS のサービスによって生成されたは デフォルトで標準解像度になります カスタムを発行するときは 標準解像度または高解像度のいずれかとして定義できます 高解像度を発行すると CloudWatch は 1 秒の解像度でそのを保存します は 1 秒 5 秒 10 秒 30 秒 または 60 秒の倍数の期間で読み取りおよび取得できます 高解像度を使用すれば アプリケーションの 1 分未満のアクティビティをより迅速に把握できます PutMetricData がカスタムを呼び出す場合 課金されることに注意してください そのため 高解像度で PutMetricData を頻繁に呼び出すと 高額な料金が発生する可能性があります CloudWatch の料金の詳細については Amazon CloudWatch 料金表 を参照してください 高解像度でアラームを設定する場合 10 秒または 30 秒の期間で高解像度アラームを指定するか 60 秒の倍数の期間で通常のアラームを設定できます 10 秒または 30 秒の期間の高解像度アラームでは 料金が高くなります ディメンションを使用する カスタムでは --dimensions パラメーターは一般的です ディメンションでは これに加えて の内容やによって保存されるデータまで分かります 1 つのには最大 10 個のディメンションを指定することができ 各ディメンションは名前と値のペアで定義されます 使用するコマンドが異なる場合は 使用するディメンションも異なります put-metric-data を使用する場合は 各ディメンションを MyName=MyValue と指定しますが get-metric-statistics または put-metricalarm を使用する場合は Name=MyName Value=MyValue を使用します たとえば 次のコマンドでは InstanceId と InstanceType という名前の 2 つのディメンションを持つ Buffers をパブリッシュします aws cloudwatch put-metric-data --metric-name Buffers --namespace MyNameSpace --unit Bytes --value dimensions InstanceId= ,InstanceType=m1.small このコマンドは 同一の統計情報を取得します ディメンションが 1 つの場合は 名前と値をカンマで区切り 複数ある場合は 1 つめのディメンションと 2 つめのディメンションの間にスペースを使用します aws cloudwatch get-metric-statistics --metric-name Buffers --namespace MyNameSpace -- dimensions Name=InstanceId,Value= Name=InstanceType,Value=m1.small --start-time T04:00:00Z --end-time T07:00:00Z --statistics Average --period 60 また 1 つのに複数のディメンションを含む場合は get-metric-statistics を使用するときに 定義されているディメンションごとに値を指定する必要があります たとえば Amazon S3 BucketSizeBytes に BucketName と StorageType の 2 つのディメンションが含まれている場合は get-metric-statistics を使用して両方のディメンションを指定する必要があります aws cloudwatch get-metric-statistics --metric-name BucketSizeBytes --start-time T14:23:00Z --end-time T19:30:00Z --period namespace 46

56 単一データポイントをパブリッシュする AWS/S3 --statistics Maximum --dimensions Name=BucketName,Value=MyBucketName Name=StorageType,Value=StandardStorage --output table に定義されているディメンションを確認するには list-metrics コマンドを使用します 単一データポイントをパブリッシュする 新規または既存のに単一のデータポイントをパブリッシュするには 1 つの値とタイムスタンプで put-metric-data コマンドを呼び出します たとえば 次のアクションはそれぞれ 1 つのデータポイントをパブリッシュしています aws cloudwatch put-metric-data --metric-name PageViewCount --namespace MyService --value 2 --timestamp T12:00:00.000Z aws cloudwatch put-metric-data --metric-name PageViewCount --namespace MyService --value 4 --timestamp T12:00:01.000Z aws cloudwatch put-metric-data --metric-name PageViewCount --namespace MyService --value 5 --timestamp T12:00:02.000Z 新しい名でこのコマンドを呼び出すと CloudWatch がを作成します そうでない場合 CloudWatch は指定された既存のとデータを関連付けます Note を作成した場合 get-metric-statistics コマンドを用いてその新規の統計を取得できるようになるまで最大 2 分かかります ただし list-metrics コマンドを用いて取得したのリストに新規が表示されるまで最大 15 分かかることがあります 粒度が 1 秒の 1,000 分の 1 のタイムスタンプでデータポイントをパブリッシュできますが CloudWatch は データを最小粒度の 1 分に集約します CloudWatch は 1 分の期間ごとに受け取った値の平均 ( すべての項目の合計を項目数で割った値 ) と 同じ期間内のサンプル数 最大値 最小値を記録します たとえば 前の例の PageViewCount には 3 つのデータポイントで 数秒違いのタイムスタンプがあります 3 つのデータポイントはタイムスタンプがすべて 1 分の期間内にあるため CloudWatch はそれらを集約します CloudWatch は データポイントを集約する際 1 分の境界を使用します たとえば T12:00:00.000Z で始まり T12:01:00.000Z で終わる 1 分の期間内に 3 つのデータポイントがすべて収まるため CloudWatch は前の例のデータポイントを集約します パブリッシュしたデータポイントを基に get-metric-statistics コマンドを用いて統計を取得できます aws cloudwatch get-metric-statistics --namespace MyService --metric-name PageViewCount \ --statistics "Sum" "Maximum" "Minimum" "Average" "SampleCount" \ --start-time T12:00:00.000Z --end-time T12:05:00.000Z --period 60 出力例を次に示します { "Datapoints": [ { "SampleCount": 3.0, "Timestamp": " T12:00:00Z", "Average": , "Maximum": 5.0, "Minimum": 2.0, "Sum": 11.0, "Unit": "None" } ], "Label": "PageViewCount" 47

57 統計セットをパブリッシュする } 統計セットをパブリッシュする さらに CloudWatch にパブリッシュする前にデータを集約することができます 各分に複数のデータポイントがある場合 データを集約して put-metric-data への呼び出し回数を最小化できます たとえば 互いに 3 秒以内の位置にある 3 つのデータポイントに対して put-metric-data を複数回呼び出す代わりに --statistic-values パラメータを使用して 1 回の呼び出しでパブリッシュできる統計セットにデータを集約できます aws cloudwatch put-metric-data --metric-name PageViewCount --namespace MyService --statistic-values Sum=11,Minimum=2,Maximum=5,SampleCount=3 -- timestamp T12:00:00.000Z CloudWatch は raw データポイントを使用してパーセンタイルを計算します 統計セットを使用してデータをパブリッシュする場合は 以下の条件のいずれかが真である場合を除き このデータのパーセンタイル統計を取得することはできません 統計セットの SampleCount が 1 統計セットの最小値と最大値が同一である 値ゼロ (0) をパブリッシュする データが散発的で 関連データがない期間がある場合 その期間に対して値ゼロ 0 をパブリッシュするか 全く値なしにするかを選択できます アプリケーションの状態をモニタリングするために PutMetricData を周期的に呼び出す場合 値なしにするのではなく 値ゼロ (0) をパブリッシュすることができます たとえば アプリケーションが 5 分ごとにをパブリッシュできない場合 CloudWatch アラームを設定できます そのようなアプリケーションに関連データがない期間ではゼロ (0) をパブリッシュさせることができます また データポイントの総数を追跡する場合 または最小値や平均値などの統計に値 0 のデータポイントを含める場合も 0 をパブリッシュすることがあります Metric Math を使用する Metric Math により複数の CloudWatch をクエリし 数式を使用して これらのに基づく新しい時系列を作成できます 作成された時系列を CloudWatch コンソールで視覚化でき ダッシュボードに追加できます AWS Lambda の使用例として [Errors ( エラー )] を [Invocations ( 呼び出し )] で割り エラーレートを算出して 作成された時系列を追加して CloudWatch ダッシュボードでグラフ化できます GetMetricData API オペレーションを使用して Metric Math をプログラムで実行することもできます CloudWatch グラフに数式を追加する CloudWatch ダッシュボードのグラフに数式を追加できます 各グラフは 最大 100 個のおよび式に制限されているため グラフのが 99 個以下の場合のみ数式を追加できます グラフに数式を追加するには 1. にある CloudWatch コンソールを開きます 2. グラフまたは行ウィジェットを作成または編集します 3. [Graphed metrics] ( グラフ化した ) を選択します 48

58 Metric Math 構文と関数 4. [Add a math expression] ( 数式の追加 ) を選択します 式に新しい行が表示されます 5. [Details] ( 詳細 ) 列で 数式を入力します 次のセクションにある表には 式で使用できる関数の一覧が表示されています または別の式の結果をこの式で式の一部として使用するには [Id] 列に表示される値を使用します たとえば [m1+m2] または [e1-min(e1)] です [Id] の値は変更できます 数字 文字 アンダースコアを含めることができ 小文字で始める必要があります [Id] の値を意味のある名前に変更すると グラフをより容易に理解できます たとえば [m1] および [m2] を [ エラー ] および [ リクエスト ] に変更できます 6. 式の [Label] ( ラベル ) 列では 式が計算するものをする名前を入力します 式の結果が時系列の配列である場合 これらのそれぞれの時系列が 異なる色の別々の線で表示されます グラフのすぐ下には グラフの各行の凡例があります 複数の時系列を作成する単一の式の場合 これらの時系列の凡例のキャプションは 式式式式式式式式式式式式の形式になります たとえば ラベルが Errors であると ラベルが Filled With 0: である FILL(METRICS(), 0) 式がグラフに含まれる場合 凡例の 1 つの行は Filled With 0: Errors となります 凡例で元のラベルのみを表示する場合 式式式式を空に設定できます 1 つの式により グラフの時系列の配列が作成される場合 これらの各時系列に使用される色を変更することはできません 7. 必要な式を追加した後 必要に応じて 元のの一部を非表示にすることで グラフを簡素化できます または式を非表示にするには [Id] フィールドの左にあるチェックボックスをオフにします Metric Math 構文と関数 以下のセクションでは Metric Math で使用できる関数についてします すべての関数は大文字で記述する必要があります ([AVG] など ) ただし すべてのと数式の [Id] フィールドは小文字で始める必要があります 数式の最終結果は単一の時系列または時系列の配列である必要があります 一部の関数では スカラー番号が生成されます より大規模な関数の中でこれらの関数を使用することができ 最終的には時系列が生成されます たとえば 単一の時系列の AVG はスカラー数を生成するため 最終的な式の結果にはなりません しかし それを関数 [m1-avg(m1)] で使用して 個々のデータポイントとそのデータポイントの平均値の間の相違の時系列を表示できます データタイプの略語 一部の関数は 特定のタイプのデータのみに有効です 次のリストにある略語は 関数のテーブルで使用され 各関数でサポートされているデータタイプを表しています [S] は スカラー数 (2-5 または など ) を表します [TS] は時系列 ( 時間の経過に伴う単一の CloudWatch の一連の値 ) です たとえば 過去 3 日間のインスタンス i abcdef0 の [CPUUtilization] などです [TS[]] は時系列の配列です ( 複数のの時系列など ) METRICS() 関数 METRICS() 関数は リクエストのすべてのを返します 数式は含まれません より大きな式の中で METRICS() を使用することができ 最終的には単一の時系列または時系列の配列が生成されます たとえば SUM(METRICS()) 式は グラフ化されたすべてのの値の合計である時系列 (TS) を返します METRICS()/100 は時系列の配列を返します それぞれが いずれかのを 100 で除算した各データポイントを示す時系列です 49

59 Metric Math 構文と関数 [METRICS()] 関数を文字列と使用して [Id] フィールドにその文字列を含むグラフ化されたのみを返すことができます たとえば SUM(METRICS("errors")) 式は [Id] フィールドに errors のあるグラフ化されたすべてのの値の合計である時系列を返します また [SUM([METRICS( 4xx ), METRICS( 5xx )])] を使用して 複数の文字列を一致させることができます 基本的な算術関数 サポートされている基本的な算術関数の一覧を以下の表に示しています 時系列で欠落した値は 0 として扱われます データポイントの値により関数がゼロ除算を行おうとする場合 データポイントは削除されます オペレーション引数例 算術演算子 : + - * / ^ 単項減算 - S, S S, TS TS, TS S, TS[] TS, TS[] S TS TS[] PERIOD(m1)/60 5 * m1 m1 - m2 SUM(100/[m1, m2]) AVG([m1,m2]/m3) METRICS()*100-5*m1 -m1 SUM(-[m1, m2]) Metric Math のサポートされている関数 次の表は 数式で使用できる関数を表しています すべての関数を大文字で記述します 数式の最終結果は単一の時系列または時系列の配列である必要があります 以下のセクションの表の一部の関数では スカラー数が生成されます より大規模な関数の中でこれらの関数を使用することができ 最終的には時系列が生成されます たとえば 単一の時系列の AVG はスカラー数を生成するため 最終的な式の結果にはなりません しかし それを関数 [m1-avg(m1)] で使用して 個々のデータポイントとそのデータポイントの平均値の間の相違の時系列を表示できます 次の表では 例の列の例は 単一の時系列または時系列の配列を生成する式です これは スカラー値を返す関数を 単一の時系列を生成する有効な式の一部として使用する方法を示しています 関数引数戻り型 * 例 ABS TS TS[] TS TS[] 各データポイントの絶対値を返します ABS(m1-m2) MIN(ABS([m1, m2])) ABS(METRICS()) AVG TS TS[] S TS 単一の時系列の AVG は 内のすべてのデータポイントの平均を表すスカラーを返します 時系列の配列の AVG は単一の時系列を返し SUM([m1,m2])/AVG(m2) AVG(METRICS()) 50

60 Metric Math 構文と関数 関数引数戻り型 * 例 ます 欠落した値は 0 として処理されます CEIL TS TS[] TS TS[] 各の上限を返します ( 各値以上で最小の整数 ) CEIL(m1) CEIL(METRICS()) SUM(CEIL(METRICS())) FILL TS, TS/S TS[], TS/S TS TS[] 値がスパースなとき の欠落した値を特定のフィラー値で埋めます FILL(m1,10) FILL(METRICS(), 0) FILL(m1, MIN(m1)) FLOOR TS TS[] TS TS[] 各の下限を返します ( 各値以下で最大の整数 ) FLOOR(m1) FLOOR(METRICS()) MAX TS TS[] S TS 単一の時系列の MAX は 内のすべてのデータポイントの最大値を表すスカラーを返します 時系列の配列の MAX 値は単一の時系列を返します MAX(m1)/m1 MAX(METRICS()) METRIC_COUNT TS[] S 時系列の配列での数を返 します m1/ METRIC_COUNT(METRICS()) METRICS() null 文字列 TS[] METRICS() 関数は リクエストのすべての CloudWatch を返します 数式は含まれません AVG(METRICS()) SUM(METRICS("errors")) より大きな式の中で METRICS() を使用することができ 最終的には単一の時系列または時系列の配列が生成されます [METRICS()] 関数を文字列と使用して [Id] フィールドにその文字列を含むグラフ化されたのみを返すことができます たとえば SUM(METRICS("errors")) 式は [Id] フィールドに errors のあるグラフ化されたすべてのの値の合計である時系列を返します また [SUM([METRICS( 4xx ), METRICS( 5xx )])] を使用して 複数の文字列を一致させることができます MIN TS TS[] S TS 単一の時系列の MIN は 内のすべてのデータポイントの最小値を表すスカラーを返します 時系列の配列の MIN は単一の時系列を返します m1-min(m1) MIN(METRICS()) 51

61 Metric Math を GetMetricData API オペレーションと使用する 関数引数戻り型 * 例 PERIOD TS S の期間を秒単位で返しま す 有効な入力は 他の式の結果で はなくです m1/period(m1) RATE TS TS[] TS TS[] の変更のレートを秒単位で返します これは 最新のデータポイントの値と 前のデータポイントの値の差を 2 つ値の間の時間 ( 秒単位 ) で除算して計算されます RATE(m1) RATE(METRICS()) STDDEV TS TS[] S TS 単一の時系列の STDDEV は 内のすべてのデータポイントの標準偏差を表すスカラーを返します 時系列の配列の STDDEV は単一の時系列を返します m1/stddev(m1) STDDEV(METRICS()) SUM TS TS[] S TS 単一の時系列の SUM は 内のすべてのデータポイントの合計値を表すスカラーを返します 時系列の配列の SUM は単一の時系列を返します SUM(METRICS())/ SUM(m1) SUM([m1,m2]) SUM(METRICS("errors"))/ SUM(METRICS("requests"))*100 * スカラー数を返す関数のみの使用は無効です 式の最終結果はすべて単一の時系列または時系列の配列である必要があります 代わりに これらの関数を 時系列を返すより大きな式の一部として使用します Metric Math を GetMetricData API オペレーションと使用する [GetMetricData] を使用して数式を使用した計算を実行でき また 1 回の API コールでデータの大規模バッチを取得できます 詳細については GetMetricData を参照してください 52

62 CloudWatch エージェントを使用して Amazon EC2 インスタンスとオンプレミスサーバーからとログを収集する 統合 CloudWatch エージェントを使用すると 以下のことを実行できます ゲスト内や Amazon EC2 にリストされているなど Amazon EC2 のとディメンション (p. 146) インスタンスからシステムレベルのをさらに収集します 追加のは CloudWatch エージェントにより収集される (p. 119) にリストされています オンプレミスサーバーからシステムレベルのを収集します これには ハイブリッド環境のサーバーや AWS によって管理されていないサーバーも含まれる可能性があります Linux または Windows Server を実行している Amazon EC2 インスタンスおよびオンプレミスサーバーから ログを収集します 他の CloudWatch と同様に CloudWatch エージェントで収集したを CloudWatch でも保存して表示できます CloudWatch エージェントにより収集されるのデフォルトの名前空間は CWAgent ですが エージェントを構成するときに別の名前空間を指定できます 統合 CloudWatch エージェントによって収集されたログは 古い CloudWatch Logs エージェントによって収集されたログと同様に 処理されて CloudWatch Logs に格納されます CloudWatch Logs の料金については Amazon CloudWatch 料金表を参照してください CloudWatch エージェントによって収集されたは カスタムとして請求されます CloudWatch の料金の詳細については Amazon CloudWatch 料金表 を参照してください このセクションのステップでは Amazon EC2 インスタンスとオンプレミスサーバーに統合 CloudWatch エージェントをインストールする方法についてします CloudWatch エージェントによって収集されるの詳細については CloudWatch エージェントにより収集される (p. 119) を参照してください サポートされるオペレーティングシステム CloudWatch エージェントは 以下のオペレーティングシステムでサポートされています Amazon Linux バージョン 以降 Amazon Linux 2 Ubuntu Server バージョン および CentOS バージョン 7.0 および 6.5 Red Hat Enterprise Linux (RHEL) バージョン Debian 8.0 SUSE Linux Enterprise Server (SLES) 12 以降 64 ビットバージョンの Windows Server 2016 Windows Server 2012 Windows Server 2008 インストールプロセスの概要 53

63 CloudWatch エージェントで使用する IAM ロールおよびユーザーを作成する CloudWatch エージェントをインストールする一般的な流れは次のとおりです 1. CloudWatch エージェントに必要な IAM のロールとユーザーを作成します これにより CloudWatch がサーバーからを収集し AWS Systems Manager と統合できるようになります 2. Amazon EC2 インスタンスにインストールする場合 IAM ロールをインスタンスにアタッチします オンプレミスサーバーにインストールする場合には CloudWatch エージェントによって CloudWatch に情報の書き込みを許可する IAM ユーザーを作成します 3. AWS Systems Manager Run Command またはパブリック Amazon S3 のダウンロードリンクを使用して エージェントパッケージをダウンロードします 4. CloudWatch エージェント設定ファイルを変更し CloudWatch エージェント用の名前付きプロファイルを作成します Amazon EC2 インスタンスにエージェントをインストールするときは 名前付きプロファイルの作成はオプションです 5. Systems Manager Run Command またはコマンドラインを使用してエージェントを開始します コンテンツ CloudWatch エージェントで使用する IAM ロールおよびユーザーを作成する (p. 54) Amazon EC2 インスタンスに CloudWatch エージェントをインストールする (p. 57) オンプレミスサーバーに CloudWatch エージェントをインストールする (p. 68) CloudWatch エージェント設定ファイルを作成する (p. 79) CloudWatch エージェントを使用した一般的なシナリオ (p. 100) CloudWatch エージェントのトラブルシューティング (p. 102) CloudWatch エージェントで使用する IAM ロールおよびユーザーを作成する AWS リソースにアクセスするには アクセス権限が必要です CloudWatch エージェントがを CloudWatch に書き込み CloudWatch エージェントが Amazon EC2 および AWS Systems Manager と通信するために必要なアクセス権限を持つ IAM ロールおよびユーザーを作成できます Amazon EC2 インスタンスでは IAM ロールを使用し オンプレミスサーバーでは IAM ユーザーを使用して エージェントが CloudWatch にデータを送信することを許可します 1 つのロールと 1 つのユーザーがあると CloudWatch エージェントをサーバーにインストールし を CloudWatch に送信できるようになります CloudWatch エージェント設定を Systems Manager Parameter Store に保存するには ロールまたはユーザーがもう 1 つ必要です これにより 複数のサーバーが 1 つの CloudWatch エージェント設定を使用できるようになります Parameter Store への書き込み権限は 範囲が広く強力なアクセス権限のため 必要なときのみ使用し デプロイ内の複数のインスタンスにはアタッチしないでください Parameter Store に CloudWatch エージェント設定を保存する場合 この設定を実行するインスタンスを 1 つセットアップし CloudWatch エージェント設定ファイルを使用して作業するときに限ってこのインスタンスでのみ Parameter Store に書き込むアクセス権限を持つ IAM ロールを使用してください Note お客様にこれらのポリシーを自分で作成するよう求める代わりに Amazon によって作成された新しい [CloudWatchAgentServerPolicy] および [CloudWatchAgentAdminPolicy] ポリシーを使用して 最近以下の手順を変更しました Parameter Store でのファイルの書き込みやファイルのダウンロードでは Amazon で作成したポリシーは AmazonCloudWatch- で始まる名前のファイルのみをサポートします AmazonCloudWatch- で始まらないファイル名を持つ CloudWatch エージェント設定ファイルがある場合 これらのポリシーは ファイルを Parameter Store に書き込んだり または Parameter Store からファイルをダウンロードするために使用することはできません 54

64 Amazon EC2 インスタンスの CloudWatch エージェントで使用する IAM ロールを作成する Amazon EC2 インスタンスの CloudWatch エージェントで使用する IAM ロールを作成する 最初の手順では CloudWatch エージェントで実行される各 Amazon EC2 インスタンスにアタッチする必要がある IAM ロールが作成されます このロールでは インスタンスから情報を読み取り CloudWatch に書き込むアクセス権限が提供されます 2 番目の手順では 他のサーバーが使用できるようにこのファイルを Systems Manager Parameter Store に保存する場合に CloudWatch エージェント設定ファイルの作成に使用されている Amazon EC2 インスタンスにアタッチする必要がある IAM ロールが作成されます このロールでは Parameter Store に書き込むアクセス権限と インスタンスから情報を読み取って CloudWatch に書き込むアクセス権限が提供されます このロールには Parameter Store エージェントを実行するだけでなく CloudWatch に書き込むのに十分なアクセス権限が含まれます 各サーバーが CloudWatch エージェントを実行するのに必要な IAM ロールを作成するには 1. AWS マネジメントコンソールにサインインし IAM コンソール ( iam/) を開きます 2. 左側のナビゲーションペインで [Roles] [Create role] の順に選択します 3. [Choose the service that will use this role] ( このロールを使用するサービスを選択 ) で [EC2Allows EC2 instances to call AWS services on your behalf] (EC2 お客様に代わって EC2 インスタンスが AWS サービスを呼び出すことができるようにする ) を選択します [Next: Permissions ( 次へ : 権限 )] を選択します 4. ポリシーのリストで [CloudWatchAgentServerPolicy] の横にあるチェックボックスを選択します 検索ボックスを使用して 必要に応じてポリシーを見つけます 5. CloudWatch エージェントをインストールまたは設定するために SSM を使用する場合 [AmazonEC2RoleforSSM] の横にあるチェックボックスを選択します 検索ボックスを使用して 必要に応じてポリシーを見つけます コマンドラインのみ使用してエージェントを開始および設定する場合 このポリシーは必要ありません 6. [Next: Review] ( 次の手順 : 確認 ) を選択 7. [CloudWatchAgentServerPolicy] およびオプションで [AmazonEC2RoleforSSM] が [Policies] ( ポリシー ) 横に表示されていることを確認します [Role name] に CloudWatchAgentServerRole などのロールの名前を入力します 必要に応じてを入力し [Create role] を選択します これでロールが作成されました 次の手順では IAM ロールを作成します このロールは Parameter Store に書き込むこともできます 他のサーバーが使用できるようにエージェント設定ファイルを Parameter Store に保存する場合は このロールを使用する必要があります このロールでは Parameter Store に書き込むアクセス権限と インスタンスから情報を読み取って CloudWatch に書き込むアクセス権限が提供されます Parameter Store に書き込むアクセス権限は広い範囲に影響を及ぼすため すべてのサーバーにアタッチすることはせず 管理者だけが使用してください エージェント設定ファイルを作成し Parameter Store にコピーしたら インスタンスからこのロールをデタッチし 代わりに CloudWatchAgentServerPolicy を使用してください 管理者がエージェント設定ファイルを Systems Manager Parameter Store に保存するのに必要な IAM ロールを作成するには 1. AWS マネジメントコンソールにサインインし IAM コンソール ( iam/) を開きます 2. 左側のナビゲーションペインで [Roles] [Create role] の順に選択します 3. [Choose the service that will use this role] ( このロールを使用するサービスを選択 ) で [EC2Allows EC2 instances to call AWS services on your behalf] (EC2 お客様に代わって EC2 インスタンスが AWS サービスを呼び出すことができるようにする ) を選択します [Next: Permissions ( 次へ : 権限 )] を選択します 55

65 オンプレミスサーバーで CloudWatch エージェントを使用するための IAM ユーザーを作成する 4. ポリシーのリストで [CloudWatchAgentAdminPolicy] の横にあるチェックボックスを選択します 検索ボックスを使用して 必要に応じてポリシーを見つけます 5. CloudWatch エージェントをインストールまたは設定するために SSM を使用する場合 [AmazonEC2RoleforSSM] の横にあるチェックボックスを選択します 検索ボックスを使用して 必要に応じてポリシーを見つけます コマンドラインのみ使用してエージェントを開始および設定する場合 このポリシーは必要ありません 6. [Next: Review] ( 次の手順 : 確認 ) を選択 7. [CloudWatchAgentAdminPolicy] およびオプションで [AmazonEC2RoleforSSM] が [Policies] ( ポリシー ) 横に表示されていることを確認します [Role name] に CloudWatchAgentAdminRole などのロールの名前を入力します 必要に応じてを入力し [Create role] を選択します これでロールが作成されました オンプレミスサーバーで CloudWatch エージェントを使用するための IAM ユーザーを作成する 最初の手順では CloudWatch エージェントの実行に必要な IAM ユーザーが作成されます このユーザーは CloudWatch にデータを送信するアクセス許可を提供します 2 番目の手順では 他のサーバーが使用できるようにこのファイルを Systems Manager Parameter Store に保存する場合に CloudWatch エージェント設定ファイルの作成に使用する IAM ユーザーが作成されます このユーザーは Parameter Store に書き込むアクセス権限と CloudWatch にデータを書き込むアクセス権限を提供します CloudWatch エージェントが CloudWatch にデータを書き込むために必要な IAM ユーザーを作成するには 1. AWS マネジメントコンソールにサインインし IAM コンソール ( iam/) を開きます 2. 左側のナビゲーションペインで [Users] [Add user] を選択します 3. 新しいユーザーのユーザー名を入力します 4. [Programmatic access] を選択し [Next: Permissions] を選択します 5. [Attach existing policies directly] を選択します 6. ポリシーのリストで [CloudWatchAgentServerPolicy] の横にあるチェックボックスを選択します 検索ボックスを使用して 必要に応じてポリシーを見つけます 7. CloudWatch エージェントをインストールまたは設定するために SSM を使用する場合 [AmazonEC2RoleforSSM] の横にあるチェックボックスを選択します 検索ボックスを使用して 必要に応じてポリシーを見つけます コマンドラインのみ使用してエージェントを開始および設定する場合 このポリシーは必要ありません 8. [Next: Review] を選択します 9. 適切なポリシーがリストされていることを確認し [Create user] を選択します 10. 新しいユーザーの名前の横にある [Show] を選択します アクセスキーとシークレットキーをファイルにコピーして エージェントのイントール時に使用できるようにした後 [Close] を選択します 次の手順では IAM ユーザーを作成します このロールは Parameter Store に書き込むこともできます 他のサーバーが使用できるようにエージェント設定ファイルを Parameter Store に保存する場合は このユーザーを使用する必要があります このユーザーでは Parameter Store に書き込むアクセス権限と インスタンスから情報を読み取って CloudWatch に書き込むアクセス権限が提供されます Systems Manager Parameter Store に書き込むアクセス権限は広い範囲に影響を及ぼすため すべてのサーバーにアタッチすることはせず 管理者だけが使用してください この IAM ユーザーは エージェント設定ファイルを Parameter Store に保存するときにのみ使用してください 56

66 Amazon EC2 インスタンスに CloudWatch エージェントをインストールする Parameter Store のファイル設定を保存し CloudWatch に情報を送信するために必要な IAM ユーザーを作成するには 1. AWS マネジメントコンソールにサインインし IAM コンソール ( iam/) を開きます 2. 左側のナビゲーションペインで [Users] [Add user] を選択します 3. 新しいユーザーのユーザー名を入力します 4. [Programmatic access] を選択し [Next: Permissions] を選択します 5. [Attach existing policies directly] を選択します 6. ポリシーのリストで [CloudWatchAgentAdminPolicy] の横にあるチェックボックスを選択します 検索ボックスを使用して 必要に応じてポリシーを見つけます 7. CloudWatch エージェントをインストールまたは設定するために SSM を使用する場合 [AmazonEC2RoleforSSM] の横にあるチェックボックスを選択します 検索ボックスを使用して 必要に応じてポリシーを見つけます コマンドラインのみ使用してエージェントを開始および設定する場合 このポリシーは必要ありません 8. [Next: Review] を選択します 9. 適切なポリシーがリストされていることを確認し [Create user] を選択します 10. 新しいユーザーの名前の横にある [Show] を選択します アクセスキーとシークレットキーをファイルにコピーして エージェントのイントール時に使用できるようにした後 [Close] を選択します Amazon EC2 インスタンスに CloudWatch エージェントをインストールする CloudWatch エージェントを最初に使用し始めるとき サーバーにダウンロードしてエージェントを設定します それ以降は その設定を使用して そのサーバーで直接エージェントを使用できます 設定を AWS Systems Manager Parameter Store に保存すると CloudWatch エージェントを他のサーバーにインストールするときにも 同じ設定を使用できます トピック 開始方法 : CloudWatch エージェントを最初のインスタンスにインストールする (p. 57) エージェント設定を使用して追加インスタンスに CloudWatch エージェントをインストールする (p. 63) 開始方法 : CloudWatch エージェントを最初のインスタンスにインストールする CloudWatch エージェントをダウンロードして実行中の Amazon EC2 インスタンスにインストールするには AWS Systems Manager またはコマンドラインのどちらかを使用できます どちらの方法でも まず IAM ロールを作成してインスタンスにアタッチする必要があります トピック IAM ロールをインスタンスにアタッチする (p. 58) Amazon EC2 インスタンスに CloudWatch エージェントパッケージをインストールする (p. 58) ( オプション ) CloudWatch エージェントの一般的な設定と名前付きプロファイルを変更する (p. 60) 最初のインスタンスでエージェント設定ファイルを作成する (p. 61) CloudWatch エージェントの開始 (p. 61) 57

67 開始方法 : CloudWatch エージェントを最初のインスタンスにインストールする IAM ロールをインスタンスにアタッチする CloudWatch エージェントを Amazon EC2 インスタンスにインストールするときは インスタンスプロファイルの IAM ロールが必要です このロールは CloudWatch エージェントがインスタンス上でアクションを実行できるようにします 前のステップで作成したロールのいずれかを使用します これらのロールの作成についての詳細は CloudWatch エージェントで使用する IAM ロールおよびユーザーを作成する (p. 54) を参照してください リストをスクロールして見つけるか 検索ボックスを使用することができます このインスタンスを使用して CloudWatch エージェント設定ファイルを作成し Systems Manager Parameter Store にコピーする場合は Parameter Store に書き込むアクセス権限を持つ 作成したロールを使用します このロールの名前は CloudWatchAgentAdminRole などです 他のすべてのインスタンスの場合 エージェントのインストールと実装に必要なアクセス権限のみ含まれるロールを選択します このロールの名前は CloudWatchAgentServerRole などです CloudWatch エージェントをインストールするインスタンスにこのロールをアタッチします 詳細については Windows インスタンスの Amazon EC2 ユーザーガイドの IAM ロールをインスタンスにアタッチする を参照してください Amazon EC2 インスタンスに CloudWatch エージェントパッケージをインストールする Systems Manager Run Command または Amazon S3 のダウンロードリンクを使用して CloudWatch エージェントパッケージをダウンロードできます AWS Systems Manager を使用して Amazon EC2 インスタンスに CloudWatch エージェントパッケージをインストールする Systems Manager を使用して CloudWatch エージェントをインストールするには Systems Manager に合わせてインスタンスが適切に設定されていることを確認する必要があります SSM Agent をインストールまたは更新する Amazon EC2 インスタンスでは CloudWatch エージェントを使用するにはバージョン 以降のインスタンスが実行されている必要があります CloudWatch エージェントをインストールする前に SSM Agent を更新するか インスタンスにインストールしてください ( まだの場合 ) Linux を実行しているインスタンスでの SSM Agent のインストールまたは更新については AWS Systems Manager ユーザーガイドの Linux インスタンスでの SSM Agent のインストールおよび設定 を参照してください SSM Agent のインストールまたは更新については AWS Systems Manager ユーザーガイドの SSM Agent のインストールおよび設定 を参照してください ( オプション ) Systems Manager の前提条件を確認する Systems Manager Run Command を使用して CloudWatch エージェントをインストールおよび設定する前に インスタンスが Systems Manager の最小要件を満たしていることを確認します 詳細については AWS Systems Manager ユーザーガイドの Systems Manager の前提条件 を参照してください インターネットアクセスを確認する データを CloudWatch または CloudWatch Logs に送信するには Amazon EC2 インスタンスにアウトバウンドのインターネットアクセスが必要です インターネットアクセスの詳しい設定方法については Amazon VPC ユーザーガイドの インターネットゲートウェイ を参照してください 58

68 開始方法 : CloudWatch エージェントを最初のインスタンスにインストールする プロキシで設定するエンドポイントとポートは 次のとおりです エージェントを使用してを収集する場合は 適切なリージョンの CloudWatch エンドポイントをホワイトリストに入れる必要があります これらのエンドポイントは アマゾンウェブサービス全般のリファレンスの Amazon CloudWatch に記載されています エージェントを使用してログを収集する場合は 適切なリージョンの CloudWatch Logs エンドポイントをホワイトリストに入れる必要があります これらのエンドポイントは アマゾンウェブサービス全般のリファレンスの Amazon CloudWatch Logs に記載されています SSM を使用して エージェントまたは Parameter Store をインストールして設定ファイルを保存する場合は 適切なリージョンの SSM エンドポイントをホワイトリストに入れる必要があります これらのエンドポイントは アマゾンウェブサービス全般のリファレンスの AWS Systems Manager に記載されています Run Command を使用して CloudWatch エージェントパッケージをダウンロードする Systems Manager Run Command では インスタンスの設定を管理できます Systems Manager ドキュメントを指定してパラメータを指定し 1 つ以上のインスタンスでコマンドを実行します インスタンスの SSM Agent エージェントは コマンドを処理し 指定されたとおりにインスタンスを設定します Run Command を使用して CloudWatch をダウンロードするには 1. Open the Systems Manager console at 2. In the navigation pane, choose Run Command. -or- If the AWS Systems Manager home page opens, scroll down and choose Explore Run Command. 3. [Run command] を選択します 4. [Command document] リストで [AWS-ConfigureAWSPackage] を選択します 5. [ ターゲット ] 領域で CloudWatch エージェントをインストールするインスタンスを選択します 特定のインスタンスが表示されない場合 Run Command 用に設定されていない可能性があります 詳細については Windows インスタンスの Amazon EC2 ユーザーガイドの Systems Manager の前提条件 を参照してください 6. [Action] リストで [Install] を選択します 7. [Name] フィールドに AmazonCloudWatchAgent と入力します 8. エージェントの最新バージョンをインストールには [Version] を [latest] に設定したままにします 9. [Run] を選択します 10. 必要に応じて [ ターゲットと出力 ] 領域で インスタンス名の横のボタンを選択して [View output ( 出力の表示 )] を選択します Systems Manager に エージェントが正常にインストールされたことが表示されます ダウンロードリンクを使用して Amazon EC2 インスタンスに CloudWatch エージェントパッケージをダウンロードする Amazon S3 ダウンロードリンクを使用すると Amazon EC2 インスタンスサーバーに CloudWatch エージェントパッケージをダウンロードできます コマンドラインを使用して CloudWatch エージェントを Amazon EC2 インスタンスにインストールするには 1. エージェントパッケージをダウンロードして解凍するためのディレクトリを作成します たとえば tmp/amazoncloudwatchagent と指定します 次に そのディレクトリに移動します 59

69 開始方法 : CloudWatch エージェントを最初のインスタンスにインストールする 2. CloudWatch エージェントをダウンロードします Linux サーバーの場合 次を入力します wget AmazonCloudWatchAgent.zip Windows Server を実行しているサーバーの場合 次のファイルをダウンロードします AmazonCloudWatchAgent.zip 3. パッケージをダウンロードしたら 必要に応じて GPG 署名ファイルを使用してパッケージの署名を確認できます 詳細については CloudWatch エージェントパッケージの署名を確認する (p. 72) を参照してください 4. パッケージを解凍します unzip AmazonCloudWatchAgent.zip 5. パッケージをインストールします Linux サーバーでは パッケージを含むディレクトリに移動し 次のように入力します sudo./install.sh Windows Server を実行するサーバーでは PowerShell を開いて 解凍されたパッケージを含むディレクトリに移動し install.ps1 スクリプトを使用してインストールします ( オプション ) CloudWatch エージェントの一般的な設定と名前付きプロファイルを変更する ダウンロードした CloudWatch エージェントパッケージには common-config.toml という設定ファイルが含まれています このファイルを使用して プロキシ 認証情報 およびリージョン情報を指定できます Linux を実行しているサーバーでは このファイルは /opt/aws/amazon-cloudwatchagent/etc ディレクトリにあります Windows Server を実行しているサーバーでは このファイルは C:\ProgramData\Amazon\AmazonCloudWatchAgent ディレクトリにあります デフォルトの common-config.toml は次のようになります CloudWatch エージェントを Amazon EC2 インスタンスにインストールするとき プロキシ設定を指定する必要がある場合や インスタンスとは別のリージョンにある CloudWatch にエージェントがを送信しなければならないときは このファイルのみ変更する必要があります # This common-config is used to configure items used for both ssm and cloudwatch access ## Configuration for shared credential. ## Default credential strategy will be used if it is absent here: ## Instance role is used for EC2 case by default. ## AmazonCloudWatchAgent profile is used for onpremise case by default. # [credentials] # shared_credential_profile = "{profile_name}" ## Configuration for proxy. ## System-wide environment-variable will be read if it is absent here. ## i.e. HTTP_PROXY/http_proxy; HTTPS_PROXY/https_proxy; NO_PROXY/no_proxy ## Note: system-wide environment-variable is not accessible when using ssm run-command. ## Absent in both here and environment-variable means no proxy will be used. # [proxy] 60

70 # http_proxy = "{http_url}" # https_proxy = "{https_url}" # no_proxy = "{domain}" Amazon CloudWatch ユーザーガイド開始方法 : CloudWatch エージェントを最初のインスタンスにインストールする 初期状態では すべての行がコメントアウトされています 認証情報プロファイルやプロキシ設定を設定するには その行から # を削除し 値を指定します このファイルは 手動で編集したり Systems Manager で RunShellScript Run Command を使用したりすることができます プロキシ設定サーバーが HTTP または HTTPS プロキシを使用して AWS サービスに接続している場合 http_proxy フィールドと https_proxy フィールドでそれらのプロキシを指定します プロキシから除外すべき URL がある場合 カンマで区切って no_proxy フィールドで指定します shared_credential_profile CloudWatch エージェントによってがインスタンスと同じリージョンにある CloudWatch に送信されるよう指定するとき 適切なアクセス権限を持つ IAM ロールをインスタンスにアタッチした場合は この行を変更する必要はありません また aws configure コマンドを使用して エージェントの名前付きプロファイルを作成する必要もありません それ以外の場合は この行で CloudWatch エージェントが使用する AWS 設定ファイル内の名前付きプロファイルを指定できます これにより CloudWatch エージェントはその名前付きプロファイルのリージョン設定を使用するようになります common-config.toml を変更した後 CloudWatch エージェントのリージョン情報の指定が必要になった場合は AWS 設定ファイルで CloudWatch エージェントの名前付きプロファイルを作成します このプロファイルを作成するときは ルートまたは管理者ユーザーとして実行します 次の例は 設定ファイルのプロファイルです [AmazonCloudWatchAgent] region=us-west-1 CloudWatch データを別のリージョンに送信できるようにするには このインスタンスにアタッチした IAM ロールに そのリージョンで CloudWatch データを書き込むアクセス権限があることを確認してください 次の例では aws configure コマンドを使用して CloudWatch エージェントの名前付きプロファイルを作成します この例では AmazonCloudWatchAgent のデフォルトプロファイル名を使用しているものとします CloudWatch エージェントの AmazonCloudWatchAgent プロファイルを作成するには 以下のコマンドを入力してプロンプトに従います aws configure --profile AmazonCloudWatchAgent 最初のインスタンスでエージェント設定ファイルを作成する CloudWatch エージェントをダウンロードしたら サーバーでエージェントを開始する前に設定ファイルを作成する必要があります 詳細については CloudWatch エージェント設定ファイルを作成する (p. 79) を参照してください CloudWatch エージェントの開始 エージェント設定ファイルを作成したサーバーでエージェントを開始するには 以下の手順を実行します 他のサーバーでこの設定ファイルを使用する場合は エージェント設定を使用して追加インスタンスに CloudWatch エージェントをインストールする (p. 63) を参照してください 61

71 開始方法 : CloudWatch エージェントを最初のインスタンスにインストールする Run Command を使用して CloudWatch エージェントを作成するには Systems Manager Run Command を使用してエージェントを開始するには 以下のステップを実行します Run Command を使用して CloudWatch エージェントを開始するには 1. Open the Systems Manager console at 2. In the navigation pane, choose Run Command. -or- If the AWS Systems Manager home page opens, scroll down and choose Explore Run Command. 3. [Run command] を選択します 4. [Command document] リストで [AmazonCloudWatch-ManageAgent] を選択します 5. [ ターゲット ] 領域で CloudWatch エージェントをインストールしたインスタンスを選択します 6. [Action] リストで [configure] を選択します 7. [Optional Configuration Source] リストで [ssm] を選択します 8. CloudWatch エージェント設定ファイルを作成する (p. 79) でされているとおり [Optional Configuration Location ( オプションの設定場所 )] ボックスで 作成して Systems Manager Parameter Store に保存したエージェント設定ファイルの名前を入力します 9. これらのステップを完了した後 [Optional Restart] リストで [yes] を選択してエージェントを開始します 10. [Run] を選択します 11. 必要に応じて [ ターゲットと出力 ] 領域で インスタンス名の横のボタンを選択して [View output ( 出力の表示 )] を選択します Systems Manager に エージェントが正常に開始されたことが表示されます コマンドラインを使用して Amazon EC2 インスタンスで CloudWatch エージェントを開始する コマンドラインを使用して CloudWatch エージェントを Amazon EC2 インスタンスにインストールするには 以下のステップを実行します コマンドラインを使用して CloudWatch エージェントを Amazon EC2 インスタンスに開始するには このコマンドで -a fetch-config によりエージェントは最新バージョンの CloudWatch エージェント設定ファイルをロードし -s がエージェントを開始します Linux: 設定ファイルを Systems Manager Parameter Store に保存した場合は 次のコマンドを入力します sudo /opt/aws/amazon-cloudwatch-agent/bin/amazon-cloudwatch-agent-ctl -a fetch-config - m ec2 -c ssm:configuration-parameter-store-name -s Linux: 設定ファイルをローカルコンピューターに保存した場合は 次のコマンドを入力します sudo /opt/aws/amazon-cloudwatch-agent/bin/amazon-cloudwatch-agent-ctl -a fetch-config - m ec2 -c file:configuration-file-path -s Windows サーバー : エージェント設定ファイルを Systems Manager Parameter Store に保存した場合は 次のコマンドを使用します Powershell コンソールで 次のように入力します 62

72 エージェント設定を使用して追加インスタンスに CloudWatch エージェントをインストールする amazon-cloudwatch-agent-ctl.ps1 -a fetch-config -m ec2 -c ssm:configuration-parameterstore-name -s Windows サーバー : エージェント設定ファイルをローカルコンピューターに保存した場合は 次のコマンドを使用します Powershell コンソールで 次のように入力します amazon-cloudwatch-agent-ctl.ps1 -a fetch-config -m ec2 -c file:configuration-file-path -s エージェント設定を使用して追加インスタンスに CloudWatch エージェントをインストールする CloudWatch エージェント設定を Parameter Store に保存すると 他のサーバーにエージェントをインストールするときに使用できます トピック Systems Manager および CloudWatch エージェントの IAM ロールを作成する (p. 63) Amazon EC2 インスタンスに CloudWatch エージェントパッケージをインストールする (p. 63) ( オプション ) CloudWatch エージェントの一般的な設定と名前付きプロファイルを変更する (p. 65) CloudWatch エージェントの開始 (p. 67) Systems Manager および CloudWatch エージェントの IAM ロールを作成する CloudWatch エージェントを Amazon EC2 インスタンスにインストールするときは インスタンスプロファイルの IAM ロールが必要です このロールは CloudWatch エージェントがインスタンス上でアクションを実行できるようにします エージェントのインストールと実行に必要なアクセス権限のみが含まれる 前に作成したロールを使用します このロールは CloudWatchAgentServerPolicy と呼ばれることがあります CloudWatch エージェントをインストールするインスタンスにこのロールをアタッチします 詳細については Windows インスタンスの Amazon EC2 ユーザーガイドの IAM ロールをインスタンスにアタッチする を参照してください Amazon EC2 インスタンスに CloudWatch エージェントパッケージをインストールする Systems Manager Run Command または Amazon S3 のダウンロードリンクを使用して CloudWatch エージェントパッケージをダウンロードできます Systems Manager を使用して Amazon EC2 インスタンスに CloudWatch エージェントパッケージをインストールする Systems Manager を使用して CloudWatch エージェントをインストールするには Systems Manager に合わせてインスタンスが適切に設定されていることを確認する必要があります 63

73 エージェント設定を使用して追加インスタンスに CloudWatch エージェントをインストールする SSM Agent をインストールまたは更新する Amazon EC2 インスタンスでは CloudWatch エージェントを使用するにはバージョン 以降のインスタンスが実行されている必要があります CloudWatch エージェントをインストールする前に SSM Agent を更新するか インスタンスにインストールしてください ( まだの場合 ) Linux を実行しているインスタンスでの SSM Agent のインストールまたは更新については AWS Systems Manager ユーザーガイドの Linux インスタンスでの SSM Agent のインストールおよび設定 を参照してください SSM Agent のインストールまたは更新については AWS Systems Manager ユーザーガイドの SSM エージェントのインストールおよび設定 を参照してください ( オプション ) Systems Manager の前提条件を確認する Systems Manager Run Command を使用して CloudWatch エージェントをインストールおよび設定する前に インスタンスが Systems Manager の最小要件を満たしていることを確認します 詳細については AWS Systems Manager ユーザーガイドの Systems Manager の前提条件 を参照してください インターネットアクセスを確認する データを CloudWatch または CloudWatch Logs に送信するには Amazon EC2 インスタンスにアウトバウンドのインターネットアクセスが必要です インターネットアクセスの詳しい設定方法については Amazon VPC ユーザーガイドの インターネットゲートウェイ を参照してください Run Command を使用して CloudWatch エージェントパッケージをダウンロードする Systems Manager Run Command では インスタンスの設定を管理できます Systems Manager ドキュメントを指定してパラメータを指定し 1 つ以上のインスタンスでコマンドを実行します インスタンスの SSM Agent エージェントは コマンドを処理し 指定されたとおりにインスタンスを設定します Run Command を使用して CloudWatch をダウンロードするには 1. Open the Systems Manager console at 2. In the navigation pane, choose Run Command. -or- If the AWS Systems Manager home page opens, scroll down and choose Explore Run Command. 3. [Run command] を選択します 4. [Command document] リストで [AWS-ConfigureAWSPackage] を選択します 5. [ ターゲット ] 領域で CloudWatch エージェントをインストールするインスタンスを選択します 特定のインスタンスが表示されない場合 Run Command 用に設定されていない可能性があります 詳細については Windows インスタンスの Amazon EC2 ユーザーガイドの Systems Manager の前提条件 を参照してください 6. [Action] リストで [Install] を選択します 7. [Name] ボックスに AmazonCloudWatchAgent と入力します 8. エージェントの最新バージョンをインストールには [Version] を [latest] に設定したままにします 9. [Run] を選択します 10. 必要に応じて [ ターゲットと出力 ] 領域で インスタンス名の横のボタンを選択して [View output ( 出力の表示 )] を選択します Systems Manager に エージェントが正常にインストールされたことが表示されます 64

74 エージェント設定を使用して追加インスタンスに CloudWatch エージェントをインストールする ダウンロードリンクを使用して Amazon EC2 インスタンスに CloudWatch エージェントパッケージをダウンロードする Amazon S3 ダウンロードリンクを使用すると Amazon EC2 インスタンスサーバーに CloudWatch エージェントパッケージをダウンロードできます コマンドラインを使用して CloudWatch エージェントを Amazon EC2 インスタンスにインストールするには 1. エージェントパッケージをダウンロードして解凍するためのディレクトリを作成します たとえば tmp/amazoncloudwatchagent と指定します 次に そのディレクトリに移動します 2. CloudWatch エージェントをダウンロードします Linux サーバーの場合 次を入力します wget AmazonCloudWatchAgent.zip Windows Server を実行しているサーバーの場合 次のファイルをダウンロードします AmazonCloudWatchAgent.zip 3. パッケージをダウンロードしたら 必要に応じて GPG 署名ファイルを使用してパッケージの署名を確認できます 詳細については CloudWatch エージェントパッケージの署名を確認する (p. 72) を参照してください 4. パッケージを解凍します unzip AmazonCloudWatchAgent.zip 5. パッケージをインストールします Linux サーバーでは パッケージを含むディレクトリに移動し 次のように入力します sudo./install.sh Windows Server を実行するサーバーでは PowerShell を開いて 解凍されたパッケージを含むディレクトリに移動し install.ps1 スクリプトを使用してインストールします ( オプション ) CloudWatch エージェントの一般的な設定と名前付きプロファイルを変更する ダウンロードした CloudWatch エージェントパッケージには common-config.toml という設定ファイルが含まれています このファイルを使用して プロキシ 認証情報 およびリージョン情報を指定できます Linux を実行しているサーバーでは このファイルは /opt/aws/amazon-cloudwatchagent/etc ディレクトリにあります Windows Server を実行しているサーバーでは このファイルは C:\ProgramData\Amazon\AmazonCloudWatchAgent ディレクトリにあります デフォルトの common-config.toml は次のようになります CloudWatch エージェントを Amazon EC2 インスタンスにインストールするとき プロキシ設定を指定する必要がある場合や インスタンスとは別のリージョンにある CloudWatch にエージェントがを送信しなければならないときは このファイルのみ変更する必要があります # This common-config is used to configure items used for both ssm and cloudwatch access ## Configuration for shared credential. 65

75 エージェント設定を使用して追加インスタンスに CloudWatch エージェントをインストールする ## Default credential strategy will be used if it is absent here: ## Instance role is used for EC2 case by default. ## AmazonCloudWatchAgent profile is used for onpremise case by default. # [credentials] # shared_credential_profile = "{profile_name}" ## Configuration for proxy. ## System-wide environment-variable will be read if it is absent here. ## i.e. HTTP_PROXY/http_proxy; HTTPS_PROXY/https_proxy; NO_PROXY/no_proxy ## Note: system-wide environment-variable is not accessible when using ssm run-command. ## Absent in both here and environment-variable means no proxy will be used. # [proxy] # http_proxy = "{http_url}" # https_proxy = "{https_url}" # no_proxy = "{domain}" 初期状態では すべての行がコメントアウトされています 認証情報プロファイルやプロキシ設定を設定するには その行から # を削除し 値を指定します このファイルは 手動で編集したり Systems Manager で RunShellScript Run Command を使用したりすることができます shared_credential_profile CloudWatch エージェントによってがインスタンスと同じリージョンにある CloudWatch に送信されるよう指定するとき 適切なアクセス権限を持つ IAM ロールをインスタンスにアタッチした場合は この行を変更する必要はありません また aws configure コマンドを使用して エージェントの名前付きプロファイルを作成する必要もありません それ以外の場合 この行を使用して CloudWatch エージェントが AWS 認証情報と AWS 設定ファイルで使用する名前付きプロファイルを指定できます その場合 CloudWatch エージェントは その名前付きプロファイルで認証情報とリージョン設定を使用します プロキシ設定サーバーが HTTP または HTTPS プロキシを使用して AWS サービスに接続している場合 http_proxy フィールドと https_proxy フィールドでそれらのプロキシを指定します プロキシから除外すべき URL がある場合 カンマで区切って no_proxy フィールドで指定します common-config.toml を変更した後 CloudWatch エージェントの認証情報とリージョン情報を指定する必要がある場合 AWS 認証情報と AWS 設定ファイルで CloudWatch エージェントの名前付きファイルを作成します このプロファイルを作成するときは ルートまたは管理者ユーザーとして実行します 認証情報ファイルでのこのプロファイルの例は次のようになります [AmazonCloudWatchAgent] aws_access_key_id=my_access_key aws_secret_access_key=my_secret_key my_access_key と my_secret_key では Systems Manager Parameter Store に書き込むアクセス権限を持たない IAM ユーザーからのキーを使用します CloudWatch エージェントに必要な IAM ユーザーの詳細については オンプレミスサーバーで CloudWatch エージェントを使用するための IAM ユーザーを作成する (p. 56) を参照してください 次の例は 設定ファイルのプロファイルです [AmazonCloudWatchAgent] region=us-west-1 次の例では aws configure コマンドを使用して CloudWatch エージェントの名前付きプロファイルを作成します この例では AmazonCloudWatchAgent のデフォルトプロファイル名を使用しているものとします CloudWatch エージェントの AmazonCloudWatchAgent プロファイルを作成するには 以下のコマンドを入力してプロンプトに従います 66

76 エージェント設定を使用して追加インスタンスに CloudWatch エージェントをインストールする aws configure --profile AmazonCloudWatchAgent CloudWatch エージェントの開始 Systems Manager Run Command またはコマンドラインを使用してエージェントを開始できます Systems Manager Run Command を使用して CloudWatch エージェントを開始するには Systems Manager Run Command を使用してエージェントを開始するには 以下のステップを実行します Run Command を使用して CloudWatch エージェントを開始するには 1. Open the Systems Manager console at 2. In the navigation pane, choose Run Command. -or- If the AWS Systems Manager home page opens, scroll down and choose Explore Run Command. 3. [Run command] を選択します 4. [Command document] リストで [AmazonCloudWatch-ManageAgent] を選択します 5. [ ターゲット ] 領域で CloudWatch エージェントをインストールしたインスタンスを選択します 6. [Action] リストで [configure] を選択します 7. [Optional Configuration Source] リストで [ssm] を選択します 8. CloudWatch エージェント設定ファイルを作成する (p. 79) でされているとおり [Optional Configuration Location ( オプションの設定場所 )] ボックスで 作成して Systems Manager Parameter Store に保存したエージェント設定ファイルの名前を入力します 9. これらのステップを完了した後 [Optional Restart] リストで [yes] を選択してエージェントを開始します 10. [Run] を選択します 11. 必要に応じて [ ターゲットと出力 ] 領域で インスタンス名の横のボタンを選択して [View output ( 出力の表示 )] を選択します Systems Manager に エージェントが正常に開始されたことが表示されます コマンドラインを使用して Amazon EC2 インスタンスで CloudWatch エージェントを開始する コマンドラインを使用して CloudWatch エージェントを Amazon EC2 インスタンスにインストールするには 以下のステップを実行します コマンドラインを使用して CloudWatch エージェントを Amazon EC2 インスタンスに開始するには このコマンドで -a fetch-config によりエージェントは最新バージョンの CloudWatch エージェント設定ファイルをロードし -s がエージェントを開始します Linux: 設定ファイルを Systems Manager Parameter Store に保存した場合は 次のコマンドを入力します 67

77 オンプレミスサーバーに CloudWatch エージェントをインストールする sudo /opt/aws/amazon-cloudwatch-agent/bin/amazon-cloudwatch-agent-ctl -a fetch-config - m ec2 -c ssm:configuration-parameter-store-name -s Linux: 設定ファイルをローカルコンピューターに保存した場合は 次のコマンドを入力します sudo /opt/aws/amazon-cloudwatch-agent/bin/amazon-cloudwatch-agent-ctl -a fetch-config - m ec2 -c file:configuration-file-path -s Windows サーバー : エージェント設定ファイルを Systems Manager Parameter Store に保存した場合は 次のコマンドを使用します Powershell コンソールで 次のように入力します amazon-cloudwatch-agent-ctl.ps1 -a fetch-config -m ec2 -c ssm:configuration-parameterstore-name -s Windows サーバー : エージェント設定ファイルをローカルコンピューターに保存した場合は 次のコマンドを使用します Powershell コンソールで 次のように入力します amazon-cloudwatch-agent-ctl.ps1 -a fetch-config -m ec2 -c file:configuration-file-path -s オンプレミスサーバーに CloudWatch エージェントをインストールする CloudWatch エージェントを最初に使用し始めるとき サーバーにダウンロードしてエージェントを設定します 次に その設定を使って そのサーバーで直接エージェントを使用できます 設定を AWS Systems Manager Parameter Store に保存すると 他のサーバーに CloudWatch エージェントをインストールするときに同じ設定を使用することもできます トピック 開始方法 : CloudWatch エージェントを最初のサーバーにインストールする (p. 68) エージェント設定を使用して追加サーバーに CloudWatch エージェントをインストールする (p. 75) 開始方法 : CloudWatch エージェントを最初のサーバーにインストールする CloudWatch エージェントをダウンロードしてオンプレミスサーバーにインストールするには AWS Systems Manager またはコマンドラインのどちらかを使用できます どちらの方法でも まず IAM に書き込むアクセス権限を持つ CloudWatch ユーザーを作成する必要があります トピック オンプレミスサーバーに CloudWatch エージェントをダウンロードする (p. 69) CloudWatch エージェントの一般的な設定と名前付きプロファイルを変更する (p. 70) CloudWatch エージェント設定ファイルを作成する (p. 71) CloudWatch エージェントの開始 (p. 71) CloudWatch エージェントパッケージの署名を確認する (p. 72) 68

78 開始方法 : CloudWatch エージェントを最初のサーバーにインストールする オンプレミスサーバーに CloudWatch エージェントをダウンロードする CloudWatch エージェントをダウンロードするには Systems Manager またはコマンドラインを使用できます Systems Manager Run Command を使用するには Amazon EC2 Systems Manager にオンプレミスサーバーを登録する必要があります 詳細については AWS Systems Manager ユーザーガイドの ハイブリッド環境での Systems Manager のセットアップ を参照してください すでにサーバーを登録している場合 SSM Agent を最新バージョンに更新します Linux を実行しているサーバーでの SSM Agent のインストールまたは更新については AWS Systems Manager ユーザーガイドの Linux ハイブリッド環境のサーバーおよび VM に SSM Agent をインストールする を参照してください Windows Server を実行しているサーバーでの SSM Agent のインストールまたは更新については AWS Systems Manager ユーザーガイドの Windows ハイブリッド環境のサーバーおよび VM に SSM Agent をインストールする を参照してください SSM Agent を使用してオンプレミスサーバーで CloudWatch エージェントパッケージをダウンロードするには 1. Open the Systems Manager console at 2. In the navigation pane, choose Run Command. -or- If the AWS Systems Manager home page opens, scroll down and choose Explore Run Command. 3. [Run command] を選択します 4. [Command document] リストで [AWS-ConfigureAWSPackage] の横のボタンを選択します 5. [ ターゲット ] 領域で CloudWatch エージェントをインストールするサーバーを選択します 特定のサーバーが表示されない場合 Run Command 用に設定されていない可能性があります 詳細については Windows インスタンスの Amazon EC2 ユーザーガイドの Systems Manager の前提条件 を参照してください 6. [Action] リストで [Install] を選択します 7. [Name] ボックスに AmazonCloudWatchAgent と入力します 8. エージェントの最新バージョンをインストールには [Version] を空白のままにします 9. [Run] を選択します エージェントパッケージがダウンロードされたら 次のステップではエージェントパッケージを設定して開始します コマンドラインを使用してオンプレミスサーバーで CloudWatch エージェントをダウンロードするには 1. エージェントパッケージをダウンロードして解凍するためのディレクトリを作成します たとえば tmp/amazoncloudwatchagent と指定します 次に そのディレクトリに移動します 2. CloudWatch エージェントパッケージをダウンロードします Linux サーバーの場合 次を入力します wget AmazonCloudWatchAgent.zip Windows Server を実行しているサーバーの場合 次のファイルをダウンロードします 69

79 開始方法 : CloudWatch エージェントを最初のサーバーにインストールする AmazonCloudWatchAgent.zip 3. パッケージをダウンロードしたら 必要に応じて GPG 署名ファイルを使用してパッケージの署名を確認できます 詳細については CloudWatch エージェントパッケージの署名を確認する (p. 72) を参照してください 4. パッケージを解凍します unzip AmazonCloudWatchAgent.zip 5. パッケージをインストールします Linux サーバーでは パッケージを含むディレクトリに移動し 次のように入力します sudo./install.sh Windows Server を実行するサーバーでは PowerShell を開いて 解凍されたパッケージを含むディレクトリに移動し install.ps1 スクリプトを使用してインストールします CloudWatch エージェントの一般的な設定と名前付きプロファイルを変更する ダウンロードした CloudWatch エージェントパッケージには common-config.toml という設定ファイルが含まれています このファイルを使用して プロキシ 認証情報 およびリージョン情報を指定できます Linux を実行しているサーバーでは このファイルは /opt/aws/amazon-cloudwatchagent/etc ディレクトリにあります Windows Server を実行しているサーバーでは このファイルは C:\ProgramData\Amazon\AmazonCloudWatchAgent ディレクトリにあります デフォルトの common-config.toml は次のようになります # This common-config is used to configure items used for both ssm and cloudwatch access ## Configuration for shared credential. ## Default credential strategy will be used if it is absent here: ## Instance role is used for EC2 case by default. ## AmazonCloudWatchAgent profile is used for onpremise case by default. # [credentials] # shared_credential_profile = "{profile_name}" ## Configuration for proxy. ## System-wide environment-variable will be read if it is absent here. ## i.e. HTTP_PROXY/http_proxy; HTTPS_PROXY/https_proxy; NO_PROXY/no_proxy ## Note: system-wide environment-variable is not accessible when using ssm run-command. ## Absent in both here and environment-variable means no proxy will be used. # [proxy] # http_proxy = "{http_url}" # https_proxy = "{https_url}" # no_proxy = "{domain}" 初期状態では すべての行がコメントアウトされています 認証情報プロファイルやプロキシ設定を設定するには その行から # を削除し 値を指定します このファイルは 手動で編集したり Systems Manager で RunShellScript Run Command を使用したりすることができます shared_credential_profile CloudWatch エージェントが AWS 認証情報と AWS 設定ファイルを探す名前付きプロファイルの名前を指定できます ここで名前を指定しない場合 CloudWatch エージェントはデフォルトプロファイル名 AmazonCloudWatchAgent を探します 70

80 開始方法 : CloudWatch エージェントを最初のサーバーにインストールする プロキシ設定サーバーが HTTP または HTTPS プロキシを使用して AWS サービスに接続している場合 http_proxy フィールドと https_proxy フィールドでそれらのプロキシを指定します プロキシから除外すべき URL がある場合 カンマで区切って no_proxy フィールドで指定します common-config.toml を変更したら 指定したプロファイル名または AmazonCloudWatchAgent のデフォルトプロファイル名が ルートユーザーの AWS 認証情報および設定ファイルに存在することを確認してください このプロファイルは CloudWatch エージェントのセットアップ中に認証情報とリージョン情報に使用されます 認証情報ファイルでのこのプロファイルの例は次のようになります [AmazonCloudWatchAgent] aws_access_key_id=my_access_key aws_secret_access_key=my_secret_key my_access_key と my_secret_key では Systems Manager Parameter Store に書き込むアクセス権限を持たない IAM ユーザーからのキーを使用します CloudWatch エージェントに必要な IAM ユーザーの詳細については オンプレミスサーバーで CloudWatch エージェントを使用するための IAM ユーザーを作成する (p. 56) を参照してください 次の例は 設定ファイルのプロファイルです [AmazonCloudWatchAgent] region=us-west-1 認証情報ファイルの名前付きプロファイルには CloudWatch エージェントに使用される認証情報が含まれています これらの認証情報は CloudWatch にデータを書き込むアクセス権限と CloudWatch エージェントのインストール時に Systems Manager Parameter Store から情報をダウンロードするアクセス権限に使用されます このセクションで使用する認証情報を取得するには このセクションで前にしたように CloudWatch エージェントの IAM ユーザーを作成します 設定ファイルの名前付きファイルは CloudWatch エージェントがオンプレミスサーバーで実行されるときに CloudWatch が公開されるリージョンを指定します aws configure コマンドを使用してプロファイルを変更するときは ルートまたは管理者ユーザーとして実行します 次の例では aws configure コマンドを使用して CloudWatch エージェントの名前付きプロファイルを作成します この例では AmazonCloudWatchAgent のデフォルトプロファイル名を使用しているものとします CloudWatch エージェントの AmazonCloudWatchAgent プロファイルを作成するには 以下のコマンドを入力してプロンプトに従います aws configure --profile AmazonCloudWatchAgent CloudWatch エージェント設定ファイルを作成する CloudWatch エージェントは設定ファイルを使用して 収集すると他のエージェント設定データを指定します このファイルは エージェントを開始する前にカスタマイズする必要があります 詳細については CloudWatch エージェント設定ファイルを作成する (p. 79) を参照してください CloudWatch エージェントの開始 Systems Manager Run Command またはコマンドラインを使用して CloudWatch エージェントを開始できます 71

81 開始方法 : CloudWatch エージェントを最初のサーバーにインストールする SSM Agent を使用してオンプレミスサーバーで CloudWatch エージェントを開始するには 1. Open the Systems Manager console at 2. In the navigation pane, choose Run Command. -or- If the AWS Systems Manager home page opens, scroll down and choose Explore Run Command. 3. [Run command] を選択します 4. [Command document] リストで [AmazonCloudWatch-ManageAgent] の横のボタンを選択します 5. [Targets] 領域で エージェントをインストールしたインスタンスを選択します 6. [Action] リストで [configure] を選択します 7. [Mode] リストで [onpremise] を選択します 8. [Optional Configuration Location ( オプションの設定場所 )] ボックスで ウィザードで作成して Parameter Store に保存したエージェント設定ファイルの名前を入力します 9. [Run] を選択します エージェントが 設定ファイルで指定した設定で開始されます コマンドラインを使用してオンプレミスサーバーで CloudWatch エージェントを開始するには このコマンドで -a fetch-config によりエージェントは最新バージョンの CloudWatch エージェント設定ファイルをロードし -s がエージェントを開始します Linux: 設定ファイルを Systems Manager Parameter Store に保存した場合は 次のコマンドを入力します sudo /opt/aws/amazon-cloudwatch-agent/bin/amazon-cloudwatch-agent-ctl -a fetch-config - m onpremise -c ssm:configuration-parameter-store-name -s Linux: 設定ファイルをローカルコンピューターに保存した場合は 次のコマンドを入力します sudo /opt/aws/amazon-cloudwatch-agent/bin/amazon-cloudwatch-agent-ctl -a fetch-config - m onpremise -c file:configuration-file-path -s Windows サーバー : エージェント設定ファイルを Systems Manager Parameter Store に保存した場合は 次のコマンドを使用します Powershell コンソールで 次のように入力します amazon-cloudwatch-agent-ctl.ps1 -a fetch-config -m onpremise -c ssm:configurationparameter-store-name -s Windows サーバー : エージェント設定ファイルをローカルコンピューターに保存した場合は 次のコマンドを使用します Powershell コンソールで 次のように入力します amazon-cloudwatch-agent-ctl.ps1 -a fetch-config -m onpremise -c file:configurationfile-path -s CloudWatch エージェントパッケージの署名を確認する GPG 署名ファイルは ZIP アーカイブで圧縮された CloudWatch エージェントアセットで使用するために含まれています ホストのパブリックキーは 次の場所にあります amazoncloudwatch-agent/assets/amazon-cloudwatch-agent.gpg 公開鍵を使用して エージェントの ZIP 72

82 開始方法 : CloudWatch エージェントを最初のサーバーにインストールする アーカイブがオリジナルで変更されていないことを確認できます まず で公開鍵をインポートします Linux サーバーで CloudWatch エージェントパッケージを確認するには 1. 公開鍵をダウンロードします shell$ wget 2. 公開鍵をキーリングにインポートします shell$ gpg --import amazon-cloudwatch-agent.gpg gpg: key 3B789C72: public key "Amazon CloudWatch Agent" imported gpg: Total number processed: 1 gpg: imported: 1 (RSA: 1) 次の手順で必要になるため キーの値を書きとめておきます 前述の例では キーの値は 3B789C72 です 3. 次のコマンドを使用してフィンガープリントを確認し 式式式を前述の手順の値と置き換えます shell$ gpg --fingerprint key-value pub 2048R/3B789C Key fingerprint = F3 450B 7D80 6CBD 9725 D B78 9C72 uid Amazon CloudWatch Agent フィンガープリントは 次のものと同一になる必要があります F3 450B 7D80 6CBD 9725 D B78 9C72 フィンガープリント文字列が一致しない場合 エージェントをインストールしないで Amazon Web Services にご連絡ください フィンガープリントを確認したら それを使用して CloudWatch エージェントパッケージの署名を確認できます 4. パッケージ署名ファイルをダウンロードします wget AmazonCloudWatchAgent.sig 5. 署名を確認するには gpg --verify を実行します shell$ gpg --verify AmazonCloudWatchAgent.sig AmazonCloudWatchAgent.zip gpg: Signature made Wed 29 Nov :00:59 PM PST using RSA key ID 3B789C72 gpg: Good signature from "Amazon CloudWatch Agent" gpg: WARNING: This key is not certified with a trusted signature! gpg: There is no indication that the signature belongs to the owner. Primary key fingerprint: F3 450B 7D80 6CBD 9725 D B78 9C72 出力結果に BAD signature という句が含まれる場合 手順が正しいことをもう一度確認してください このレスポンスが続く場合は Amazon Web Services に連絡してください ダウンロードしたエージェントアーカイブは解凍しないでください 信頼性に関する警告に注意します 鍵は 自分や信頼する人が署名した場合にのみ信頼できます これは 署名が無効であることを意味するものではなく 公開鍵を確認していないことを意味します 73

83 開始方法 : CloudWatch エージェントを最初のサーバーにインストールする Windows Server を実行するサーバーで CloudWatch エージェントパッケージを確認するには 1. Windows 用の GnuPG を からダウンロードしてインストールします インストールするときは [Shell Extension (GpgEx)] オプションを含めます 残りの手順は Windows PowerShell で実行できます 2. 公開鍵をダウンロードします PS> wget -OutFile amazon-cloudwatch-agent.gpg 3. 公開鍵をキーリングにインポートします PS> gpg --import amazon-cloudwatch-agent.gpg gpg: key 3B789C72: public key "Amazon CloudWatch Agent" imported gpg: Total number processed: 1 gpg: imported: 1 (RSA: 1) 次の手順で必要になるため キーの値を書きとめておきます 前述の例では キーの値は 3B789C72 です 4. 次のコマンドを使用してフィンガープリントを確認し 式式式を前述の手順の値と置き換えます PS> gpg --fingerprint key-value pub rsa [SC] F3 450B 7D80 6CBD 9725 D B78 9C72 uid [ unknown] Amazon CloudWatch Agent フィンガープリントは 次のものと同一になる必要があります F3 450B 7D80 6CBD 9725 D B78 9C72 フィンガープリント文字列が一致しない場合 エージェントをインストールしないで Amazon Web Services にご連絡ください フィンガープリントを確認したら それを使用して CloudWatch エージェントパッケージの署名を確認できます 5. パッケージ署名ファイルをダウンロードします wget AmazonCloudWatchAgent.sig 6. 署名を確認するには gpg --verify を実行します PS> gpg --verify AmazonCloudWatchAgent.sig AmazonCloudWatchAgent.zip gpg: Signature made 11/29/17 23:00:45 Coordinated Universal Time gpg: using RSA key D B789C72 gpg: Good signature from "Amazon CloudWatch Agent" [unknown] gpg: WARNING: This key is not certified with a trusted signature! gpg: There is no indication that the signature belongs to the owner. Primary key fingerprint: F3 450B 7D80 6CBD 9725 D B78 9C72 出力結果に BAD signature という句が含まれる場合 手順が正しいことをもう一度確認してください このレスポンスが続く場合は Amazon Web Services に連絡してください ダウンロードしたエージェントアーカイブは解凍しないでください 信頼性に関する警告に注意します 鍵は 自分や信頼する人が署名した場合にのみ信頼できます これは 署名が無効であることを意味するものではなく 公開鍵を確認していないことを意味します 74

84 エージェント設定を使用して追加サーバーに CloudWatch エージェントをインストールする エージェント設定を使用して追加サーバーに CloudWatch エージェントをインストールする トピック オンプレミスサーバーに CloudWatch エージェントをダウンロードする (p. 75) CloudWatch エージェントの一般的な設定と名前付きプロファイルを変更する (p. 76) CloudWatch エージェントの開始 (p. 78) オンプレミスサーバーに CloudWatch エージェントをダウンロードする CloudWatch エージェントをダウンロードするには AWS Systems Manager またはコマンドラインを使用できます Systems Manager Run Command を使用するには Amazon EC2 Systems Manager にオンプレミスサーバーを登録する必要があります 詳細については AWS Systems Manager ユーザーガイドの ハイブリッド環境での Systems Manager のセットアップ を参照してください すでにサーバーを登録している場合 SSM Agent を最新バージョンに更新します Linux を実行しているサーバーでの SSM Agent のインストールまたは更新については AWS Systems Manager ユーザーガイドの Linux ハイブリッド環境のサーバーおよび VM に SSM Agent をインストールする を参照してください Windows Server を実行しているサーバーでの SSM Agent のインストールまたは更新については AWS Systems Manager ユーザーガイドの Windows ハイブリッド環境のサーバーおよび VM に SSM Agent をインストールする を参照してください SSM Agent を使用してオンプレミスサーバーで CloudWatch エージェントパッケージをダウンロードするには 1. Open the Systems Manager console at 2. In the navigation pane, choose Run Command. -or- If the AWS Systems Manager home page opens, scroll down and choose Explore Run Command. 3. [Run command] を選択します 4. [Command document] リストで [AWS-ConfigureAWSPackage] の横のボタンを選択します 5. [ ターゲット ] 領域で CloudWatch エージェントをインストールするサーバーを選択します 特定のサーバーが表示されない場合 Run Command 用に設定されていない可能性があります 詳細については Windows インスタンスの Amazon EC2 ユーザーガイドの Systems Manager の前提条件 を参照してください 6. [Action] リストで [Install] を選択します 7. [Name] ボックスに AmazonCloudWatchAgent と入力します 8. エージェントの最新バージョンをインストールには [Version] を空白のままにします 9. [Run] を選択します エージェントパッケージがダウンロードされたら 次のステップではエージェントパッケージを設定して開始します 75

85 エージェント設定を使用して追加サーバーに CloudWatch エージェントをインストールする コマンドラインを使用してオンプレミスサーバーで CloudWatch エージェントをダウンロードするには 1. エージェントパッケージをダウンロードして解凍するためのディレクトリを作成します たとえば tmp/amazoncloudwatchagent と指定します 次に そのディレクトリに移動します 2. CloudWatch エージェントパッケージをダウンロードします Linux サーバーの場合 次を入力します wget AmazonCloudWatchAgent.zip Windows Server を実行しているサーバーの場合 次のファイルをダウンロードします AmazonCloudWatchAgent.zip 3. パッケージをダウンロードしたら 必要に応じて GPG 署名ファイルを使用してパッケージの署名を確認できます 詳細については CloudWatch エージェントパッケージの署名を確認する (p. 72) を参照してください 4. パッケージを解凍します unzip AmazonCloudWatchAgent.zip 5. パッケージをインストールします Linux サーバーでは パッケージを含むディレクトリに移動し 次のように入力します sudo./install.sh Windows Server を実行するサーバーでは PowerShell を開いて 解凍されたパッケージを含むディレクトリに移動し install.ps1 スクリプトを使用してインストールします CloudWatch エージェントの一般的な設定と名前付きプロファイルを変更する ダウンロードした CloudWatch エージェントパッケージには common-config.toml という設定ファイルが含まれています このファイルを使用して プロキシ 認証情報 およびリージョン情報を指定できます Linux を実行しているサーバーでは このファイルは /opt/aws/amazon-cloudwatchagent/etc ディレクトリにあります Windows Server を実行しているサーバーでは このファイルは C:\ProgramData\Amazon\AmazonCloudWatchAgent ディレクトリにあります デフォルトの common-config.toml は次のようになります # This common-config is used to configure items used for both ssm and cloudwatch access ## Configuration for shared credential. ## Default credential strategy will be used if it is absent here: ## Instance role is used for EC2 case by default. ## AmazonCloudWatchAgent profile is used for onpremise case by default. # [credentials] # shared_credential_profile = "{profile_name}" ## Configuration for proxy. ## System-wide environment-variable will be read if it is absent here. ## i.e. HTTP_PROXY/http_proxy; HTTPS_PROXY/https_proxy; NO_PROXY/no_proxy 76

86 エージェント設定を使用して追加サーバーに CloudWatch エージェントをインストールする ## Note: system-wide environment-variable is not accessible when using ssm run-command. ## Absent in both here and environment-variable means no proxy will be used. # [proxy] # http_proxy = "{http_url}" # https_proxy = "{https_url}" # no_proxy = "{domain}" 初期状態では すべての行がコメントアウトされています 認証情報プロファイルやプロキシ設定を設定するには その行から # を削除し 値を指定します このファイルは 手動で編集したり Systems Manager で RunShellScript Run Command を使用したりすることができます shared_credential_profile CloudWatch エージェントが AWS 認証情報と AWS 設定ファイルを探す名前付きプロファイルの名前を指定できます ここで名前を指定しない場合 CloudWatch エージェントはデフォルトプロファイル名 AmazonCloudWatchAgent を探します プロキシ設定サーバーが HTTP または HTTPS プロキシを使用して AWS サービスに接続している場合 http_proxy フィールドと https_proxy フィールドでそれらのプロキシを指定します プロキシから除外すべき URL がある場合 カンマで区切って no_proxy フィールドで指定します common-config.toml を変更したら 指定したプロファイル名または AmazonCloudWatchAgent のデフォルトプロファイル名がルートユーザーの AWS 認証情報および設定ファイルに存在することを確認してください このプロファイルは CloudWatch エージェントのセットアップ中に認証情報とリージョン情報に使用されます 認証情報ファイルでのこのプロファイルの例は次のようになります [AmazonCloudWatchAgent] aws_access_key_id=my_access_key aws_secret_access_key=my_secret_key my_access_key と my_secret_key では Systems Manager Parameter Store に書き込むアクセス権限を持たない IAM ユーザーからのキーを使用します CloudWatch エージェントに必要な IAM ユーザーの詳細については オンプレミスサーバーで CloudWatch エージェントを使用するための IAM ユーザーを作成する (p. 56) を参照してください 次の例は 設定ファイルのプロファイルです [AmazonCloudWatchAgent] region=us-west-1 認証情報ファイルの名前付きプロファイルには CloudWatch エージェントに使用される認証情報が含まれています これらの認証情報は CloudWatch にデータを書き込むアクセス権限と CloudWatch エージェントのインストール時に Systems Manager Parameter Store から情報をダウンロードするアクセス権限に使用されます このセクションで使用する認証情報を取得するには このセクションで前にしたように CloudWatch エージェントの IAM ユーザーを作成します 設定ファイルの名前付きファイルは CloudWatch エージェントがオンプレミスサーバーで実行されるときに CloudWatch が公開されるリージョンを指定します aws configure コマンドを使用してプロファイルを変更するときは ルートまたは管理者ユーザーとして実行します 次の例では aws configure コマンドを使用して CloudWatch エージェントの名前付きプロファイルを作成します この例では AmazonCloudWatchAgent のデフォルトプロファイル名を使用しているものとします CloudWatch エージェントの AmazonCloudWatchAgent プロファイルを作成するには 以下のコマンドを入力してプロンプトに従います aws configure --profile AmazonCloudWatchAgent 77

87 エージェント設定を使用して追加サーバーに CloudWatch エージェントをインストールする CloudWatch エージェントの開始 Systems Manager Run Command またはコマンドラインを使用して CloudWatch エージェントを開始できます SSM Agent を使用してオンプレミスサーバーで CloudWatch エージェントを開始するには 1. Open the Systems Manager console at 2. In the navigation pane, choose Run Command. -or- If the AWS Systems Manager home page opens, scroll down and choose Explore Run Command. 3. [Run command] を選択します 4. [Command document] リストで [AmazonCloudWatch-ManageAgent] の横のボタンを選択します 5. [Targets] 領域で エージェントをインストールしたインスタンスを選択します 6. [Action] リストで [configure] を選択します 7. [Mode] リストで [onpremise] を選択します 8. [Optional Configuration Location ( オプションの設定場所 )] ボックスで ウィザードで作成して Parameter Store に保存したエージェント設定ファイルの名前を入力します 9. [Run] を選択します エージェントが 設定ファイルで指定した設定で開始されます コマンドラインを使用してオンプレミスサーバーで CloudWatch エージェントを開始するには このコマンドで -a fetch-config によりエージェントは最新バージョンの CloudWatch エージェント設定ファイルをロードし -s がエージェントを開始します Linux: 設定ファイルを Systems Manager Parameter Store に保存した場合は 次のコマンドを入力します sudo /opt/aws/amazon-cloudwatch-agent/bin/amazon-cloudwatch-agent-ctl -a fetch-config - m onpremise -c ssm:configuration-parameter-store-name -s Linux: 設定ファイルをローカルコンピューターに保存した場合は 次のコマンドを入力します sudo /opt/aws/amazon-cloudwatch-agent/bin/amazon-cloudwatch-agent-ctl -a fetch-config - m onpremise -c file:configuration-file-path -s Windows サーバー : エージェント設定ファイルを Systems Manager Parameter Store に保存した場合は 次のコマンドを使用します Powershell コンソールで 次のように入力します amazon-cloudwatch-agent-ctl.ps1 -a fetch-config -m onpremise -c ssm:configurationparameter-store-name -s Windows サーバー : エージェント設定ファイルをローカルコンピューターに保存した場合は 次のコマンドを使用します Powershell コンソールで 次のように入力します amazon-cloudwatch-agent-ctl.ps1 -a fetch-config -m onpremise -c file:configurationfile-path -s 78

88 CloudWatch エージェント設定ファイルを作成する CloudWatch エージェント設定ファイルを作成する CloudWatch エージェントを Amazon EC2 インスタンスとオンプレミスサーバーのどちらにインストールするかに関係なく エージェントを開始する前に CloudWatch エージェント設定ファイルを作成する必要があります エージェント設定ファイルは エージェントが収集するとログを指定する JSON ファイルです このファイルを作成するには ウィザードを使用するか ゼロから自分で作成します また ウィザードを使用して 最初に設定ファイルを作成してから 手動で変更することもできます 手動で作成または変更する場合の方がプロセスが複雑になりますが 収集されるをより細かくコントロールし ウィザードによって使用されないを指定できます エージェント設定ファイルを変更するときは必ず エージェントを再起動して変更を有効にする必要があります 設定ファイルを作成したら Systems Manager Parameter Store に保存できます これにより 他のサーバーで同じエージェント設定を使用できるようになります コンテンツ ウィザードを使用して CloudWatch エージェント設定ファイルを作成する (p. 79) CloudWatch エージェント設定ファイルを手動で作成または編集する (p. 83) ウィザードを使用して CloudWatch エージェント設定ファイルを作成する エージェント設定ファイルウィザード amazon-cloudwatch-agent-config-wizard は以下のような一連の質問を表示します エージェントを Amazon EC2 インスタンスとオンプレミスサーバーのどちらにインストールするか サーバーで Linux と Windows Server のどちらが実行されているか エージェントがログファイルを CloudWatch Logs に送信するようにするか 持っている場合は 既存の CloudWatch Logs エージェント設定ファイルを持っているか 持っている場合 CloudWatch エージェントは このファイルを使用してサーバーから収集するログを判別できます サーバーからメトリックを収集する場合は デフォルトのセットの 1 つを監視するか 収集するのリストをカスタマイズするか? 既存の SSM Agent から移行するか ウィザードの開始前に AWS 認証方法および設定ファイルを所定の場所に置いた場合 ウィザードは使用する認証情報と AWS リージョンを自動検出できます これらのファイルの詳細については AWS Systems Manager ユーザーガイドの 設定ファイルと認証情報ファイル を参照してください ウィザードは 認証情報にある次のような AmazonCloudWatchAgent セクションを探します [AmazonCloudWatchAgent] aws_access_key_id=my_secret_key aws_secret_access_key=my_access_key このセクションが存在する場合 ウィザードは CloudWatch エージェントにこれらの認証情報を使用します my_access_key と my_secret_key では Systems Manager Parameter Store に書き込むアクセス権限を持つ IAM ユーザーからのキーを使用します CloudWatch エージェントに必要な IAM ユーザーの詳細に 79

89 ウィザードを使用して CloudWatch エージェント設定ファイルを作成する ついては オンプレミスサーバーで CloudWatch エージェントを使用するための IAM ユーザーを作成する (p. 56) を参照してください 設定ファイルでは エージェントがを送信するリージョンを指定できます ([default] セクションのリージョンと異なる場合 ) デフォルトでは Amazon EC2 インスタンスが配置されているリージョンにが発行されます を別のリージョンに発行する場合は ここでそのリージョンを指定します 次の例では は us-west-1 リージョンに発行されます [AmazonCloudWatchAgent] region=us-west-1 CloudWatch エージェントの事前定義されたセット ウィザードは 異なる詳細レベルを持つ 事前定義されたセットで設定されます これらののセットを次の表に示します これらのの詳細については CloudWatch エージェントにより収集される (p. 119) を参照してください Linux を実行する Amazon EC2 インスタンス 詳細レベル 基本 含められる Mem: mem_used_percent Swap: swap_used_percent Standard CPU: cpu_usage_idle cpu_usage_iowait cpu_usage_user cpu_usage_system Disk: disk_used_percent disk_inodes_free diskio_io_time Mem: mem_used_percent Swap: swap_used_percent アドバンスト CPU: cpu_usage_idle cpu_usage_iowait cpu_usage_user cpu_usage_system Disk: disk_used_percent disk_inodes_free Diskio: diskio_io_time diskio_write_bytes diskio_read_bytes diskio_writes diskio_reads Mem: mem_used_percent Netstat: netstat_tcp_established netstat_tcp_time_wait Swap: swap_used_percent Linux を実行しているオンプレミスサーバー 詳細レベル 基本 含められる Disk: disk_used_percent Diskio: diskio_write_bytes diskio_read_bytes diskio_writes, diskio_reads Mem: mem_used_percent Net: net_bytes_sent net_bytes_recv net_packets_sent net_packets_recv 80

90 ウィザードを使用して CloudWatch エージェント設定ファイルを作成する 詳細レベル Standard 含められる Swap: swap_used_percent CPU: cpu_usage_idle cpu_usage_iowait Disk: disk_used_percent disk_inodes_free Diskio: diskio_io_time diskio_write_bytes diskio_read_bytes diskio_writes diskio_reads Mem: mem_used_percent Net: net_bytes_sent net_bytes_recv net_packets_sent net_packets_recv Swap: swap_used_percent アドバンスト CPU: cpu_usage_idle cpu_usage_guest cpu_usage_iowait cpu_usage_steal cpu_usage_user cpu Disk: disk_used_percent disk_inodes_free Diskio: diskio_io_time diskio_write_bytes diskio_read_bytes diskio_writes diskio_reads Mem: mem_used_percent Net: net_bytes_sent net_bytes_recv net_packets_sent net_packets_recv Netstat: netstat_tcp_established netstat_tcp_time_wait Swap: swap_used_percent Windows Server を実行する Amazon EC2 インスタンス 詳細レベル 基本 含められる Memory: 使用中のメモリのコミットされたバイトの割合 Paging: ページングファイルの使用割合 Standard Memory: 使用中のメモリのコミットされたバイトの割合 Paging: ページングファイルの使用割合 Processor: プロセッサのアイドル時間の割合 プロセッサの中断時間の割合 プロセッサのユーザー時間の割合 PhysicalDisk: PhysicalDisk のディスク時間の割合 LogicalDisk: LogicalDisk の空き容量の割合 アドバンスト Memory: 使用中のメモリのコミットされたバイトの割合 Paging: ページングファイルの使用割合 Processor: プロセッサのアイドル時間の割合 プロセッサの中断時間の割合 プロセッサのユーザー時間の割合 LogicalDisk: LogicalDisk の空き容量の割合 81

91 ウィザードを使用して CloudWatch エージェント設定ファイルを作成する 詳細レベル 含められる PhysicalDisk: PhysicalDisk のディスク時間の割合 PhysicalDisk のディスク書き込みバイト / 秒 PhysicalDisk のディスク読み取りバイト / 秒 PhysicalDisk のディスク書き込み / 秒 PhysicalDisk のディスク読み取り / 秒 TCP: TCPv4 接続を確立 TCPv6 接続を確立 Windows Server を実行しているオンプレミスサーバー 詳細レベル 基本 含められる Processor: プロセッサのプロセッサ時間の割合 Paging: ページングファイルの使用割合 LogicalDisk: LogicalDisk の空き容量の割合 PhysicalDisk: PhysicalDisk のディスク書き込みバイト / 秒 PhysicalDisk のディスク読み取りバイト / 秒 PhysicalDisk のディスク書き込み / 秒 PhysicalDisk のディスク読み取り / 秒 Memory: 使用中のメモリのコミットされたバイトの割合 Network Interface: ネットワークインターフェイスの送信バイト / 秒 ネットワークインターフェイスの受信バイト / 秒 ネットワークインターフェイスの送信パケット / 秒 ネットワークインターフェイスの受信パケット / 秒 Standard Paging: ページングファイルの使用割合 Processor: プロセッサのプロセッサ時間の割合 プロセッサのアイドル時間の割合 プロセッサの中断時間の割合 LogicalDisk: LogicalDisk の空き容量の割合 PhysicalDisk: PhysicalDisk のディスク時間の割合 PhysicalDisk のディスク書き込みバイト / 秒 PhysicalDisk のディスク読み取りバイト / 秒 PhysicalDisk のディスク書き込み / 秒 PhysicalDisk のディスク読み取り / 秒 Memory: 使用中のメモリのコミットされたバイトの割合 Network Interface: ネットワークインターフェイスの送信バイト / 秒 ネットワークインターフェイスの受信バイト / 秒 ネットワークインターフェイスの送信パケット / 秒 ネットワークインターフェイスの受信パケット / 秒 アドバンスト Paging: ページングファイルの使用割合 Processor: プロセッサのプロセッサ時間の割合 プロセッサのアイドル時間の割合 プロセッサの中断時間の割合 プロセッサの使用時間の割合 LogicalDisk: LogicalDisk の空き容量の割合 PhysicalDisk: PhysicalDisk のディスク時間の割合 PhysicalDisk のディスク書き込みバイト / 秒 PhysicalDisk のディスク読み取りバイト / 秒 PhysicalDisk のディスク書き込み / 秒 PhysicalDisk のディスク読み取り / 秒 Memory: 使用中のメモリのコミットされたバイトの割合 82

92 CloudWatch エージェント設定ファイルを手動で作成または編集する 詳細レベル 含められる Network Interface: ネットワークインターフェイスの送信バイト / 秒 ネットワークインターフェイスの受信バイト / 秒 ネットワークインターフェイスの送信パケット / 秒 ネットワークインターフェイスの受信パケット / 秒 TCP: TCPv4 接続を確立 TCPv6 接続を確立 CloudWatch エージェント設定ウィザードを実行する CloudWatch エージェント設定ファイルを作成するには 1. 次のように入力して CloudWatch エージェント設定ウィザードを開始します sudo /opt/aws/amazon-cloudwatch-agent/bin/amazon-cloudwatch-agent-config-wizard Windows Server を実行しているサーバーで 次のように入力します cd "C:\Program Files\Amazon\AmazonCloudWatchAgent" amazon-cloudwatch-agent-config-wizard.exe 2. 質問に答えて サーバーの設定ファイルをカスタマイズします 3. Systems Manager を使用してエージェントをインストールおよび設定する場合 ファイルを Systems Manager Parameter Store に保存するかどうかを確認するよう求められたら 必ず はい と回答してください SSM Agent を使用して CloudWatch エージェントをインストールしない場合でも Parameter Store へのファイルの保存を選択することもできます Parameter Store にファイルを保存できるようにするには 十分なアクセス権限を持つ IAM ロールを使用する必要があります 詳細については CloudWatch エージェントで使用する IAM ロールおよびユーザーを作成する (p. 54) を参照してください 設定ファイルをローカルに保存する場合 任意の場所に保存できます そして エージェントの開始時に ファイルの場所を指定します CloudWatch エージェント設定ファイルを手動で作成または編集する CloudWatch エージェント設定ファイルは agent metrics logs の 3 つのセクションを持つ JSON ファイルです agent セクションには エージェントの全体的な設定に関するフィールドが含まれています ウィザードを使用する場合 agent セクションは作成されません metrics セクションでは 収集と CloudWatch への発行に関するカスタムが指定されます ログを収集するためだけにエージェントを使用している場合は ファイルからセクションを省略できます logs セクションでは CloudWatch Logs に発行されるログファイルが指定されます サーバーで Windows Server が実行されている場合 これには Windows イベントログからのイベントが含まれることがあります 以下のセクションでは この JSON ファイルの構造とフィールドについてします この設定ファイルのスキーマ定義を表示することもできます スキーマ定義は Linux サーバーでは installationdirectory/doc/amazon-cloudwatch-agent-schema.json Windows Server を実行しているサーバーでは installation-directory/amazon-cloudwatch-agent-schema.json にあります 83

93 CloudWatch エージェント設定ファイルを手動で作成または編集する JSON ファイルを手動で作成または編集する場合は 任意の名前を付けることができます トラブルシューティングを簡単にするため Linux サーバーでは /opt/aws/amazon-cloudwatchagent/etc/amazon-cloudwatch-agent.json Windows Server を実行しているサーバーでは $Env:ProgramData\Amazon\AmazonCloudWatchAgent\amazon-cloudwatch-agent.json という名前を付けることをお薦めします CloudWatch エージェント設定ファイル : agent セクション agent セクションには 次に示すフィールドを含めることができます ウィザードでは agent セクションは作成されません 代わりに このセクションは省略されて このセクションのすべてのフィールドにデフォルト値が使用されます metrics_collection_interval オプション この設定ファイルで指定されたすべてのが収集される頻度を指定します この値は 特定の種類ので上書きされる場合があります これは秒単位で指定されます たとえば 10 と設定するとが 10 秒ごとに収集されるように設定され 300 と設定するとが 5 分ごとに収集されように指定されます この値を 60 秒未満に設定した場合 各は高解像度として収集されます 高解像度の詳細については 高解像度の (p. 46) を参照してください デフォルトは 60 です region Amazon EC2 インスタンスをモニタリングしているときに CloudWatch エンドポイントに使用するリージョンを指定します 収集されたは us-west-1 など このリージョンに送信されます このフィールドを省略すると エージェントは Amazon EC2 インスタンスが配置されているリージョンにを送信します オンプレミスサーバーをモニタリングしている場合 このフィールドは使用されず エージェントは AWS 設定ファイルの awscloudwatchagent プロファイルからリージョンを読み取ります debug オプション デバッグログメッセージを使用して CloudWatch を実行することを指定します デフォルト : false logfile CloudWatch エージェントがログメッセージを書き込む場所を指定します 空の文字列を指定すると ログは stderr に書き込まれます このオプションを指定しない場合 デフォルトの場所は次のようになります Linux: /opt/aws/amazon-cloudwatch-agent/logs/amazon-cloudwatch-agent.log Windows Server のバージョンが Windows Server 2003 以降である場合 : c:\\programdata\ \Amazon\\CloudWatchAgent\\Logs\\amazon-cloudwatch-agent.log Tip このファイルが大きくなってディスクがいっぱいにならないようにログローテーションを設定することをお勧めします agent セクションの例を以下に示します "agent": { "metrics_collection_interval": 60, "region": "us-west-1", "logfile": "/opt/aws/amazon-cloudwatch-agent/logs/amazon-cloudwatch-agent.log", "debug": false } CloudWatch エージェント設定ファイル : metrics セクション Linux または Windows Server を実行しているサーバーでは metrics セクションに次のフィールドが含まれています 84

94 CloudWatch エージェント設定ファイルを手動で作成または編集する namespace オプション エージェントによって収集されるに使用する名前空間 デフォルト : CWAgent append_dimensions オプション エージェントによって収集されたに Amazon EC2 のディメンションを追加します ディメンションごとに キーと値のペアを指定する必要があります キーは Amazon EC2 ディメンション ImageID:image-id InstanceId:instanceid InstanceType:instance-type または AutoScalingGroupName:AutoScaling-groupname に一致します Amazon EC2 メタデータに依存する値を指定し プロキシを使用する場合は サーバーが Amazon EC2 のエンドポイントにアクセスできることを確認する必要があります これらのエンドポイントの詳細については アマゾンウェブサービス全般のリファレンスの Amazon Elastic Compute Cloud (Amazon EC2) を参照してください aggregation_dimensions 収集されたが集約されるディメンションを指定します たとえば AutoScalingGroupName ディメンションでをロールアップした場合 各 Auto Scaling グループ内のすべてのインスタンスのが集約され 全体として参照できるようになります 1 つまたは複数のディメンションに沿ってをロールアップすることができます たとえば [["InstanceId"], ["InstanceType"], ["InstanceId","InstanceType"]] を指定すると インスタンス ID 単独 インスタンスタイプ単独 および 2 つのディメンションの組み合わせのが集約されます [] を指定することにより すべてのディメンションを無視して すべてのを 1 つのコレクションにロールアップすることもできます metrics_collected 必須 収集するを指定します このセクションには いくつかのサブセクションがあります この metrics_collected セクションの内容は この設定ファイルが Linux を実行しているサーバー用か Windows Server を実行しているサーバー用かによって異なります Linux Linux を実行しているサーバーでは 設定ファイルの metrics_collected セクションには以下のフィールドが含まれていることもあります cpu オプション 収集する cpu を指定します このセクションは Linux インスタンスでのみ有効です このセクションには 3 つのフィールドがあります resources オプション 収集する per-cpu を指定します 許容されている値は * のみです このフィールドと値を含めた場合 per-cpu が収集されます totalcpu オプション すべての CPU コア間で集計された cpu を報告するかどうかを指定します デフォルトは true です measurement 収集する cpu の配列を指定します 利用できる値は time_active time_guest time_guest_nice time_idle time_iowait time_irq time_nice および usage_user です このフィールドは cpu を含めた場合にのみ必要です デフォルトでは cpu_usage_* の単位は Percent であり cpu_time_* には単位がありません 各のエントリ内には 必要に応じて次のいずれかまたは両方を指定できます rename このに別の名前を指定します unit のデフォルト単位を上書きして このに使用する単位を指定します 指定する単位は MetricDatum の Unit に関するにリストされている有効な CloudWatch 単位でなければなりません metrics_collection_interval オプション 設定ファイルの agent セクションで指定されたグローバルな metrics_collection_interval を上書きして cpu を収集する頻度を指定します 85

95 CloudWatch エージェント設定ファイルを手動で作成または編集する これは秒単位で指定されます たとえば 10 と設定するとが 10 秒ごとに収集されるように設定され 300 と設定するとが 5 分ごとに収集されように指定されます この値を 60 秒未満に設定した場合 各は高解像度として収集されます 高解像度の詳細については 高解像度の (p. 46) を参照してください append_dimensions オプション cpu にのみ使用する追加のディメンション このフィールドを指定した場合 エージェントにより収集されるすべてのタイプのに使用されるグローバル append_dimensions フィールドで指定されたディメンションに加えて使用されます disk オプション 収集する disk を指定します このセクションは Linux インスタンスでのみ有効です このセクションには 2 つのフィールドがあります resources オプション ディスクのマウントポイントの配列を指定します このフィールドは リストされているマウントポイントのみから CloudWatch がを収集するように制限します 値として * を指定すると すべてのマウントポイントからを収集できます デフォルトでは すべてのマウントポイントからが収集されます measurement 収集する disk の配列を指定します 指定できる値は free total used used_percent inodes_free inodes_used および inodes_total です このフィールドは disk を含めた場合にのみ必要です 各 disk のデフォルトの単位を確認するには Linux インスタンスで CloudWatch エージェントにより収集される (p. 120) を参照してください 各のエントリ内には 必要に応じて次のいずれかまたは両方を指定できます rename このに別の名前を指定します unit のデフォルト単位を上書きして このに使用する単位を指定します 指定する単位は MetricDatum の Unit に関するにリストされている有効な CloudWatch 単位でなければなりません ignore_file_system_types ディスクのを収集するときに除外するファイルシステムのタイプを指定します 有効な値は sysfs devtmpfs などです metrics_collection_interval オプション 設定ファイルの agent セクションで指定されたグローバルな metrics_collection_interval を上書きして disk を収集する頻度を指定します これは秒単位で指定されます この値を 60 秒未満に設定した場合 各は高解像度として収集されます 高解像度の詳細については 高解像度の (p. 46) を参照してください append_dimensions オプション disk にのみ使用する追加のディメンション このフィールドを指定した場合 エージェントにより収集されるすべてのタイプのに使用される append_dimensions フィールドで指定されたディメンションに加えて使用されます diskio オプション 収集する diskio を指定します このセクションは Linux インスタンスでのみ有効です このセクションには 2 つのフィールドがあります resources オプション デバイスの配列を指定した場合 CloudWatch はそれらのデバイスからのみを収集します それ以外の場合 すべてのデバイスのが収集されます 値として * を指定し すべてのデバイスからを収集することもできます measurement 収集する diskio の配列を指定します 指定できる値は reads writes read_bytes write_bytes read_time write_time io_time および iops_in_progress です このフィールドは diskio を含めた場合にのみ必要です 各 diskio のデフォルトの単位を確認するには Amazon EC2 のとディメンション (p. 146) を参照してください 各のエントリ内には 必要に応じて次のいずれかまたは両方を指定できます rename このに別の名前を指定します 86

96 CloudWatch エージェント設定ファイルを手動で作成または編集する unit のデフォルト単位を上書きして このに使用する単位を指定します 指定する単位は MetricDatum の Unit に関するにリストされている有効な CloudWatch 単位でなければなりません metrics_collection_interval オプション 設定ファイルの agent セクションで指定されたグローバルな metrics_collection_interval を上書きして diskio を収集する頻度を指定します これは秒単位で指定されます この値を 60 秒未満に設定した場合 各は高解像度として収集されます 高解像度の詳細については 高解像度の (p. 46) を参照してください append_dimensions オプション diskio にのみ使用する追加のディメンション このフィールドを指定した場合 エージェントにより収集されるすべてのタイプのに使用される append_dimensions フィールドで指定されたディメンションに加えて使用されます swap オプション 収集するスワップメモリを指定します このセクションは Linux インスタンスでのみ有効です このセクションには 1 つのフィールドを含めることができます measurement 収集する swap の配列を指定します 指定できる値は free used および used_percent です このフィールドは swap を含めた場合にのみ必要です 各 swap のデフォルトの単位を確認するには Linux インスタンスで CloudWatch エージェントにより収集される (p. 120) を参照してください 各のエントリ内には 必要に応じて次のいずれかまたは両方を指定できます rename このに別の名前を指定します unit のデフォルト単位を上書きして このに使用する単位を指定します 指定する単位は MetricDatum の Unit に関するにリストされている有効な CloudWatch 単位でなければなりません metrics_collection_interval オプション 設定ファイルの agent セクションで指定されたグローバルな metrics_collection_interval を上書きして swap を収集する頻度を指定します これは秒単位で指定されます この値を 60 秒未満に設定した場合 各は高解像度として収集されます 高解像度の詳細については 高解像度の (p. 46) を参照してください append_dimensions オプション swap にのみ使用する追加のディメンション このフィールドを指定した場合 エージェントにより収集されるすべてのタイプのに使用されるグローバル append_dimensions フィールドで指定されたディメンションに加えて使用され 高解像度として収集されます mem オプション 収集するメモリを指定します このセクションは Linux インスタンスでのみ有効です このセクションには 1 つのフィールドを含めることができます measurement 収集する swap の配列を指定します 指定できる値は active available available_percent buffered cached free inactive total used used です このフィールドは mem を含めた場合にのみ必要です 各 mem のデフォルトの単位を確認するには Linux インスタンスで CloudWatch エージェントにより収集される (p. 120) を参照してください 各のエントリ内には 必要に応じて次のいずれかまたは両方を指定できます rename このに別の名前を指定します unit のデフォルト単位を上書きして このに使用する単位を指定します 指定する単位は MetricDatum の Unit に関するにリストされている有効な CloudWatch 単位でなければなりません 87

97 CloudWatch エージェント設定ファイルを手動で作成または編集する metrics_collection_interval オプション 設定ファイルの agent セクションで指定されたグローバルな metrics_collection_interval を上書きして mem を収集する頻度を指定します これは秒単位で指定されます この値を 60 秒未満に設定した場合 各は高解像度として収集されます 高解像度の詳細については 高解像度の (p. 46) を参照してください append_dimensions オプション mem にのみ使用する追加のディメンション このフィールドを指定した場合 エージェントにより収集されるすべてのタイプのに使用される append_dimensions フィールドで指定されたディメンションに加えて使用されます net オプション 収集するネットワーキングを指定します このセクションは Linux インスタンスでのみ有効です このセクションには 2 つのフィールドがあります resources オプション ネットワークインターフェイスの配列を指定した場合 CloudWatch はそれらのインターフェイスからのみを収集します それ以外の場合 すべてのデバイスのが収集されます 値として * を指定し すべてのインターフェイスからを収集することもできます measurement 収集する networking の配列を指定します 指定できる値は bytes_sent bytes_recv drop_in drop_out err_in err_out packets_sent および packets_recv です このフィールドは net を含めた場合にのみ必要です 各 net のデフォルトの単位を確認するには Linux インスタンスで CloudWatch エージェントにより収集される (p. 120) を参照してください 各のエントリ内には 必要に応じて次のいずれかまたは両方を指定できます rename このに別の名前を指定します unit のデフォルト単位を上書きして このに使用する単位を指定します 指定する単位は MetricDatum の Unit に関するにリストされている有効な CloudWatch 単位でなければなりません metrics_collection_interval オプション 設定ファイルの agent セクションで指定されたグローバルな metrics_collection_interval を上書きして net を収集する頻度を指定します これは秒単位で指定されます たとえば 10 と設定するとが 10 秒ごとに収集されるように設定され 300 と設定するとが 5 分ごとに収集されように指定されます この値を 60 秒未満に設定した場合 各は高解像度として収集されます 高解像度の詳細については 高解像度の (p. 46) を参照してください append_dimensions オプション net にのみ使用する追加のディメンション このフィールドを指定した場合 エージェントにより収集されるすべてのタイプのに使用される append_dimensions フィールドで指定されたディメンションに加えて使用されます netstat オプション 収集する TCP 接続状態と UDP 接続を指定します このセクションは Linux インスタンスでのみ有効です このセクションには 1 つのフィールドを含めることができます measurement 収集する netstat の配列を指定します 指定できる値は tcp_close tcp_close_wait tcp_closing tcp_established tcp_fin_wait1 tcp_fin_wait2 t および udp_socket です このフィールドは netstat を含めた場合にのみ必要です 各 netstat のデフォルトの単位を確認するには Linux インスタンスで CloudWatch エージェントにより収集される (p. 120) を参照してください 各のエントリ内には 必要に応じて次のいずれかまたは両方を指定できます rename このに別の名前を指定します unit のデフォルト単位を上書きして このに使用する単位を指定します 指定する単位は MetricDatum の Unit に関するにリストされている有効な CloudWatch 単位でなければなりません 88

98 CloudWatch エージェント設定ファイルを手動で作成または編集する metrics_collection_interval オプション 設定ファイルの agent セクションで指定されたグローバルな metrics_collection_interval を上書きして netstat を収集する頻度を指定します これは秒単位で指定されます この値を 60 秒未満に設定した場合 各は高解像度として収集されます 高解像度の詳細については 高解像度の (p. 46) を参照してください append_dimensions オプション netstat にのみ使用する追加のディメンション このフィールドを指定した場合 エージェントにより収集されるすべてのタイプのに使用される append_dimensions フィールドで指定されたディメンションに加えて使用されます processes オプション 収集するプロセスを指定します このセクションは Linux インスタンスでのみ有効です このセクションには 1 つのフィールドを含めることができます measurement 収集する processes の配列を指定します 指定できる値は blocked dead idle paging running sleeping stopped total total_threads wait zombi です このフィールドは processes を含めた場合にのみ必要です すべての processes で デフォルトの単位は Count です 各のエントリ内には 必要に応じて次のいずれかまたは両方を指定できます rename このに別の名前を指定します unit のデフォルト単位を上書きして このに使用する単位を指定します 指定する単位は MetricDatum の Unit に関するにリストされている有効な CloudWatch 単位でなければなりません metrics_collection_interval オプション 設定ファイルの agent セクションで指定されたグローバルな metrics_collection_interval を上書きして processes を収集する頻度を指定します これは秒単位で指定されます たとえば 10 と設定するとが 10 秒ごとに収集されるように設定され 300 と設定するとが 5 分ごとに収集されように指定されます この値を 60 秒未満に設定した場合 各は高解像度として収集されます 詳細については 高解像度の (p. 46) を参照してください append_dimensions オプション process にのみ使用する追加のディメンション このフィールドを指定した場合 エージェントにより収集されるすべてのタイプのに使用される append_dimensions フィールドで指定されたディメンションに加えて使用されます Linux サーバーの metrics セクションの例を次に示します "metrics": { "metrics_collected": { "cpu": { "resources": [ "*" ], "measurement": [ {"name": "cpu_usage_idle", "rename": "CPU_USAGE_IDLE", "unit": "Percent"}, {"name": "cpu_usage_nice", "unit": "Percent"}, "cpu_usage_guest" ], "totalcpu": false, "metrics_collection_interval": 10, "append_dimensions": { "test": "test1", "date": " " } }, "netstat": { 89

99 []] } Amazon CloudWatch ユーザーガイド CloudWatch エージェント設定ファイルを手動で作成または編集する "measurement": [ "tcp_established", "tcp_syn_sent", "tcp_close" ], "metrics_collection_interval": 60 }, "processes": { "measurement": [ "running", "sleeping", "dead" ] } }, "append_dimensions": { "ImageId": "${aws:imageid}", "InstanceId": "${aws:instanceid}", "InstanceType": "${aws:instancetype}", "AutoScalingGroupName": "${aws:autoscalinggroupname}" }, "aggregation_dimensions" : [["AutoScalingGroupName"], ["InstanceId", "InstanceType"], Windows Server Windows Server の metrics_collected セクションでは Windows パフォーマンスオブジェクトごとに Memory Processor LogicalDisk などのサブセクションを含めることができます 使用可能なオブジェクトとカウンタについては Microsoft Windows のドキュメントを参照してください 各オブジェクトのサブセクション内では 収集するカウンタの measurement 配列を指定します measurement 配列は 設定ファイルで指定するオブジェクトごとに必要です resources フィールドを指定して の収集元のインスタンスを指定することもできます resources に * を指定し すべてのインスタンスの別個のを収集することもできます resources を省略すると すべてのインスタンスのデータが 1 つのセットに集約されます 各オブジェクトセクション内で 以下のオプションフィールドを指定することもできます metrics_collection_interval オプション 設定ファイルの agent セクションで指定されたグローバルな metrics_collection_interval を上書きして このオブジェクトのを収集する頻度を指定します これは秒単位で指定されます たとえば 10 と設定するとが 10 秒ごとに収集されるように設定され 300 と設定するとが 5 分ごとに収集されように指定されます この値を 60 秒未満に設定した場合 各は高解像度として収集されます 詳細については 高解像度の (p. 46) を参照してください append_dimensions オプション このオブジェクトのにのみ使用する追加のディメンション このフィールドを指定した場合 エージェントにより収集されるすべてのタイプのに使用されるグローバル append_dimensions フィールドで指定されたディメンションに加えて使用されます 各カウンタセクション内で 以下のオプションフィールドを指定することもできます rename このに CloudWatch で使用する別の名前を指定します unit このに使用する単位を指定します 指定する単位は MetricDatum の Unit に関するにリストされている有効な CloudWatch 単位でなければなりません 90

100 CloudWatch エージェント設定ファイルを手動で作成または編集する Windows Server で使用する metrics セクションの例を次に示します "metrics": { "metrics_collected": { "Processor": { "measurement": [ {"name": "% Idle Time", "rename": "CPU_IDLE", "unit": "Percent"}, "% Interrupt Time", "% User Time", "% Processor Time" ], "resources": [ "*" ], "append_dimensions": { "d1": "win_foo", "d2": "win_bar" } }, "LogicalDisk": { "measurement": [ {"name": "% Idle Time", "unit": "Percent"}, {"name": "% Disk Read Time", "rename": "DISK_READ"}, "% Disk Write Time" ], "resources": [ "*" ] }, "Memory": { "metrics_collection_interval": 5, "measurement": [ "Available Bytes", "Cache Faults/sec", "Page Faults/sec", "Pages/sec" ], "append_dimensions": { "d3": "win_bo" } }, "Network Interface": { "metrics_collection_interval": 5, "measurement": [ "Bytes Received/sec", "Bytes Sent/sec", "Packets Received/sec", "Packets Sent/sec" ], "resources": [ "*" ], "append_dimensions": { "d3": "win_bo" } }, "System": { "measurement": [ "Context Switches/sec", "System Calls/sec", "Processor Queue Length" ], "append_dimensions": { "d1": "win_foo", "d2": "win_bar" 91

101 CloudWatch エージェント設定ファイルを手動で作成または編集する } } }, "append_dimensions": { "ImageId": "${aws:imageid}", "InstanceId": "${aws:instanceid}", "InstanceType": "${aws:instancetype}", "AutoScalingGroupName": "${aws:autoscalinggroupname}" }, "aggregation_dimensions" : [["ImageId"], ["InstanceId", "InstanceType"], ["d1"],[]] } } CloudWatch エージェント設定ファイル : logs セクション logs セクションには 次のフィールドがあります logs_collected logs セクションがある場合に必須です サーバーから収集するログファイルおよび Windows イベントログを指定します 2 つのフィールド files および windows_events を含めることができます files は CloudWatch エージェントがログファイルを定期的に収集することを指定します それらのファイルを詳細に定義する 1 つのフィールド collect_list が含まれます collect_list files が含まれている場合に必須です エントリの配列が含まれており それぞれ収集するログファイルを 1 つ指定します これらの各エントリには 次のフィールドを含めることができます file_path CloudWatch Logs にアップロードするログファイルのパスを指定します スーパーアスタリスクとして ** を追加すると 標準 Unix glob マッチングルールが受け入れられます たとえば /var/log/**.log と指定すると /var/log ディレクトリツリー内のすべての.log ファイルが収集されます 他の例については Glob Library を参照してください 標準のアスタリスク (*) は 標準のワイルドカードとして使用することもできます たとえば / var/log/system.log* は /var/log で system.log_1111 system.log_2222 などのファイルに一致します ファイルの変更時間に基づいて 最新のファイルのみが CloudWatch Logs にプッシュされます access_log と access_log など同じ形式の一連のファイルを指定するにはワイルドカードの使用をお勧めします ただし access_log_80 と access_log_443 のように複数の種類のファイルには使用しないでください 複数の種類のファイルを指定するには エージェント設定ファイルに別のストリームログのエントリを追加して 各種類のログファイルが異なるログストリームに行くようにします log_group_name オプション CloudWatch Logs でロググループ名として何を使用するかを指定します ここで使えるのは a~z A~Z 0~9 "_" ( アンダーバー ) "-" ( ハイフン ) "/" ( スラッシュ ) および "." ( ピリオド ) です 混乱を防ぐために このフィールドを指定することをお勧めします このフィールドを指定しない場合 末尾のドットまでのファイルパスがロググループ名として使用されます たとえば ファイルパスが /tmp/testlogfile.log の場合 ロググループ名は /tmp/ TestLogFile.log です log_stream_name オプション CloudWatch Logs でログストリーム名として何を使用するかを指定します 名前の一部として 名前では変数として {instance_id} {hostname} {local_hostname} {ip_address} を使用することができます {hostname} は EC2 メタデータからホスト名を取得し {local_hostname} は ネットワーク設定ファイルからホスト名を使用します このフィールドを省略した場合 {instance_id} のデフォルトが使用されます ログストリームが存在しない場合には 自動的に作成されます 92

102 CloudWatch エージェント設定ファイルを手動で作成または編集する timezone オプション ログイベントにタイムスタンプを付けるときに使用するタイムゾーンを指定します 有効な値は UTC と Local です デフォルト : Local timestamp_format オプション % で始まる特殊記号とプレーンテキストを使用して タイムスタンプ形式を指定します このフィールドを省略した場合は 現在の時刻が使用されます このフィールドを使用する場合 形式の一部として以下を使用できます %y %Y %b %B %m ゼロ詰め 10 進数での年 ( 世紀なし ) ゼロ詰め 10 進数での年 ( 世紀あり ) ロケールの省略名称での月ロケールの正式名称での月 %-m ゼロ詰め 10 進数での月 %d 10 進数での月 ( ゼロ詰めなし ) %-d ゼロ詰め 10 進数での日 %A %a %H %I 10 進数での日 ( ゼロ詰めなし ) 曜日のフルネーム Monday など曜日の略称 Mon などゼロ詰め 10 進数での時 (24 時間形式の時計 ) %-I ゼロ詰め 10 進数での時 (12 時間形式の時計 ) %p %M 10 進数での時間 (12 時間制 ) ( ゼロ詰めなし ) AM または PM %-M ゼロ詰め 10 進数での分 10 進数での分 ( ゼロ詰めなし ) 93

103 CloudWatch エージェント設定ファイルを手動で作成または編集する %S %-S ゼロ詰め 10 進数での秒 %Z %z 10 進数での秒 ( ゼロ詰めなし ) タイムゾーン PST など タイムゾーンは ローカルタイムゾーンと UTC の間のオフセットとして表されます たとえば と指定します この形式のみがサポートされています たとえば -07:00 は有効な形式ではありません multi_line_start_pattern ログメッセージの開始を識別するパターンを指定します ログメッセージは パターンに一致する 1 行と それに続くパターンに一致しない行で構成されます このフィールドを指定しない場合 複数行モードが無効になり 空白文字以外の文字で始まる行は 前のログメッセージを終了して新しいログメッセージを開始します このフィールドを含める場合 {timestamp_format} を指定し タイムスタンプ形式として同じ正規表現を使用することができます それ以外の場合 CloudWatch Logs が複数行エントリの最初の行を判断するために使用する別の正規表現を指定できます エンコード 正しく読み込むことができるように ログファイルのエンコードを指定します 正しくないエンコードを指定すると デコードできない文字がその他の文字に置き換えられるため データ損失が生じる可能性があります デフォルトは utf-8 です 指定できる値すべては以下のとおりです ascii, big5, euc-jp, euc-kr, gbk, gb18030, ibm866, iso2022-jp, iso8859-2, iso8859-3, iso8859-4, iso8859-5, iso8859-6, iso8859-7, iso8859-8, iso i, iso , iso , iso , iso , iso , koi8-r, koi8-u, macintosh, shift_jis, utf-8, utf-16, windows-874, windows-1250, windows-1251, windows-1252, windows-1253, windows-1254, windows-1255, windows-1256, windows-1257, windows-1258, x- mac-cyrillic windows_events セクションでは Windows Server を実行しているサーバーから収集する Windows イベントのタイプを指定します 次のフィールドが含まれています collect_list windows_events が含まれている場合に必須です 収集する Windows イベントのタイプとレベルを指定します 収集される各ログには このセクションのエントリがあります 次のフィールドが含まれる可能性があります event_name ログ記録する Windows イベントのタイプを指定します System Security Application などが該当します このフィールドは ログ記録する Windows イベントのタイプごとに必要です event_levels ログ記録するイベントのレベルを指定します ログ記録する各レベルを指定する必要があります 指定できる値には INFORMATION WARNING ERROR CRITICAL および VERBOSE などがあります このフィールドは ログ記録する Windows イベントのタイプごとに必要です log_group_name 必須 CloudWatch Logs でロググループ名として何を使用するかを指定します log_stream_name オプション CloudWatch Logs でログストリーム名として何を使用するかを指定します 名前の一部として 名前では変数として {instance_id} {hostname} {local_hostname} {ip_address} を使用することができます {hostname} は EC2 メタデータからホスト名を取得し {local_hostname} は ネットワーク設定ファイルからホスト名を使用します 94

104 CloudWatch エージェント設定ファイルを手動で作成または編集する このフィールドを省略した場合 {instance_id} のデフォルトが使用されます ログストリームが存在しない場合には 自動的に作成されます event_format オプション Windows のイベントを CloudWatch Logs に保存する際に使用する形式を指定します xml は Windows イベントビューワーと同じように XML 形式を使用します text は レガシーの CloudWatch Logs エージェント形式を使用します log_stream_name 必須 collect_list のエントリで個々のログストリーム名が定義されていないログまたは Windows イベントに使用するデフォルトのログストリーム名を指定します logs セクションの例を以下に示します "logs":{ "logs_collected":{ "files":{ "collect_list":[ { "file_path":"c:\\programdata\\amazon\\amazoncloudwatchagent\\logs\\amazoncloudwatch-agent.log", "log_group_name":"amazon-cloudwatch-agent.log", "log_stream_name":"my_log_stream_name_1", "timestamp_format":"%h:%m:%s %y %b %-d" }, { "file_path":"c:\\programdata\\amazon\\amazoncloudwatchagent\\logs\ \test.log", "log_group_name":"test.log", "log_stream_name":"my_log_stream_name_2" } ] }, "windows_events":{ "collect_list":[ { "event_name":"system", "event_levels":[ "INFORMATION", "ERROR" ], "log_group_name":"system", "log_stream_name":"system" }, { "event_name":"application", "event_levels":[ "INFORMATION", "ERROR" ], "log_group_name":"application", "log_stream_name":"application" } ] } }, "log_stream_name":"my_log_stream_name" } CloudWatch エージェント設定ファイル : 完全な例 Linux サーバーの完全なエージェント設定ファイルの例を次に示します { 95

105 CloudWatch エージェント設定ファイルを手動で作成または編集する "agent": { "metrics_collection_interval": 10, "logfile": "/opt/aws/amazon-cloudwatch-agent/logs/amazon-cloudwatch-agent.log" }, "metrics": { "metrics_collected": { "cpu": { "resources": [ "*" ], "measurement": [ {"name": "cpu_usage_idle", "rename": "CPU_USAGE_IDLE", "unit": "Percent"}, {"name": "cpu_usage_nice", "unit": "Percent"}, "cpu_usage_guest" ], "totalcpu": false, "metrics_collection_interval": 10, "append_dimensions": { "customized_dimension_key_1": "customized_dimension_value_1", "customized_dimension_key_2": "customized_dimension_value_2" } }, "disk": { "resources": [ "/", "/tmp" ], "measurement": [ {"name": "free", "rename": "DISK_FREE", "unit": "Gigabytes"}, "total", "used" ], "ignore_file_system_types": [ "sysfs", "devtmpfs" ], "metrics_collection_interval": 60, "append_dimensions": { "customized_dimension_key_3": "customized_dimension_value_3", "customized_dimension_key_4": "customized_dimension_value_4" } }, "diskio": { "resources": [ "*" ], "measurement": [ "reads", "writes", "read_time", "write_time", "io_time" ], "metrics_collection_interval": 60 }, "swap": { "measurement": [ "swap_used", "swap_free", "swap_used_percent" ] }, "mem": { "measurement": [ "mem_used", "mem_cached", "mem_total" 96

106 CloudWatch エージェント設定ファイルを手動で作成または編集する ], "metrics_collection_interval": 1 }, "net": { "resources": [ "eth0" ], "measurement": [ "bytes_sent", "bytes_recv", "drop_in", "drop_out" ] }, "netstat": { "measurement": [ "tcp_established", "tcp_syn_sent", "tcp_close" ], "metrics_collection_interval": 60 }, "processes": { "measurement": [ "running", "sleeping", "dead" ] } }, "append_dimensions": { "ImageId": "${aws:imageid}", "InstanceId": "${aws:instanceid}", "InstanceType": "${aws:instancetype}", "AutoScalingGroupName": "${aws:autoscalinggroupname}" }, "aggregation_dimensions" : [["ImageId"], ["InstanceId", "InstanceType"], ["d1"],[]] }, "logs": { "logs_collected": { "files": { "collect_list": [ { "file_path": "/opt/aws/amazon-cloudwatch-agent/logs/amazon-cloudwatchagent.log", "log_group_name": "amazon-cloudwatch-agent.log", "log_stream_name": "amazon-cloudwatch-agent.log", "timezone": "UTC" }, { "file_path": "/opt/aws/amazon-cloudwatch-agent/logs/test.log", "log_group_name": "test.log", "log_stream_name": "test.log", "timezone": "Local" } ] } }, "log_stream_name": "my_log_stream_name" } } Windows Server を実行しているサーバーの完全なエージェント設定ファイルの例を次に示します { 97

107 CloudWatch エージェント設定ファイルを手動で作成または編集する "agent": { "metrics_collection_interval": 60, "logfile": "c:\\programdata\\amazon\\amazoncloudwatchagent\\logs\\amazoncloudwatch-agent.log" }, "metrics": { "metrics_collected": { "Processor": { "measurement": [ {"name": "% Idle Time", "rename": "CPU_IDLE", "unit": "Percent"}, "% Interrupt Time", "% User Time", "% Processor Time" ], "resources": [ "*" ], "append_dimensions": { "customized_dimension_key_1": "customized_dimension_value_1", "customized_dimension_key_2": "customized_dimension_value_2" } }, "LogicalDisk": { "measurement": [ {"name": "% Idle Time", "unit": "Percent"}, {"name": "% Disk Read Time", "rename": "DISK_READ"}, "% Disk Write Time" ], "resources": [ "*" ] }, "customizedobjectname": { "metrics_collection_interval": 60, "customizedcountername": [ "metric1", "metric2" ], "resources": [ "customizedinstaces" ] }, "Memory": { "metrics_collection_interval": 5, "measurement": [ "Available Bytes", "Cache Faults/sec", "Page Faults/sec", "Pages/sec" ] }, "Network Interface": { "metrics_collection_interval": 5, "measurement": [ "Bytes Received/sec", "Bytes Sent/sec", "Packets Received/sec", "Packets Sent/sec" ], "resources": [ "*" ], "append_dimensions": { "customized_dimension_key_3": "customized_dimension_value_3" } }, 98

108 CloudWatch エージェント設定ファイルを手動で作成または編集する "System": { "measurement": [ "Context Switches/sec", "System Calls/sec", "Processor Queue Length" ] } }, "append_dimensions": { "ImageId": "${aws:imageid}", "InstanceId": "${aws:instanceid}", "InstanceType": "${aws:instancetype}", "AutoScalingGroupName": "${aws:autoscalinggroupname}" }, "aggregation_dimensions" : [["ImageId"], ["InstanceId", "InstanceType"], ["d1"],[]] }, "logs": { "logs_collected": { "files": { "collect_list": [ { "file_path": "c:\\programdata\\amazon\\amazoncloudwatchagent\\logs\\amazoncloudwatch-agent.log", "log_group_name": "amazon-cloudwatch-agent.log", "timezone": "UTC" }, { "file_path": "c:\\programdata\\amazon\\amazoncloudwatchagent\\logs\ \test.log", "log_group_name": "test.log", "timezone": "Local" } ] }, "windows_events": { "collect_list": [ { "event_name": "System", "event_levels": [ "INFORMATION", "ERROR" ], "log_group_name": "System", "log_stream_name": "System", "event_format": "xml" }, { "event_name": "Application", "event_levels": [ "WARNING", "ERROR" ], "log_group_name": "Application", "log_stream_name": "Application", "event_format": "xml" } ] } }, "log_stream_name": "example_log_stream_name" } } 99

109 CloudWatch エージェントを使用した一般的なシナリオ CloudWatch エージェント設定ファイルを Systems Manager Parameter Store にアップロードする CloudWatch エージェントを Amazon EC2 インスタンス または SSM Agent がインストールされたオンプレミスサーバーにインストールする場合 CloudWatch エージェント設定ファイルを手動で編集した後 Systems Manager Parameter Store にアップロードする必要があります これを行うには Systems Manager put-parameter コマンドを使用します Parameter Store にファイルを保存できるようにするには 十分なアクセス権限を持つ IAM ロールを使用する必要があります 詳細については CloudWatch エージェントで使用する IAM ロールおよびユーザーを作成する (p. 54) を参照してください 次のコマンドを使用します ここで parameter name は Parameter Store でこのファイルに使用する名前で configuration_file_pathname は編集した設定ファイルのパスとファイル名です aws ssm put-parameter --name "parameter name" --type "String" --value file://configuration_file_pathname CloudWatch エージェントを使用した一般的なシナリオ 以下のセクションでは CloudWatch エージェントを使用する場合にいくつかの一般的な設定およびカスタマイズタスクを完了する方法の概要をします トピック CloudWatch エージェントにより収集されるにカスタムディメンションを追加する (p. 100) CloudWatch エージェントによって収集されるを集約またはロールアップする (p. 101) CloudWatch エージェントを使用して高解像度を収集する (p. 102) CloudWatch エージェントにより収集されるにカスタムディメンションを追加する エージェントによって収集されるにタグなどのカスタムディメンションを追加するには それらのをリストするエージェント設定ファイルのセクションに append_dimensions フィールドを追加します たとえば 設定ファイルの次のサンプルセクションでは 値が Prod の stackname というカスタムディメンションを エージェントによって収集される cpu および disk に追加します "cpu":{ "resources":[ "*" ], "measurement":[ "cpu_usage_guest", "cpu_usage_nice", "cpu_usage_idle" ], "totalcpu":false, 100

110 "append_dimensions":{ "stackname":"prod" } }, "disk":{ "resources":[ "/", "/tmp" ], "measurement":[ "total", "used" ], "append_dimensions":{ "stackname":"prod" } } Amazon CloudWatch ユーザーガイド CloudWatch エージェントによって収集されるを集約またはロールアップする エージェント設定ファイルを変更するときは必ず エージェントを再起動して変更を有効にする必要がある点に注意してください CloudWatch エージェントによって収集されるを集約またはロールアップする エージェントにより収集されたを集約つまり ロールアップ するには aggregation_dimensions フィールドをエージェント設定ファイル内のそののセクションに追加します たとえば 次の設定ファイルスニペットでは AutoScalingGroupName ディメンションでをロールアップします 各 Auto Scaling グループ内のすべてのインスタンスのが集約され 全体として参照できるようになります "metrics": { "cpu":{...} "disk":{...} "aggregation_dimensions" : [["AutoScalingGroupName"]] } Auto Scaling グループ名でのロールアップのほかに 各 InstanceId および InstanceType ディメンションの組み合わせでもロールアップするには 次の内容を追加します "metrics": { "cpu":{...} "disk":{...} "aggregation_dimensions" : [["AutoScalingGroupName"], ["InstanceId", "InstanceType"]] } 代わりにを 1 つのコレクションにロールアップするには [] を使用します "metrics": { "cpu":{...} "disk":{...} "aggregation_dimensions" : [[]] } エージェント設定ファイルを変更するときは必ず エージェントを再起動して変更を有効にする必要がある点に注意してください 101

111 CloudWatch エージェントを使用して高解像度を収集する CloudWatch エージェントを使用して高解像度を収集する metrics_collection_interval フィールドは 収集されるの時間間隔 ( 秒単位 ) を指定します このフィールドに 60 未満の値を指定することによって は 高解像度として収集されます たとえば すべてのを高解像度で 10 秒ごとに収集する必要がある場合は agent セクションで グローバル収集間隔として metrics_collection_interval の値を 10 に指定します "agent": { "metrics_collection_interval": 10 } または 次の例では cpu を 1 秒ごとに収集し 他のすべてのを 1 分ごとに収集するように設定します "agent":{ "metrics_collection_interval": 60 }, "metrics":{ "metrics_collected":{ "cpu":{ "resources":[ "*" ], "measurement":[ "cpu_usage_guest" ], "totalcpu":false, "metrics_collection_interval": 1 }, "disk":{ "resources":[ "/", "/tmp" ], "measurement":[ "total", "used" ] } } } エージェント設定ファイルを変更するときは必ず エージェントを再起動して変更を有効にする必要がある点に注意してください CloudWatch エージェントのトラブルシューティング 以下の情報を参考にして CloudWatch エージェントに関する問題のトラブルシューティングを行います トピック 102

112 Run Command を使用して CloudWatch エージェントをインストールする Run Command を使用して CloudWatch エージェントをインストールする (p. 103) CloudWatch エージェントが開始されない (p. 103) CloudWatch エージェントが実行されていることを確認する (p. 103) の場所 (p. 104) エージェントが起動せず Amazon EC2 リージョンに関するエラーが発生する (p. 104) CloudWatch エージェントファイルとロケーション (p. 105) CloudWatch エージェントによって生成されるログ (p. 105) CloudWatch エージェントを停止して再起動する (p. 106) システムの起動時に CloudWatch エージェントを開始する (p. 106) Run Command を使用して CloudWatch エージェントをインストールする Systems Manager Run Command を使用して CloudWatch エージェントをインストールするには ターゲットサーバーの SSM Agent がバージョン 以降でなければなりません SSM Agent のバージョンが適切でない場合は 次のエラーメッセージが表示されることがあります no latest version found for package AmazonCloudWatchAgent on platform linux failed to download installation package reliably SSM Agent バージョンの更新については SSM Agent のインストールと設定 を参照してください CloudWatch エージェントが開始されない CloudWatch エージェントが開始されない場合 設定に問題がある可能性があります 設定情報は configuration-validation.log ファイルに記録されます このファイルは Linux サーバーでは / opt/aws/amazon-cloudwatch-agent/logs/configuration-validation.log に Windows Server を実行しているサーバーでは $Env:ProgramData\Amazon\AmazonCloudWatchAgent\Logs \configuration-validation.log にあります CloudWatch エージェントが実行されていることを確認する CloudWatch エージェントのクエリを実行して 実行中か停止中かを調べることができます これをリモートに行うには AWS Systems Manager を使用できます コマンドラインを使用することもできますが チェックできるのはローカルサーバーだけです Run Command を使用して CloudWatch エージェントのステータスのクエリを実行するには 1. Open the Systems Manager console at 2. In the navigation pane, choose Run Command. -or- If the AWS Systems Manager home page opens, scroll down and choose Explore Run Command. 3. [Run command] を選択します 103

113 の場所 4. [Command document] リストで [AmazonCloudWatch-ManageAgent] を選択します 5. [Target] 領域で 確認するインスタンスを選択します 6. [Action] リストで [status] を選択します 7. [Optional Configuration Source] と [Optional Configuration Location] を空白のままにします 8. [Run] を選択します エージェントが実行されている場合 出力は次のようになります { } "status": "running", "starttime": " T18:41:18", "version": "1.73.4" エージェントが停止した場合 "status" フィールドには "stopped" が表示されます コマンドラインを使用して CloudWatch エージェントのステータスのクエリをローカルで実行するには Linux サーバーの場合 次を入力します sudo /opt/aws/amazon-cloudwatch-agent/bin/amazon-cloudwatch-agent-ctl -m ec2 -a status Windows Server を実行しているサーバーの場合 管理者として PowerShell で次のように入力します & $Env:ProgramFiles\Amazon\AmazonCloudWatchAgent\amazon-cloudwatch-agent-ctl.ps1 -m ec2 -a status の場所 CloudWatch エージェントが実行されているが そのエージェントによって収集されたが AWS マネジメントコンソールまたは AWS CLI で見つからない場合 適切な名前空間を使用していることを確認します エージェントによって収集されるの名前空間は デフォルトでは CWAgent です この名前空間は エージェント設定ファイルの [metrics] セクションの [namespace] フィールドを使用してカスタマイズできます 予想されるが表示されない場合 設定ファイルで 使用している名前空間を確認してください CloudWatch エージェントパッケージを初めてダウンロードした場合 エージェント設定ファイルは amazon-cloudwatch-agent.json です このファイルは 設定ウィザードを実行したディレクトリにあります または 別のディレクトリに自分で移動した可能性があります 設定ウィザードを使用した場合は ウィザードからのエージェント設定ファイル出力の名前は config.json です namespace フィールドなど 設定ファイルの詳細については CloudWatch エージェント設定ファイル : metrics セクション (p. 84) を参照してください エージェントが起動せず Amazon EC2 リージョンに関するエラーが発生する エージェントが起動せず エラーメッセージに Amazon EC2 リージョンのエンドポイントが示されている場合は Amazon EC2 エンドポイントへのアクセスが必要なエージェントを設定したが そのアクセス権限を付与していない可能性があります 104

114 CloudWatch エージェントファイルとロケーション たとえば エージェントの設定ファイルで Amazon EC2 メタデータに依存する値を append_dimensions パラメータに指定し プロキシを使用する場合は そのサーバーが Amazon EC2 のエンドポイントにアクセスできることを確認する必要があります これらのエンドポイントの詳細については アマゾンウェブサービス全般のリファレンスの Amazon Elastic Compute Cloud (Amazon EC2) を参照してください CloudWatch エージェントファイルとロケーション 次の表は Linux や Windows Server を実行しているサーバー上に CloudWatch エージェントによってインストールされて使用されるファイルおよびインストール先の一覧です ファイル Linux のロケーション Windows Server のロケーション エージェントの起動 停止 再起動を制御する制御スクリプト エージェントが書き込むログファイル カスタマーサポートに連絡する際には この情報をアタッチする必要があります エージェント妥当性確認検証ファイル ウィザードが作成した直後に エージェントの設定に使用される JSON ファイル 詳細については CloudWatch エージェント設定ファイルを作成する (p. 79) を参照してください この設定ファイルが Parameter Store からダウンロードした場合に エージェントの設定に使用される JSON ファイル エージェントが使用する地域情報と資格情報を指定するために使用される TOML ファイル システムのデフォルト値を無効にします CloudWatch エージェントの起動時に JSON 設定ファイルから生成された TOML ファイル /opt/aws/amazon-cloudwatchagent/bin/amazon-cloudwatchagent-ctl $Env:ProgramFiles\Amazon \AmazonCloudWatchAgent \amazon-cloudwatch-agentctl.ps1 /opt/aws/amazon-cloudwatchagent/logs/amazon-cloudwatchagent.log /opt/aws/amazon-cloudwatchagent/logs/configurationvalidation.log /opt/aws/amazon-cloudwatchagent/bin/config.json /opt/aws/amazon-cloudwatchagent/etc/amazon-cloudwatchagent.json /opt/aws/amazon-cloudwatchagent/etc/common-config.toml /opt/aws/amazon-cloudwatchagent/etc/amazon-cloudwatchagent.toml $Env:ProgramData\Amazon \AmazonCloudWatchAgent\Logs \amazon-cloudwatch-agent.log $Env:ProgramData\Amazon \AmazonCloudWatchAgent\Logs \configuration-validation.log $Env:ProgramData\Amazon \AmazonCloudWatchAgent \config.json $Env:ProgramData\Amazon \AmazonCloudWatchAgent \amazon-cloudwatch-agent.json $Env:ProgramData\Amazon \AmazonCloudWatchAgent \common-config.toml $Env:ProgramData\Amazon \AmazonCloudWatchAgent \amazon-cloudwatch-agent.toml CloudWatch エージェントによって生成されるログ エージェントは 実行されている間ログを生成します このログには トラブルシューティング情報が含まれています このログは amazon-cloudwatch-agent.log ファイルです このファイルは Linux サーバーでは /opt/aws/amazon-cloudwatch-agent/logs/amazon-cloudwatch-agent.log に Windows 105

115 CloudWatch エージェントを停止して再起動する Server を実行しているサーバーでは $Env:ProgramData\Amazon\AmazonCloudWatchAgent\Logs \amazon-cloudwatch-agent.log にあります amazon-cloudwatch-agent.log ファイルに追加の詳細を記録するようにエージェントを設定できます エージェント設定ファイルの agent セクションで debug フィールドを true に設定した後 CloudWatch エージェントを再設定して再起動します この追加情報をログ記録を無効にするには debug フィールドを false に設定し エージェントを再設定して再起動します 詳細については CloudWatch エージェント設定ファイルを手動で作成または編集する (p. 83) を参照してください CloudWatch エージェントを停止して再起動する AWS Systems Manager またはコマンドラインを使用して CloudWatch エージェントを手動で停止できます 手動で停止すると システムの再起動時に自動的に開始されなくもなります Run Command を使用して CloudWatch エージェントを停止するには 1. Open the Systems Manager console at 2. In the navigation pane, choose Run Command. -or- If the AWS Systems Manager home page opens, scroll down and choose Explore Run Command. 3. [Run command] を選択します 4. [Command document] リストで [AmazonCloudWatch-ManageAgent] を選択します 5. [ ターゲット ] 領域で CloudWatch エージェントをインストールしたインスタンスを選択します 6. [Action] リストで [stop] を選択します 7. [Optional Configuration Source] と [Optional Configuration Location] を空白のままにします 8. [Run] を選択します コマンドラインを使用して CloudWatch エージェントをローカルで停止するには Linux サーバーの場合 次を入力します sudo /opt/aws/amazon-cloudwatch-agent/bin/amazon-cloudwatch-agent-ctl -m ec2 -a stop Windows Server を実行しているサーバーの場合 管理者として PowerShell で次のように入力します & $Env:ProgramFiles\Amazon\AmazonCloudWatchAgent\amazon-cloudwatch-agent-ctl.ps1 -m ec2 -a stop エージェントを再起動するには CloudWatch エージェントの開始 (p. 61) の手順に従います システムの起動時に CloudWatch エージェントを開始する Linux と Windows Server のどちらでも CloudWatch エージェントのインストールスクリプトはエージェントをシステムサービスとして登録します このサービスは 再起動前にエージェントが実行されていた場合はインスタンスまたはサーバーが起動したときに開始されるように設定されます 適切に開始されるには CloudWatch エージェントがすでに構成されている必要があります CloudWatch やスポットフリートによって起動されたインスタンスなど 新しく起動された Amazon EC2 インスタンスまたはオ 106

116 システムの起動時に CloudWatch エージェントを開始する ンプレミスサーバーで Amazon EC2 Auto Scaling エージェントを開始する AMI またはマシンイメージを準備する場合 amazon-cloudwatch-agent.toml ファイルと common-config.toml ファイルが AMI に含まれていることを確認します これらのファイルは Linux サーバーでは /opt/aws/amazoncloudwatch-agent/etc/ に Windows Server を実行しているサーバーでは $Env:ProgramData \Amazon\AmazonCloudWatchAgent\ にあります インスタンスが開始されても こうしたファイルが存在しないと CloudWatch エージェントは適切に開始されません 107

117 Amazon CloudWatch とディメンションのリファレンス このリファレンスでは CloudWatch で使用可能な名前空間 ディメンション のすべてを示します 名前空間とは のコンテナのことです とは 時系列で表わしたデータポイント一式で 異なるアプリケーションのが誤って同じ統計に集約されないよう 相互に別々の名前空間に分離されています 加えて 各にはディメンションという をフィルタするために使用できる名前と値のペアがあります とディメンション AWS の名前空間 (p. 109) Amazon API Gateway のとディメンション (p. 111) AppStream 2.0 のとディメンション (p. 113) Amazon EC2 Auto Scaling のとディメンション (p. 115) AWS Billing and Cost Management のディメンションおよび (p. 116) Amazon CloudFront のとディメンション (p. 117) Amazon CloudSearch のとディメンション (p. 118) CloudWatch エージェントにより収集される (p. 119) Amazon CloudWatch Events のとディメンション (p. 127) Amazon CloudWatch Logs のとディメンション (p. 128) AWS CodeBuild の (p. 130) Amazon Connect の (p. 130) AWS DMS の (p. 131) AWS Direct Connect のとディメンション (p. 131) Amazon DynamoDB のとディメンション (p. 132) Amazon EC2 のとディメンション (p. 146) Amazon EC2 スポットフリートのとディメンション (p. 154) Amazon ECS のとディメンション (p. 155) AWS Elastic Beanstalk のとディメンション (p. 158) Amazon ElastiCache のとディメンション (p. 160) Amazon EBS のとディメンション (p. 167) Amazon EFS のとディメンション (p. 169) Elastic Load Balancing のとディメンション (p. 172) Amazon EMR のとディメンション (p. 186) Amazon Elasticsearch Service のとディメンション (p. 196) Amazon Elastic Transcoder のとディメンション (p. 201) Amazon GameLift のとディメンション (p. 202) AWS Glue のとディメンション (p. 212) Amazon Inspector の (p. 223) AWS IoT のとディメンション (p. 224) AWS IoT Analytics のとディメンション (p. 230) Amazon Kinesis Data Analytics の (p. 231) Amazon Kinesis Data Firehose の (p. 232) Amazon Kinesis Data Streams のとディメンション (p. 237) 108

118 AWS の名前空間 Amazon Kinesis 動画ストリームのとディメンション (p. 245) AWS Key Management Service のとディメンション (p. 249) AWS Lambda のとディメンション (p. 249) Amazon Lex の (p. 252) Amazon Machine Learning のとディメンション (p. 256) Amazon MQ の (p. 256) AWS OpsWorks のとディメンション (p. 259) Amazon Polly の (p. 263) Amazon Redshift のとディメンション (p. 264) Amazon RDS のとディメンション (p. 268) Route 53 のとディメンション (p. 276) Amazon SageMaker のとディメンション (p. 278) Amazon Simple Service のとディメンション (p. 280) Amazon Simple Notification Service のとディメンション (p. 282) Amazon SQS のとディメンション (p. 285) Amazon Simple Storage Service のとディメンション (p. 288) AWS Shield アドバンスドの (p. 292) AWS Step Functions のとディメンション (p. 292) Amazon SWF のとディメンション (p. 294) AWS Storage Gateway のとディメンション (p. 298) Amazon Translate の (p. 306) AWS Trusted Advisor のとディメンション (p. 308) Amazon VPCNAT ゲートウェイのおよびディメンション (p. 309) Amazon VPC VPN のとディメンション (p. 313) AWS WAF のとディメンション (p. 314) Amazon WorkSpaces のとディメンション (p. 315) AWS の名前空間 CloudWatch 名前空間は のコンテナです 異なる名前空間のは相互に切り離されて 異なるアプリケーションのが誤って同じ統計に集約されないようになっています Amazon CloudWatch のデータを提供するすべての AWS サービスでは AWS/ で始まる名前空間の文字列を使用します カスタムを作成した場合 カスタムのコンテナとして名前空間も指定する必要があります カスタムの名前空間を AWS/ で始めることはできません 以下のサービスは CloudWatch にのデータポイントをプッシュします AWS の製品 Amazon API Gateway AppStream 2.0 Amazon EC2 Auto Scaling AWS の請求 Amazon CloudFront Amazon CloudSearch 名前空間 AWS/ApiGateway AWS/AppStream AWS/AutoScaling AWS/Billing AWS/CloudFront AWS/CloudSearch 109

119 AWS の名前空間 AWS の製品 Amazon CloudWatch Events Amazon CloudWatch Logs AWS CodeBuild Amazon Connect AWS Database Migration Service AWS Direct Connect Amazon DynamoDB Amazon EC2 名前空間 AWS/Events AWS/Logs AWS/CodeBuild AWS/Connect AWS/DMS AWS/DX AWS/DynamoDB AWS/EC2 Amazon EC2 AWS/EC2Spot ( スポットインスタンス ) Amazon Elastic Container Service AWS Elastic Beanstalk Amazon Elastic Block Store Amazon Elastic File System Elastic Load Balancing Elastic Load Balancing Elastic Load Balancing Amazon Elastic Transcoder Amazon ElastiCache Amazon Elasticsearch Service Amazon EMR Amazon GameLift AWS Glue Amazon Inspector AWS IoT AWS IoT Analytics AWS Key Management Service Amazon Kinesis Data Analytics Amazon Kinesis Data Firehose Amazon Kinesis Data Streams Amazon Kinesis ビデオストリーム AWS/ECS AWS/ElasticBeanstalk AWS/EBS AWS/EFS AWS/ELB (Classic Load Balancer) AWS/ApplicationELB (Application Load Balancer) AWS/NetworkELB (Network Load Balancer) AWS/ElasticTranscoder AWS/ElastiCache AWS/ES AWS/ElasticMapReduce AWS/GameLift AWS/Glue AWS/Inspector AWS/IoT AWS/IoTAnalytics AWS/KMS AWS/KinesisAnalytics AWS/Firehose AWS/Kinesis AWS/KinesisVideo 110

120 API Gateway AWS の製品 AWS Lambda Amazon Lex Amazon Machine Learning Amazon MQ AWS OpsWorks Amazon Polly Amazon Redshift Amazon Relational Database Service Amazon Route 53 Amazon SageMaker AWS Shield アドバンスド Amazon Simple Service Amazon Simple Notification Service Amazon Simple Queue Service Amazon Simple Storage Service Amazon Simple Workflow Service AWS Step Functions AWS Storage Gateway Amazon Translate AWS Trusted Advisor 名前空間 AWS/Lambda AWS/Lex AWS/ML AWS/AmazonMQ AWS/OpsWorks AWS/Polly AWS/Redshift AWS/RDS AWS/Route53 AWS/SageMaker AWS/DDoSProtection AWS/SES AWS/SNS AWS/SQS AWS/S3 AWS/SWF AWS/States AWS/StorageGateway AWS/Translate AWS/TrustedAdvisor Amazon VPC AWS/NATGateway (NAT ゲートウェイ ) Amazon VPC AWS WAF Amazon WorkSpaces AWS/VPN (VPN) WAF AWS/WorkSpaces Amazon API Gateway のとディメンション API Gateway が Amazon CloudWatch に送信するおよびディメンションは次のとおりです 詳細については Amazon API Gateway 開発者ガイドの Amazon CloudWatch を使用した API の実行のモニタリング を参照してください 111

121 API Gateway API Gateway Amazon API Gateway は CloudWatch にデータを毎分送信します AWS/ApiGateway 名前空間には 次のが含まれます 4XXError 指定された期間に取得されたクライアント側エラーの数 Sum 統計は この つまり 指定された期間内の 4XXError エラーの合計数を表します Average 統計は 4XXError のエラー率 つまり 4XXError エラーの合計数をその期間のリクエストの合計数で割ったものです 分母は Count ( 下記 ) に対応します 単位 : 個 5XXError 指定された期間に取得されたサーバー側エラーの数 Sum 統計は この つまり 指定された期間内の 5XXError エラーの合計数を表します Average 統計は 5XXError のエラー率 つまり 5XXError エラーの合計数をその期間のリクエストの合計数で割ったものです 分母は Count ( 下記 ) に対応します 単位 : 個 CacheHitCount 指定された期間内に API キャッシュから配信されたリクエストの数 Sum 統計は この つまり 指定された期間内のキャッシュヒットの合計数を表します Average 統計は キャッシュヒット率 つまりキャッシュヒットの合計数をその期間のリクエストの合計数で割ったものです 分母は Count ( 下記 ) に対応します 単位 : 個 CacheMissCount API キャッシュが有効になっている特定の期間における バックエンドから提供されたリクエストの数 Sum 統計は この つまり 指定された期間内のキャッシュミスの合計数を表します Average 統計は キャッシュミス率 つまりキャッシュミスの合計数をその期間のリクエストの合計数で割ったものです 分母は Count ( 下記 ) に対応します 単位 : 個 カウント 指定期間内の API リクエストの合計数 SampleCount 統計は このを表します 単位 : 個 112

122 のディメンション IntegrationLatency API Gateway がバックエンドにリクエストを中継してから バックエンドからレスポンスを受け取るまでの時間 単位 : ミリ秒 レイテンシー API Gateway がクライアントからリクエストを受け取ってから クライアントにレスポンスを返すまでの時間 レイテンシーには 統合のレイテンシーおよびその他の API Gateway オーバーヘッドが含まれます 単位 : ミリ秒 のディメンション API Gateway のをフィルタするには 次の表のディメンションを使用できます ディメンション ApiName ApiName メソッド リソース ステージ 指定された API 名の API に対する API Gateway がフィルタリングされます 指定された API ステージ リソース メソッドの API メソッドに対する API Gateway がフィルタリングされます API Gateway は 明示的に詳細な CloudWatch を有効にしていない場合 そのようなを送信しません この操作は [Settings] タブで [Enable CloudWatch Metrics] を選択することにより コンソールで行うことができます または API Gateway REST API の stage:update アクションを呼び出して metricsenabled プロパティを true に更新できます このようなを有効にすることで アカウントに追加料金が発生します 料金表については Amazon CloudWatch 料金表 を参照してください ApiName ステージ 指定された API とステージの API ステージに対する API Gateway がフィルタリングされます AppStream 2.0 のとディメンション AppStream 2.0 が Amazon CloudWatch に送信するおよびディメンションは次のとおりです 詳細については Amazon AppStream 2.0 開発者ガイドの Amazon CloudWatch を使用した Amazon AppStream 2.0 のモニタリング を参照してください Amazon AppStream 2.0 の AppStream 2.0 は を CloudWatch に毎分 1 回送信します AWS/AppStream 名前空間には 次のが含まれます 113

123 Amazon AppStream 2.0 の ActualCapacity ストリーミングに使用可能であるか 現在ストリーミング中のインスタンスの合計数 ActualCapacity = AvailableCapacity + InUseCapacity 有効な統計 : Average Minimum Maximum AvailableCapacity 現在 ユーザーセッションに使用可能なアイドル状態のインスタンスの数 AvailableCapacity = ActualCapacity - InUseCapacity 有効な統計 : Average Minimum Maximum CapacityUtilization 次の数式を使用した フリートで使用中のインスタンスの割合 (%) CapacityUtilization = (InUseCapacity/ActualCapacity) * 100 このをモニタリングすると フリートの目的の容量の値を増減する決定に役立ちます 単位 : パーセント 有効な統計 : Average Minimum Maximum DesiredCapacity 実行中または保留中のインスタンスの合計数 これはフリートが一定の状態でサポートできる同時ストリーミングセッションの合計数を表します DesiredCapacity = ActualCapacity + PendingCapacity 有効な統計 : Average Minimum Maximum InUseCapacity ストリーミングセッションに現在使用中のインスタンスの数 InUseCapacity の数が 1 の場合 1 つのストリーミングセッションを表します 有効な統計 : Average Minimum Maximum PendingCapacity AppStream 2.0 によってプロビジョニング中のインスタンスの数 プロビジョニングの完了後にフリートがサポートできるストリーミングセッションの追加の数を表します プロビジョニングが開始されると 通常はインスタンスがストリーミングに使用可能になるまでに 10~20 分かかります 有効な統計 : Average Minimum Maximum 114

124 Amazon AppStream 2.0 のディメンション RunningCapacity 現在実行中のインスタンスの合計数 現在の状態のフリートでサポートできる同時ストリーミングセッションの数を表します このは 常時オンのフリートのみに提供され ActualCapacity と同じ値になります 有効な統計 : Average Minimum Maximum InsufficientCapacityError 容量不足により拒否されたセッションリクエストの数 このを使用して ストリーミングセッションを待機中のユーザーを通知するようアラームを設定できます 有効な統計 : Average Minimum Maximum Sum Amazon AppStream 2.0 のディメンション Amazon AppStream 2.0 で提供されたをフィルタするには 次のディメンションを使用します ディメンション Fleet フリートの名前 Amazon EC2 Auto Scaling のとディメンション Amazon EC2 Auto Scaling は インスタンスおよびグループのを CloudWatch へ送信します Auto Scaling インスタンスでは 詳細 (1 分間隔 ) モニタリング または基本 (5 分間隔 ) モニタリングを有効にできます Auto Scaling グループでは グループを有効にできます 詳細については Amazon EC2 Auto Scaling ユーザーガイドの Auto Scaling インスタンスおよびグループのモニタリング を参照してください Auto Scaling グループ グループを有効にすると Amazon EC2 Auto Scaling は毎分 CloudWatch に集約データを送信します AWS/AutoScaling 名前空間には 次のが含まれます GroupMinSize GroupMaxSize Auto Scaling グループの最小サイズ Auto Scaling グループの最大サイズ 115

125 Auto Scaling グループのディメンション GroupDesiredCapacity GroupInServiceInstances GroupPendingInstances GroupStandbyInstances Auto Scaling グループが保持しようとするインスタンスの数 Auto Scaling グループの一部として実行するインスタンスの数 このには保留中もしくは終了処理中のインスタンスは含まれません 保留中のインスタンスの数 保留中のインスタンスは 稼働状態ではありません このには稼働中もしくは終了処理中のインスタンスは含まれません Standby 状態にあるインスタンスの数 この状態のインスタンスはまだ実行中ですが 実際には使用されていません GroupTerminatingInstances 終了処理中のインスタンスの数 このには稼働中もしくは保留中のインスタンスは含まれません GroupTotalInstances Auto Scaling グループに含まれるインスタンスの合計数 このは稼働中 保留中 および終了処理中のインスタンスの数を特定します Auto Scaling グループのディメンション グループ名で Auto Scaling グループのをフィルタするには AutoScalingGroupName ディメンションを使用します AWS Billing and Cost Management のディメンションおよび AWS Billing and Cost Management サービスは CloudWatch にを送信します 詳細については AWS Billing and Cost Management ユーザーガイドの アラートと通知で請求額をモニタリング を参照してください AWS Billing and Cost Management AWS/Billing 名前空間には 次のが含まれます EstimatedCharges AWS 使用量に対する予想請求額 1 つのサービスに対する予想請求額の場合 またはすべてのサービスに対する予想請求額のまとめの場合があります AWS Billing and Cost Management のディメンション Billing and Cost Management は以下のディメンションでフィルタリングをサポートします 116

126 Amazon CloudFront ディメンション ServiceName LinkedAccount Currency AWS サービス名 すべてのサービスに対する予想請求額の場合 このディメンションは省略されます 関連付けられているアカウント番号 これは 一括請求でのみ使用されます このディメンションは 一括請求関係の個別の支払いアカウントに関連付けられたアカウントの場合にのみ含まれます 一括請求の支払いアカウントに関連付けられていないアカウントには含まれません アカウントへの請求に使用する通貨 このディメンションは必須です 単位 : USD Amazon CloudFront のとディメンション Amazon CloudFront はウェブディストリビューション用に Amazon CloudWatch にを送信します とディメンションは RTMP ディストリビューションでは使用できません 詳細については Amazon CloudFront 開発者ガイドの CloudWatch を使用した CloudFront アクティビティの監視 を参照してください Amazon CloudFront AWS/CloudFront 名前空間には 次のが含まれます Note 各に適用できる統計は 1 つ (Average または Sum) のみですが コンソール API AWS Command Line Interface では すべての統計を利用できます 次の表に 各に適用可能な有効な統計を示します Requests すべての HTTP メソッドと HTTP および HTTPS リクエストの両方のリクエストの数 有効な統計 : Sum 単位 : なし BytesDownloaded GET HEAD および OPTIONS リクエストで閲覧者がダウンロードしたバイト数 有効な統計 : Sum 単位 : なし BytesUploaded POST および PUT リクエストを使用して CloudFront でオリジンにアップロードされたバイト数 117

127 CloudFront のディメンション 有効な統計 : Sum 単位 : なし TotalErrorRate HTTP ステータスコードが 4xx または 5xx であるすべてのリクエストの割合 有効な統計 : Average 単位 : パーセント 4xxErrorRate HTTP ステータスコードが 4xx であるすべてのリクエストの割合 有効な統計 : Average 単位 : パーセント 5xxErrorRate HTTP ステータスコードが 5xx であるすべてのリクエストの割合 有効な統計 : Average 単位 : パーセント CloudFront のディメンション CloudFront は CloudFront 名前空間を使用して 2 つのディメンションのを提供します ディメンション DistributionId Region を表示するディストリビューションの CloudFront ID を表示するリージョン この値は Global である必要があります Region ディメンションは CloudFront のが保存されているリージョン ( 米国東部 ( バージニア北部 )) とは異なります Amazon CloudSearch のとディメンション Amazon CloudSearch はを Amazon CloudWatch に送信します 詳細については Amazon CloudSearch 開発者ガイドの Amazon CloudWatch を使用した Amazon CloudSearch ドメインの監視 を参照してください Amazon CloudSearch AWS/CloudSearch 名前空間には 次のが含まれます 118

128 Amazon CloudSearch のディメンション SuccessfulRequests 検索インスタンスによって正常に処理された検索リクエストの数 有効な統計 : Maximum Sum SearchableDocuments ドメインの検索インデックス内で検索可能なドキュメント数 有効な統計 : Maximum IndexUtilization 使用された検索インスタンスのインデックス容量の割合 最大値は 使用されたドメインのインデックス容量の割合を示します 単位 : パーセント 有効な統計 : Average Maximum Partitions インデックスが分散されているパーティションの数 有効な統計 : Minimum Maximum Amazon CloudSearch のディメンション Amazon CloudSearch は ClientId および DomainName のディメンションを CloudWatch に送信します ディメンション ClientId AWS アカウント ID DomainName 検索ドメイン名 CloudWatch エージェントにより収集される サーバーの CloudWatch エージェントをインストールすることで サーバーからを収集できます Amazon EC2 インスタンスとオンプレミスサーバーの両方と Linux または Windows Server を実行しているサーバーにエージェントをインストールできます Amazon EC2 インスタンスにエージェントをインストールした場合 Amazon EC2 インスタンスでデフォルトで有効なに加えて Amazon EC2 のとディメンション (p. 146) にリストされているが収集されます インスタンスに CloudWatch エージェントをインストールする方法については CloudWatch エージェントを使用して Amazon EC2 インスタンスとオンプレミスサーバーからとログを収集する (p. 53) を参照してください 119

129 Windows Server インスタンスで CloudWatch エージェントにより収集される Windows Server インスタンスで CloudWatch エージェントにより収集される Windows Server を実行しているサーバーで CloudWatch エージェントをインストールすると Windows パフォーマンスモニターでカウンタに関連付けられているを参照できます これらのカウンタの CloudWatch 名は オブジェクト名とカウンタ名の間にスペースを配置することによって作成されます たとえば CloudWatch では Processor オブジェクトの % Interrupt Time カウンタに名 Processor % Interrupt Time が指定されます Windows パフォーマンスモニターカウンタの詳細については Microsoft Windows Server のドキュメントを参照してください CloudWatch エージェントにより収集されるのデフォルトの名前空間は CWAgent ですが エージェントを構成するときに別の名前空間を指定できます Linux インスタンスで CloudWatch エージェントにより収集される Linux インスタンスで CloudWatch エージェントを使用して収集できるを次の表に示します cpu_time_active 任意の容量で CPU がアクティブになっている時間の長さ このは 1/100 秒単位で測定されます 単位 : なし cpu_time_guest ゲストオペレーティングシステムで CPU が仮想 CPU を実行している時間の長さ このは 1/100 秒単位で測定されます 単位 : なし cpu_time_guest_nice ゲストオペレーティングシステムで 優先度が低く 他のプロセスにより中断できる仮想 CPU を CPU が実行している時間の長さ このは 1/100 秒単位で測定されます 単位 : なし cpu_time_idle CPU がアイドル状態の時間の長さ このは 1/100 秒単位で測定されます 単位 : なし cpu_time_iowait CPU が I/O 操作の完了を待機している時間の長さ このは 1/100 秒単位で測定されます 単位 : なし cpu_time_irq CPU が中断を処理している時間の長さ このは 1/100 秒単位で測定されます 単位 : なし cpu_time_nice CPU が 優先度の高いプロセスによって簡単に中断できる優先度の低いプロセスを持つユーザーモードになっている時間の長さ このは 1/100 秒単位で測定されます 120

130 Linux インスタンスで CloudWatch エージェントにより収集される cpu_time_softirq 単位 : なし CPU がソフトウェアの中断を処理している時間の長さ このは 1/100 秒単位で測定されます 単位 : なし cpu_time_steal CPU が盗まれた時間になっている時間の長さ これは 仮想化環境で他のオペレーティングシステムに費やされる時間です このは 1/100 秒単位で測定されます 単位 : なし cpu_time_system CPU がシステムモードになっている時間の長さ このは 1/100 秒単位で測定されます 単位 : なし cpu_time_user CPU がユーザーモードになっている時間の長さ このは 1/100 秒単位で測定されます 単位 : なし cpu_usage_active 任意の容量で CPU がアクティブになっている時間の割合 単位 : パーセント cpu_usage_guest ゲストオペレーティングシステムで CPU が仮想 CPU を実行している時間の割合 単位 : パーセント cpu_usage_guest_nice ゲストオペレーティングシステムで 優先度が低く 他のプロセスにより中断できる仮想 CPU を CPU が実行している時間の割合 単位 : パーセント cpu_usage_idle CPU がアイドル状態の時間の割合 単位 : パーセント cpu_usage_iowait CPU が I/O 操作の完了を待機している時間の割合 単位 : パーセント cpu_usage_irq CPU が中断を処理している時間の割合 単位 : パーセント cpu_usage_nice CPU が 優先度の高いプロセスによって簡単に中断できる優先度の低いプロセスを持つユーザーモードになっている時間の割合 単位 : パーセント 121

131 Linux インスタンスで CloudWatch エージェントにより収集される cpu_usage_softirq CPU がソフトウェアの中断を処理している時間の割合 単位 : パーセント cpu_usage_steal CPU が盗まれた時間になっている時間の割合 これは 仮想化環境で他のオペレーティングシステムに費やされる時間です 単位 : パーセント cpu_usage_system CPU がシステムモードになっている時間の割合 単位 : パーセント cpu_usage_user CPU がユーザーモードになっている時間の割合 単位 : パーセント disk_free ディスクの空き容量 単位 : バイト disk_inodes_free ディスクで使用可能なインデックスノードの数 単位 : 個 disk_inodes_total ディスクで予約されているインデックスノードの合計数 単位 : 個 disk_inodes_used ディスクで使用されているインデックスノードの数 単位 : 個 disk_total 使用済み容量と空き容量を含む ディスクの合計容量 単位 : バイト disk_used ディスクの使用済み容量 単位 : バイト disk_used_percent ディスクスペース合計に対する使用済みの割合 単位 : パーセント diskio_iops_in_progress デバイスドライバーに発行されたがまだ完了していない I/O リクエストの数 単位 : 個 diskio_io_time ディスクが I/O リクエストをキューに入れている時間の長さ 単位 : ミリ秒 diskio_reads ディスク読み取り操作の回数 単位 : 個 122

132 Linux インスタンスで CloudWatch エージェントにより収集される diskio_read_bytes ディスクから読み込まれたバイト数 単位 : バイト diskio_read_time 読み取りリクエストがディスクで待機した時間の長さ 複数の読み込みリクエストが同時に待機している場合 その分数値が増えます たとえば 5 つのリクエストが平均 100 ミリ秒待機している場合 500 と報告されます 単位 : ミリ秒 diskio_writes ディスク書き込み操作の回数 単位 : 個 diskio_write_bytes ディスクへの書き込みバイト数 単位 : バイト diskio_write_time 書き込みリクエストがディスクで待機した時間の長さ 複数の書き込みリクエストが同時に待機している場合 その分数値が増えます たとえば 8 つのリクエストが平均 1000 ミリ秒待機している場合 8000 と報告されます 単位 : ミリ秒 mem_active 最後のサンプル期間中に何らかの方法で使用されたメモリの量 単位 : バイト mem_available すぐにプロセスに渡すことができる使用可能なメモリの量 単位 : バイト mem_available_percent すぐにプロセスに渡すことができる使用可能なメモリの割合 単位 : パーセント mem_buffered バッファに使用されているメモリの量 単位 : バイト mem_cached ファイルキャッシュに使用されているメモリの量 単位 : バイト mem_free 使用されていないメモリの量 単位 : バイト mem_inactive 最後のサンプル期間中に何らかの方法で使用されていないメモリの量 単位 : バイト 123

133 Linux インスタンスで CloudWatch エージェントにより収集される mem_total メモリの合計量 単位 : バイト mem_used 現在使用中のメモリの量 単位 : バイト mem_used_percent 現在使用中のメモリの割合 単位 : パーセント net_bytes_recv ネットワークインターフェイスで受信されたバイトの数 単位 : バイト net_bytes_sent ネットワークインターフェイスで送信されたバイトの数 単位 : バイト net_drop_in このネットワークインターフェイスによって受信されたが削除されたパケットの数 単位 : 個 net_drop_out このネットワークインターフェイスによって送信されたが削除されたパケットの数 単位 : 個 net_err_in このネットワークインターフェイスによって検出された受信エラーの数 単位 : 個 net_err_out このネットワークインターフェイスによって検出された送信エラーの数 単位 : 個 net_packets_sent このネットワークインターフェイスで送信されたパケットの数 単位 : 個 net_packets_recv このネットワークインターフェイスで受信されたパケットの数 単位 : 個 netstat_tcp_close 状態のない TCP 接続の数 単位 : 個 124

134 Linux インスタンスで CloudWatch エージェントにより収集される netstat_tcp_close_wait クライアントからの終了リクエストを待機している TCP 接続の数 単位 : 個 netstat_tcp_closing クライアントからの確認付き終了リクエストを待機している TCP 接続の数 単位 : 個 netstat_tcp_established 確立された TCP 接続の数 単位 : 個 netstat_tcp_fin_wait1 接続の終了プロセス時に FIN_WAIT1 状態になっている TCP 接続の数 単位 : 個 netstat_tcp_fin_wait2 接続の終了プロセス時に FIN_WAIT2 状態になっている TCP 接続の数 単位 : 個 netstat_tcp_last_ack クライアントが接続終了メッセージの確認を送信するのを待機している TCP 接続の数 これは 接続が終了する直前の最後の状態です 単位 : 個 netstat_tcp_listen 現在接続リクエストをリッスンしている TCP ポートの数 単位 : 個 netstat_tcp_none 非アクティブなクライアントを持つ TCP 接続の数 単位 : 個 netstat_tcp_syn_sent 接続リクエストを送信したあとに一致する接続リクエストを待機している TCP 接続の数 単位 : 個 netstat_tcp_syn_recv 接続リクエストを送受信したあとに接続リクエスト確認を待機している TCP 接続の数 単位 : 個 netstat_tcp_time_wait クライアントが接続終了リクエストの確認を受信したことが確認されるのを現在待機している TCP 接続の数 単位 : 個 netstat_udp_socket 現在の UDP 接続の数 単位 : 個 125

135 Linux インスタンスで CloudWatch エージェントにより収集される processes_blocked ブロックされているプロセスの数 単位 : 個 processes_dead dead となっているプロセスの数 Linux では X 状態コードにより示されます 単位 : 個 processes_idle アイドル状態になっているプロセスの数 (20 秒以上スリープ状態 ) FreeBSD インスタンスでのみ使用できます 単位 : 個 processes_paging ページングしているプロセスの数 Linux では W 状態コードにより示されます 単位 : 個 processes_running 実行されているプロセスの数 R 状態コードにより示されます 単位 : 個 processes_sleeping スリープ状態になっているプロセスの数 S 状態コードにより示されます 単位 : 個 processes_stopped 停止されているプロセスの数 T 状態コードにより示されます 単位 : 個 processes_total インスタンス上でのプロセスの合計数 単位 : 個 processes_total_threads プロセスを構成するスレッドの合計数 このは Linux インスタンスでのみご利用いただけます 単位 : 個 processes_wait ページングしているプロセスの数 FreeBSD インスタンスでは W 状態コードにより示されます このは FreeBSD インスタンスでのみご利用いただけます 単位 : 個 processes_zombies ゾンビ状態のプロセスの数 Z 状態コードにより示されます 単位 : 個 swap_free 使用されていないスワップスペースの量 単位 : バイト 126

136 Amazon CloudWatch Events swap_used 現在使用中のスワップスペースの量 単位 : バイト swap_used_percent 現在使用中のスワップスペースの割合 単位 : パーセント Amazon CloudWatch Events のとディメンション CloudWatch イベントは 1 分ごとにを Amazon CloudWatch に送信します CloudWatch イベントの AWS/Events 名前空間には 次のが含まれます これらのメトリックはすべてカウントを単位として使用するため 合計およびサンプル数が最も有用な統計となります DeadLetterInvocations イベントに反応してルールのターゲットが呼び出されなかった回数を測定します これには 呼び出しによって同じルールが再度トリガーされ 無限ループが発生したものが含まれます 有効なディメンション : RuleName Invocations イベントに反応してルールのターゲットが呼び出された回数を測定します これには 成功した呼び出しと失敗した呼び出しが含まれますが スロットルされた試行と再実行された試行は完全に失敗するまで含められません これには DeadLetterInvocations は含まれません Note 値が 0 以外の場合 CloudWatch イベントはこのを CloudWatch にのみ送信します 有効なディメンション : RuleName FailedInvocations 完全に失敗した呼び出しの数を測定します これには 再試行された呼び出しや 再試行の後に成功した呼び出しは含まれません また DeadLetterInvocations にカウントされる失敗した呼び出しはカウントされません 有効なディメンション : RuleName 127

137 CloudWatch イベントのディメンション TriggeredRules いずれかのイベントに一致した トリガーされたルールの数を測定します 有効なディメンション : RuleName MatchedEvents いずれかのルールと一致したイベントの数を測定します 有効なディメンション : なし ThrottledRules スロットルされているトリガーされたルールの数を測定します 有効なディメンション : RuleName CloudWatch イベントのディメンション CloudWatch イベントには 以下のようなディメンションがあります ディメンション RuleName 使用可能なをルール名でフィルタリングします Amazon CloudWatch Logs のとディメンション CloudWatch Logs は 1 分ごとにを CloudWatch に送信します CloudWatch Logs の AWS/Logs 名前空間には 次のが含まれます IncomingBytes CloudWatch Logs にアップロードされたログイベントのボリューム ( 非圧縮バイト数 ) LogGroupName ディメンションと同時に使用すると ロググループにアップロードされたログイベントのボリューム ( 非圧縮バイト数 ) になります 有効なディメンション : LogGroupName 有効な統計 : Sum 単位 : バイト IncomingLogEvents CloudWatch Logs にアップロードされたログイベントの数 LogGroupName ディメンションと同時に使用すると ロググループにアップロードされたログイベントの数になります 128

138 CloudWatch Logs のディメンション 有効なディメンション : LogGroupName 有効な統計 : Sum 単位 : なし ForwardedBytes サブスクリプション送信先に転送されたログイベントのボリューム ( 圧縮済みバイト数 ) 有効なディメンション : LogGroupName DestinationType FilterName 有効な統計 : Sum 単位 : バイト ForwardedLogEvents サブスクリプション送信先に転送されたログイベントの数 有効なディメンション : LogGroupName DestinationType FilterName 有効な統計 : Sum 単位 : なし DeliveryErrors データをサブスクリプション送信先に転送するときに CloudWatch Logs がエラーを受け取ったログイベントの数 有効なディメンション : LogGroupName DestinationType FilterName 有効な統計 : Sum 単位 : なし DeliveryThrottling データをサブスクリプション送信先に転送するときに CloudWatch Logs がスロットルされたログイベントの数 有効なディメンション : LogGroupName DestinationType FilterName 有効な統計 : Sum 単位 : なし CloudWatch Logs のディメンション CloudWatch Logs で使用できるディメンションを以下に示します ディメンション LogGroupName DestinationType FilterName を表示する CloudWatch Logs ロググループの名前 CloudWatch Logs データのサブスクリプション送信先 (AWS Lambda Amazon Kinesis Data Streams または Amazon Kinesis Data Firehose) ロググループから送信先にデータを転送するサブスクリプションフィルタの名前 サブスクリプションフィルタ名は CloudWatch で自動的に ASCII に変換され サポートされていない文字は疑問符 (?) に置き換えられます 129

139 AWS CodeBuild AWS CodeBuild の AWS CodeBuild はを CloudWatch に送信します 詳細については AWS CodeBuild ユーザーガイドの AWS CodeBuild のモニタリング を参照してください AWS CodeBuild CloudWatch Metrics The following metrics can be tracked per AWS account, or per AWS build project. Metric Builds Description Measures the number of builds triggered. Units: Count Valid CloudWatch statistics: Sum Duration Measures the duration of all builds over time. Units: Seconds Valid CloudWatch statistics: Average (recommended), Maximum, Minimum SucceededBuilds Measures the number of successful builds. Units: Count Valid CloudWatch statistics: Sum FailedBuilds Measures the number of builds that failed because of client error or because of a timeout. Units: Count Valid CloudWatch statistics: Sum AWS CodeBuild CloudWatch Dimensions ProjectName is the only AWS CodeBuild metrics dimension. If it is specified, then the metrics are for that project. If it is not specified, then the metrics are for the current AWS account. Dimension ProjectName Description If specified, then the metrics are for that project. If not specified, then the metrics are for the AWS account. Amazon Connect の CloudWatch で使用可能な Amazon Connect の詳細については Amazon Connect 管理者ガイドの Amazon CloudWatch を使用した Amazon Connect のモニタリング を参照してください 130

140 AWS DMS AWS DMS の CloudWatch で使用可能な AWS DMS の詳細については AWS Database Migration Service ユーザーガイドの AWS Database Migration Service タスクのモニタリング を参照してください AWS Direct Connect のとディメンション デフォルトでは CloudWatch は 5 分間隔で AWS Direct Connect データを提供します オプションで 1 分間隔でデータを表示することもできます 詳細については AWS Direct Connect ユーザーガイドの CloudWatch を使用したモニタリング を参照してください AWS Direct Connect の 以下のは AWS Direct Connect から入手できます 現在 AWS Direct Connect 物理接続ののみが利用可能です ConnectionState 接続の状態 0 は DOWN 1 は UP を示します 単位 : ブール ConnectionBpsEgress 接続の AWS 側から送信されるデータのビットレート 報告される数値は 指定した時間長 ( デフォルトは 5 分 最低 1 分 ) にわたる集計です 単位 : ビット / 秒 ConnectionBpsIngress 接続の AWS 側に受信されるデータのビットレート 報告される数値は 指定した時間長 ( デフォルトは 5 分 最低 1 分 ) にわたる集計です 単位 : ビット / 秒 ConnectionPpsEgress 接続の AWS 側から送信されるデータのパケットレート 報告される数値は 指定した時間長 ( デフォルトは 5 分 最低 1 分 ) にわたる集計です 単位 : パケット / 秒 ConnectionPpsIngress 接続の AWS 側に受信されるデータのパケットレート 報告される数値は 指定した時間長 ( デフォルトは 5 分 最低 1 分 ) にわたる集計です 単位 : パケット / 秒 ConnectionCRCErrorCount 接続のデータ受信で周期的な冗長チェック (CRC) エラーが確認された回数 131

141 AWS Direct Connect のディメンション ConnectionLightLevelTx 単位 : 整数 接続の AWS 側から出力 ( 送信 ) されるトラフィックのファイバー接続状態を示します このは ポート速度が 10 Gbps の接続でのみ利用できます 単位 : dbm ConnectionLightLevelRx 接続の AWS 側に入力 ( 受信 ) されるトラフィックのファイバー接続状態を示します このは ポート速度が 10 Gbps の接続でのみ利用できます 単位 : dbm AWS Direct Connect のディメンション 以下のディメンションを使用して AWS Direct Connect データをフィルタできます ディメンション ConnectionId このディメンションでは AWS Direct Connect 接続でデータをフィルタします Amazon DynamoDB のとディメンション Amazon DynamoDB はを CloudWatch に送信します 詳細については Amazon DynamoDB 開発者ガイドの Amazon CloudWatch を使用した DynamoDB テーブルのモニタリング を参照してください DynamoDB 次のは Amazon DynamoDB から入手できます DynamoDB は ゼロ以外の値を持つのみを CloudWatch に送信します たとえば UserErrors は リクエストが HTTP 400 ステータスコードを生成するたびに増分されます その期間に HTTP 400 エラーが発生しなかった場合 期間中に CloudWatch は UserErrors のを提供しません Note Amazon CloudWatch は 1 分間隔で次の DynamoDB を集計します ConditionalCheckFailedRequests ConsumedReadCapacityUnits ConsumedWriteCapacityUnits ReadThrottleEvents ReturnedBytes ReturnedItemCount 132

142 DynamoDB ReturnedRecordsCount SuccessfulRequestLatency SystemErrors TimeToLiveDeletedItemCount ThrottledRequests UserErrors WriteThrottleEvents 他のすべての DynamoDB について 集計の詳細度は 5 分です Average や Sum など すべての統計が必ずしも常にすべてのに適用可能であるとは限りません ただし これらの値はすべて Amazon DynamoDB コンソール経由で利用できます または CloudWatch コンソール AWS CLI AWS SDK を使用してすべてのを利用できます 次の表は 各に適用可能な有効な統計のリストを示します ConditionalCheckFailedRequests 条件付き書き込みに失敗した回数 PutItem UpdateItem および DeleteItem オペレーションは オペレーションの実行前に true と評価される必要のある理論条件の提供を可能にします この条件が false と評価された場合 ConditionalCheckFailedRequests は 1 ずつ増加します Note 条件付き書き込みが失敗すると HTTP 400 エラー (Bad Request) が発生します これらのイベントは ConditionalCheckFailedRequests に反映されますが UserErrors には反映されません ディメンション : TableName 有効な統計 : Minimum Maximum Average SampleCount Sum ConsumedReadCapacityUnits 指定の期間内に消費された読み取り容量ユニットの数 これにより どれだけのプロビジョンドスループットが使用されたかをトラックすることができます テーブル すべてのグローバルセカンダリインデックス または特定のグローバルセカンダリインデックスで消費された読み取り容量の合計を取得できます 詳細については Provisioned Throughput in Amazon DynamoDB を参照してください Note Sum の統計を使用して 使用したスループットを算出します たとえば 1 分間の Sum の値を取得 133

143 DynamoDB し 1 分間の秒数 (60) で除算して 1 秒あたりの平均 ConsumedReadCapacityUnits を算出します ( この平均によって その 1 分間に発生した読み込みアクティビティでの 大幅であっても短い急増は明らかになりません ) その算出した値を DynamoDB に指定したプロビジョンドスループットの値と比較できます ディメンション : TableName, GlobalSecondaryIndexName 有効な統計 : Minimum テーブルまたはインデックスへの個別のリクエストによって消費される読み込みキャパシティーユニットの最小数 Maximum テーブルまたはインデックスへの個別のリクエストによって消費される読み込みキャパシティーユニットの最大数 Average 消費されたリクエストごとの平均読み込みキャパシティー Sum 消費された合計読み込みキャパシティーユニット数 これは ConsumedReadCapacityUnits で最も有用な統計です SampleCount 読み込みキャパシティーを消費した DynamoDB へのリクエスト数 134

144 DynamoDB ConsumedWriteCapacityUnits 指定の期間内に消費された書き込み容量ユニットの数 これにより どれだけのプロビジョンドスループットが使用されたかをトラックすることができます テーブル すべてのグローバルセカンダリインデックス または特定のグローバルセカンダリインデックスで消費された書き込み容量の合計を取得できます 詳細については Provisioned Throughput in Amazon DynamoDB を参照してください Note Sum の統計を使用して 使用したスループットを算出します たとえば 1 分間の Sum の値を取得し 1 分間の秒数 (60) で除算して 1 秒あたりの平均 ConsumedWriteCapacityUnits を算出します ( この平均によって その 1 分間に発生した書き込みアクティビティでの 大幅であっても短い急増は明らかになりません ) その算出した値を DynamoDB に指定したプロビジョンドスループットの値と比較できます ディメンション : TableName, GlobalSecondaryIndexName 有効な統計 : Minimum テーブルまたはインデックスへの個別のリクエストによって消費される書き込みキャパシティーユニットの最小数 Maximum テーブルまたはインデックスへの個別のリクエストによって消費される書き込みキャパシティーユニットの最大数 Average 消費されたリクエストごとの平均書き込みキャパシティー Sum 消費された合計書き込みキャパシティーユニット数 これは ConsumedWriteCapacityUnits で最も有用な統計です SampleCount 書き込みキャパシティーを消費した DynamoDB へのリクエスト数 135

145 DynamoDB OnlineIndexConsumedWriteCapacity 新しいグローバルセカンダリインデックスがテーブルに追加される際に消費された書き込み容量ユニットの数 インデックスの書き込み容量が小さすぎる場合は バックフィルフェーズ中の受信書き込みアクティビティは調整される可能性があり これによりインデックスの作成にかかる時間が長くなる場合があります インデックスの書き込み容量がプロビジョニング不足かどうかを判断するには インデックスの構築中に この統計を監視する必要があります インデックスの構築中であっても UpdateTable 操作を使用して インデックスの書き込み容量を調整することができます インデックスの作成中に消費された書き込みスループットは インデックスの ConsumedWriteCapacityUnits に含まれません ディメンション : TableName, GlobalSecondaryIndexName 有効な統計 : Minimum Maximum Average SampleCount Sum OnlineIndexPercentageProgress 新しいグローバルセカンダリインデックスがテーブルに追加される際の完了率 DynamoDB は まず新しいインデックスのリソースを割り当て 次にテーブルからインデックスに属性をバックフィルする必要があります 大きなテーブルの場合 このプロセスに長時間かかる場合があります DynamoDB によるインデックスの構築時に相対的な進捗状況を確認するには この統計を監視する必要があります ディメンション : TableName, GlobalSecondaryIndexName 有効な統計 : Minimum Maximum Average SampleCount Sum 136

146 DynamoDB OnlineIndexThrottleEvents 新しいグローバルセカンダリインデックスがテーブルに追加される際に発生した書き込み調整イベントの数 これらのイベントの発生は インデックス作成の完了に長い時間がかかることを示しています 受信書き込みアクティビティが インデックスに対してプロビジョニングされた書き込みスループットを超えているためです インデックスの構築中であっても UpdateTable 操作を使用して インデックスの書き込み容量を調整することができます インデックスの作成中に発生した調整イベントは インデックスの WriteThrotttleEvents に含まれません ディメンション : TableName, GlobalSecondaryIndexName 有効な統計 : Minimum Maximum Average SampleCount Sum PendingReplicationCount ( このは DynamoDB グローバルテーブル用です ) 1 つのレプリカテーブルに書き込まれるが グローバルテーブルの他のレプリカにはまだ書き込まれていない項目の更新数 ディメンション : TableName, ReceivingRegion 有効な統計 : Average Sample Count Sum 137

147 DynamoDB ProvisionedReadCapacityUnits テーブルまたはグローバルセカンダリインデックスのプロビジョニングされた読み取り容量ユニットの数 TableName ディメンションは 任意のグローバルセカンダリインデックスではなく テーブルの ProvisionedReadCapacityUnits を返します グローバルセカンダリインデックスの ProvisionedReadCapacityUnits を表示するには TableName と GlobalSecondaryIndex の両方を指定する必要があります ディメンション : TableName, GlobalSecondaryIndexName 有効な統計 : Minimum プロビジョニングされた読み込みキャパシティーの最も低い設定 UpdateTable を使用して読み込みキャパシティーを引き上げる場合 このは この期間中にプロビジョニングされた ReadCapacityUnits の最も低い値を示します Maximum プロビジョニングされた読み込みキャパシティーの最も高い設定 UpdateTable を使用して読み込みキャパシティーを引き下げる場合 このは この期間中にプロビジョニングされた ReadCapacityUnits の最も高い値を示します Average プロビジョニングされた平均読み込みキャパシティー ProvisionedReadCapacityUnits は 5 分間隔でパブリッシュされます そのため プロビジョニングされた読み込みキャパシティーユニットを急速に調整すると この統計には正しい平均が反映されない場合があります 138

148 DynamoDB ProvisionedWriteCapacityUnits テーブルまたはグローバルセカンダリインデックスのプロビジョニングされた書き込み容量ユニットの数 TableName ディメンションは 任意のグローバルセカンダリインデックスではなく テーブルの ProvisionedWriteCapacityUnits を返します グローバルセカンダリインデックスの ProvisionedWriteCapacityUnits を表示するには TableName と GlobalSecondaryIndex の両方を指定する必要があります ディメンション : TableName, GlobalSecondaryIndexName 有効な統計 : Minimum プロビジョニングされた書き込みキャパシティーの最も低い設定 UpdateTable を使用して書き込みキャパシティーを引き上げる場合 このは この期間中にプロビジョニングされた WriteCapacityUnits の最も低い値を示します Maximum プロビジョニングされた書き込みキャパシティーの最も高い設定 UpdateTable を使用して書き込みキャパシティーを引き下げる場合 このは この期間中にプロビジョニングされた WriteCapacityUnits の最も高い値を示します Average プロビジョニングされた平均書き込みキャパシティー ProvisionedWriteCapacityUnits は 5 分間隔でパブリッシュされます そのため プロビジョニングされた書き込みキャパシティーユニットを急速に調整すると この統計には正しい平均が反映されない場合があります 139

149 DynamoDB ReadThrottleEvents テーブルまたはグローバルセカンダリインデックスのプロビジョニングされた読み取り容量ユニットを超える DynamoDB へのリクエスト 1 つのリクエストで複数のイベントが発生する場合があります たとえば 10 個の項目を読み取る BatchGetItem は 10 個の GetItem イベントとして処理されます イベントが抑制されると そのイベントの ReadThrottleEvents は 1 ずつ増加します 10 個すべての GetItem イベントが抑制された場合を除き BatchGetItem 全体の ThrottledRequests は増加しません TableName ディメンションは 任意のグローバルセカンダリインデックスではなく テーブルの ReadThrottleEvents を返します グローバルセカンダリインデックスの ReadThrottleEvents を表示するには TableName と GlobalSecondaryIndex の両方を指定する必要があります ディメンション : TableName, GlobalSecondaryIndexName 有効な統計 : SampleCount Sum ReplicationLatency ( このは DynamoDB グローバルテーブル用です ) 1 つのレプリカテーブルに対して DynamoDB ストリームに表示される更新された項目と グルーバルテーブルの別のレプリカに表示される その項目の間の経過時間 単位 : Milliseconds ディメンション : TableName, ReceivingRegion 有効な統計 : Average Minimum Maximum 140

150 DynamoDB ReturnedBytes 指定された期間中に GetRecords オペレーション (Amazon DynamoDB Streams) で返されたバイト数 単位 : Bytes ディメンション : Operation, StreamLabel, TableName 有効な統計 : Minimum Maximum Average SampleCount Sum ReturnedItemCount 指定された期間中に Query または Scan オペレーションで返された項目の数 返された項目の数は 評価された項目の数と必ずしも同じではありません たとえば 100 個の項目が存在していたテーブルで Scan をリクエストしたが 結果を絞り込む FilterExpression を指定したため 15 個の項目のみが返されたとします この場合 Scan からのレスポンスには ScanCount として 100 個 Count として 15 個の返された項目が含まれます ディメンション : TableName, Operation 有効な統計 : Minimum Maximum Average SampleCount Sum ReturnedRecordsCount 指定された期間中に GetRecords オペレーション (Amazon DynamoDB Streams) で返されたストリームレコードの数 ディメンション : Operation, StreamLabel, TableName 有効な統計 : Minimum Maximum Average SampleCount Sum 141

151 DynamoDB SuccessfulRequestLatency 指定された期間中に DynamoDB または Amazon DynamoDB Streams に対して成功したリクエスト SuccessfulRequestLatency は 2 種類の情報を提供できます 成功したリクエストの経過時間 (Minimum Maximum Sum または Average) 成功したリクエストの数 (SampleCount) SuccessfulRequestLatency は DynamoDB または Amazon DynamoDB Streams 内のアクティビティのみを反映し アカウントのネットワークレイテンシーまたはクライアント側のアクティビティは考慮されません 単位 : Milliseconds ディメンション : TableName, Operation 有効な統計 : Minimum Maximum Average SampleCount SystemErrors 指定された期間中に HTTP 500 ステータスコードを生成する DynamoDB または Amazon DynamoDB Streams へのリクエスト 通常 HTTP 500 は内部サービスエラーを示します ディメンション : すべてのディメンション有効な統計 : Sum SampleCount TimeToLiveDeletedItemCount 指定した期間中に Time To Live (TTL) で削除された項目の数 このにより テーブルでの TTL による削除のレートをモニタリングできます ディメンション : TableName 有効な統計 : Sum 142

152 DynamoDB ThrottledRequests リソース ( テーブルやインデックスなど ) でプロビジョニングされたスループットの上限を超える DynamoDB へのリクエスト リクエスト内で任意のイベントがプロビジョンドスループットの制限を超過した場合 ThrottledRequests は 1 ずつ増加します たとえば グローバルセカンダリインデックスを持つテーブルの項目を更新する場合 テーブルへの書き込みと 各インデックスへの書き込みという複数のイベントが発生します 1 つ以上のイベントが抑制されると ThrottledRequests が 1 ずつ増加します Note バッチリクエスト (BatchGetItem または BatchWriteItem) では バッチ内のすべてのリクエストが調整されている場合にのみ ThrottledRequests が増加します バッチ内の個別のリクエストが調整されている場合 次のいずれかのが増加します ReadThrottleEvents BatchGetItem 内の調整された GetItem イベント用 WriteThrottleEvents BatchWriteItem 内の調整された PutItem または DeleteItem イベント用 どのイベントがリクエストを抑制しているかを確認するには ThrottledRequests と そのテーブルとインデックスの ReadThrottleEvents と WriteThrottleEvents を比較してください Note 調整されたリクエストでは HTTP 400 ステータスコードになります これらのすべてのイベントは ThrottledRequests に反映されますが UserErrors には反映されません ディメンション : TableName, Operation 有効な統計 : Sum SampleCount 143

153 DynamoDB UserErrors 指定された期間中に HTTP 400 ステータスコードを生成する DynamoDB または Amazon DynamoDB Streams へのリクエスト 通常 HTTP 400 は パラメーターの無効な組み合わせ 存在しないテーブルの更新の試み 不正なリクエスト署名などのクライアント側エラーを示します このようなイベントは 以下を除き UserErrors にすべて反映されます ProvisionedThroughputExceededException このセクションの ThrottledRequests を参照してください ConditionalCheckFailedException このセクションの ConditionalCheckFailedRequests を参照してください UserErrors は 現在のリージョンおよび現在の AWS アカウントへの DynamoDB または Amazon DynamoDB Streams リクエストに関する HTTP 400 エラーの集計を表します 有効な統計 : Sum SampleCount 144

154 DynamoDB のディメンション WriteThrottleEvents テーブルまたはグローバルセカンダリインデックスのプロビジョニングされた書き込み容量ユニットを超える DynamoDB へのリクエスト 1 つのリクエストで複数のイベントが発生する場合があります たとえば 3 つの任意のグローバルセカンダリインデックスを持つテーブルの PutItem リクエストから テーブルへの書き込みと 3 つのインデックスへの書き込みという 4 つのイベントが発生します イベントが調整されると そのイベントの WriteThrottleEvents は 1 ずつ増加します いずれかのイベントが調整された場合には 各 PutItem リクエストにおいて ThrottledRequests も 1 ずつ増加します BatchWriteItem においては すべての PutItem あるいは DeleteItem イベントが抑制された場合を除いて 全体の BatchWriteItem の ThrottledRequests は増加しません TableName ディメンションは 任意のグローバルセカンダリインデックスではなく テーブルの WriteThrottleEvents を返します グローバルセカンダリインデックスの WriteThrottleEvents を表示するには TableName と GlobalSecondaryIndex の両方を指定する必要があります ディメンション : TableName, GlobalSecondaryIndexName 有効な統計 : Sum SampleCount DynamoDB のディメンション DynamoDB のは アカウント グローバルセカンダリインデックス名 操作などの値で修飾されます CloudWatch コンソールを使用して DynamoDB データ および下表に示すいずれかのディメンションを取得できます ディメンション GlobalSecondaryIndexName このディメンションは テーブルのグローバルセカンダリインデックスにデータを制限します GlobalSecondaryIndexName を指定する場合は TableName も指定する必要があります Operation このディメンションは 次のいずれかの DynamoDB オペレーションにデータを制限します PutItem DeleteItem UpdateItem GetItem 145

155 Amazon EC2 ディメンション BatchGetItem Scan Query BatchWriteItem さらに 次の Amazon DynamoDB Streams オペレーションにデータを制限できます GetRecords ReceivingRegion StreamLabel TableName このディメンションは 特定の AWS リージョンにデータを制限します これは DynamoDB グローバルテーブル内のレプリカテーブルから送信されるで使用されます このディメンションは 特定のストリームラベルにデータを制限します これは Amazon DynamoDB Streams GetRecords オペレーションからので使用します このディメンションは 特定のテーブルにデータを制限します この値は 現在のリージョンおよび現在の AWS アカウントの任意のテーブル名とすることができます Amazon EC2 のとディメンション Amazon Elastic Compute Cloud (Amazon EC2) は EC2 インスタンスのを CloudWatch に送信します デフォルトでは 基本 (5 分間隔 ) モニタリングが有効になっています 詳細 (1 分間隔 ) モニタリングを有効にできます Auto Scaling グループ内の Amazon EC2 インスタンスの追加の詳細については Amazon EC2 Auto Scaling のとディメンション (p. 115) を参照してください Amazon EC2 をモニタリングする方法については CloudWatch の Linux インスタンス用 Amazon EC2 ユーザーガイドによるインスタンスのモニタリング を参照してください C5 および M5 インスタンスのコレクションと計算 C5 および M5 インスタンスは Nitro ハイパーバイザを使用するため CloudWatch は Xen ベースのハイパーバイザを使用する他のインスタンスとは異なる方法で発行されます 詳細については Nitro ハイパーバイザ を参照してください EC2 インスタンスの基本モニタリングでは 5 分間の頻度で 7 つの事前選択したを使用できます 任意のタイプの EC2 インスタンス ( ハイパーバイザを使用 ) で基本モニタリングを使用する場合 ハイパーバイザは 5 分間隔でごとに 5 つのサンプルを測定します これらのデータポイントを CloudWatch に発行する方法は インスタンスが使用するハイパーバイザのタイプによって異なります Xen インスタンスでは これらの 5 つのサンプルが集計され 5 分間隔の最後に 1 つのデータポイントとして CloudWatch に報告され タイムスタンプは 5 分間隔の最初に対応します このデータポイントの統計セットには 5 の SampleCount が含まれています Nitro インスタンスでは その間隔で最初のサンプルが取得された直後に CloudWatch にデータポイントが発行されます 間隔内で後続の各サンプルが発生すると そのデータポイントの統計セットが更新され これまでに取得されたすべてのサンプルが反映されますが タイムスタンプは変わりません レポートされているデータをグラフ化またはモニタリングしている場合 5 分間隔で各サンプルが取得さ 146

156 C5 および M5 インスタンスのコレクションと計算 れると 現在のデータポイントの統計値が変化しているように見えることがあります この間隔で取得された 5 つのサンプルは それぞれ SampleCount 統計に含まれています 時間 1:01PM 1:02PM 1:03PM 1:04PM 1:05PM サンプル値 Xen インスタンスで発行済み ( 基本モニタリングを有効化 ) まだ何もないまだ何もないまだ何もないまだ何もない平均 = 10 合計 = 50 最小 = 5 最大 = 15 サンプル数 = 5 タイムスタンプ = 1:00PM Nitro インスタンスで発行済み ( 基本モニタリングを有効化 ) 平均 = 10 合計 = 10 最小 = 10 平均 = 12.5 合計 = 25 最小 = 10 平均 = 合計 = 35 最小 = 10 平均 = 10 合計 = 40 最小 = 5 平均 = 10 合計 = 50 最小 = 5 最大 = 10 最大 = 15 最大 = 15 最大 = 15 最大 = 15 サンプル数 = 1 サンプル数 = 2 サンプル数 = 3 サンプル数 = 4 サンプル数 = 5 タイムスタンプ = 1:00PM タイムスタンプ = 1:00PM タイムスタンプ = 1:00PM タイムスタンプ = 1:00PM タイムスタンプ = 1:00PM 前の表に示す例では 基本モニタリングが使用されています 5 分間隔で 1 分ごとにサンプルを取得します Xen ベースのインスタンスでは 5 分間隔の最後までは何も発行されません この時点 (1:05PM) で 5 つのサンプルが集計され 1 つのデータポイントに 1:00PM のタイムスタンプが書き込まれます このデータポイントの SampleCount は 5 です この 1 つのデータポイントは の Sum 統計の 50 に寄与しています Nitro インスタンスでは データポイントは最初に 1:01PM に CloudWatch に書き込まれ タイムスタンプは 1:00PM で値は 10 です 1:02PM に 新しい 15 のサンプルは 1:00PM データポイントの平均を 2 つのサンプルの平均である 12.5 に変更します これにより 最大も 15 に変更されます このデータポイントのタイムスタンプは 1:00PM のままです 1:03PM にデータポイントの平均が 11.6 に変更されます 最後に 1:05PM の最後のサンプルの後で平均は 10 に戻ります データポイントの最終的な平均統計は 10 ですが この 5 分間に 5 の SampleCount が含まれているため Sum の 50 に寄与しました 5 つのサンプルのそれぞれが Sum に含まれています Minimum と Maximum の値は その間に取得されたサンプルの最高値と最低値を反映します Nitro インスタンスがデータを収集して計算する方法のため 少なくとも 2 つの評価期間を設定するか M が 2 以上の M/N の超過期間を必要とするように設定することを推奨します これは Nitro インスタンスでは 1 つの 5 分間隔で 1 つのサンプルを使用すると データポイントの最終統計セットがしきい値内に収まる場合でも データポイントがしきい値を一時的に超過する可能性があるからです 現在のサンプルのこの 変更可能 なデータポイントにより 間隔の途中でアラームが有効になる可能性があります 詳細については アラームを評価する (p. 318) を参照してください 147

157 Amazon EC2 の Amazon EC2 の 以下のは 各 EC2 インスタンスからデフォルトで利用可能です インスタンスに CloudWatch エージェントをインストールすることにより 追加のを有効にできます インスタンスに CloudWatch エージェントをインストールする方法の詳細については CloudWatch エージェントを使用して Amazon EC2 インスタンスとオンプレミスサーバーからとログを収集する (p. 53) を参照してください 収集できる追加のの詳細については CloudWatch エージェントにより収集される (p. 119) を参照してください AWS/EC2 名前空間は T2 インスタンスの以下の CPU クレジットを含みます CPUCreditUsage [T3/T2 インスタンス ] CPU 使用率に関してインスタンスで消費される CPU クレジットの数 1 つの CPU クレジットは 1 個の vcpu が 100% の使用率で 1 分間実行されること または vcpu 使用率 時間の同等の組み合わせ ( たとえば 1 個の vcpu が 50% の使用率で 2 分間実行されるか 2 個の vcpu が 25% の使用率で 2 分間実行される ) に相当します CPU クレジットは 5 分間隔でのみ利用可能です 5 分を超える期間を指定する場合は Average 統計の代わりに Sum 統計を使用します 単位 : クレジット (vcpu 分 ) CPUCreditBalance [T3/T2 インスタンス ] インスタンスが起動または開始後に蓄積した獲得 CPU クレジットの数 T2 スタンダードの場合 CPUCreditBalance には蓄積された起動クレジットの数も含まれます クレジットは 獲得後にクレジット残高に蓄積され 消費されるとクレジット残高から削除されます クレジットバランスには インスタンスサイズによって決まる上限があります 制限に到達すると 獲得された新しいクレジットはすべて破棄されます T2 スタンダードの場合 起動クレジットは制限に対してカウントされません CPUCreditBalance のクレジットは インスタンスがそのベースライン CPU 使用率を超えてバーストするために消費できます インスタンスが実行中の場合 CPUCreditBalance のクレジットは期限切れになりません T3 インスタンスが停止すると CPUCreditBalance 値は 7 日間保持されます その後 蓄積されたすべてのクレジットが失われます T2 インスタンスが停止すると CPUCreditBalance 値は保持されず 蓄積されたすべてのクレジットが失われます CPU クレジットは 5 分間隔でのみ利用可能です 単位 : クレジット (vcpu 分 ) CPUSurplusCreditBalance [T3/T2 無制限インスタンス ] CPUCreditBalance 値がゼロの場合に T3 または T2 無制限インスタンスによって消費された余剰クレジットの数 CPUSurplusCreditBalance 値は獲得した CPU クレジットによって支払われます 余剰クレジットの数が 24 時間にインスタンスが 148

158 Amazon EC2 の 獲得できるクレジットの最大数を超えている場合 最大数を超えて消費された余剰クレジットに対しては料金が発生します 単位 : クレジット (vcpu 分 ) CPUSurplusCreditsCharged [T3/T2 無制限インスタンス ] 獲得 CPU クレジットにより支払われないために追加料金が発生した 消費された余剰クレジットの数 消費された余剰クレジットは 以下のいずれかの状況に当てはまると料金が発生します 消費された余剰クレジットが インスタンスが 24 時間に獲得できる最大クレジット数を超えている 最大数を越えて消費された余剰クレジットは 時間の最後に課金されます インタンスが停止または終了した インスタンスは unlimited から standard に切り替わります 単位 : クレジット (vcpu 分 ) AWS/EC2 名前空間には 次のインスタンスが含まれます CPUUtilization 割り当てられた EC2 コンピュートユニットのうち 現在インスタンス上で使用されているものの比率 このは 選択されたインスタンス上でアプリケーションを実行するのに必要な処理能力を表します パーセンタイル統計を使用するには 詳細モニタリングを有効にする必要があります インスタンスタイプによっては インスタンスがフルプロセッサコアに割り当てられていない場合に オペレーティングシステムのツールが CloudWatch よりも低い比率を示す場合があります 単位 : パーセント DiskReadOps 指定された期間にインスタンスで利用できるすべてのインスタンスストアボリュームでの 完了した読み取り操作 その期間の 1 秒あたりの I/O 操作回数 (IOPS) の平均を算出するには その期間の操作回数の合計をその期間の秒数で割ります インスタンスストアボリュームがない場合は 値が 0 であるか がレポートされません DiskWriteOps 指定された期間にインスタンスで利用できるすべてのインスタンスストアボリュームへの 完了した書き込み操作 その期間の 1 秒あたりの I/O 操作回数 (IOPS) の平均を算出するには その期間の操作回数の合計をその期間の秒数で割ります 149

159 Amazon EC2 の インスタンスストアボリュームがない場合は 値が 0 であるか がレポートされません DiskReadBytes インスタンスで利用できるすべてのインスタンスストアボリュームから読み取られたバイト数 このを使用すると このインスタンスのハードディスクからアプリケーションが読み取るデータの量がわかります これを利用すると アプリケーションの速度がわかります 報告された数は 期間中に受信されたバイト数です 基本 (5 分 ) モニタリングを使用している場合 この数を 300 で除算してバイト / 秒を求めることができます 詳細 (1 分 ) モニタリングを使用している場合は この数を 60 で除算します インスタンスストアボリュームがない場合は 値が 0 であるか がレポートされません 単位 : バイト DiskWriteBytes インスタンスで利用できるすべてのインスタンスストアボリュームに書き込まれたバイト数 このを使用すると このインスタンスのハードディスクにアプリケーションが書き込むデータの量がわかります これを利用すると アプリケーションの速度がわかります 報告された数は 期間中に受信されたバイト数です 基本 (5 分 ) モニタリングを使用している場合 この数を 300 で除算してバイト / 秒を求めることができます 詳細 (1 分 ) モニタリングを使用している場合は この数を 60 で除算します インスタンスストアボリュームがない場合は 値が 0 であるか がレポートされません 単位 : バイト NetworkIn すべてのネットワークインターフェースでの このインスタンスによって受信されたバイトの数 このは 1 つのインスタンスへの受信ネットワークトラフィックの量を表しています 報告された数は 期間中に受信されたバイト数です 基本 (5 分 ) モニタリングを使用している場合 この数を 300 で除算してバイト / 秒を求めることができます 詳細 (1 分 ) モニタリングを使用している場合は この数を 60 で除算します 単位 : バイト 150

160 Amazon EC2 の NetworkOut すべてのネットワークインターフェースでの このインスタンスから送信されたバイトの数 このは 1 つのインスタンスからの送信ネットワークトラフィックの量を表しています 報告された数は 期間中に送信されたバイト数です 基本 (5 分 ) モニタリングを使用している場合 この数を 300 で除算してバイト / 秒を求めることができます 詳細 (1 分 ) モニタリングを使用している場合は この数を 60 で除算します 単位 : バイト NetworkPacketsIn すべてのネットワークインターフェースでの このインスタンスによって受信されたパケットの数 このは 受信トラフィックのボリュームを単一インスタンスでのパケット数として識別します このは基本モニタリング専用です 統計 : Minimum Maximum Average NetworkPacketsOut すべてのネットワークインターフェースでの このインスタンスから送信されたパケットの数 このは 送信トラフィックのボリュームを単一インスタンスでのパケット数として識別します このは基本モニタリング専用です 統計 : Minimum Maximum Average AWS/EC2 名前空間には 次のステータスチェックが含まれます デフォルトでは ステータスチェックは無料で 1 分の頻度で利用できます 新しく起動したインスタンスの場合 ステータスチェックデータは インスタンスが初期化状態を完了した後でのみ使用できます ( インスタンスが実行中の状態になってから数分以内 ) EC2 のステータスチェックの詳細については インスタンスのステータスチェックを参照してください StatusCheckFailed インスタンスが過去 1 分間にインスタンスのステータスチェックとシステムステータスチェックの両方に合格したかどうかを報告します このは 0 ( 合格 ) または 1 ( 失敗 ) となります デフォルトでは このは無料で 1 分の頻度で利用できます StatusCheckFailed_Instance 最近 1 分間にインスタンスがインスタンスステータスチェックに成功したかどうかを報告します このは 0 ( 合格 ) または 1 ( 失敗 ) となります デフォルトでは このは無料で 1 分の頻度で利用できます 151

161 Amazon EC2 の StatusCheckFailed_System 最近 1 分間にインスタンスがシステムステータスチェックに成功したかどうかを報告します このは 0 ( 合格 ) または 1 ( 失敗 ) となります デフォルトでは このは無料で 1 分の頻度で利用できます 一般的に 新しい EC2 インスタンスの Amazon CloudWatch データは クエリでリクエストされた最初の期間 ( 集約期間 ) の最後の 1 分以内で利用可能になります 期間 ( 統計が集約される時間の長さ ) は Period パラメータで設定できます 期間の詳細については 期間 (p. 6) を参照してください EC2 インスタンスで現在利用可能なディメンション ( 例 : ImageId または InstanceType) を使用して 返されるの精度を上げることができます EC2 で利用可能なディメンションの詳細については Amazon EC2 のディメンション (p. 153) を参照してください AWS/EC2 名前空間には C5 インスタンスと M5 インスタンスの次の Amazon EBS が含まれています EBSReadOps 指定された期間にインスタンスに接続されたすべての Amazon EBS ボリュームからの 完了した読み込みオペレーション その期間の 1 秒あたりの読み込み I/O 操作回数 ( 読み込み IOPS) の平均を算出するには その期間の操作回数の合計をその期間の秒数で割ります 基本 (5 分 ) モニタリングを使用している場合 この数を 300 で除算して読み込み IOPS を計算することができます 詳細 (1 分 ) モニタリングを使用している場合は この数を 60 で除算します 単位 : 個 EBSWriteOps 指定された期間にインスタンスに接続されたすべての EBS ボリュームからの 完了した書き込み操作 その期間の 1 秒あたりの書き込み I/O 操作回数 ( 書き込み IOPS) の平均を算出するには その期間の操作回数の合計をその期間の秒数で割ります 基本 (5 分 ) モニタリングを使用している場合 この数を 300 で除算して書き込み IOPS を計算することができます 詳細 (1 分 ) モニタリングを使用している場合は この数を 60 で除算します 単位 : 個 EBSReadBytes 指定した期間内にインスタンスに接続されたすべての EBS ボリュームから読み取られたバイト数 152

162 Amazon EC2 のディメンション 報告された数は 期間中に読み取られたバイト数です 基本 (5 分 ) モニタリングを使用している場合 この数を 300 で除算して読み込みバイト / 秒を求めることができます 詳細 (1 分 ) モニタリングを使用している場合は この数を 60 で除算します 単位 : バイト EBSWriteBytes 指定した期間内にインスタンスに接続されたすべての EBS ボリュームに書き込まれたバイト数 報告された数は 期間中に書き込まれたバイト数です 基本 (5 分 ) モニタリングを使用している場合 この数を 300 で除算して書き込みバイト / 秒を求めることができます 詳細 (1 分 ) モニタリングを使用している場合は この数を 60 で除算します 単位 : バイト EBSIOBalance% 小さい C5 および M5 インスタンスサイズにのみ使用できます バーストバケットの I/O 残りクレジットの割合に関する情報を提供します このは基本モニタリング専用です Sum 統計は このに該当しません 単位 : パーセント EBSByteBalance% 小さい C5 および M5 インスタンスサイズにのみ使用できます バーストバケットのスループット残りクレジットの割合に関する情報を提供します このは基本モニタリング専用です Sum 統計は このに該当しません 単位 : パーセント Amazon EC2 のディメンション 詳細モニタリングを使用している場合 下の表のいずれかのディメンションを用いて EC2 インスタンスデータをフィルタリングできます ディメンション AutoScalingGroupName ImageId このディメンションを指定すると リクエストしたデータがフィルタリングされて 指定したキャパシティグループ内のインスタンスのものだけになります Auto Scaling グループは Auto Scaling を使用する場合に定義するインスタンスのコレクションです このディメンションを Amazon EC2 のに対して使用できるのは インスタンスが Auto Scaling グループ内にあるときに限られます 詳細モニタリングまたは基本モニタリングが有効になっているインスタンスに対して使用できます このディメンションを指定すると リクエストしたデータがフィルタリングされて この Amazon EC2 Amazon Machine Image (AMI) 153

163 Amazon EC2 スポットフリート ディメンション InstanceId InstanceType を実行しているインスタンスのものだけになります 詳細モニタリングが有効になっているインスタンスに対して使用できます このディメンションを指定すると リクエストしたデータがフィルタリングされて 指定のインスタンスのものだけになります これを利用すると どのインスタンスからのデータをモニタリングするかを指定できます このディメンションを指定すると リクエストしたデータがフィルタリングされて 指定のインスタンスタイプで実行されているインスタンスのものだけになります これを利用すると 実行されているインスタンスのタイプでデータを分類することができます たとえば m1.small インスタンスと m1.large インスタンスのデータを比較して アプリケーションに対するビジネス価値はどちらが上かを判断します 詳細モニタリングが有効になっているインスタンスに対して使用できます Amazon EC2 スポットフリートのとディメンション Amazon Elastic Compute Cloud (Amazon EC2) は スポットフリートに関する情報を CloudWatch に送信します 詳細については Linux インスタンス用 Amazon EC2 ユーザーガイドの スポット群の CloudWatch を参照してください Amazon EC2 スポット群の AWS/EC2Spot 名前空間には 次のに加えて スポット群のスポットインスタンス用の CloudWatch が含まれます AWS/EC2Spot 名前空間には 次のが含まれます AvailableInstancePoolsCount スポット群のリクエストで指定されたスポットインスタンスのプール BidsSubmittedForCapacity Amazon EC2 が入札を送信した容量 EligibleInstancePoolCount スポット群のリクエストで指定され Amazon EC2 が入札を落札できるスポットインスタンスのプール 入札価格がスポット価格より低いか スポット価格がオンデマンドインスタンスの価格より高い場合 Amazon EC2 はプールの入札を落札しません FulfilledCapacity Amazon EC2 が落札した容量 154

164 Amazon EC2 スポット群ののディメンション MaxPercentCapacityAllocation スポット群のリクエストで指定されたすべてのスポットインスタンスのプールでの PercentCapacityAllocation の最大値 単位 : パーセント PendingCapacity TargetCapacity と FulfilledCapacity の違い PercentCapacityAllocation 指定されたディメンションのスポットインスタンスのプールに割り当てられた容量 すべてのスポットインスタンスのプールにわたる最大値を取得するには MaxPercentCapacityAllocation を使用します 単位 : パーセント TargetCapacity スポット群のリクエストのターゲット容量 TerminatingCapacity スポットインスタンスの中断により終了中の容量 の測定単位が Count である場合 最も有用な統計は Average です Amazon EC2 スポット群ののディメンション 以下のディメンションを使用してデータをフィルタできます ディメンション AvailabilityZone FleetRequestId InstanceType アベイラビリティーゾーン別にデータをフィルタリングします スポット群のリクエスト別にデータをフィルタリングします インスタンスタイプ別にデータをフィルタリングします Amazon ECS のとディメンション Amazon Elastic Container Service (Amazon ECS) はを Amazon CloudWatch に送信します 詳細については Amazon Elastic Container Service Developer Guide の Amazon ECS CloudWatch を参照してください Amazon ECS Amazon ECS には クラスター全体の CPU およびメモリの予約率と使用率 クラスター内のサービスにおける CPU とメモリの使用率を監視するためのが用意されています 使用可能になるは クラスター内のタスクとサービスの起動タイプに応じて変化します サービスに Fargate 起動タイプを使用している場合 サービスのモニタリングを支援するための CPU とメモ 155

165 Amazon ECS リの使用状況が提供されます Amazon EC2 起動タイプの場合 基盤となるインフラストラクチャを構成する EC2 インスタンスを所有し これらのインスタンスをモニタリングする必要があるため CPU とメモリの予約率と使用率のが クラスター サービス およびタスクレベルで追加提供されます Amazon ECS は以下のを CloudWatch に毎分送信します Amazon ECS がを収集する際は 1 分ごとに 複数のデータポイントを収集します 次に それらを 1 つのデータポイントに集計してから データを CloudWatch に送信します したがって CloudWatch では 1 つのサンプル数は実際には 1 分間の複数のデータポイントの集計になります AWS/ECS 名前空間には 次のが含まれます CPUReservation クラスターでタスクを実行することで予約されている CPU ユニットの割合 クラスターの CPU 予約率 ( このは ClusterName でのみフィルタリングできます ) は クラスターの Amazon ECS タスクにより予約された合計 CPU ユニット数を クラスターの全コンテナインスタンスに登録されている合計 CPU ユニット数で割って測定します このは EC2 起動タイプを使用するタスクにのみ使用されます 有効なディメンション : ClusterName 有効な統計 : Average Minimum Maximum Sum Sample Count 最も有用な統計は Average です 単位 : パーセント CPUUtilization クラスターやサービスで使用されている CPU の割合 クラスターの CPU 使用率 ( は ServiceName を除く ClusterName でフィルタリングされます ) では クラスターの Amazon ECS タスク数をクラスターの全コンテナインスタンスに登録されている CPU ユニットの全数で割った数で使用されている合計 CPU ユニットを測定します クラスターの CPU 使用率は EC2 起動タイプを使用するタスクにのみ使用されます サービスの CPU 使用率 ( は ServiceName と ClusterName でフィルタリングされます ) では サービスに属するタスク数をサービスに属するタスクから CPU 合計で割った総数で合計 CPU ユニットを測定します サービスの CPU 使用率は Fargate と EC2 起動タイプの両方を使用するタスクに使用されます 有効なディメンション : ClusterName ServiceName 有効な統計 : Average Minimum Maximum Sum Sample Count 最も有用な統計は Average です 単位 : パーセント 156

166 Amazon ECS MemoryReservation クラスターでタスクを実行することで予約されているメモリの割合 クラスターメモリ予約率 ( このは ClusterName でのみフィルタリングできます ) は クラスターの Amazon ECS タスクで予約された合計メモリー量を クラスターの全コンテナインスタンスに登録されている合計メモリー量で割って測定されます このは EC2 起動タイプを使用するタスクにのみ使用されます 有効なディメンション : ClusterName 有効な統計 : Average Minimum Maximum Sum Sample Count 最も有用な統計は Average です 単位 : パーセント MemoryUtilization クラスターやサービスで利用されるメモリの割合 クラスターメモリ使用率 ( に ServiceName を指定せず ClusterName のみでフィルタリングした場合 ) は クラスター内の Amazon ECS タスクで使用中の合計メモリーを クラスターの全コンテナインスタンスに搭載されているメモリー容量で割った値です クラスターのメモリの使用率は EC2 起動タイプを使用するタスクにのみ使用されます サービスメモリーの使用率は ( は ClusterName と ServiceName 出フィルタリングされます ) サービスに付属するタスク数をサービスに属するタスクのためのメモリー総数で割った数で使用中の合計メモリーを測定します サービスのメモリの使用率は Fargate と EC2 起動タイプの両方を使用するタスクに使用されます 有効なディメンション : ClusterName ServiceName 有効な統計 : Average Minimum Maximum Sum Sample Count 最も有用な統計は Average です 単位 : パーセント Note EC2 起動タイプを持つタスクを使用し Linux コンテナインスタンスがある場合 Amazon ECS コンテナエージェントは Docker stats を利用して インスタンスで実行中の各コンテナの CPU およびメモリデータを収集します バージョン 以前の Amazon ECS エージェントを使用している場合 ECS にはメモリ使用量を CloudWatch に報告するときにファイルシステムのキャッシュ使用量が含まれるため CloudWatch グラフには タスクの実際のメモリ使用量よりも高い値が表示されます これを修正するため Amazon ECS バージョン から Amazon ECS コンテナエージェントではメモリ使用率からファイルシステムのキャッシュ使用量が除外されます この変更により コンテナのメモリ不足時の動作への影響はありません 157

167 Amazon ECS のディメンション Amazon ECS のディメンション Amazon ECS は AWS/ECS 名前空間を使用し 以下のディメンションのを提供しています ディメンション ClusterName ServiceName このディメンションでは 指定したクラスター内の全リソースからリクエストしたデータをフィルタリングします すべての Amazon ECS は ClusterName でフィルタリングされます このディメンションは 指定したクラスター内の特定サービスの全リソースからリクエストしたデータをフィルタリングします AWS Elastic Beanstalk のとディメンション AWS Elastic Beanstalk はを Amazon CloudWatch に送信します 詳細については AWS Elastic Beanstalk 開発者ガイドの 環境の Amazon CloudWatch カスタムのパブリッシュ を参照してください Elastic Beanstalk の AWS/ElasticBeanstalk 名前空間には 次のが含まれます EnvironmentHealth [ 環境 ] 環境のヘルスステータス 有効な値は 0 (OK) 1 ( 情報 ) 5 ( 不明 ) 10 ( データなし ) 15 ( 警告 ) 20 ( 低下 ) 25 ( 重大 ) です InstancesOk InstancesPending InstancesInfo InstancesUnknown InstancesNoData InstancesWarning InstancesDegraded InstancesSevere [ 環境 ] ヘルスステータスが OK のインスタンスの数 [ 環境 ] ヘルスステータスが保留中のインスタンスの数 [ 環境 ] ヘルスステータスが情報のインスタンスの数 [ 環境 ] ヘルスステータスが不明のインスタンスの数 [ 環境 ] ヘルスステータスのデータがないインスタンスの数 [ 環境 ] ヘルスステータスが警告のインスタンスの数 [ 環境 ] ヘルスステータスが低下のインスタンスの数 [ 環境 ] ヘルスステータスが重大のインスタンスの数 ApplicationRequestsTotal インスタンスまたは環境によって完了しているリクエストの数 ApplicationRequests2xx ApplicationRequests3xx ステータスコードが 2XX で完了しているリクエストの数 ステータスコードが 3XX で完了しているリクエストの数 158

168 Elastic Beanstalk のディメンション ApplicationRequests4xx ApplicationRequests5xx ApplicationLatencyP10 ApplicationLatencyP50 ApplicationLatencyP75 ApplicationLatencyP85 ApplicationLatencyP90 ApplicationLatencyP95 ApplicationLatencyP99 ApplicationLatencyP99.9 LoadAverage1min InstanceHealth RootFilesystemUtil CPUIrq CPUUser CPUIdle CPUSystem CPUSoftirq CPUIowait CPUNice ステータスコードが 4XX で完了しているリクエストの数 ステータスコードが 5XX で完了しているリクエストの数 リクエストのうち 早い方から 10 パーセントの完了にかかった平均時間 リクエストのうち 早い方から 50 パーセントの完了にかかった平均時間 リクエストのうち 早い方から 75 パーセントの完了にかかった平均時間 リクエストのうち 早い方から 85 パーセントの完了にかかった平均時間 リクエストのうち 早い方から 90 パーセントの完了にかかった平均時間 リクエストのうち 早い方から 95 パーセントの完了にかかった平均時間 リクエストのうち 早い方から 99 パーセントの完了にかかった平均時間 リクエストのうち 早い方から x パーセントの完了にかかった平均時間 [ インスタンス ] 過去 1 分間の CPU 負荷の平均値 [ インスタンス ] インスタンスのヘルスステータス [ インスタンス ] 使用中のディスク容量の割合 [ インスタンス ] 過去 1 分間に CPU がこの状態にあった時間の割合 [ インスタンス ] 過去 1 分間に CPU がこの状態にあった時間の割合 [ インスタンス ] 過去 1 分間に CPU がこの状態にあった時間の割合 [ インスタンス ] 過去 1 分間に CPU がこの状態にあった時間の割合 [ インスタンス ] 過去 1 分間に CPU がこの状態にあった時間の割合 [ インスタンス ] 過去 1 分間に CPU がこの状態にあった時間の割合 [ インスタンス ] 過去 1 分間に CPU がこの状態にあった時間の割合 Elastic Beanstalk のディメンション 以下のディメンションを使用してデータをフィルタできます ディメンション EnvironmentName InstanceId 環境別にデータをフィルタリングします インスタンス別にデータをフィルタリングします 159

169 Amazon ElastiCache Amazon ElastiCache のとディメンション Amazon ElastiCache はを Amazon CloudWatch に送信します 詳細については Amazon ElastiCache ユーザーガイドの キャッシュクラスターおよびキャッシュノードの表示 を参照してください コンテンツ ElastiCache のディメンション (p. 160) ホストレベルの (p. 160) Memcached の (p. 161) Redis の (p. 163) ElastiCache のディメンション すべての ElastiCache は "AWS/ElastiCache" 名前空間を使用し CacheNodeId という 1 つのディメンションに関するを提供します このディメンションは キャッシュクラスターの各キャッシュノードに対して自動的に生成される識別子です キャッシュノードに対するこれらの値を確認するには DescribeCacheClusters API または elasticache-describe-cache-clusters コマンドラインユーティリティを使用します 詳細については Amazon ElastiCache API Reference の DescribeCacheClusters および AWS CLI Command Reference の describe-cache-clusters を参照してください はそれぞれ 1 組のディメンションの下でパブリッシュされます を取得するときは CacheClusterId と CacheNodeId の両方のディメンションを指定する必要があります 目次 ホストレベルの (p. 160) Memcached の (p. 161) Redis の (p. 163) モニタリングすべき ホストレベルの AWS/ElastiCache 名前空間は 各キャッシュノードに対する以下のホストレベルのが含まれます 以下の資料も参照してください Memcached の (p. 161) Redis の (p. 163) 単位 CPUUtilization ホスト全体の CPU 使用率の割合 (%) Redis はシングルスレットであるため EngineCPUUtilization をモニタリングすることをお勧めします ( 利用可能な場合 ) パーセント 160

170 Memcached の 単位 FreeableMemory ホストで使用可能な空きメモリの量 OS によって解放可能とレポートされる RAM バッファ およびキャッシュから取得されます バイト NetworkBytesIn ホストがネットワークから読み取ったバイト数 バイト NetworkBytesOut ホストがネットワークに書き込んだバイト数 バイト SwapUsage ホストで使用されるスワップの量 バイト Memcached の AWS/ElastiCache 名前空間には Memcached stats コマンドから算出される次のが含まれます 各は キャッシュノードレベルで算出されます Memcached stats コマンドの詳細については doc/protocol.txt にアクセスしてください 以下の資料も参照してください ホストレベルの (p. 160) 単位 BytesReadIntoMemcached キャッシュノードによってネットワークから読み取られたバイト数 バイト BytesUsedForCacheItems キャッシュ項目の格納に使用したバイト数 バイト BytesWrittenOutFromMemcached キャッシュノードによってネットワークに書き込まれたバイト数 バイト CasBadval CasHits CasMisses キャッシュが受信したが その Cas ( チェックと設定 ) 値と格納されている Cas 値が一致しない CAS リクエストの数 キャッシュが受信し リクエストされたキーが見つかって Cas 値が一致した Cas リクエストの数 キャッシュが受信したが リクエストされたキーが見つからない Cas リクエストの数 カウント カウント カウント CmdFlush キャッシュが受信した flush コマンドの数 カウント CmdGet キャッシュが受信した get コマンドの数 カウント CmdSet キャッシュが受信した set コマンドの数 カウント CurrConnections 特定の時点でキャッシュに接続された接続回数 ElastiCache は 2~3 つの接続を使用して 各ケースでクラスターをモニタリングします カウント CurrItems キャッシュに現在格納されている項目の数 カウント DecrHits キャッシュが受信し リクエストされたキーが見つかったデクリメントリクエストの数 カウント 161

171 Memcached の 単位 DecrMisses DeleteHits DeleteMisses Evictions GetHits GetMisses IncrHits IncrMisses Reclaimed キャッシュが受信したが リクエストされたキーが見つからなかったデクリメントリクエストの数 キャッシュが受信し リクエストされたキーが見つかった削除リクエストの数 キャッシュが受信したが リクエストされたキーが見つからなかった削除リクエストの数 新しく書き込むための領域を確保するためにキャッシュが排除した 期限切れではない項目の数 キャッシュが受信し リクエストされたキーが見つかった get リクエストの数 キャッシュが受信したが リクエストされたキーが見つからなかった get リクエストの数 キャッシュが受信し リクエストされたキーが見つかったインクリメントリクエストの数 キャッシュが受信したが リクエストされたキーが見つからなかったインクリメントリクエストの数 新しく書き込むための領域を確保するためにキャッシュが排除した 期限切れ項目の数 カウントカウントカウントカウントカウントカウントカウントカウントカウント Memcached では 次のが追加で提供されます 単位 BytesUsedForHash ハッシュテーブルで現在使用されているバイト数 バイト CmdConfigGet config get リクエストの累積数 カウント CmdConfigSet config set リクエストの累積数 カウント CmdTouch touch リクエストの累積数 カウント CurrConfig 現在格納されている設定の数 カウント EvictedUnfetched ExpiredUnfetched 設定されてからまったくタッチされていない LRU キャッシュから排除された有効な項目の数 設定されてからまったくタッチされていない LRU キャッシュから再生された有効期限切れの項目の数 カウント カウント SlabsMoved 移動されたスラブページの合計数 カウント TouchHits タッチされて新しい有効期限を与えられたキーの数 カウント 162

172 Redis の 単位 TouchMisses タッチされたが見つからなかった項目の数 カウント AWS/ElastiCache 名前空間には 次の計算されたキャッシュレベルのが含まれます 単位 NewConnections NewItems UnusedMemory キャッシュが受信した新しい接続の数 これは Memcached total_connections 統計に基づき 一定期間にわたる total_connections の変更を記録することで算出されます この値は ElastiCache に予約された接続が 1 つあるため 少なくとも 1 になります キャッシュが格納した新しい項目の数 これは Memcached total_items 統計に基づき 一定期間にわたる total_items の変更を記録することで算出されます データに使用されていないメモリの量 この値は Memcached 統計の limit_maxbytes と bytes のうち limit_maxbytes から bytes を引いたものから派生しています Memcached がデータに加えてオーバーヘッドにもメモリを使用するため UnusedMemory は追加データに使用できるメモリ量としてはみなされません 未使用メモリがまだ残っている状態でも削除が発生する場合があります 詳細については Memcached item memory usage を参照してください カウント カウント バイト Redis の AWS/ElastiCache 名前空間には 次の Redis が含まれます ReplicationLag および EngineCPUUtilization を除き これらのは Redis の info コマンドから算出されます 各は キャッシュノードレベルで算出されます Redis の info コマンドの詳細は を参照してください 以下の資料も参照してください ホストレベルの (p. 160) 単位 ActiveDefragHits アクティブなデフラグメンテーションプロセスで実行された 1 分あたりの値の再割り当て数 Redis INFO の active_defrag_hits 統計から算出されます 数値 163

173 Redis の 単位 BytesUsedForCache CacheHits CacheMisses CurrConnections EngineCPUUtilization Evictions NewConnections Reclaimed ReplicationBytes データセット バッファなど すべての目的で Redis によって割り当てられた合計バイト数 Redis INFO の used_memory 統計から算出されます メインディクショナリで読み取り専用のキー検索に成功した数 Redis INFO の keyspace_hits 統計から算出されます メインディクショナリで読み取り専用のキー検索に失敗した数 Redis INFO の keyspace_misses から算出されます クライアントの接続数 ( リードレプリカからの接続を除く ) ElastiCache では 2~3 つの接続を使用して 各ケースでクラスターをモニタリングします Redis INFO の connected_clients 統計から算出されます EngineCPUUtilization は Redis ワークロードをより深く洞察するために Redis プロセス CPU 使用率へのアクセスを提供します Redis はシングルスレッドであり 特定の時点で使用する CPU コアは 1 つのみです EngineCPUUtilization を使用することで Redis 自体の負荷をより精密に可視化できます EngineCPUUtilization は既存の CPUUtilization メトリックスに加えて 他のオペレーティングシステムや管理プロセスを含むサーバーインスタンス全体の CPU 使用率を公開します Redis 環境の CPU 使用率を詳細に理解するために EngineCPUUtilization と CPUUtilization メトリックスを一緒に使用することをお勧めします maxmemory の制限のため排除されたキーの数 Redis INFO の evicted_keys 統計から算出されます この期間内にサーバーによって受け入れられた接続の総数 Redis INFO の total_connections_received 統計から算出されます キーの有効期限切れイベントの総数 Redis INFO の expired_keys 統計から算出されます レプリケートされたノードについては ReplicationBytes は プライマリがすべてのレプリカに対して送信するバイト数を報告します このは レプリケーショングループに対する書き込み負荷を表します Redis INFO の master_repl_offset 統計から算出されます バイトカウントカウントカウントパーセントカウントカウントカウントバイト 164

174 Redis の 単位 ReplicationLag SaveInProgress このは リードレプリカとして実行中のノードにのみ適用できます レプリカのプライマリノードからの変更適用の進行状況を秒で表します このバイナリは バックグラウンド保存 ( 分岐または分岐なし ) が進行中の場合は常に 1 を返し それ以外の場合は 0 を返します バックグラウンド保存プロセスは一般に スナップショットおよび同期の際に使用されます これらのオペレーションによりパフォーマンスが低下する可能性があります SaveInProgress を使用して パフォーマンスが低下した原因がバックグラウンド保存プロセスであるかどうかを診断できます Redis INFO の rdb_bgsave_in_progress 統計から算出されます Seconds カウント EngineCPUUtilization の利用可能性 次の表に指定された日時以降に作成 または置き換えられたリージョンのノードには EngineCPUUtilization メトリックスが含まれます リージョンリージョン名 EngineCPUUtilization 利用可能性 us-east-2 米国東部 ( オハイオ ) 2017 年 2 月 16 日 17:21 (UTC) us-east-1 us-west-1 米国東部 ( バージニア北部 ) 米国西部 ( 北カリフォルニア ) 2017 年 2 月 8 日 21:20 (UTC) 2017 年 2 月 14 日 22:23 (UTC) us-west-2 米国西部 ( オレゴン ) 2017 年 2 月 20 日 19:20 (UTC) ap-northeast-1 アジアパシフィック ( 東京 ) 2017 年 2 月 14 日 19:58 (UTC) ap-northeast-2 アジアパシフィック ( ソウル ) 全ノードで使用できます ap-northeast-3 アジアパシフィック ( 大阪 : ローカル ) 全ノードで使用できます ap-south-1 ap-southeast-1 ap-southeast-2 アジアパシフィック ( ムンバイ ) アジアパシフィック ( シンガポール ) アジアパシフィック ( シドニー ) 2017 年 2 月 7 日 02:51 (UTC) 2017 年 2 月 13 日 23:40 (UTC) 2017 年 2 月 14 日 03:33 (UTC) ca-central-1 カナダ ( 中部 ) 全ノードで使用できます cn-north-1 中国 ( 北京 ) 2017 年 2 月 16 日 22:39 (UTC) 165

175 Redis の リージョン リージョン名 EngineCPUUtilization 利用可能性 cn-northwest-2 中国 ( 寧夏 ) 全ノードで使用できます eu-central-1 欧州 ( フランクフルト ) 2017 年 2 月 15 日 00:46 (UTC) eu-west-1 欧州 ( アイルランド ) 2017 年 2 月 7 日 21:30 (UTC) eu-west-2 欧州 ( ロンドン ) 2017 年 2 月 16 日 18:58 (UTC) eu-west-3 EU ( パリ ) 全ノードで使用できます sa-east-1 南米 ( サンパウロ ) 2017 年 2 月 7 日 04:35 (UTC) us-gov-west-1 AWS GovCloud (US) 2017 年 2 月 16 日 20:11 (UTC) これらは特定の種類のコマンドの集計で info commandstats から算出されています 単位 CurrItems GetTypeCmds HashBasedCmds HyperLogLogBasedCmds KeyBasedCmds ListBasedCmds SetBasedCmds SetTypeCmds キャッシュの項目数 これは Redis keyspace 統計に基づき キー空間全体のすべてのキーを合計することで算出されます read-only 型のコマンドの合計数 これは Redis commandstats 統計に基づき read-only 型のすべてのコマンド (get hget scard lrange など ) を合計することで算出されます ハッシュベースのコマンドの総数 これは Redis commandstats 統計に基づき 1 つ以上のハッシュに対して実行されるすべてのコマンドを合計することで算出されます HyperLogLog ベースのコマンドの合計数 これは Redis commandstats 統計に基づき pf 型のすべてのコマンド (pfadd pfcount pfmerge など ) を合計することで算出されます キーベースのコマンドの総数 これは Redis commandstats 統計に基づき 複数のデータ構造で 1 つ以上のキーに対して実行されるすべてのコマンド (del expire rename など ) を合計することで算出されます リストベースのコマンドの総数 これは Redis commandstats 統計に基づき 1 つ以上のリストに対して実行されるすべてのコマンドを合計することで算出されます セットベースのコマンドの総数 これは Redis commandstats 統計に基づき 1 つ以上のセットに対して実行されるすべてのコマンドを合計することで算出されます write 型のコマンドの合計数 これは Redis commandstats 統計に基づき データ上で動作する mutative 型のすべてのコマンド カウントカウントカウントカウントカウントカウントカウントカウント 166

176 Amazon EBS 単位 (set hset sadd lpop など ) を合計することで算出されます SortedSetBasedCmds StringBasedCmds ソートされたセットベースのコマンドの総数 これは Redis commandstats 統計に基づき 1 つ以上のソートされたセットに対して実行されるすべてのコマンドを合計することで算出されます 文字列ベースのコマンドの総数 これは Redis commandstats 統計に基づき 1 つ以上の文字列に対して実行されるすべてのコマンドを合計することで算出されます カウント カウント Amazon EBS のとディメンション Amazon EBS の Amazon Elastic Block Store(Amazon EBS) は 複数ののデータポイントを CloudWatch に送信します Amazon EBS 汎用 SSD (gp2) スループット最適化 HDD (st1) Cold HDD (sc1) および磁気 ( スタンダード ) ボリュームは自動的に 5 分間のを CloudWatch に送信します プロビジョンド IOPS SSD (io1) ボリュームは 1 分間のを CloudWatch に自動的に送信します データは ボリュームがインスタンスにアタッチされている場合にのみ CloudWatch に報告されます Amazon EBS をモニタリングする方法については Linux インスタンス用 Amazon EC2 ユーザーガイド の Monitoring the Status of Your Volumes を参照してください AWS/EBS 名前空間には 次のが含まれます VolumeReadBytes VolumeWriteBytes 指定された期間の I/O 操作に関する情報を提供します Sum 統計は 期間内に転送されたバイトの総数をレポートします Average 統計は 期間中の各 I/O 操作の平均サイズを報告します ただし 平均が指定された期間にわたる平均を表す C5 C5d i3.metal M5 M5d インスタンスにアタッチされたボリュームを除きます SampleCount 統計は期間中に I/O 操作の合計数を報告します ただし サンプル数が統計計算で使用されるデータポイントの数を表す C5 C5d M5 M5d インスタンスにアタッチされたボリュームを除きます データは ボリュームがアクティブな場合にのみ CloudWatch に報告されます このの Minimum と Maximum 統計は C5 C5d i3.metal M5 M5d インスタンスにアタッチされたボリュームでのみサポートされます 単位 : バイト VolumeReadOps VolumeWriteOps 指定期間内の I/O 操作の総数 その期間の 1 秒あたりの I/O 操作回数 (IOPS) の平均を算出するには その期間の操作回数の合計をその期間の秒数で割ります 167

177 Amazon EBS の このの Minimum と Maximum 統計は C5 C5d i3.metal M5 M5d インスタンスにアタッチされたボリュームでのみサポートされます VolumeTotalReadTime VolumeTotalWriteTime 指定期間内に完了した操作すべての 操作に要した時間 ( 秒 ) の合計 複数のリクエストが同時に送信された場合は この合計が期間の長さを超えることがあります たとえば 期間が 5 分間 (300 秒 ) で その期間内に完了した操作の数が 700 あり 1 つの操作に 1 秒かかるとすれば この値は 700 秒となります このの Average 統計は C5 C5d i3.metal M5 M5d インスタンスにアタッチされたボリュームには該当しません このの Minimum と Maximum 統計は C5 C5d i3.metal M5 M5d インスタンスにアタッチされたボリュームでのみサポートされます 単位 : Seconds VolumeIdleTime 指定期間内に 読み取りと書き込みのどちらの操作も行われなかった時間 ( 秒 ) の合計 このの Average 統計は C5 C5d i3.metal M5 M5d インスタンスにアタッチされたボリュームには該当しません このの Minimum と Maximum 統計は C5 C5d i3.metal M5 M5d インスタンスにアタッチされたボリュームでのみサポートされます 単位 : Seconds VolumeQueueLength 指定期間内に完了を待っていた読み取りおよび書き込みの操作リクエストの数 このの Sum 統計は C5 C5d i3.metal M5 M5d インスタンスにアタッチされたボリュームには該当しません このの Minimum と Maximum 統計は C5 C5d i3.metal M5 M5d インスタンスにアタッチされたボリュームでのみサポートされます 単位 : 個 168

178 Amazon EBS のディメンション VolumeThroughputPercentage Provisioned IOPS SD ボリュームでのみ使用されます Amazon EBS ボリュームにプロビジョニングされた合計 IOPS (1 秒間あたりの I/O 操作回数 ) に対する 提供された IOPS の割合 ( パーセント ) Provisioned IOPS SD ボリュームは 1 年の 99.9 パーセントにわたり プロビジョニンド IOPS の 10 パーセント以内のパフォーマンスを提供します 書き込みの間 他に保留中の I/O リクエストが 1 分以内になければ 値は 100% となります また お客様が行ったアクション ( たとえば使用率ピーク時にボリュームのスナップショットを作成する EBS 最適化インスタンス以外でボリュームを実行する そのボリュームのデータに初めてアクセスするなど ) によってボリュームの I/O 性能が一時的に低下する場合があります 単位 : パーセント VolumeConsumedReadWriteOps Provisioned IOPS SD ボリュームでのみ使用されます 指定された期間内に消費された読み書き操作の合計数 (256K キャパシティーユニットに標準化 ) それぞれ 256K より小さい I/O 操作は 1 消費 IOPS とカウントされます 256K より大きい I/O 操作は 256K キャパシティーユニットでカウントされます たとえば 1024K I/O は 4 消費 IOPS としてカウントされます 単位 : 個 BurstBalance 汎用 SSD (gp2) スループット最適化 HDD (st1) および Cold HDD (sc1) ボリュームでのみ使用されます バーストバケットに残っている I/O クレジット (gp2 用 ) またはスループットクレジット (st1 と sc1 用 ) の割合に関する情報を提供します データは ボリュームがアクティブな場合にのみ CloudWatch に報告されます ボリュームがアタッチされていない場合 データは報告されません このの Sum 統計は C5 C5d i3.metal M5 M5d インスタンスにアタッチされたボリュームには該当しません 単位 : パーセント Amazon EBS のディメンション Amazon EBS のディメンション Amazon EBS が CloudWatch に送信するディメンションはボリューム ID のみです つまり 利用可能なすべての統計はボリューム ID でフィルタリングできます Amazon EFS のとディメンション Amazon EFS は すべての CloudWatch ファイルシステムに対して 毎分 Amazon EFS にを送信します 詳細については Amazon Elastic File System ユーザーガイドの Amazon EFS のモニタリング を参照してください 169

179 Amazon EFS の Amazon CloudWatch Amazon EFS の Amazon CloudWatch AWS/EFS 名前空間には 次のが含まれます BurstCreditBalance ファイルシステムのバーストクレジットの数 バーストクレジットによって ファイルシステムは一定の期間 ファイルシステムのベースラインレベルを超えたスループットレベルまでバーストすることができます 詳細については Amazon EFS のスループットのスケーリング を参照してください Minimum 統計は 期間中の 1 分間の最小のバーストクレジットバランスです Maximum 統計は 期間中の 1 分間の最大のバーストクレジットバランスです Average 統計は 期間中の平均のバーストクレジットバランスです 単位 : バイト 有効な統計 : Minimum Maximum Average ClientConnections ファイルシステムへのクライアント接続の数 標準クライアントを使用する場合 マウントされた Amazon EC2 インスタンスごとに 1 つの接続があります Note 1 分を超える期間の平均 ClientConnections を算出するには Sum 統計をその期間の分数で割ります 単位 : クライアント接続数 有効な統計 : Sum DataReadIOBytes 各ファイルシステムの読み込みオペレーションのバイト数 Sum 統計は読み込みオペレーションと関連付けられる総バイト数です Minimum 統計は 期間中の最小読み込みオペレーションのサイズです Maximum 統計は 期間中の最大読み込みオペレーションのサイズです Average 統計は 期間中の読み込みオペレーションの平均サイズです SampleCount 統計は読み込みオペレーションの数を提供します 単位 : Minimum Maximum Sum Average では バイトです SampleCount では 回です 有効な統計 : Minimum Maximum Average Sum SampleCount DataWriteIOBytes 各ファイルの書き込みオペレーションのバイト数 Sum 統計は書き込みオペレーションと関連付けられる総バイト数です Minimum 統計は 期間中の最小書き込みオペレーションのサイズです Maximum 統計は 期間中の最大書き込みオペレーションのサイズです Average 統計は 期間中の書き込みオペレーションの平均サイズです SampleCount 統計は書き込みオペレーションの数を提供します 170

180 Amazon EFS の Amazon CloudWatch 単位 : Minimum Maximum Average Sum 統計の単位はバイトです SampleCount では 回です 有効な統計 : Minimum Maximum Average Sum SampleCount MetadataIOBytes 各メタデータオペレーションのバイト数 Sum 統計はメタデータオペレーションと関連付けられる総バイト数です Minimum 統計は 期間中の最小メタデータオペレーションのサイズです Maximum 統計は 期間中の最大メタデータオペレーションのサイズです Average 統計は 期間中のメタデータオペレーションの平均サイズです SampleCount 統計はメタデータオペレーションの数を提供します 単位 : Minimum Maximum Average Sum 統計の単位はバイトです SampleCount では 回です 有効な統計 : Minimum Maximum Average Sum SampleCount PercentIOLimit ファイルシステムが汎用パフォーマンスモードの I/O 制限にどれだけ近づいているかを示します このが 100% になっていることが多い場合 最大 I/O パフォーマンスモードを使用したファイルシステムにアプリケーションを移行することをご検討ください Note 単位 : このは汎用パフォーマンスモードを使用したファイルシステムのみで提供されます パーセント PermittedThroughput ファイルシステムで許可される最大のスループット容量 プロビジョンドスループットモードのファイルシステムの場合 この値はプロビジョンドスループットと同じです バーストスループットモードのファイルシステムの場合 この値はファイルシステムサイズと BurstCreditBalance の関数です 詳細については Amazon EFS のパフォーマンス を参照してください Minimum 統計は 期間中の 1 分間の最小の許可されるスループットです Maximum 統計は 期間中の 1 分間の最大の許可されるスループットです Average 統計は 期間中の許可される平均スループットです 単位 : バイト / 秒 有効な統計 : Minimum Maximum Average 171

181 Amazon EFS のディメンション TotalIOBytes 読み込みデータ 書き込みデータ メタデータオペレーションを含む 各ファイルシステムオペレーションのバイト数 Sum 統計は すべてのファイルシステムオペレーションに関連付けられる総バイト数です Minimum 統計は 期間中の最小オペレーションのサイズです Maximum 統計は 期間中の最大オペレーションのサイズです Average 統計は 期間中のオペレーションの平均サイズです SampleCount 統計は すべてのオペレーションの数を提供します 単位 : Note その期間の 1 秒あたりの平均オペレーション数を算出するには SampleCount 統計をその期間の秒数で割ります その期間の平均スループット ( バイト / 秒 ) を算出するには Sum 統計をその期間の秒数で割ります Minimum Maximum Average Sum 統計では バイトです SampleCount では 回です 有効な統計 : Minimum Maximum Average Sum SampleCount Amazon EFS のディメンション Amazon EFS ディメンション Amazon EFS は EFS 名前空間を使用して 1 つのディメンションの FileSystemId を提供します ファイルシステムの ID は Amazon EFS 管理コンソールにあり その形式は fs-xxxxxxxx です Elastic Load Balancing のとディメンション Elastic Load Balancing は 3 種類のロードバランサー (Classic Load Balancer Application Load Balancer ネットワークロードバランサー ) をサポートします Elastic Load Balancing は 3 つのタイプすべてのロードバランサーのを CloudWatch に送信します コンテンツ Application Load Balancer (p. 173) Application Load Balancer のディメンション (p. 179) Network Load Balancer (p. 179) Network Load Balancer のディメンション (p. 180) Classic Load Balancer (p. 180) Classic Load Balancer のディメンション (p. 185) 172

182 Application Load Balancer Application Load Balancer AWS/ApplicationELB 名前空間には 以下のロードバランサーのが含まれます ActiveConnectionCount クライアントからロードバランサーへ およびロードバランサーからターゲットへの アクティブな同時 TCP 接続の総数 レポート条件 : ゼロ以外の値がある 統計 : 最も有用な統計は Sum です ディメンション LoadBalancer ClientTLSNegotiationErrorCount クライアントにより開始され ロードバランサーとのセッションを確立しなかった TLS 接続の数 暗号化またはプロトコルの不一致が原因である場合があります レポート条件 : ゼロ以外の値がある 統計 : 最も有用な統計は Sum です ディメンション LoadBalancer AvailabilityZone LoadBalancer ConsumedLCUs ロードバランサーが使用するロードバランサーキャパシティーユニット (LCU) の数です 1 時間当たりで使用する LCU 数の料金をお支払いいただきます 詳細については Elastic Load Balancing 料金表 を参照してください レポート条件 : 常に報告される 統計 : All ディメンション LoadBalancer HTTP_Fixed_Response_Count 成功した固定レスポンスアクションの数 レポート条件 : ゼロ以外の値がある [Statistics] ( 統計 ): 唯一意味のある統計は Sum です ディメンション LoadBalancer HTTP_Redirect_Count 成功したリダイレクトアクションの数 レポート条件 : ゼロ以外の値がある [Statistics] ( 統計 ): 唯一意味のある統計は Sum です 173

183 Application Load Balancer ディメンション LoadBalancer HTTP_Redirect_Url_Limit_Exceeded_Count レスポンスの Location ヘッダーの URL が 8K を超えているために リダイレクトアクションを完了できなかった数 レポート条件 : ゼロ以外の値がある [Statistics] ( 統計 ): 唯一意味のある統計は Sum です ディメンション LoadBalancer HTTPCode_ELB_3XX_Count ロードバランサーから送信された HTTP 3XX リダイレクトコードの数 レポート条件 : ゼロ以外の値がある [Statistics] ( 統計 ): 唯一意味のある統計は Sum です ディメンション LoadBalancer HTTPCode_ELB_4XX_Count ロードバランサーから送信される HTTP 4XX クライアントエラーコードの数 リクエストの形式が不正な場合 または不完全な場合は クライアントエラーが生成されます それらのリクエストはターゲットで受信されません この数には ターゲットによって生成される応答コードは含まれません レポート条件 : ゼロ以外の値がある 統計 : 最も有用な統計は Sum です Minimum Maximum および Average はすべては 1 を返すことに注意してください ディメンション LoadBalancer AvailabilityZone LoadBalancer HTTPCode_ELB_5XX_Count ロードバランサーから送信される HTTP 5XX サーバーエラーコードの数 この数には ターゲットによって生成される応答コードは含まれません レポート条件 : ゼロ以外の値がある 統計 : 最も有用な統計は Sum です Minimum Maximum および Average はすべては 1 を返すことに注意してください ディメンション LoadBalancer AvailabilityZone LoadBalancer 174

184 Application Load Balancer IPv6ProcessedBytes IPv6 を使用したロードバランサーによって処理される総バイト数 レポート条件 : ゼロ以外の値がある統計 : 最も有用な統計は Sum です ディメンション LoadBalancer IPv6RequestCount ロードバランサーによって受信された IPv6 リクエストの数 レポート条件 : ゼロ以外の値がある 統計 : 最も有用な統計は Sum です Minimum Maximum および Average はすべては 1 を返すことに注意してください ディメンション LoadBalancer AvailabilityZone LoadBalancer TargetGroup LoadBalancer TargetGroup AvailabilityZone LoadBalancer NewConnectionCount クライアントからロードバランサーへ およびロードバランサーからターゲットへの 新たに確立された TCP 接続の総数 レポート条件 : ゼロ以外の値がある統計 : 最も有用な統計は Sum です ディメンション LoadBalancer ProcessedBytes IPv4 および IPv6 を使用したロードバランサーによって処理される総バイト数 レポート条件 : ゼロ以外の値がある統計 : 最も有用な統計は Sum です ディメンション LoadBalancer RejectedConnectionCountロードバランサーが接続の最大数に達したため 拒否された接続の数 レポート条件 : ゼロ以外の値がある統計 : 最も有用な統計は Sum です ディメンション LoadBalancer AvailabilityZone LoadBalancer 175

185 Application Load Balancer RequestCount IPv4 および IPv6 経由で正常に処理されたリクエストの数 この数には ロードバランサーのターゲットによって生成されたレスポンスを含むリクエストのみが含まれます レポート条件 : 常に報告される統計 : 最も有用な統計は Sum です ディメンション LoadBalancer AvailabilityZone LoadBalancer TargetGroup LoadBalancer TargetGroup AvailabilityZone LoadBalancer RuleEvaluations 1 時間の平均リクエスト頻度に基づいてロードバランサーによって処理されるルールの数 レポート条件 : ゼロ以外の値がある統計 : 最も有用な統計は Sum です ディメンション LoadBalancer AWS/ApplicationELB 名前空間には 以下のターゲットのが含まれます HealthyHostCount 正常と見なされるターゲットの数 レポート条件 : 常に報告される 統計 : 最も有用な統計は Average Minimum および Maximum です ディメンション TargetGroup LoadBalancer TargetGroup AvailabilityZone LoadBalancer HTTPCode_Target_2XX_Count ターゲットによって生成された HTTPCode_Target_3XX_Count 応答コードの数 これには ロー HTTPCode_Target_4XX_Count HTTPCode_ ドバランサーによって生成される応答コードは含まれません レポート条件 : ゼロ以外の値がある 統計 : 最も有用な統計は Sum です Minimum Maximum および Average はすべては 1 を返すことに注意してください ディメンション LoadBalancer AvailabilityZone LoadBalancer TargetGroup LoadBalancer 176

186 Application Load Balancer TargetGroup AvailabilityZone LoadBalancer RequestCountPerTarget ターゲットグループ内の各ターゲットによって受信されたリクエストの平均数 TargetGroup ディメンションを使用してターゲットグループを指定する必要があります レポート条件 : 常に報告される 統計 : 有効な唯一の統計は Sum です これは合計ではなく平均を表すことに注意してください ディメンション TargetGroup TargetGroup LoadBalancer TargetConnectionErrorCount ロードバランサーとターゲット間で正常に確立されなかった接続数 レポート条件 : ゼロ以外の値がある 統計 : 最も有用な統計は Sum です ディメンション LoadBalancer AvailabilityZone LoadBalancer TargetGroup LoadBalancer TargetGroup AvailabilityZone LoadBalancer TargetResponseTime リクエストがロードバランサーから送信され ターゲットからの応答を受信するまでの経過時間 ( 秒 ) これは アクセスログの target_processing_time フィールドに相当します レポート条件 : ゼロ以外の値がある 統計 : 最も有用な統計は Average および pnn.nn ( パーセンタイル ) です ディメンション LoadBalancer AvailabilityZone LoadBalancer TargetGroup LoadBalancer TargetGroup AvailabilityZone LoadBalancer 177

187 Application Load Balancer TargetTLSNegotiationErrorCount ロードバランサーにより開始され ターゲットとのセッションを確立しなかった TLS 接続の数 暗号化またはプロトコルの不一致が原因である場合があります レポート条件 : ゼロ以外の値がある 統計 : 最も有用な統計は Sum です ディメンション LoadBalancer AvailabilityZone LoadBalancer TargetGroup LoadBalancer TargetGroup AvailabilityZone LoadBalancer UnHealthyHostCount 異常と見なされるターゲットの数 レポート条件 : 常に報告される統計 : 最も有用な統計は Average Minimum および Maximum です ディメンション TargetGroup LoadBalancer TargetGroup AvailabilityZone LoadBalancer AWS/ApplicationELB 名前空間には ユーザー認証用に以下のが含まれます ELBAuthError 認証アクションが誤って設定されたため ロードバランサーが IdP との接続を確立できなかったため またはロードバランサーが内部エラーにより認証フローを完了できなかったため 完了できなかったユーザー認証の数 レポート条件 : ゼロ以外の値がある [Statistics] ( 統計 ): 唯一意味のある統計は Sum です ディメンション : LoadBalancer ELBAuthFailure IdP がユーザーまたは承認コードへのアクセスを拒否したため または承認コードが複数回使用されため 完了できなかったユーザー認証の数 レポート条件 : ゼロ以外の値がある [Statistics] ( 統計 ): 唯一意味のある統計は Sum です ディメンション : LoadBalancer ELBAuthLatency ID トークンとユーザー情報を IdP に照会するのにかかった時間 ( ミリ秒単位 ) これらのオペレーションが 1 つ以上失敗した場合は エラーになるまでの時間です レポート条件 : ゼロ以外の値がある 178

188 Application Load Balancer のディメンション [Statistics] ( 統計 ): すべての統計は意味があります ディメンション : LoadBalancer ELBAuthSuccess 成功した認証アクションの数 ロードバランサーが IdP からユーザークレームを取得した後 認証ワークフローが終了すると このが増分されます レポート条件 : ゼロ以外の値がある 統計 : 最も有用な統計は Sum です ディメンション : LoadBalancer Application Load Balancer のディメンション Application Load Balancer のをフィルタするには 次のディメンションを使用できます ディメンション AvailabilityZone LoadBalancer TargetGroup アベイラビリティーゾーン別にデータをフィルタリングします ロードバランサーでデータをフィルタリングします ロードバランサーを次のように指定します app/ ロードバランサー名 / ( ロードバランサー ARN の最後の部分 ) ターゲットグループでデータをフィルタリングします ターゲットグループを次のように指定します targetgroup/ ターゲットグループ名 / ( ターゲットグループ ARN の最後の部分 ) Network Load Balancer AWS/NetworkELB 名前空間には 次のが含まれます ActiveFlowCount クライアントからターゲットへの同時 TCP フロー ( または接続 ) の合計数 このには SYN_SENT 状態と ESTABLISHED 状態の接続が含まれます TCP 接続はロードバランサで終了しないため ターゲットへの TCP 接続を開いているクライアントは単一のフローとしてカウントされます 統計 : 最も有用な統計は Average Maximum および Minimum です ConsumedLCUs HealthyHostCount ロードバランサーが使用するロードバランサーキャパシティーユニット (LCU) の数です 1 時間当たりで使用する LCU 数の料金をお支払いいただきます 詳細については Elastic Load Balancing 料金表 を参照してください 正常と見なされるターゲットの数 179

189 Network Load Balancer のディメンション NewFlowCount Statistics: 最も有用な統計は Maximum および Minimum です 期間内にクライアントからターゲットに確立された新しい TCP フロー ( または接続 ) の合計数 統計 : 最も有用な統計は Sum です ProcessedBytes TCP/IP ヘッダーを含む ロードバランサーによって処理された合計バイト数 統計 : 最も有用な統計は Sum です TCP_Client_Reset_Count クライアントからターゲットに送信されたリセット (RST) パケットの合計数 これらのリセットは クライアントによって生成され ロードバランサーによって転送されます 統計 : 最も有用な統計は Sum です TCP_ELB_Reset_Count ロードバランサーによって生成されたリセット (RST) パケットの合計数 統計 : 最も有用な統計は Sum です TCP_Target_Reset_Count ターゲットからクライアントに送信されたリセット (RST) パケットの合計数 これらのリセットは ターゲットによって生成され ロードバランサーによって転送されます 統計 : 最も有用な統計は Sum です UnHealthyHostCount 異常と見なされるターゲットの数 Statistics: 最も有用な統計は Maximum および Minimum です Network Load Balancer のディメンション ロードバランサーのを絞り込むには 次のディメンションを使用できます ディメンション AvailabilityZone LoadBalancer TargetGroup アベイラビリティーゾーン別にデータをフィルタリングします ロードバランサーでデータをフィルタリングします ロードバランサーを次のように指定します net/ ロードバランサー名 / ( ロードバランサー ARN の最後の部分 ) ターゲットグループでデータをフィルタリングします ターゲットグループを次のように指定します targetgroup/ ターゲットグループ名 / ( ターゲットグループ ARN の最後の部分 ) Classic Load Balancer AWS/ELB 名前空間には 次のが含まれます 180

190 Classic Load Balancer BackendConnectionErrors ロードバランサーと登録されたインスタンス間で正常に確立されなかった接続数 エラーが発生すると ロードバランサーは接続を再試行するため このカウントはリクエストレートを上回ります この数には ヘルスチェックに関連する接続エラーも含まれます レポート条件 : ゼロ以外の値がある 統計 : 最も有用な統計は Sum です Average Minimum Maximum はロードバランサーノードごとに報告されるため 通常有益ではありません ただし 最大と最小の差 ( ピーク値対平均 または平均対底値 ) は 1 つのロードバランサーノードが異常値かどうかを判断する上で有益な場合があります 例 : ロードバランサーにインスタンスがあり そのうちの 2 つのインスタンスは us-west-2a に もう 2 つのインスタンスは us-west-2b にあるとします また us-west-2a の 1 つのインスタンスへの接続を試みると バックエンド接続エラーになるとします us-west-2a の合計にはこれらの接続エラーが含まれますが us-west-2b の合計には含まれません このため ロードバランサーの合計は us-west-2a の合計と同じになります HealthyHostCount ロードバランサーに登録された 正常なインスタンスの数 新しく登録されたインスタンスは 最初のヘルスチェックに合格すると 正常な状態と見なされます クロスゾーンの負荷分散が有効な場合 すべてのアベイラビリティーゾーンにわたって LoadBalancerName ディメンションの正常なインスタンスの数が算出されます それ以外の場合 アベイラビリティーゾーンごとに計算されます レポート要件 : 登録されたインスタンスがある Statistics: 最も有用な統計は Average および Maximum です これらの統計はロードバランサーノードによって決まります 短い間 インスタンスを異常と判断するロードバランサーノードがあったり インスタンスを正常と判断するノードがあったりします 例 : ロードバランサーにインスタンスがあり そのうちの 2 つのインスタンスは us-west-2a に もう 2 つのインスタンスは uswest-2b にあるとします また us-west-2a には 1 つの異常なインスタンスがあり us-west-2b には異常なインスタンスはないとします AvailabilityZone ディメンションでは us-west-2a の正常なインスタンスの平均数は 1 異常なインスタンスの平均数は 1 uswest-2b の正常なインスタンスの平均数は 2 異常なインスタンスの平均数は 0 です HTTPCode_Backend_2XX HTTPCode_Backend_3XX [HTTP リスナー ] 登録されたインスタンスによって生成された HTTPCode_Backend_4XX HTTPCode_Backend_5XX 応答コードの数 この数には ロードバランサーによって生成される応答コードは含まれません レポート条件 : ゼロ以外の値がある 統計 : 最も有用な統計は Sum です Minimum Maximum および Average はすべて 1 です 例 : ロードバランサーにインスタンスがあり そのうちの 2 つのインスタンスは us-west-2a に もう 2 つのインスタンスは us-west-2b にあるとします また us-west-2a の 1 つのインスタンスに送信されたリク 181

191 Classic Load Balancer HTTPCode_ELB_4XX エストは HTTP 500 応答となるとします us-west-2a の合計にはこれらのエラーレスポンスが含まれますが us-west-2b の合計には含まれません このため ロードバランサーの合計は us-west-2a の合計と同じになります [HTTP リスナー ] ロードバランサーで生成される HTTP 4XX クライアントのエラーコードの数 リクエストの形式が不正な場合 または不完全な場合は クライアントエラーが生成されます レポート条件 : ゼロ以外の値がある 統計 : 最も有用な統計は Sum です Minimum Maximum および Average はすべて 1 です 例 : ロードバランサーで us-west-2a および us-west-2b が有効になっていて クライアントリクエストに正しい形式でないリクエスト URL が含まれているとします その結果 すべてのアベイラビリティーゾーンでのクライアントエラーが増加する可能性があります ロードバランサーの合計はアベイラビリティーゾーンの値の合計です HTTPCode_ELB_5XX [HTTP リスナー ] ロードバランサーで生成される HTTP 5XX サーバーのエラーコードの数 この数には 登録されたインスタンスによって生成される応答コードは含まれません ロードバランサーに登録されている正常なインスタンスがない場合 またはリクエストレートがインスタンスまたはロードバランサーの容量を超える場合 ( スピルオーバー ) このが報告されます レポート条件 : ゼロ以外の値がある 統計 : 最も有用な統計は Sum です Minimum Maximum および Average はすべて 1 です 例 : ロードバランサーで us-west-2a および us-west-2b が有効になっていて us-west-2a のインスタンスで高いレイテンシーが発生し リクエストに応答するまでに時間がかかっているとします その結果 uswest-2a のロードバランサーノードのサージキューはいっぱいになり クライアントは 503 エラーを受け取ります us-west-2b が正常に応答を継続する場合 ロードバランサーの合計は us-west-2a の場合の合計と同じになります 182

192 Classic Load Balancer Latency (HTTP リスナーの場合 ) ロードバランサーが登録済みインスタンスにリクエストを送信した時点から そのインスタンスが応答ヘッダーの送信を開始した時点までの合計経過時間 ( 秒単位 ) [TCP リスナー ] ロードバランサーが 登録済みインスタンスへの接続を正常に確立するまでの合計経過時間 ( 秒 ) レポート条件 : ゼロ以外の値がある 統計 : 最も有用な統計は Average です Maximum を使用して 一部のリクエストに平均を大幅に上回る時間がかかっているかどうかを判断します 通常 Minimum は有用ではありません 例 : ロードバランサーにインスタンスがあり そのうちの 2 つのインスタンスは us-west-2a に もう 2 つのインスタンスは us-west-2b にあるとします また us-west-2a の 1 つのインスタンスに送信されたリクエストのレイテンシーがより高いとします us-west-2a の平均値は us-west-2b の平均よりも高いとします RequestCount 指定された間隔 (1 分または 5 分 ) の間に完了したリクエストの数 または接続の数 [HTTP リスナー ] 登録されたインスタンスからの HTTP エラーレスポンスを含めて 受け取ったリクエストとルーティングされたリクエストの数 [TCP リスナー ] 登録されたインスタンスに対して行われた接続の数 レポート条件 : ゼロ以外の値がある 統計 : 最も有用な統計は Sum です Minimum Maximum および Average はすべては 1 を返すことに注意してください 例 : ロードバランサーにインスタンスがあり そのうちの 2 つのインスタンスは us-west-2a に もう 2 つのインスタンスは us-west-2b にあるとします また 100 件のリクエストがロードバランサーに送信されるとします 60 件のリクエストが us-west-2a に送信され 各インスタンスがそれぞれ 30 件のリクエストを受信します 40 件のリクエストが us-west-2b に送信され 各インスタンスがそれぞれ 20 件のリクエストを受信します AvailabilityZone ディメンションでは us-west-2a の合計リクエスト数は 60 件 us-west-2b の合計リクエスト数は 40 件です LoadBalancerName ディメンションでは 合計 100 件のリクエストがあります 183

193 Classic Load Balancer SpilloverCount サージキューがいっぱいなため 拒否されたリクエストの総数 [HTTP リスナー ] ロードバランサーは HTTP 503 エラーコードを返します [TCP リスナー ] ロードバランサーは接続を終了します レポート条件 : ゼロ以外の値がある 統計 : 最も有用な統計は Sum です Average Minimum Maximum はロードバランサーノードごとに報告されるため 通常有益ではありません 例 : ロードバランサーで us-west-2a および us-west-2b が有効になっていて us-west-2a のインスタンスで高いレイテンシーが発生し リクエストに応答するまでに時間がかかっているとします その結果 uswest-2a のロードバランサーノードのサージキューがいっぱいになり スピルオーバーが発生します us-west-2b が正常に応答を継続する場合 ロードバランサーの合計は us-west-2a の場合の合計と同じになります SurgeQueueLength 正常なインスタンスへのルーティングを保留中のリクエスト (HTTP リスナー ) または接続 (TCP リスナー ) の合計数 キューの最大サイズは 1,024 です 追加のリクエストまたは接続は キューがいっぱいになると拒否されます 詳細については SpilloverCount を参照してください レポート条件 : ゼロ以外の値がある 統計 : Maximum はキューに送信されたリクエストのピークを表すため 最も有用な統計です Average 統計は Minimum および Maximum と組み合わせて キューに送信されたリクエストの範囲を確認する場合にも有用です Sum は有用ではありません 例 : ロードバランサーで us-west-2a および us-west-2b が有効になっていて us-west-2a のインスタンスで高いレイテンシーが発生し リクエストに応答するまでに時間がかかっているとします その結果 uswest-2a のロードバランサーノードのサージキューがいっぱいになり クライアントに応答時間の増加が発生している可能性があります これが継続すると ロードバランサーにスピルオーバーが発生する可能性が高くなります (SpilloverCount を参照してください ) uswest-2b が正常に応答を継続する場合 ロードバランサーの max は uswest-2a の場合の max と同じになります 184

194 Classic Load Balancer のディメンション UnHealthyHostCount ロードバランサーに登録された 異常なインスタンスの数 インスタンスは ヘルスチェックに対して構成された異常なしきい値を超えると 異常な状態と見なされます 異常なインスタンスは ヘルスチェックに設定されている状態のしきい値を満たせば再び正常な状態と見なされます レポート要件 : 登録されたインスタンスがある Statistics: 最も有用な統計は Average および Minimum です これらの統計はロードバランサーノードによって決まります 短い間 インスタンスを異常と判断するロードバランサーノードがあったり インスタンスを正常と判断するノードがあったりします 例 : HealthyHostCount を参照してください 次のを使用して Classic Load Balancer から Application Load Balancer への移行コストを見積もることができます これらのは 単なる参考情報であり CloudWatch アラーム用に意図されたものではありません Classic Load Balancer に複数のリスナーがある場合 これらのはすべてのリスナーの集計です この見積りは 1 つのロードバランサーで 1 つのデフォルトルールと 1 つの証明書 (2K サイズ ) を使用した場合に基づいています サイズが 4K 以上の証明書を使用する場合は コストを見積もる方法として 移行ツールで Classic Load Balancer に基づいて Application Load Balancer を作成し Application Load Balancer の ConsumedLCUs をモニタリングすることをお勧めします 詳細については Classic Load Balancer から Application Load Balancer に移行する (Elastic Load Balancing ユーザーガイド ) を参照してください EstimatedALBActiveConnectionCount クライアントからロードバランサーへ およびロードバランサーからターゲットへの アクティブな同時 TCP 接続の予測数 EstimatedALBConsumedLCUs Application Load Balancer で使用されるロードバランサーキャパシティーユニット (LCU) の予測数 1 時間当たりで使用する LCU 数の料金をお支払いいただきます 詳細については Elastic Load Balancing 料金表 を参照してください EstimatedALBNewConnectionCount クライアントからロードバランサーへ およびロードバランサーからターゲットへの 新たに確立される TCP 接続の予測数 EstimatedProcessedBytes Application Load Balancer で処理されるバイトの予測数 Classic Load Balancer のディメンション Classic Load Balancer のをフィルタするには 次のディメンションを使用できます ディメンション AvailabilityZone LoadBalancerName 指定されたアベイラビリティーゾーンでデータをフィルタリングします 指定されたロードバランサーでデータをフィルタリングします 185

195 Amazon EMR Amazon EMR のとディメンション Amazon EMR (Amazon EMR) はを CloudWatch に送信します すべての Amazon EMR ジョブフローでは 5 分間隔でが自動送信されます 15 か月分のがアーカイブされ その期間が経過すると データは破棄されます 詳細については Amazon EMR 開発者ガイドの Amazon CloudWatch を使用したのモニタリング を参照してください Amazon EMR の Amazon EMR は以下のを Amazon CloudWatch に送信します AWS/ElasticMapReduce 名前空間には 次のが含まれます Note Amazon EMR はクラスターからを引き出します クラスターにアクセスできなくなると そのクラスターが再度利用できるようになるまでは報告されません 次に示すのは Hadoop の 1 です クラスターステータス IsIdle クラスターは作業を行っていないが まだ有効で課金されていることを示します タスクもジョブも実行されていない場合は 1 に設定され それ以外の場合は 0 に設定されます この値は 5 分間隔で確認され 値が 1 の場合は 確認時にクラスターがアイドル状態だったことを示します 5 分間ずっとアイドル状態だったことを示すわけではありません 誤検出を避けるには 5 分ごとの確認で 複数回連続して値が 1 の場合に通知するようアラームを指定する必要があります たとえば 30 分間にわたってこの値が 1 だった場合に通知するようアラームを指定できます ユースケース : クラスターのパフォーマンスを監視する 単位 : ブール JobsRunning クラスターの 現在実行中のジョブの数 ユースケース : クラスターの状態を監視する JobsFailed クラスターの 失敗したジョブの数 ユースケース : クラスターの状態を監視する マップ / 低減 MapTasksRunning 各ジョブの実行マップタスクの数 スケジューラーがインストールされ 複数のジョブが実行中の場合は 複数のグラフが生成されます ユースケース : クラスターの進捗状況を監視する 186

196 Amazon EMR の MapTasksRemaining 各ジョブの残存マップタスクの数 スケジューラーがインストールされ 複数のジョブが実行中の場合は 複数のグラフが生成されます 残存マップタスクとは 実行中 強制終了済み 完了済み以外の状態のものをいいます ユースケース : クラスターの進捗状況を監視する MapSlotsOpen 未使用のマップタスクの容量 指定されたクラスターのマップタスクの最大数から そのクラスターで現在実行中のマップタスクの合計数を差し引いて算出します ユースケース : クラスターのパフォーマンスを分析する RemainingMapTasksPerSlot 合計残存マップタスク数と クラスター内で使用できる合計マップスロット数の比率 ユースケース : クラスターのパフォーマンスを分析する 単位 : Ratio ReduceTasksRunning 各ジョブの実行削減タスクの数 スケジューラーがインストールされ 複数のジョブが実行中の場合は 複数のグラフが生成されます ユースケース : クラスターの進捗状況を監視する ReduceTasksRemaining 各ジョブの残存削減タスクの数 スケジューラーがインストールされ 複数のジョブが実行中の場合は 複数のグラフが生成されます ユースケース : クラスターの進捗状況を監視する ReduceSlotsOpen 未使用の削減タスクの容量 指定されたクラスターの削減タスクの最大キャパシティから そのクラスターで現在実行中の削減タスクの数を差し引いて算出します ユースケース : クラスターのパフォーマンスを分析する ノードのステータス CoreNodesRunning 動作中のコアノードの数 こののデータポイントは 対応するインスタンスグループが存在する場合にのみ報告されます ユースケース : クラスターの状態を監視する 187

197 Amazon EMR の CoreNodesPending 割り当て待機中のコアノードの数 リクエストされたすべてのコアノードが直ちに使用可能になるとは限りません このでは 保留中のリクエストを報告します こののデータポイントは 対応するインスタンスグループが存在する場合にのみ報告されます ユースケース : クラスターの状態を監視する LiveDataNodes Hadoop から処理を受け取るデータノードの割合 ユースケース : クラスターの状態を監視する 単位 : Percent TaskNodesRunning 動作中のタスクノードの数 こののデータポイントは 対応するインスタンスグループが存在する場合にのみ報告されます ユースケース : クラスターの状態を監視する TaskNodesPending 割り当て待機中のコアノードの数 リクエストされたすべてのタスクノードが直ちに使用可能になるとは限りません このでは 保留中のリクエストを報告します こののデータポイントは 対応するインスタンスグループが存在する場合にのみ報告されます ユースケース : クラスターの状態を監視する LiveTaskTrackers 機能しているタスクトラッカーの割合 ユースケース : クラスターの状態を監視する 単位 : Percent IO S3BytesWritten Amazon S3 への書き込みバイト数 このでは MapReduce ジョブのみが集計され EMR の他のワークロードには適用されません ユースケース : クラスターのパフォーマンスを分析し クラスターの進捗状況を監視する 188

198 Amazon EMR の S3BytesRead Amazon S3 からの読み込みバイト数 このでは MapReduce ジョブのみが集計され EMR の他のワークロードには適用されません ユースケース : クラスターのパフォーマンスを分析し クラスターの進捗状況を監視する HDFSUtilization 現在使用されている HDFS ストレージの割合 ユースケース : クラスターのパフォーマンスを分析する 単位 : Percent HDFSBytesRead HDFS からの読み込みバイト数 ユースケース : クラスターのパフォーマンスを分析し クラスターの進捗状況を監視する 単位 : Bytes HDFSBytesWritten HDFS への書き込みバイト数 ユースケース : クラスターのパフォーマンスを分析し クラスターの進捗状況を監視する 単位 : Bytes MissingBlocks HDFS にレプリカがないブロックの数 これらのブロックは破損している可能性があります ユースケース : クラスターの状態を監視する TotalLoad クラスタ内のすべての DataNode によって報告されたリーダーとライターの現在の合計数 ユースケース : 高い I/O がジョブ実行パフォーマンスの低下につながる可能性の度合いを診断します DataNode デーモンを実行しているワーカーノードは Map タスクと Reduce タスクも実行する必要があります 長い時間が経過しても TotalLoad 値が永続的に高い場合は 高い I/O がパフォーマンス低下の原因となる可能性があることを示します この値の一時的なスパイクは一般的なものであり 通常問題を示すものではありません HBase 189

199 Amazon EMR の BackupFailed 前回のバックアップに失敗したかどうか デフォルトでは 0 に設定されており 前回のバックアップが失敗した場合は 1 に更新されます このは HBase クラスターについてのみ報告されます ユースケース : HBase バックアップを監視する MostRecentBackupDuration 前回のバックアップが完了するのにかかった時間 このは 前回完了したバックアップが成功したか失敗したかに関係なく設定され このは バックアップの進行中に バックアップが開始してからの分数を返します このは HBase クラスターについてのみ報告されます ユースケース : HBase バックアップを監視する 単位 : Minutes TimeSinceLastSuccessfulBackup クラスターで前回成功した HBase バックアップが開始してから経過した分数 このは HBase クラスターについてのみ報告されます ユースケース : HBase バックアップを監視する 単位 : Minutes 次のは Hadoop 2 AMI で使用できます クラスターステータス IsIdle クラスターは作業を行っていないが まだ有効で課金されていることを示します タスクもジョブも実行されていない場合は 1 に設定され それ以外の場合は 0 に設定されます この値は 5 分間隔で確認され 値が 1 の場合は 確認時にクラスターがアイドル状態だったことを示します 5 分間ずっとアイドル状態だったことを示すわけではありません 誤検出を避けるには 5 分ごとの確認で 複数回連続して値が 1 の場合に通知するようアラームを指定する必要があります たとえば 30 分間にわたってこの値が 1 だった場合に通知するようアラームを指定できます ユースケース : クラスターのパフォーマンスを監視する 単位 : ブール ContainerAllocated ResourceManager によって割り当てられるリソースコンテナの数 ユースケース : クラスターの進捗状況を監視する ContainerReserved 予約されているコンテナの数 190

200 Amazon EMR の ユースケース : クラスターの進捗状況を監視する ContainerPending キュー内にあり まだ割り当てられていないコンテナの数 ユースケース : クラスターの進捗状況を監視する ContainerPendingRatio 割り当てられたコンテナに対する保留中のコンテナの比率 (ContainerPendingRatio = ContainerPending/ ContainerAllocated) ContainerAllocated = 0 の場合は ContainerPendingRatio = ContainerPending になります ContainerPendingRatio の値は 割合 (%) ではなく数値を表します この値は コンテナ割り当て動作に基づくクラスターリソースのスケーリングに役立ちます AppsCompleted YARN に送信され 完了したアプリケーションの数 ユースケース : クラスターの進捗状況を監視する AppsFailed YARN に送信され 完了できなかったアプリケーションの数 ユースケース : クラスターの進捗状況を監視し クラスターの状態を監視する AppsKilled YARN に送信され 強制終了されたアプリケーションの数 ユースケース : クラスターの進捗状況を監視し クラスターの状態を監視する AppsPending YARN に送信され 保留状態になっているアプリケーションの数 ユースケース : クラスターの進捗状況を監視する AppsRunning YARN に送信され 実行中であるアプリケーションの数 ユースケース : クラスターの進捗状況を監視する AppsSubmitted YARN に送信されたアプリケーションの数 ユースケース : クラスターの進捗状況を監視する 191

201 Amazon EMR の ノードのステータス CoreNodesRunning 動作中のコアノードの数 こののデータポイントは 対応するインスタンスグループが存在する場合にのみ報告されます ユースケース : クラスターの状態を監視する CoreNodesPending 割り当て待機中のコアノードの数 リクエストされたすべてのコアノードが直ちに使用可能になるとは限りません このでは 保留中のリクエストを報告します こののデータポイントは 対応するインスタンスグループが存在する場合にのみ報告されます ユースケース : クラスターの状態を監視する LiveDataNodes Hadoop から処理を受け取るデータノードの割合 ユースケース : クラスターの状態を監視する 単位 : Percent MRTotalNodes MapReduce ジョブで現在使用できるノードの数 YARN mapred.resourcemanager.totalnodes と同等 ユースケース : クラスターの進捗状況を監視する MRActiveNodes MapReduce のタスクまたはジョブを現在実行しているノードの数 YARN mapred.resourcemanager.noofactivenodes と同等 ユースケース : クラスターの進捗状況を監視する MRLostNodes MapReduce に割り当てられており LOST 状態としてマークされているノードの数 YARN mapred.resourcemanager.nooflostnodes と同等 ユースケース : クラスターの状態を監視し クラスターの進捗状況を監視する MRUnhealthyNodes MapReduce ジョブで使用でき UNHEALTHY 状態としてマークされているノードの数 YARN mapred.resourcemanager.noofunhealthynodes と同等 ユースケース : クラスターの進捗状況を監視する 192

202 Amazon EMR の MRDecommissionedNodes MapReduce アプリケーションに割り当てられており DECOMMISSIONED 状態としてマークされているノードの数 YARN mapred.resourcemanager.noofdecommissionednodes と同等 ユースケース : クラスターの状態を監視し クラスターの進捗状況を監視する MRRebootedNodes MapReduce で使用でき 再起動され REBOOTED 状態としてマークされているノードの数 YARN mapred.resourcemanager.noofrebootednodes と同等 ユースケース : クラスターの状態を監視し クラスターの進捗状況を監視する IO S3BytesWritten Amazon S3 への書き込みバイト数 ユースケース : クラスターのパフォーマンスを分析し クラスターの進捗状況を監視する S3BytesRead Amazon S3 からの読み込みバイト数 ユースケース : クラスターのパフォーマンスを分析し クラスターの進捗状況を監視する HDFSUtilization 現在使用されている HDFS ストレージの割合 ユースケース : クラスターのパフォーマンスを分析する 単位 : Percent HDFSBytesRead HDFS からの読み込みバイト数 このでは MapReduce ジョブのみが集計され EMR の他のワークロードには適用されません ユースケース : クラスターのパフォーマンスを分析し クラスターの進捗状況を監視する 193

203 Amazon EMR の HDFSBytesWritten HDFS への書き込みバイト数 このでは MapReduce ジョブのみが集計され EMR の他のワークロードには適用されません ユースケース : クラスターのパフォーマンスを分析し クラスターの進捗状況を監視する MissingBlocks HDFS にレプリカがないブロックの数 これらのブロックは破損している可能性があります ユースケース : クラスターの状態を監視する CorruptBlocks HDFS が破損しているものと報告するブロックの数 ユースケース : クラスターの状態を監視する TotalLoad 同時データ転送数の合計 ユースケース : クラスターの状態を監視する MemoryTotalMBMemoryTotalMB クラスターでのメモリの合計量 ユースケース : クラスターの進捗状況を監視する 単位 : Bytes MemoryReservedMB 予約されているメモリの量 ユースケース : クラスターの進捗状況を監視する 単位 : Bytes MemoryAvailableMB 割り当てに使用できるメモリの量 ユースケース : クラスターの進捗状況を監視する 単位 : Bytes YARNMemoryAvailablePercentage MemoryAllocatedMB YARN に対する利用可能な残りのメモリの割合 (YARNMemoryAvailablePercentage = MemoryAvailableMB / MemoryTotalMB) この値は YARN のメモリの使用状況に基づくクラスターリソースのスケーリングに役立ちます クラスターに割り当てられているメモリの量 ユースケース : クラスターの進捗状況を監視する 単位 : Bytes 194

204 Amazon EMR の PendingDeletionBlocks 削除用にマークされているブロックの数 ユースケース : クラスターの進捗状況を監視し クラスターの状態を監視する UnderReplicatedBlocks 1 回以上レプリケートする必要があるブロックの数 ユースケース : クラスターの進捗状況を監視し クラスターの状態を監視する DfsPendingReplicationBlocks ブロックレプリケーションのステータス : レプリケーション中のブロック レプリケーションリクエストの有効期間 および成功しなかったレプリケーションリクエスト ユースケース : クラスターの進捗状況を監視し クラスターの状態を監視する CapacityRemainingGB 残りの HDFS ディスク容量の合計 ユースケース : クラスターの進捗状況を監視し クラスターの状態を監視する 単位 : Bytes HBase H ベースのバックアップに失敗 前回のバックアップに失敗したかどうか デフォルトでは 0 に設定されており 前回のバックアップが失敗した場合は 1 に更新されます このは HBase クラスターについてのみ報告されます ユースケース : HBase バックアップを監視する MostRecentBackupDuration 前回のバックアップが完了するのにかかった時間 このは 前回完了したバックアップが成功したか失敗したかに関係なく設定され このは バックアップの進行中に バックアップが開始してからの分数を返します このは HBase クラスターについてのみ報告されます ユースケース : HBase バックアップを監視する 単位 : Minutes TimeSinceLastSuccessfulBackup クラスターで前回成功した HBase バックアップが開始してから経過した分数 このは HBase クラスターについてのみ報告されます ユースケース : HBase バックアップを監視する 単位 : Minutes 195

205 Amazon EMR ディメンション Amazon EMR ディメンション Amazon EMR では以下のディメンションが利用可能です ディメンション JobFlowId JobId クラスター別の識別子 (j-xxxxxxxxxxxxx 形式 ) であるクラスター ID と同じです この値を見つけるには Amazon EMR コンソールでクラスターをクリックします クラスター内のジョブの識別子 この識別子を使用してクラスターから返されたをフィルタ処理し クラスター内の 1 つのジョブに適用されるに絞り込みます JobId では job_xxxxxxxxxxxx_xxxx という書式が使用されます Amazon Elasticsearch Service のとディメンション Amazon Elasticsearch Service は毎分 CloudWatch にデータを送信します Amazon Elasticsearch Service のとディメンション (p. 196) を使ってアラームを作成できます 詳細については Amazon Elasticsearch Service 開発者ガイドの Amazon CloudWatch を使用した クラスターと統計情報の監視 を参照してください Amazon Elasticsearch Service の AWS/ES 名前空間には 次のクラスターのが含まれます ClusterStatus.green すべてのインデックスのシャードがクラスターのノードに割り当てられることを示します 関連する統計 : Minimum Maximum ClusterStatus.yellow すべてのインデックスのプライマリシャードがクラスターのノードに割り当てられていることを示しますが 少なくとも 1 つのインデックスのレプリカシャードは割り当てられていません レプリカを割り当てることができる 2 番目のノードがないため 単一ノードクラスターがこのクラスター状態に常に初期化します 緑のクラスター状態を取得するためにノード数を増やすか Elasticsearch API を使用して number_of_replicas を設定し インデックス用に 0 にすることができます 詳細については Amazon Elasticsearch Service ドメインの設定 を参照してください 関連する統計 : Minimum Maximum ClusterStatus.red 少なくとも 1 つのインデックスのプライマリとレプリカの両方のシャードが クラスターのノードに割り当てられないことを示します 復旧するには インデックスを削除するかスナップショットを復元します 次に EBS ベースのストレージを追加するか より大きなインスタンスタイプを使用するか インスタンスを追加します 詳細については Red Cluster Status を参照してください 196

206 Amazon Elasticsearch Service の 関連する統計 : Minimum Maximum Nodes Amazon ES クラスターのノード数 ( 例 : 専用マスターノード ) 関連する統計 : Minimum Maximum Average SearchableDocuments クラスター内のすべてのインデックスで検索可能なドキュメントの合計数 関連する統計 : Minimum Maximum Average DeletedDocuments クラスター内のすべてのインデックスで削除対象としてマークされたドキュメントの合計数 これらのドキュメントは検索結果に表示されなくなっていますが セグメントマージ中にディスクから削除されたドキュメントのみが Elasticsearch によって削除されます このは 削除リクエスト後に増加し セグメントマージ後に減少します 関連する統計 : Minimum Maximum Average CPUUtilization クラスター内のデータノードで使用する CPU リソースの最大パーセンテージ 関連する統計 : Maximum Average FreeStorageSpace クラスター内のノードの空き容量 ( メガバイト単位 ) Sum は クラスターの合計空き容量を示します Minimum Maximum および Average は 個々のノードの空き容量を示します が 0 に到達すると Amazon ES は ClusterBlockException をスローします 復旧するには インデックスを削除する より大きなインスタンスを追加する 既存のインスタンスに EBS ベースのストレージを追加する のいずれかを実行する必要があります 詳細については 空きストレージ領域の不足からの復旧 を参照してください Note FreeStorageSpace は Elasticsearch _cluster/stats API が提供する値より常に低くなります Amazon ES は 内部オペレーションのために 各インスタンスの記憶域の一定割合を予約します 関連する統計 : Minimum Maximum Average Sum ClusterUsedSpace クラスター用の合計使用領域 ( メガバイト単位 ) Amazon CloudWatch コンソールでこのを表示できますが Amazon ES コンソールでは表示できません 関連する統計 : Minimum Maximum 197

207 Amazon Elasticsearch Service の ClusterIndexWritesBlocked クラスターで 着信する書き込みリクエストを受け入れるか ブロックするかを指定します 値 0 では クラスターでリクエストを受け入れます 値 1 ではリクエストをブロックします クラスターでリクエストをブロックする原因としては 多くの要素が考えられます 代表的なものとしては FreeStorageSpace が少なすぎる JVMMemoryPressure が高すぎる CPUUtilization が高すぎるなどがあります この問題を軽減するには ディスク容量の追加やクラスターのスケーリングを検討します 関連する統計 : Maximum Note このは Amazon CloudWatch コンソールでは表示できますが Amazon ES コンソールでは表示できません JVMMemoryPressure クラスター内のすべてのデータノードで使用する Java ヒープの最大パーセンテージ 関連する統計 : Maximum AutomatedSnapshotFailure クラスターの失敗した自動スナップショットの数 1 の値は 自動スナップショットが過去 36 時間 ドメイン用に取られなかったことを示します 関連する統計 : Minimum Maximum CPUCreditBalance クラスター内の データノードに使用できる残りの CPU クレジット CPU クレジットは フル CPU パフォーマンスを 1 分間実現します 詳細については Amazon EC2 開発者ガイド の CPU クレジット を参照してください このは t2.micro.elasticsearch t2.small.elasticsearch t2.medium.elasticsearch インスタンスタイプでのみ使用できます 関連する統計 : Minimum KibanaHealthyNodes Kibana のヘルスチェック 値 1 は正常な動作を示します 値 0 は Kibana がアクセス不可であることを示します 通常 Kibana の状態はクラスターの状態を反映しています 関連する統計 : Minimum Note このは Amazon CloudWatch コンソールでは表示できますが Amazon ES コンソールでは表示できません KMSKeyError 値 1 は 保管時のデータを暗号化するために使用される KMS カスタマーマスターが無効になっていることを示します 通常のオペレーションにドメインを復元するには キーを再度有効にします コンソールでは 保管時のデータを暗号化するドメインに対してのみ このが表示されます 関連する統計 : Minimum Maximum 198

208 Amazon Elasticsearch Service の KMSKeyInaccessible 値 1 は 保管時のデータを暗号化するために使用される KMS カスタマーマスターが削除されたか Amazon ES への権限が取り消し済みであることを示します この状態にあるドメインを復元することはできません ただし 手動のスナップショットがある場合は それを使用してドメインのデータを新しいドメインに移行できます コンソールでは 保管時のデータを暗号化するドメインに対してのみこのが表示されます 関連する統計 : Minimum Maximum InvalidHostHeaderRequestsElasticsearch クラスターに対する HTTP リクエストのうち ホストヘッダーが無効な ( または欠落している ) ものの数 有効なリクエストのホストヘッダー値としてドメインのエンドポイントが必要です このの値が大きい場合は Elasticsearch クライアントでリクエストのホストヘッダー値が正しいことを確認してください 正しくない場合 Amazon ES はリクエストを拒否します 署名付きリクエストを要求するようにドメインのアクセスポリシーを更新することもできます 関連する統計 : Sum ElasticsearchRequests Elasticsearch クラスターに対するリクエストの数 関連する統計 : Sum RequestCount ドメインへのリクエストの数と 各リクエストの HTTP レスポンスコード (2xx 3xx 4xx 5xx) 関連する統計 : Sum AWS/ES 名前空間には専用マスターノードの次のが含まれます MasterCPUUtilization 専用マスターノードが使用する CPU リソースの最大パーセンテージ このが 60 パーセントに達する場合 インスタンスタイプのサイズを増やすことをお勧めします 関連する統計 : Average MasterFreeStorageSpace このは関係ないため無視できます このサービスはデータノードとしてマスターノードを使用しません MasterJVMMemoryPressure クラスター内のすべての専用マスターノードで使用する Java ヒープの最大パーセンテージ このが 85 パーセントに達する場合 より大規模なインスタンスタイプに移行することをお勧めします 関連する統計 : Maximum MasterCPUCreditBalance クラスター内の専用マスターノードで使用できる 残りの CPU クレジット CPU クレジットは フル CPU パフォーマンスを 1 分間実現します 詳細については CPU クレジット (Linux インスタンス用 Amazon EC2 ユーザーガイド ) を参照してください このは t2.micro.elasticsearch t2.small.elasticsearch t2.medium.elasticsearch インスタンスタイプでのみ使用できます 199

209 Amazon Elasticsearch Service のディメンション 関連する統計 : Minimum MasterReachableFromNode MasterNotDiscovered 例外のヘルスチェック 値 1 は正常な動作を示します 値 0 は /_cluster/health/ の動作が正常ではないことを示します 動作が正常でないとは マスターノードが停止しているか 到達不可能であることを意味します 通常 これらの原因はネットワーク接続または AWS 依存関係の問題です 関連する統計 : Minimum Note このは Amazon CloudWatch コンソールでは表示できますが Amazon ES コンソールでは表示できません AWS/ES 名前空間には 次の EBS ボリュームのが含まれます ReadLatency EBS ボリュームでの読み取り操作のレイテンシー ( 秒単位 ) 関連する統計 : Minimum Maximum Average WriteLatency EBS ボリュームでの書き込み操作のレイテンシー ( 秒単位 ) 関連する統計 : Minimum Maximum Average ReadThroughput EBS ボリュームでの読み取り操作のスループット ( バイト / 秒単位 ) 関連する統計 : Minimum Maximum Average WriteThroughput EBS ボリュームでの書き込み操作のスループット ( バイト / 秒単位 ) 関連する統計 : Minimum Maximum Average DiskQueueDepth EBS ボリュームに対する保留中の入出力 (I/O) リクエストの数 関連する統計 : Minimum Maximum Average ReadIOPS EBS ボリュームでの読み取り操作の入出力 (I/O) 操作数 (1 秒あたり ) 関連する統計 : Minimum Maximum Average WriteIOPS EBS ボリュームでの書き込み操作の入出力 (I/O) 操作数 (1 秒あたり ) 関連する統計 : Minimum Maximum Average Amazon Elasticsearch Service のディメンション をフィルタリングするために以下のディメンションを使用します 200

210 Elastic Transcoder ディメンション ClientId AWS アカウント ID DomainName 検索ドメイン名 Amazon Elastic Transcoder のとディメンション Amazon Elastic Transcoder を操作するとき 以下のが 1 分間隔で CloudWatch に送信されます Elastic Transcoder AWS/ElasticTranscoder 名前空間には 次のが含まれます Billed HD Output パイプラインの HD 出力の課金可能な秒数 有効なディメンション : PipelineId 単位 : 秒 Billed SD Output パイプラインの SD 出力の課金可能な秒数 有効なディメンション : PipelineId 単位 : 秒 Billed Audio Output パイプラインのオーディオ出力の課金可能な秒数 有効なディメンション : PipelineId 単位 : 秒 Jobs Completed このパイプラインで完了したジョブの数 有効なディメンション : PipelineId 単位 : 個 Jobs Errored 指定された入力バケットにないファイルを変換するリクエストなど 無効な入力のために失敗したジョブの数 有効なディメンション : PipelineId 単位 : 個 Outputs per Job ジョブのために Elastic Transcoder が作成した出力の数 有効なディメンション : PipelineId 単位 : 個 201

211 Elastic Transcoder のディメンション Standby Time Elastic Transcoder がジョブの変換を開始する前の秒数 有効なディメンション : PipelineId 単位 : 秒 Errors ジョブ ID を含まないジョブステータスへのリクエストなど 無効なオペレーションパラメーターによって発生したエラーの数 有効なディメンション : オペレーション 単位 : 個 Throttles Elastic Transcoder が自動的にオペレーションを調整した回数 有効なディメンション : オペレーション 単位 : 個 Elastic Transcoder のディメンション Elastic Transcoder は Elastic Transcoder 名前空間を使用し 以下の項目のを提供しています ディメンション PipelineId Operation パイプラインの ID このディメンションを指定すると リクエストしたデータをフィルタリングして Elastic Transcoder パイプラインを抽出することができます このディメンションを指定すると リクエストしたデータがフィルタリングされて Elastic Transcoder が提供する API だけになります Amazon GameLift のとディメンション フリートの Amazon GameLift AWS/GameLift 名前空間には フリート全体またはフリートグループにまたがるアクティビティに関する以下のが含まれます Amazon GameLift サービスは CloudWatch に毎分を送信します インスタンス ActiveInstances ACTIVE ステータスのインスタンスの数 このステータスは アクティブなサーバープロセスを実行中であるこ 202

212 フリートの Amazon GameLift とを示します 数値には アイドル状態のインスタンスや 1 つ以上のゲームセッションをホストしているインスタンスが含まれます このでは インスタンスの現在の総容量を測定します このは Auto Scaling で使用できます 関連する CloudWatch 統計 : Average Minimum Maximum DesiredInstances Amazon GameLift でフリートに保持しようとしているアクティブなインスタンスの目標数 Auto Scaling を使用している場合 この値は現在有効なスケーリングポリシーに基づいて決定されます Auto Scaling を使用していない場合 この値は手動で設定します このは フリートグループのデータの表示には使用できません 関連する CloudWatch 統計 : Average Minimum Maximum IdleInstances 現在ホストしているゲームセッション数が 0 ( ゼロ ) であるアクティブなインスタンス このでは 使用可能であるが使用されていない容量を測定します このは Auto Scaling で使用できます 関連する CloudWatch 統計 : Average Minimum Maximum MaxInstances フリートで許容されるインスタンスの最大数 フリートのインスタンスの最大数により 手動または自動で容量をスケールアップする上限が決まります このは フリートグループのデータの表示には使用できません 関連する CloudWatch 統計 : Average Minimum Maximum MinInstances インスタンスで許容されるインスタンスの最小数 フリートのインスタンスの最小数により 手動または自動で容量をスケールダウンする下限が決まります このは フリートグループのデータの表示には使用できません 関連する CloudWatch 統計 : Average Minimum Maximum 203

213 フリートの Amazon GameLift PercentIdleInstances すべてのアイドル状態のアクティブなインスタンスのパーセント (IdleInstances / ActiveInstances で計算 ) このは Auto Scaling で使用できます 単位 : パーセント 関連する CloudWatch 統計 : Average Minimum Maximum InstanceInterruptions 中断されたスポットインスタンス数 関連する CloudWatch 統計 : Sum Average Minimum Maximum サーバープロセス ActiveServerProcesses ACTIVE ステータスのサーバープロセス このステータスは プロセスが実行中でゲームセッションをホストできることを示します 数値には アイドル状態のサーバープロセスやゲームセッションをホストしているサーバープロセスが含まれます このでは サーバープロセスの現在の総容量を測定します 関連する CloudWatch 統計 : Average Minimum Maximum HealthyServerProcesses 正常な状態を示しているアクティブなサーバープロセス このは フリートのゲームサーバーの全体的な状態を追跡するのに役立ちます 関連する CloudWatch 統計 : Average Minimum Maximum PercentHealthyServerProcesses 正常な状態を示しているすべてのアクティブなサーバープロセスのパーセント (HealthyServerProcesses / ActiveServerProcesses で計算 ) 単位 : パーセント 関連する CloudWatch 統計 : Average Minimum Maximum ServerProcessAbnormalTerminations 前回のレポート以降に異常事態のためにシャットダウンされたサーバープロセス このには Amazon GameLift サービス主導の終了が含まれます これは サーバープロセスが応答を停止した場合 継続的にヘルスチェックの失敗をレポートする場合 ま 204

214 フリートの Amazon GameLift たは ProcessEnding () の呼び出しで正常に終了しない場合に発生します 関連する CloudWatch 統計 : Sum Average Minimum Maximum ServerProcessActivations 前回のレポート以降に ACTIVATING から ACTIVE のステータスに正常に移行したサーバープロセス サーバープロセスは アクティブになるまでゲームセッションをホストすることはできません 関連する CloudWatch 統計 : Sum Average Minimum Maximum ServerProcessTerminations 前回のレポート以降にシャットダウンされたサーバープロセス これには プロセスの正常または異常な終了を問わず 何らかの理由で TERMINATED ステータスに移行したすべてのサーバープロセスが含まれます 関連する CloudWatch 統計 : Sum Average Minimum Maximum ゲームセッション ActivatingGameSessions ACTIVATING ステータスのゲームセッション このステータスは セッションが起動中であることを示します ゲームセッションは アクティブになるまでプレーヤーをホストすることはできません 起動時間が長引く場合 セッションは ACTIVATING から ACTIVE ステータスに移行していない可能性があります このは Auto Scaling で使用できます 関連する CloudWatch 統計 : Average Minimum Maximum ActiveGameSessions Active ステータスのゲームセッション このステータスは セッションでプレーヤーをホストできること およびゼロ個以上のプレーヤーをホストしていることを示します このでは 現在ホストされているゲームセッションの総数を測定します このは Auto Scaling で使用できます 205

215 フリートの Amazon GameLift AvailableGameSessions 関連する CloudWatch 統計 : Average Minimum Maximum 現在使用されていないアクティブで正常なサーバープロセスのゲームセッションスロット このでは すぐに開始できる新しいゲームセッションの数を測定します このは Auto Scaling で使用できます 関連する CloudWatch 統計 : Average Minimum Maximum PercentAvailableGameSessions 現在使用されていないすべてのアクティブなサーバープロセス ( 正常または異常を問わない ) のゲームセッションスロットのパーセント (AvailableGameSessions / [ActiveGameSessions + AvailableGameSessions + unhealthy server processes] で計算 ) このは Auto Scaling で使用できます 単位 : パーセント 関連する CloudWatch 統計 : Maximum Average GameSessionInterruptions 中断されたスポットインスタンスのゲームセッション数 関連する CloudWatch 統計 : Sum Average Minimum Maximum プレイヤーセッション CurrentPlayerSessions ステータスが ACTIVE ( プレイヤーはアクティブなゲームセッションに接続されている ) であるか RESERVED ( プレイヤーはゲームセッションのスロットを与えられているが まだ接続されていない ) であるプレイヤーセッション このは Auto Scaling で使用できます 関連する CloudWatch 統計 : Average Minimum Maximum PlayerSessionActivations 前回のレポート以降に RESERVED から ACTIVE ステータスに移行したプレーヤーセッション これは プレイヤーがアクティブなゲームセッションに正常に接続した場合に発生します 206

216 キューの Amazon GameLift 関連する CloudWatch 統計 : Sum Average Minimum Maximum キューの Amazon GameLift GameLift 名前空間には ゲームセッション配置キュー全体のアクティビティに関する以下のが含まれます Amazon GameLift サービスは CloudWatch に毎分を送信します AverageWaitTime ゲームセッション配置キューで PENDING ステータスのリクエストが実行されるまでの平均待機時間 単位 : Seconds 関連する CloudWatch 統計 : Average Minimum Maximum Sum FirstChoiceNotViable 第 1 選択のフリートが有効ではない ( 中断率の高いスポットフリートなどである ) と判断されたために 別のフリートに正常に配置されたゲームセッション 第 1 選択のフリートは キューの先頭のフリートです または 配置リクエストにプレイヤーレイテンシーデータが含まれている場合は の優先度設定に従って最初に選択されたフリートです 関連する CloudWatch 統計 : Average Minimum Maximum Sum FirstChoiceOutOfCapacity 第 1 選択のフリートに使用可能なリソースがないために 別のフリートに正常に配置されたゲームセッション 第 1 選択のフリートは キューの先頭のフリートです または 配置リクエストにプレイヤーレイテンシーデータが含まれている場合は の優先度設定に従って最初に選択されたフリートです 関連する CloudWatch 統計 : Average Minimum Maximum Sum LowestLatencyPlacement プレイヤーに対してキューの最低のレイテンシーを提供するリージョンに正常に配置されたゲームセッション このは 配置リクエストにの優先度設定をトリガーするプレイヤーレイテンシーデータが含まれている場合にのみ生成されます 関連する CloudWatch 統計 : Average Minimum Maximum Sum 207

217 キューの Amazon GameLift LowestPricePlacement 選択したリージョンでキューの料金が最低であるフリートに正常に配置されたゲームセッション ( の優先度設定では 最初にプレイヤーに対するレイテンシーが最低のリージョンを選択し 次にそのリージョン内でコストが最低のフリートを見つけます ) このフリートは スポットフリートであるか キューにスポットインスタンスがない場合はオンデマンドインスタンスになります このは 配置リクエストにプレイヤーレイテンシーデータが含まれている場合にのみ生成されます 関連する CloudWatch 統計 : Average Minimum Maximum Sum Placement <region name> 指定したリージョン内のフリートに正常に配置されたゲームセッション このは PlacementsSucceeded のリージョン別内訳を示します 関連する CloudWatch 統計 : Sum PlacementsCanceled 前回のレポート以降に タイムアウト前にキャンセルされたゲームセッション配置リクエスト 関連する CloudWatch 統計 : Average Minimum Maximum Sum PlacementsFailed 前回のレポート以降に何らかの理由で失敗したゲームセッション配置リクエスト 関連する CloudWatch 統計 : Average Minimum Maximum Sum PlacementsStarted 前回のレポート以降にキューに追加された新しいゲームセッション配置リクエスト 関連する CloudWatch 統計 : Average Minimum Maximum Sum PlacementsSucceeded 前回のレポート以降に新しいゲームセッションとなったゲームセッション配置リクエスト 関連する CloudWatch 統計 : Average Minimum Maximum Sum 208

218 マッチメーキングの Amazon GameLift PlacementsTimedOut 前回のレポート以降に キューのタイムアウト制限に達して実行されなかったゲームセッション配置リクエスト 関連する CloudWatch 統計 : Average Minimum Maximum Sum QueueDepth キュー内で PENDING ステータスのゲームセッション配置リクエストの数 関連する CloudWatch 統計 : Average Minimum Maximum Sum マッチメーキングの Amazon GameLift GameLift 名前空間には マッチメーキング設定とマッチメーキングルールのマッチメーキングアクティビティに関するが含まれます Amazon GameLift サービスは CloudWatch に毎分を送信します マッチメーキングアクティビティのシーケンスの詳細については Amazon GameLift FlexMatch の仕組み を参照してください マッチメーキング設定 CurrentTickets マッチメーキングリクエストは現在処理中であるか 処理の待機中です 関連する CloudWatch 統計 : Average Minimum Maximum Sum MatchAcceptancesTimedOut 承諾を要求するマッチメーキング設定の場合 前回のレポート後に承諾プロセス中にタイムアウトしたマッチング案の数 関連する CloudWatch 統計 : Sum MatchesAccepted 承諾を要求するマッチメーキング設定の場合 前回のレポート後に承諾されたマッチング案の数 関連する CloudWatch 統計 : Sum MatchesCreated 前回のレポート後に作成された可能性のあるマッチング案の数 209

219 マッチメーキングの Amazon GameLift 関連する CloudWatch 統計 : Sum MatchesPlaced 前回のレポート後にゲームセッションに正常に配置されたマッチング案の数 関連する CloudWatch 統計 : Sum MatchesRejected 承諾を要求するマッチメーキング設定の場合 前回のレポート後に少なくも 1 人のプレイヤーによって却下された可能性のあるマッチング案の数 関連する CloudWatch 統計 : Sum PlayersStarted 前回のレポート後に追加されたマッチメーキングチケットのプレイヤーの数 関連する CloudWatch 統計 : Sum TicketsFailed 前回のレポート後に マッチメーキングリクエストが失敗した数 関連する CloudWatch 統計 : Sum TicketsStarted 前回のレポート後に作成された新しいマッチメーキングリクエスト 関連する CloudWatch 統計 : Sum TicketsTimedOut 前回のレポート後に タイムアウトしたマッチメーキングリクエストの数 関連する CloudWatch 統計 : Sum TimeToMatch 前回のレポート以前にマッチング候補に配置されたマッチメーキングリクエストの場合 チケットの作成からマッチング候補の作成までの時間 単位 : Seconds 関連する CloudWatch 統計 : Data Samples Average Minimum Maximum p99 210

220 Amazon GameLift のディメンション TimeToTicketCancel 前回のレポート前にキャンセルされたマッチメーキングリクエストの場合 チケットの作成からキャンセルまでの時間 単位 : Seconds 関連する CloudWatch 統計 : Data Samples Average Minimum Maximum p99 TimeToTicketSuccess 前回のレポート前に成功したマッチメーキングリクエストの場合 チケットの作成からマッチングが正常に配置されるまでの時間 単位 : Seconds 関連する CloudWatch 統計 : Data Samples Average Minimum Maximum p99 マッチメーキングルール RuleEvaluationsPassed 前回のレポート後に マッチメーキングプロセスで合格したルール評価数 このは 上位 50 のルールに制限されます 関連する CloudWatch 統計 : Sum RuleEvaluationsFailed 前回のレポート後に マッチメーキングで失敗したルール評価数 このは 上位 50 のルールに制限されます 関連する CloudWatch 統計 : Sum Amazon GameLift のディメンション Amazon GameLift は以下のディメンションでフィルタリングをサポートします ディメンション FleetId MetricGroup フリート別の識別子 このディメンションは インスタンス サーバープロセス ゲームセッション およびプレーヤーセッションのすべてので使用されます これはキューとマッチメーキングのでは使用されません フリートのコレクション別の識別子 フリートをフリートグループに含めるには グループ名をフリートの属性 ( UpdateFleetAttributes () を 211

221 AWS Glue ディメンション QueueName MatchmakingConfigurationName MatchmakingConfigurationName- RuleName InstanceType OperatingSystem 参照 ) に追加します このディメンションは インスタンス サーバープロセス ゲームセッション およびプレーヤーセッションのすべてので使用されます これはキューとマッチメーキングのでは使用されません キュー別の識別子 このディメンションは ゲームセッション配置キューでのみ使用されます 1 つのマッチメーキングと設定の一意の識別子 このディメンションはマッチメーキングのでのみ使用されます マッチメーキング設定およびマッチメーキングルールの交差に対する一意の識別子 このディメンションはマッチメーキングのでのみ使用されます EC2 インスタンスタイプの一意の識別子の指定 C4.large など このディメンションはスポットインスタンスのでのみ使用されます インスタンスのオペレーティングシステムの一意の識別子 このディメンションはスポットインスタンスのでのみ使用されます AWS Glue のとディメンション AWS Glue はを CloudWatch に送信します 詳細については AWS Glue 開発者ガイドの CloudWatch による AWS Glue のモニタリング を参照してください AWS Glue Metrics AWS Glue profiles and sends the following metrics to CloudWatch every 30 seconds, and the AWS Glue Metrics Dashboard report them once a minute: Metric glue.driver.aggregate.bytesread Description The number of bytes read from all data sources by all completed Spark tasks running in all executors.. Valid dimensions: JobName (the name of the AWS Glue Job), JobRunId (the JobRun ID. or ALL), and Type (count). Valid Statistics: SUM. This metric is a delta value from the last reported value, so on the AWS Glue Metrics Dashboard, a SUM statistic is used for aggregation. Unit: Bytes Can be used to monitor: Bytes read. Job progress. 212

222 AWS Glue Metrics Metric Description JDBC data sources. Job Bookmark Issues. Variance across Job Runs. This metric can be used the same way as the glue.all.s3.filesystem.read_bytes metric, with the difference that this metric is updated at the end of a Spark task and captures non-s3 data sources as well. glue.driver.aggregate.elapsedtime The ETL elapsed time in milliseconds (does not include the job bootstrap times). Valid dimensions: JobName (the name of the AWS Glue Job), JobRunId (the JobRun ID. or ALL), and Type (count). Valid Statistics: SUM. This metric is a delta value from the last reported value, so on the AWS Glue Metrics Dashboard, a SUM statistic is used for aggregation. Unit: Milliseconds Can be used to determine how long it takes a job run to run on average. Some ways to use the data: Set alarms for stragglers. Measure variance across job runs. The number of completed stages in the job. glue.driver.aggregate.numcompletedstages Valid dimensions: JobName (the name of the AWS Glue Job), JobRunId (the JobRun ID. or ALL), and Type (count). Valid Statistics: SUM. This metric is a delta value from the last reported value, so on the AWS Glue Metrics Dashboard, a SUM statistic is used for aggregation. Unit: Count Can be used to monitor: Job progress. Per-stage timeline of job execution,when correlated with other metrics. Some ways to use the data: Identify demanding stages in the execution of a job. Set alarms for correlated spikes (demanding stages) across job runs. 213

223 AWS Glue Metrics Metric Description glue.driver.aggregate.numcompletedtasks The number of completed tasks in the job. Valid dimensions: JobName (the name of the AWS Glue Job), JobRunId (the JobRun ID. or ALL), and Type (count). Valid Statistics: SUM. This metric is a delta value from the last reported value, so on the AWS Glue Metrics Dashboard, a SUM statistic is used for aggregation. Unit: Count Can be used to monitor: Job progress. Parallelism within a stage. glue.driver.aggregate.numfailedtasksthe number of failed tasks. Valid dimensions: JobName (the name of the AWS Glue Job), JobRunId (the JobRun ID. or ALL), and Type (count). Valid Statistics: SUM. This metric is a delta value from the last reported value, so on the AWS Glue Metrics Dashboard, a SUM statistic is used for aggregation. Unit: Count Can be used to monitor: Data abnormalities that cause job tasks to fail. Cluster abnormalities that cause job tasks to fail. Script abnormalities that cause job tasks to fail. The data can be used to set alarms for increased failures that might suggest abnormalities in data, cluster or scripts. 214

224 AWS Glue Metrics Metric Description glue.driver.aggregate.numkilledtasksthe number of tasks killed. Valid dimensions: JobName (the name of the AWS Glue Job), JobRunId (the JobRun ID. or ALL), and Type (count). Valid Statistics: SUM. This metric is a delta value from the last reported value, so on the AWS Glue Metrics Dashboard, a SUM statistic is used for aggregation. Unit: Count Can be used to monitor: Abnormalities in Data Skew that result in exceptions (OOMs) that kill tasks. Script abnormalities that result in exceptions (OOMs) that kill tasks. Some ways to use the data: Set alarms for increased failures indicating data abnormalities. Set alarms for increased failures indicating cluster abnormalities. Set alarms for increased failures indicating script abnormalities. glue.driver.aggregate.recordsread The number of records read from all data sources by all completed Spark tasks running in all executors. Valid dimensions: JobName (the name of the AWS Glue Job), JobRunId (the JobRun ID. or ALL), and Type (count). Valid Statistics: SUM. This metric is a delta value from the last reported value, so on the AWS Glue Metrics Dashboard, a SUM statistic is used for aggregation. Unit: Count Can be used to monitor: Records read. Job progress. JDBC data sources. Job Bookmark Issues. Skew in Job Runs over days. This metric can be used in a similar way to the glue.all.s3.filesystem.read_bytes metric, with the difference that this metric is updated at the end of a Spark task. 215

225 AWS Glue Metrics Metric Description The number of bytes written by all executors to shuffle data between them since the previous report (aggregated glue.driver.aggregate.shufflebyteswritten by the AWS Glue Metrics Dashboard as the number of bytes written for this purpose during the previous minute). Valid dimensions: JobName (the name of the AWS Glue Job), JobRunId (the JobRun ID. or ALL), and Type (count). Valid Statistics: SUM. This metric is a delta value from the last reported value, so on the AWS Glue Metrics Dashboard, a SUM statistic is used for aggregation. Unit: Bytes Can be used to monitor: Data shuffle in jobs (large joins, groupby, repartition, coalesce). Some ways to use the data: Repartition or decompress large input files before further processing. Repartition data more uniformly to avoid hot keys. Pre-filter data before joins or groupby operations. The number of bytes read by all executors to shuffle data between them since the previous report (aggregated by glue.driver.aggregate.shufflelocalbytesread the AWS Glue Metrics Dashboard as the number of bytes read for this purpose during the previous minute). Valid dimensions: JobName (the name of the AWS Glue Job), JobRunId (the JobRun ID. or ALL), and Type (count). Valid Statistics: SUM. This metric is a delta value from the last reported value, so on the AWS Glue Metrics Dashboard, a SUM statistic is used for aggregation. Unit: Bytes Can be used to monitor: Data shuffle in jobs (large joins, groupby, repartition, coalesce). Some ways to use the data: Repartition or decompress large input files before further processing. Repartition data more uniformly using hot keys. Pre-filter data before joins or groupby operations. 216

226 AWS Glue Metrics Metric Description glue.driver.blockmanager.disk.diskspaceused_mb The number of megabytes of disk space used across all executors. Valid dimensions: JobName (the name of the AWS Glue Job), JobRunId (the JobRun ID. or ALL), and Type (gauge). Valid Statistics: Average. This is a Spark metric, reported as an absolute value. Unit: Megabytes Can be used to monitor: Disk space used for blocks that represent cached RDD partitions. Disk space used for blocks that represent intermediate shuffle outputs. Disk space used for blocks that represent broadcasts. Some ways to use the data: Identify job failures due to increased disk usage. Identify large partitions resulting in spilling or shuffling. Increase provisioned DPU capacity to correct these issues. The number of actively running job executors. glue.driver.executorallocationmanager.executors.numberallexecutors Valid dimensions: JobName (the name of the AWS Glue Job), JobRunId (the JobRun ID. or ALL), and Type (gauge). Valid Statistics: Average. This is a Spark metric, reported as an absolute value. Unit: Count Can be used to monitor: Job activity. Straggling executors (with a few executors running only) Current executor-level parallelism. Some ways to use the data: Repartition or decompress large input files beforehand if cluster is under-utilized. Identify stage or job execution delays due to straggler scenarios. Compare with numbermaxneededexecutors to understand backlog for provisioning more DPUs. 217

227 AWS Glue Metrics Metric Description The number of maximum (actively running and pending) job executors needed to satisfy the current load. glue.driver.executorallocationmanager.executors.numbermaxneededexecutors Valid dimensions: JobName (the name of the AWS Glue Job), JobRunId (the JobRun ID. or ALL), and Type (gauge). Valid Statistics: Maximum. This is a Spark metric, reported as an absolute value. Unit: Count Can be used to monitor: Job activity. Current executor-level parallelism and backlog of pending tasks not yet scheduled because of unavailable executors due to DPU capacity or killed/ failed executors. Some ways to use the data: Identify pending/backlog of scheduling queue. Identify stage or job execution delays due to straggler scenarios. Compare with numberallexecutors to understand backlog for provisioning more DPUs. Increase provisioned DPU capacity to correct the pending executor backlog. 218

228 AWS Glue Metrics Metric glue.driver.jvm.heap.usage glue.executorid.jvm.heap.usage glue.all.jvm.heap.usage Description The fraction of memory used by the JVM heap for this driver (scale: 0-1) for driver, executor identified by executorid, or ALL executors. Valid dimensions: JobName (the name of the AWS Glue Job), JobRunId (the JobRun ID. or ALL), and Type (gauge). Valid Statistics: Average. This is a Spark metric, reported as an absolute value. Unit: Percentage Can be used to monitor: Driver out-of-memory conditions (OOM) using glue.driver.jvm.heap.usage. Executor out-of-memory conditions (OOM) using glue.all.jvm.heap.usage. Some ways to use the data: Identify memory-consuming executor ids and stages. Identify straggling executor ids and stages. Identify a driver out-of-memory condition (OOM). Identify an executor out-of-memory condition (OOM) and obtain the corresponding executor ID so as to be able to get a stack trace from the executor log. Identify files or partitions that may have data skew resulting in stragglers or out-of-memory conditions (OOMs). 219

229 AWS Glue Metrics Metric glue.driver.jvm.heap.used glue.executorid.jvm.heap.used glue.all.jvm.heap.used Description The number of memory bytes used by the JVM heap for the driver, the executor identified by executorid, or ALL executors. Valid dimensions: JobName (the name of the AWS Glue Job), JobRunId (the JobRun ID. or ALL), and Type (gauge). Valid Statistics: Average. This is a Spark metric, reported as an absolute value. Unit: Bytes Can be used to monitor: Driver out-of-memory conditions (OOM). Executor out-of-memory conditions (OOM). Some ways to use the data: Identify memory-consuming executor ids and stages. Identify straggling executor ids and stages. Identify a driver out-of-memory condition (OOM). Identify an executor out-of-memory condition (OOM) and obtain the corresponding executor ID so as to be able to get a stack trace from the executor log. Identify files or partitions that may have data skew resulting in stragglers or out-of-memory conditions (OOMs). 220

230 AWS Glue Metrics Metric Description The number of bytes read from Amazon S3 by the driver, an executor identified by executorid, or ALL executors glue.driver.s3.filesystem.read_bytessince the previous report (aggregated by the AWS Glue Metrics Dashboard as the number of bytes read during the previous minute). glue.executorid.s3.filesystem.read_bytes Valid dimensions: JobName, JobRunId, and Type (gauge). glue.all.s3.filesystem.read_bytes Valid Statistics: SUM. This metric is a delta value from the last reported value, so on the AWS Glue Metrics Dashboard a SUM statistic is used for aggregation. The area under the curve on the AWS Glue Metrics Dashboard can be used to visually compare bytes read by two different job runs. Unit: Bytes. Can be used to monitor: ETL data movement. Job progress. Job bookmark issues (data processed, reprocessed, and skipped). Comparison of reads to ingestion rate from external data sources. Variance across job runs. Resulting data can be used for: DPU capacity planning. Setting alarms for large spikes or dips in data read for job runs and job stages. 221

231 AWS Glue Metrics Metric Description The number of bytes written to Amazon S3 by the driver, an executor identified by executorid, or ALL executors glue.driver.s3.filesystem.write_bytes since the previous report (aggregated by the AWS Glue Metrics Dashboard as the number of bytes written during the previous minute). glue.executorid.s3.filesystem.write_bytes Valid dimensions: JobName, JobRunId, and Type (gauge). glue.all.s3.filesystem.write_bytes Valid Statistics: SUM. This metric is a delta value from the last reported value, so on the AWS Glue Metrics Dashboard a SUM statistic is used for aggregation. The area under the curve on the AWS Glue Metrics Dashboard can be used to visually compare bytes written by two different job runs. Unit: Bytes Can be used to monitor: ETL data movement. Job progress. Job bookmark issues (data processed, reprocessed, and skipped). Comparison of reads to ingestion rate from external data sources. Variance across job runs. Some ways to use the data: DPU capacity planning. Setting alarms for large spikes or dips in data read for job runs and job stages. 222

232 Dimensions for AWS Glue Metrics Metric glue.driver.system.cpusystemload glue.executorid.system.cpusystemload glue.all.system.cpusystemload Description The fraction of CPU system load used (scale: 0-1) by the driver, an executor identified by executorid, or ALL executors. Valid dimensions: JobName (the name of the AWS Glue Job), JobRunId (the JobRun ID. or ALL), and Type (gauge). Valid Statistics: Average. This metric is reported as an absolute value. Unit: Percentage Can be used to monitor: Driver CPU load. Executor CPU load. Detecting CPU-bound or IO-bound executors or stages in a Job. Some ways to use the data: DPU capacity Planning along with IO Metrics (Bytes Read/Shuffle Bytes, Task Parallelism) and the number of maximum needed executors metric. Identify the CPU/IO-bound ratio. This allows for repartitionioning and increasing provisioned capacity for long-running jobs with splittable datasets having lower CPU utilization. Dimensions for AWS Glue Metrics AWS Glue metrics use the AWS Glue namespace and provide metrics for the following dimensions: Dimension JobName JobRunId Type Description This dimension filters for metrics of all job runs of a specific AWS Glue job. This dimension filters for metrics of a specific AWS Glue job run by a JobRun ID, or ALL. This dimension filters for metrics by either count (an aggregate number) or gauge (a value at a point in time). Amazon Inspector の CloudWatch で使用可能な Amazon Inspector の詳細については Amazon Inspector ユーザーガイドの CloudWatch を使用した Amazon Inspector のモニタリング を参照してください 223

233 AWS IoT AWS IoT のとディメンション AWS IoT を操作すると AWS/IoT 名前空間で 次のが毎分 CloudWatch に送信されます AWS IoT AWS/IoT 名前空間には 次のが含まれます AWS IoT は は受け取ったリクエストごとに CloudWatch に次のを送信します IoT RulesExecuted NumLogEventsFailedToPublishThrottled NumLogBatchesFailedToPublishThrottled 実行される AWS IoT ルールの数 バッチ内でスロットリングエラーのために発行に失敗したログイベントの数 スロットリングエラーのために発行に失敗したログイベントの単数のバッチ ルール TopicMatch ParseError ルールがリッスンしているトピックで発行された受信メッセージの数 RuleName ディメンションにはルールの名前が含まれます ルールがリッスンしているトピックで発行されたメッセージで発生した JSON 解析エラーの数 RuleName ディメンションにはルールの名前が含まれます ルールアクションの Success 失敗 正常なルールアクションの呼び出しの数 RuleName ディメンションには アクションを指定するルールの名前が含まれます ActionType ディメンションには 呼び出されたアクションのタイプが含まれます 失敗したルールアクションの呼び出しの数 RuleName ディメンションには アクションを指定するルールの名前が含まれます RuleName ディメンションには アクションを指定するルールの名前が含まれます ActionType ディメンションには 呼び出されたアクションのタイプが含まれます メッセージブローカーの Connect.AuthError メッセージブローカーが承認できなかった接続リクエストの数 Protocol ディメンションには CONNECT. 224

234 AWS IoT Connect.ClientError Connect.ServerError Connect.Success Connect.Throttle Ping.Success PublishIn.AuthError PublishIn.ClientError PublishIn.ServerError PublishIn.Success PublishIn.Throttle PublishOut.AuthError メッセージの送信に使用されたプロトコルが含まれます MQTT メッセージが AWS IoT の制限で定義された条件を満たさなかったために拒否された接続リクエストの数 Protocol ディメンションには CONNECT. メッセージの送信に使用されたプロトコルが含まれます 内部エラーが発生したために失敗した接続リクエストの数 Protocol ディメンションには CONNECT メッセージの送信に使用されたプロトコルが含まれます メッセージブローカーへ正常な接続の数 Protocol ディメンションには CONNECT メッセージの送信に使用されたプロトコルが含まれます 許可された接続リクエストの頻度をクライアントが超えたために調整された接続リクエストの数 Protocol ディメンションには CONNECT メッセージの送信に使用されたプロトコルが含まれます メッセージブローカーによって受け取られた ping メッセージの数 Protocol ディメンションには ping メッセージの送信に使用されたプロトコルが含まれます メッセージブローカーが承認できなかった発行リクエストの数 Protocol ディメンションには メッセージの発行に使用されたプロトコルが含まれます メッセージが AWS IoT の制限で定義された要件を満たさなかったためにメッセージブローカーによって拒否された発行リクエストの数 Protocol ディメンションには メッセージの発行に使用されたプロトコルが含まれます 内部エラーが発生したためにメッセージブローカーが処理に失敗した発行リクエストの数 Protocol ディメンションには PUBLISH メッセージの送信に使用されたプロトコルが含まれます メッセージブローカーによって正常に処理された発行リクエストの数 Protocol ディメンションには PUBLISH メッセージの送信に使用されたプロトコルが含まれます 許可されたインバウンドメッセージの頻度をクライアントが超えたために調整された発行リクエストの数 Protocol ディメンションには PUBLISH メッセージの送信に使用されたプロトコルが含まれます AWS IoT が承認できなかった メッセージブローカーによって行われた発行リクエストの数 Protocol ディメンションには PUBLISH メッセージの送信に使用されたプロトコルが含まれます 225

235 AWS IoT PublishOut.ClientError PublishOut.Success Subscribe.AuthError Subscribe.ClientError Subscribe.ServerError Subscribe.Success Subscribe.Throttle Unsubscribe.ClientError Unsubscribe.ServerError Unsubscribe.Success メッセージブローカーによって行われ メッセージが AWS IoT の制限で定義された要件を満たさなかったために拒否された発行リクエストの数 Protocol ディメンションには PUBLISH メッセージの送信に使用されたプロトコルが含まれます メッセージブローカーによって正常に行われた発行リクエストの数 Protocol ディメンションには PUBLISH メッセージの送信に使用されたプロトコルが含まれます クライアントによって行われ 承認できなかったサブスクリプションリクエストの数 Protocol ディメンションには SUBSCRIBE メッセージの送信に使用されたプロトコルが含まれます SUBSCRIBE メッセージが AWS IoT の制限で定義されている要件を満たさなかったために拒否されたサブスクリプションのリクエストの数 Protocol ディメンションには SUBSCRIBE メッセージの送信に使用されたプロトコルが含まれます 内部エラーが発生したために拒否されたサブスクリプションのリクエストの数 Protocol ディメンションには SUBSCRIBE メッセージの送信に使用されたプロトコルが含まれます メッセージブローカーによって正常に処理されたサブスクリプションのリクエストの数 Protocol ディメンションには SUBSCRIBE メッセージの送信に使用されたプロトコルが含まれます 許可されたサブスクリプションのリクエストの頻度をクライアントが超えたために調整されたサブスクリプションのリクエストの数 Protocol ディメンションには SUBSCRIBE メッセージの送信に使用されたプロトコルが含まれます UNSUBSCRIBE メッセージが AWS IoT の制限で定義されている要件を満たさなかったために拒否されたサブスクリプション解除リクエストの数 Protocol ディメンションには UNSUBSCRIBE メッセージの送信に使用されたプロトコルが含まれます 内部エラーが発生したために拒否されたサブスクリプション解除リクエストの数 Protocol ディメンションには UNSUBSCRIBE メッセージの送信に使用されたプロトコルが含まれます メッセージブローカーによって正常に処理されたサブスクリプション解除リクエストの数 Protocol ディメンションには UNSUBSCRIBE メッセージの送信に使用されたプロトコルが含まれます 226

236 AWS IoT Unsubscribe.Throttle 許可されたサブスクリプション解除リクエストの頻度をクライアントが超えたために拒否されたサブスクリプション解除リクエストの数 Protocol ディメンションには UNSUBSCRIBE メッセージの送信に使用されたプロトコルが含まれます Note メッセージブローカーのは AWS IoT コンソールの [ プロトコル ] の下に表示されます Device Shadow DeleteThingShadow.Accepted GetThingShadow.Accepted UpdateThingShadow.Accepted 正常に処理された DeleteThingShadow リクエストの数 Protocol ディメンションには リクエストの作成に使用されたプロトコルが含まれます 正常に処理された GetThingShadow リクエストの数 Protocol ディメンションには リクエストの作成に使用されたプロトコルが含まれます 正常に処理された UpdateThingShadow リクエストの数 Protocol ディメンションには リクエストの作成に使用されたプロトコルが含まれます Note Device Shadow は AWS IoT コンソールの [ プロトコル ] の下に表示されます ジョブ ServerError ClientError QueuedJobExecutionTotalCount InProgressJobExecutionTotalCount FailedJobExecutionTotalCount ジョブの実行中に生成されたサーバーエラーの数 JobId ディメンションには ジョブの ID が含まれます ジョブの実行中に生成されたクライアントエラーの数 JobId ディメンションには ジョブの ID が含まれます 指定されたジョブのステータスが QUEUED であるジョブ実行の総数 JobId ディメンションには ジョブの ID が含まれます 指定されたジョブのステータスが IN_PROGRESS であるジョブ実行の総数 JobId ディメンションには ジョブの ID が含まれます 指定されたジョブのステータスが FAILED であるジョブ実行の総数 JobId ディメンションには ジョブの ID が含まれます 227

237 AWS IoT SuccededJobExecutionTotalCount CanceledJobExecutionTotalCount RejectedJobExecutionTotalCount RemovedJobExecutionTotalCount QueuedJobExecutionCount InProgressJobExecutionCount FailedJobExecutionCount SuccededJobExecutionCount CanceledJobExecutionCount RejectedJobExecutionCount RemovedJobExecutionCount 指定されたジョブのステータスが SUCCESS であるジョブ実行の総数 JobId ディメンションには ジョブの ID が含まれます 指定されたジョブのステータスが CANCELED であるジョブ実行の総数 JobId ディメンションには ジョブの ID が含まれます 指定されたジョブのステータスが REJECTED であるジョブ実行の総数 JobId ディメンションには ジョブの ID が含まれます 指定されたジョブのステータスが REMOVED であるジョブ実行の総数 JobId ディメンションには ジョブの ID が含まれます CloudWatch によって決定された期間中にステータスが QUEUED に変更されたジョブ実行の数 (CloudWatch の詳細については Amazon CloudWatch を参照してください ) JobId ディメンションには ジョブの ID が含まれます CloudWatch によって決定された期間中にステータスが IN_PROGRESS に変更されたジョブ実行の数 (CloudWatch の詳細については Amazon CloudWatch を参照してください ) JobId ディメンションには ジョブの ID が含まれます CloudWatch によって決定された期間中にステータスが FAILED に変更されたジョブ実行の数 (CloudWatch の詳細については Amazon CloudWatch を参照してください ) JobId ディメンションには ジョブの ID が含まれます CloudWatch によって決定された期間中にステータスが SUCCESS に変更されたジョブ実行の数 (CloudWatch の詳細については Amazon CloudWatch を参照してください ) JobId ディメンションには ジョブの ID が含まれます CloudWatch によって決定された期間中にステータスが CANCELED に変更されたジョブ実行の数 (CloudWatch の詳細については Amazon CloudWatch を参照してください ) JobId ディメンションには ジョブの ID が含まれます CloudWatch によって決定された期間中にステータスが REJECTED に変更されたジョブ実行の数 (CloudWatch の詳細については Amazon CloudWatch を参照してください ) JobId ディメンションには ジョブの ID が含まれます CloudWatch によって決定された期間中にステータスが REMOVED に変更されたジョブ実行の数 (CloudWatch の詳細については Amazon CloudWatch を参照してください ) JobId ディメンションには ジョブの ID が含まれます 228

238 のディメンション Device Defender Audit の NonCompliantResources ResourcesEvaluated チェックの結果 準拠していないことが判明したリソースの数 システムは実行した各監査のチェックごとに非準拠のリソースの数を報告します 準拠状況を評価したリソースの数 システムは実行した各監査のチェックごとに評価したリソースの数を報告します Device Defender Detect の 違反 ViolationsCleared ViolationsInvalidated 前回実施した評価以降に判明したセキュリティプロファイル動作の新しい違反の数 システムは セキュリティプロファイル別およびその動作別に アカウントの新しい違反の数を報告します 前回実施した評価以降に解決されたセキュリティプロファイル動作の違反の数 システムは セキュリティプロファイル別およびその動作別に アカウントの解決された違反の数を報告します 前回実施した評価以降に ( レポートデバイスがレポートを停止したか 何らかの理由でモニタリングが中止されたために ) 情報が使用できなくなったセキュリティプロファイル動作の違反の数 システムは セキュリティプロファイル別およびその動作別に アカウント全体の無効化された違反の数を報告します のディメンション は名前空間を使用し 以下の項目のを提供しています ディメンション ActionType プロトコル RuleName JobId TaskType リクエストによってトリガーされたルールで指定されたアクションのタイプ リクエストを行うために使用されるプロトコル 有効な値 : MQTT または HTTP リクエストによってトリガーされたルールの名前 進行状況またはメッセージ接続の成功 / 失敗が監視されているジョブの ID チェックの結果がモニタリングされている Device Defender Audit のタイプ SCHEDULED_AUDIT_TASK または ON_DEMAND_AUDIT_TASK の 1 つ 229

239 AWS IoT Analytics ディメンション CheckName ScheduledAuditName SecurityProfileName BehaviorName 結果がモニタリングされている Device Defender 監査チェックの名前 チェックの結果がモニタリングされている Device Defender のスケジュールされた監査の名前 オンデマンドで実行された監査の結果がレポートされた場合 この値は OnDemand になります 動作がモニタリングされている Device Defender Detect セキュリティプロファイルの名前 モニタリングされている Device Defender Detect セキュリティプロファイルの動作の名前 AWS IoT Analytics のとディメンション AWS IoT Analytics は以下のを CloudWatch に送信します AWS IoT Analytics Metrics AWS IoT Analytics sends the following metrics to CloudWatch once per received request. AWS IoT Analytics Metrics Metric ActionExecution ActivityExecutionError IncomingMessages Description The number of actions executed. The number of errors generated while executing the pipeline activity. The number of messages coming into the channel. Dimensions for Metrics Metrics use the namespace and provide metrics for the following dimension(s): Dimension ActionType ChannelName DatasetName DatastoreName PipelineActivityName PipelineActivityType PipelineName Description The type of action that is being monitored. The name of the channel that is being monitored. The name of the data set that is being monitored. The name of the data store that is being monitored. The name of the pipeline activity that is being monitored. The type of the pipeline activity that is being monitored. The name of the pipeline that is being monitored. 230

240 Amazon Kinesis Data Analytics Amazon Kinesis Data Analytics の Kinesis Data Analytics はを CloudWatch に送信します 詳細については Amazon Kinesis Data Analytics 開発者ガイドの Amazon CloudWatch によるモニタリング を参照してください AWS/KinesisAnalytics 名前空間には 次のが含まれます Bytes 読み取りバイト数 ( 入力ストリームあたり ) または書き込みバイト数 ( 出力ストリームあたり ) レベル : 入力ストリームあたりおよび出力ストリームあたり KPUs ストリーム処理アプリケーションを実行するために使用される Kinesis 処理ユニットの数 毎時間使用される KPU の平均数によって アプリケーションへの課金が決まります レベル : アプリケーションレベル MillisBehindLatest アプリケーションが現在時刻からどのくらい遅れてストリーミングソースから読み取るかを示します レベル : アプリケーションレベル Records 読み取りレコード数 ( 入力ストリームあたり ) または書き込みレコード数 ( 出力ストリームあたり ) レベル : 入力ストリームあたりおよび出力ストリームあたり Success アプリケーションに設定された宛先への配信が成功するたびに 1 失敗した配信試行ごとに 0 このの平均値は 成功した配信の回数を示します レベル : 宛先ごと InputProcessing.Duration Kinesis Data Analytics によって実行される各 Lambda 関数の呼び出しにかかった時間 レベル : 入力ストリームあたり InputProcessing.OkRecords Ok ステータスとマークされた Lambda 関数によって返されたレコードの数 レベル : 入力ストリームあたり InputProcessing.OkBytes Ok ステータスとマークされた Lambda 関数によって返されたレコードのバイトの合計数 レベル : 入力ストリームあたり InputProcessing.DroppedRecords Dropped ステータスとマークされた Lambda 関数によって返されたレコードの数 231

241 のディメンション レベル : 入力ストリームあたり InputProcessing.ProcessingFailedRecords ProcessingFailed ステータスとマークされた Lambda 関数によって返されたレコードの数 レベル : 入力ストリームあたり InputProcessing.Success Kinesis Data Analytics による Lambda 関数の成功した呼び出しの数 レベル : 入力ストリームあたり LambdaDelivery.OkRecords Ok ステータスとマークされた Lambda 関数によって返されたレコードの数 レベル : Lambda 宛先ごと LambdaDelivery.DeliveryFailedRecordsDeliveryFailed ステータスとマークされた Lambda 関数によって返されたレコードの数 レベル : Lambda 宛先ごと LambdaDelivery.Duration Kinesis Data Analytics によって実行される各 Lambda 関数の呼び出しにかかった時間 レベル : Lambda 宛先ごと のディメンション Amazon Kinesis Data Analytics は以下のディメンションのを提供します ディメンション Flow 入力ストリームあたり : 入力 出力ストリームあたり : 出力 Id 入力ストリームあたり : 入力 ID 出力ストリームあたり : 出力 ID Amazon Kinesis Data Firehose の Kinesis Data Firehose はを CloudWatch に送信します 詳細については Amazon Kinesis Data Firehose 開発者ガイドの Amazon CloudWatch によるモニタリング を参照してください サービスレベル CloudWatch AWS/Firehose 名前空間には 次のサービスレベルが含まれます 232

242 サービスレベル CloudWatch BackupToS3.Bytes 指定された期間にバックアップのために Amazon S3 に配信されるバイト数 Kinesis Data Firehose は Amazon S3 または Amazon Redshift の送信先に対してデータ変換が有効になっているときに このを送信します 単位 : バイト BackupToS3.DataFreshness Kinesis Data Firehose の最も古いレコードの経過時間 (Kinesis Data Firehose に入ってから現在まで ) この経過時間より古いレコードは Amazon S3 バケットに配信されてバックアップされます Kinesis Data Firehose は Amazon S3 または Amazon Redshift の送信先に対してデータ変換が有効になっているときに このを送信します 単位 : 秒 BackupToS3.Records 指定された期間にバックアップのために Amazon S3 に配信されるレコード数 Kinesis Data Firehose は Amazon S3 または Amazon Redshift の送信先に対してデータ変換が有効になっているときに このを送信します 単位 : 個 BackupToS3.Success すべての Amazon S3 put コマンドの合計に対する 成功したバックアップの Amazon S3 put コマンドの合計 Kinesis Data Firehose は Amazon S3 または Amazon Redshift の宛先に対してデータ変換が有効になっているときに このを送信します DataReadFromKinesisStream.Bytes データソースが Kinesis データストリームである場合 このは そのデータストリームから読み取られたバイト数を示します この数には フェイルオーバーによる再読み取りが含まれます 単位 : バイト DataReadFromKinesisStream.Records データソースが Kinesis データストリームである場合 このは そのデータストリームから読み取られたレコード数を示します この数には フェイルオーバーによる再読み取りが含まれます DeliveryToElasticsearch.Bytes 指定された期間に Amazon ES にインデックス作成されたバイト数 単位 : バイト DeliveryToElasticsearch.Records 指定された期間に Amazon ES にインデックス作成されたレコード数 単位 : 個 DeliveryToElasticsearch.Success インデックス作成が試みられたレコードの合計に対する正常にインデックス作成されたレコードの合計 DeliveryToRedshift.Bytes 指定された期間に Amazon Redshift にコピーされたバイト数 233

243 サービスレベル CloudWatch DeliveryToRedshift.Records 単位 : バイト 指定された期間に Amazon Redshift にコピーされたレコード数 単位 : 個 DeliveryToRedshift.Success DeliveryToS3.Bytes すべての Amazon Redshift COPY コマンドの合計に対する正常に実行された Amazon Redshift COPY コマンドの合計 指定された期間に Amazon S3 に配信されたバイト数 単位 : バイト DeliveryToS3.DataFreshness Kinesis Data Firehose の最も古いレコードの経過時間 (Kinesis Data Firehose に入ってから現在まで ) この経過時間より古いレコードは S3 バケットに配信済みです 単位 : Seconds DeliveryToS3.Records 指定された期間に Amazon S3 に配信されたレコード数 単位 : 個 DeliveryToS3.Success DeliveryToSplunk.Bytes すべての Amazon S3 put コマンドの合計に対する正常に実行された Amazon S3 put コマンドの合計 指定された期間に Splunk に配信されたバイト数 単位 : バイト DeliveryToSplunk.DataAckLatency Kinesis Data Firehose がデータを送信した後 Splunk から送達確認を受信するまでの概算時間 このの増加または減少傾向は 絶対概算値よりも有用です 傾向が増加すると Splunk インデクサからのインデックス作成および送達確認の速度が遅くなる可能性があります 単位 : Seconds DeliveryToSplunk.DataFreshness Kinesis Data Firehose の最も古いレコードの経過時間 (Kinesis Data Firehose に入ってから現在まで ) この経過時間より古いレコードは Splunk に配信済みです 単位 : Seconds DeliveryToSplunk.Records 指定された期間に Splunk に配信されたレコード数 DeliveryToSplunk.Success IncomingBytes インデックス作成が試みられたレコードの合計に対する正常にインデックス作成されたレコードの合計 指定された期間に Kinesis Data Firehose ストリームに取り込まれたバイト数 単位 : バイト 234

244 API レベルの CloudWatch IncomingRecords 指定された期間に Kinesis Data Firehose ストリームに取り込まれたレコード数 KinesisMillisBehindLatest データソースが Kinesis データストリームである場合 このは 前回の読み取りレコードから Kinesis データストリームの最新レコードまでの時間差 ( ミリ秒単位 ) を示します 単位 : ミリ秒 API レベルの CloudWatch AWS/Firehose 名前空間には 次の API レベルが含まれます DescribeDeliveryStream.Latency 指定された期間に測定された DescribeDeliveryStream オペレーションごとにかかった時間 単位 : ミリ秒 DescribeDeliveryStream.Requests DescribeDeliveryStream リクエストの総数 ListDeliveryStreams.Latency 指定された期間に測定された ListDeliveryStream オペレーションごとにかかった時間 単位 : ミリ秒 ListDeliveryStreams.Requests ListFirehose リクエストの総数 PutRecord.Bytes 指定された期間に PutRecord を使用して Kinesis Data Firehose 配信ストリームに送信されたバイト数 単位 : バイト PutRecord.Latency 指定された期間に測定された PutRecord オペレーションごとにかかった時間 単位 : ミリ秒 PutRecord.Requests PutRecord オペレーションのレコード総数に等しい PutRecord リクエストの総数 PutRecordBatch.Bytes 指定された期間に PutRecordBatch を使用して Kinesis Data Firehose 配信ストリームに送信されたバイト数 単位 : バイト 235

245 データ変換の CloudWatch PutRecordBatch.Latency 指定された期間に測定された PutRecordBatch オペレーションごとにかかった時間 単位 : ミリ秒 PutRecordBatch.Records PutRecordBatch オペレーションのレコード総数 PutRecordBatch.Requests PutRecordBatch リクエストの総数 ThrottledDescribeStream データソースが Kinesis データストリームである場合に DescribeStream オペレーションが調整される合計回数 ThrottledGetRecords データソースが Kinesis データストリームである場合に GetRecords オペレーションが調整される合計回数 ThrottledGetShardIterator データソースが Kinesis データストリームである場合に GetShardIterator オペレーションが調整される合計回数 UpdateDeliveryStream.Latency 指定された期間に測定された UpdateDeliveryStream オペレーションごとにかかった時間 単位 : ミリ秒 UpdateDeliveryStream.Requests UpdateDeliveryStream リクエストの総数 データ変換の CloudWatch Lambda によるデータ変換が有効な場合 AWS/Firehose 名前空間には以下のが含まれます ExecuteProcessing.Duration Kinesis Data Firehose によって実行される各 Lambda 関数呼び出しにかかる時間 単位 : ミリ秒 ExecuteProcessing.Success Lambda 関数呼び出しの合計に対する成功した Lambda 関数呼び出しの合計 SucceedProcessing.Records 指定した期間中に正常に処理されたレコードの数 SucceedProcessing.Bytes 指定した期間中に正常に処理されたバイトの数 236

246 Amazon Kinesis Data Streams 単位 : バイト Amazon Kinesis Data Streams のとディメンション Kinesis Data Streams は ストリームレベルとオプションのシャードレベルの 2 つのレベルでを CloudWatch に送信します ストリームレベルのは 通常の条件での最も一般的なモニタリングのユースケース用です シャードレベルのは トラブルシューティングに通常関連する 特定のモニタリングタスク用です 詳細については Amazon Kinesis Developer Guide の Amazon CloudWatch を使用した Amazon Kinesis のモニタリング を参照してください コンテンツ 基本ストリームレベル (p. 237) 拡張シャードレベル (p. 242) Amazon Kinesis のディメンション (p. 244) 基本ストリームレベル AWS/Kinesis 名前空間には 次のストリームレベルが含まれます Kinesis Data Streams は 1 分ごとにこれらのストリームレベルを CloudWatch に送信します これらのは常に利用することができます GetRecords.Bytes 指定された期間に測定された Kinesis ストリームから取得したバイト数 Minimum Maximum および Average の統計は 指定した期間内のストリームの単一 GetRecords オペレーションでのバイト数です シャードレベル名 : OutgoingBytes ディメンション : StreamName 統計 : Minimum Maximum Average Sum Samples 単位 : バイト GetRecords.IteratorAge このは廃止されました GetRecords.IteratorAgeMilliseconds を使用します GetRecords.IteratorAgeMilliseconds Kinesis ストリームに対して行われたすべての GetRecords 呼び出しの最後のレコードの期間 ( 指定された時間に測定 ) 期間は 現在の時刻と GetRecords 呼び出しの最後のレコードがストリームに書き込まれた時刻の差です Minimum および Maximum 統計は Kinesis コンシューマーアプリケーションのプロセスを追跡するのに使用できます 値がゼロの場合は 読み取り中のレコードがストリームに完全に追いついていることを示します 237

247 基本ストリームレベル シャードレベル名 : IteratorAgeMilliseconds ディメンション : StreamName 統計 : Minimum Maximum Average Samples 単位 : ミリ秒 GetRecords.Latency 指定された期間に測定された GetRecords オペレーションごとにかかった時間 ディメンション : StreamName 統計 : Minimum Maximum Average 単位 : ミリ秒 GetRecords.Records 指定された期間に測定された シャードから取得したレコード数 Minimum Maximum および Average の統計は 指定した期間内のストリームの単一 GetRecords オペレーションでのレコード数です シャードレベル名 : OutgoingRecords ディメンション : StreamName 統計 : Minimum Maximum Average Sum Samples GetRecords.Success 指定された期間に測定された ストリームごとの成功した GetRecords オペレーションの数 ディメンション : StreamName 統計 : Average Sum Samples IncomingBytes 指定された期間に Kinesis ストリームに正常に送信されたバイト数 このには PutRecord および PutRecords オペレーションのバイト数も含まれます Minimum Maximum および Average の統計は 指定した期間内のストリームの単一 put オペレーションでのバイト数です シャードレベル名 : IncomingBytes ディメンション : StreamName 統計 : Minimum Maximum Average Sum Samples 単位 : バイト 238

248 基本ストリームレベル IncomingRecords 指定された期間に Kinesis ストリームに正常に送信されたレコードの数 このには PutRecord および PutRecords オペレーションのレコード数も含まれます Minimum Maximum および Average の統計は 指定した期間内のストリームの単一 put オペレーションでのレコード数です シャードレベル名 : IncomingRecords ディメンション : StreamName 統計 : Minimum Maximum Average Sum Samples PutRecord.Bytes 指定された期間に PutRecord オペレーションを使用して Kinesis ストリームに送信されたバイト数 ディメンション : StreamName 統計 : Minimum Maximum Average Sum Samples 単位 : バイト PutRecord.Latency 指定された期間に測定された PutRecord オペレーションごとにかかった時間 ディメンション : StreamName 統計 : Minimum Maximum Average 単位 : ミリ秒 PutRecord.Success 指定された期間に測定された Kinesis ストリームごとの成功した PutRecord オペレーションの数 Average はストリームへの書き込み成功率を反映しています ディメンション : StreamName 統計 : Average Sum Samples PutRecords.Bytes 指定された期間に PutRecords オペレーションを使用して Kinesis ストリームに送信されたバイト数 ディメンション : StreamName 統計 : Minimum Maximum Average Sum Samples 単位 : バイト 239

249 基本ストリームレベル PutRecords.Latency 指定された期間に測定された PutRecords オペレーションごとにかかった時間 ディメンション : StreamName 統計 : Minimum Maximum Average 単位 : ミリ秒 PutRecords.Records 指定された期間に測定された Kinesis ストリームごとの PutRecords オペレーションの正常なレコード数 ディメンション : StreamName 統計 : Minimum Maximum Average Sum Samples PutRecords.Success 指定された期間に測定された Kinesis ストリームあたりの最低 1 つのレコードが成功した PutRecords オペレーションの数 ディメンション : StreamName 統計 : Average Sum Samples ReadProvisionedThroughputExceeded 指定された期間のストリームで調整された GetRecords 呼び出し回数 こので最も一般的に使用される統計は Average です Minimum の統計の値が 1 の場合 指定された期間にストリームについてすべてのレコードが調整されました Maximum の統計の値が 0 ( ゼロ ) の場合 指定された期間にストリームについてどのレコードも調整されていません シャードレベル名 : ReadProvisionedThroughputExceeded ディメンション : StreamName 統計 : Minimum Maximum Average Sum Samples SubscribeToShard.RateExceeded このは 新しいサブスクリプション試行が失敗した場合に出力されます 同じコンシューマーによるアクティブなサブスクリプションがすでに存在するか このオペレーションに許可された 1 秒あたりの呼び出し回数を超えたことが失敗の原因です ディメンション : StreamName ConsumerName 240

250 基本ストリームレベル SubscribeToShard.Success このは SubscribeToShard サブスクリプションが正常に確立されたかどうかを記録します このサブスクリプションの有効期間は最大で 5 分のみです したがって このは少なくとも 5 分に 1 回出力されます ディメンション : StreamName ConsumerName SubscribeToShardEvent.Bytes 指定された期間に測定された シャードから受信したバイト数 Minimum Maximum および Average の統計は 指定した期間内の単一イベントで発行されたバイト数です シャードレベル名 : OutgoingBytes ディメンション : StreamName ConsumerName 統計 : Minimum Maximum Average Sum Samples 単位 : バイト SubscribeToShardEvent.MillisBehindLatest 現在の時刻と SubscribeToShard イベントの前回のレコードがストリームに書き込まれた時刻の差です ディメンション : StreamName ConsumerName 統計 : Minimum Maximum Average Samples 単位 : ミリ秒 SubscribeToShardEvent.Records 指定された期間に測定された シャードから受信したレコード数 Minimum Maximum および Average の統計は 指定した期間内の単一イベント内のレコードです シャードレベル名 : OutgoingRecords ディメンション : StreamName ConsumerName 統計 : Minimum Maximum Average Sum Samples SubscribeToShardEvent.Success このは イベントが正常に発行されるたびに出力されます アクティブなサブスクリプションがある場合にのみ出力されます ディメンション : StreamName ConsumerName 統計 : Minimum Maximum Average Sum Samples 241

251 拡張シャードレベル WriteProvisionedThroughputExceeded 指定された期間にストリームのスロットリングにより拒否されたレコードの数 このには PutRecord および PutRecords オペレーションのスロットリングも含まれます こので最も一般的に使用される統計は Average です Minimum の統計がゼロ以外の値の場合 指定された期間にストリームについてレコードが調整中でした Maximum の統計の値が 0 ( ゼロ ) の場合 指定された期間のストリームで どのレコードも調整中ではありませんでした シャードレベル名 : WriteProvisionedThroughputExceeded ディメンション : StreamName 統計 : Minimum Maximum Average Sum Samples 拡張シャードレベル AWS/Kinesis 名前空間には 次のシャードレベルが含まれます Kinesis は 1 分ごとに次のシャードレベルを CloudWatch に送信します デフォルトでは これらのは有効ではありません Kinesis から発生した拡張には 料金がかかります 詳細については Amazon CloudWatch カスタム の Amazon CloudWatch 料金表 を参照してください 料金は 1 ヶ月あたりのシャードごとに表示されます IncomingBytes 指定された期間に シャードに正常に送信されたバイト数 このには PutRecord および PutRecords オペレーションのバイト数も含まれます Minimum Maximum および Average の統計は 指定した期間内のシャードの単一 put オペレーションでのバイト数です ストリームレベル名 : IncomingBytes ディメンション : StreamName ShardId 統計 : Minimum Maximum Average Sum Samples 単位 : バイト IncomingRecords 指定された期間に シャードに正常に送信されたレコードの数 このには PutRecord および PutRecords オペレーションのレコード数も含まれます Minimum Maximum および Average の統計は 指定した期間内のシャードの単一 put オペレーションでのレコード数です ストリームレベル名 : IncomingRecords 242

252 拡張シャードレベル ディメンション : StreamName ShardId 統計 : Minimum Maximum Average Sum Samples IteratorAgeMilliseconds シャードに対して行われたすべての GetRecords 呼び出しの最後のレコードの期間 ( 指定された時間に測定 ) 期間は 現在の時刻と GetRecords 呼び出しの最後のレコードがストリームに書き込まれた時刻の差です Minimum および Maximum 統計は Kinesis コンシューマーアプリケーションのプロセスを追跡するのに使用できます 値が 0 ( ゼロ ) の場合は 読み取り中のレコードがストリームに完全に追いついていることを示します ストリームレベル名 : GetRecords.IteratorAgeMilliseconds ディメンション : StreamName ShardId 統計 : Minimum Maximum Average Samples 単位 : ミリ秒 OutgoingBytes 指定された期間に測定された シャードから取得したバイト数 Minimum Maximum および Average の統計は 指定した期間内のシャードの単一 GetRecords オペレーションで返されたバイト数または単一の SubscribeToShard イベントで発行されたバイト数です ストリームレベル名 : GetRecords.Bytes ディメンション : StreamName ShardId 統計 : Minimum Maximum Average Sum Samples 単位 : バイト OutgoingRecords 指定された期間に測定された シャードから取得したレコード数 Minimum Maximum および Average の統計は 指定した期間内のシャードの単一 GetRecords オペレーションで返されたレコードまたは単一の SubscribeToShard イベントで発行されたレコードです ストリームレベル名 : GetRecords.Records ディメンション : StreamName ShardId 統計 : Minimum Maximum Average Sum Samples 243

253 Amazon Kinesis のディメンション ReadProvisionedThroughputExceeded 指定された期間のシャードで調整された GetRecords 呼び出し回数 この例外カウントは 1 秒あたり 1 つのシャードあたり 5 回の読み込みまたは 1 つのシャードあたり 1 秒あたり 2 MB の制限のすべてのディメンションを含みます こので最も一般的に使用される統計は Average です Minimum の統計の値が 1 の場合 指定された期間にシャードについてすべてのレコードが調整されました Maximum の統計の値が 0 ( ゼロ ) の場合 指定された期間にシャードについてどのレコードも調整されていません ストリームレベル名 : ReadProvisionedThroughputExceeded ディメンション : StreamName ShardId 統計 : Minimum Maximum Average Sum Samples WriteProvisionedThroughputExceeded 指定された期間にシャードのスロットリングにより拒否されたレコードの数 このには PutRecord および PutRecords オペレーションのスロットリングが含まれ さらに 1 つのシャードあたり 1 秒あたり 1,000 レコードまたは 1 つのシャードあたり 1 秒あたり 1 MB の制限のすべてのディメンションが含まれます こので最も一般的に使用される統計は Average です Minimum の統計がゼロ以外の値の場合 指定された期間にシャードについてレコードが調整中でした Maximum の統計の値が 0 ( ゼロ ) の場合 指定された期間のシャードで どのレコードも調整中ではありませんでした ストリームレベル名 : WriteProvisionedThroughputExceeded ディメンション : StreamName ShardId 統計 : Minimum Maximum Average Sum Samples Amazon Kinesis のディメンション Amazon Kinesis Data Streams のをフィルタするには 次のディメンションを使用できます ディメンション StreamName Kinesis ストリームの名前 ShardId Kinesis ストリーム内のシャード ID 244

254 Amazon Kinesis Video Streams Amazon Kinesis 動画ストリームのとディメンション Metrics The AWS/KinesisVideo namespace includes the following metrics. Metric PutMedia.Requests Description Number of PutMedia API requests for a given stream. Units: Count PutMedia.IncomingBytes Number of bytes received as part of PutMedia for the stream. Units: Bytes PutMedia.IncomingFragments Number of complete fragments received as part of PutMedia for the stream. Units: Count PutMedia.IncomingFrames Number of complete frames received as part of PutMedia for the stream. Units: Count PutMedia.ActiveConnections The total number of connections to the service host. Units: Count PutMedia.ConnectionErrors Errors while establishing PutMedia connection for the stream. Units: Count PutMedia.FragmentIngestionLatency Time difference between when the first and last bytes of a fragment are received by Kinesis ビデオストリーム. Units: Milliseconds PutMedia.FragmentPersistLatency Time taken from when the complete fragment data is received and archived. Units: Count PutMedia.Latency Time difference between the request and the HTTP response from InletService while establishing the connection. Units: Count PutMedia.BufferingAckLatency Time difference between when the first byte of a new fragment is received by Kinesis ビデオストリーム and when the Buffering ACK is sent for the fragment. 245

255 Metrics Metric PutMedia.ReceivedAckLatency Description Units: Milliseconds Time difference between when the last byte of a new fragment is received by Kinesis ビデオストリーム and when the Received ACK is sent for the fragment. Units: Milliseconds PutMedia.PersistedAckLatency Time difference between when the last byte of a new fragment is received by Kinesis ビデオストリーム and when the Persisted ACK is sent for the fragment. Units: Milliseconds PutMedia.ErrorAckCount Number of Error ACKs sent while doing PutMedia for the stream. Units: Count PutMedia.Success 1 for each fragment successfully written; 0 for every failed fragment. The average value of this metric indicates how many complete, valid fragments are sent. Units: Count GetMedia.Requests Number of GetMedia API requests for a given stream. Units: Count GetMedia.OutgoingBytes Total number of bytes sent out from the service as part of the GetMedia API for a given stream. Units: Bytes GetMedia.OutgoingFragments Number of fragments sent while doing GetMedia for the stream. Units: Count GetMedia.OutgoingFrames Number of frames sent during GetMedia on the given stream. Units: Count GetMedia.MillisBehindNow Time difference between the current server time stamp and the server time stamp of the last fragment sent. Units: Milliseconds GetMedia.ConnectionErrors The number of connections that were not successfully established. Units: Count GetMedia.Success 1 for every fragment successfully sent; 0 for every failure. The average value indicates the rate of success. Units: Count 246

256 Metrics Metric Description GetMediaForFragmentList.OutgoingBytes Total number of bytes sent out from the service as part of the GetMediaForFragmentList API for a given stream. Units: Bytes GetMediaForFragmentList.OutgoingFragments Total number of fragments sent out from the service as part of the GetMediaForFragmentList API for a given stream. Units: Count GetMediaForFragmentList.OutgoingFrames Total number of frames sent out from the service as part of the GetMediaForFragmentList API for a given stream. Units: Count GetMediaForFragmentList.Requests Number of GetMediaForFragmentList API requests for a given stream. Units: Count GetMediaForFragmentList.Success 1 for every fragment successfully sent; 0 for every failure. The average value indicates the rate of success. Units: Count ListFragments.Latency Latency of the ListFragments API calls for the given stream name. Units: Milliseconds GetHLSStreamingSessionURL.Latency Latency of the GetHLSStreamingSessionURL API calls for the given stream name. Units: Milliseconds GetHLSStreamingSessionURL.Requests Number of GetHLSStreamingSessionURL API requests for a given stream. Units: Count GetHLSStreamingSessionURL.Success 1 for every successful request; 0 for every failure. The average value indicates the rate of success. Units: Count GetHLSMasterPlaylist.Latency Latency of the GetHLSMasterPlaylist API calls for the given stream name. Units: Milliseconds GetHLSMasterPlaylist.Requests Number of GetHLSMasterPlaylist API requests for a given stream. Units: Count 247

257 Metrics Metric GetHLSMasterPlaylist.Success Description 1 for every successful request; 0 for every failure. The average value indicates the rate of success. Units: Count GetHLSMediaPlaylist.Latency Latency of the GetHLSMediaPlaylist API calls for the given stream name. Units: Milliseconds GetHLSMediaPlaylist.Requests Number of GetHLSMediaPlaylist API requests for a given stream. Units: Count GetHLSMediaPlaylist.Success 1 for every successful request; 0 for every failure. The average value indicates the rate of success. Units: Count GetMP4InitFragment.Latency Latency of the GetMP4InitFragment API calls for the given stream name. Units: Milliseconds GetMP4InitFragment.Requests Number of GetMP4InitFragment API requests for a given stream. Units: Count GetMP4InitFragment.Success 1 for every successful request; 0 for every failure. The average value indicates the rate of success. Units: Count GetMP4MediaFragment.Latency Latency of the GetMP4MediaFragment API calls for the given stream name. Units: Milliseconds GetMP4MediaFragment.Requests Number of GetMP4MediaFragment API requests for a given stream. Units: Count GetMP4MediaFragment.Success 1 for every successful request; 0 for every failure. The average value indicates the rate of success. Units: Count GetMP4MediaFragment.OutgoingBytes Total number of bytes sent out from the service as part of the GetMP4MediaFragment API for a given stream. Units: Bytes 248

258 Amazon Kinesis Video Streams のディメンション Amazon Kinesis Video Streams のディメンション You can use the following dimensions to filter the metrics for Amazon Kinesis Video Streams. Dimension StreamName Description The name of the Kinesis video stream. AWS Key Management Service のとディメンション AWS Key Management Service (AWS KMS) を使用してカスタマーマスターキー (CMK) にキーマテリアルをインポートして有効期限切れになるように設定するときに AWS KMS は CloudWatch にとディメンションを送信します 詳細については AWS Key Management Service Developer Guide の Amazon CloudWatch を使用したモニタリング を参照してください AWS KMS AWS/KMS 名前空間には 次のが含まれます SecondsUntilKeyMaterialExpiration このはインポートしたキーマテリアルの有効期限までの残りの秒数を追跡します このは オリジンが EXTERNAL でキーマテリアルの有効期限が設定された CMK に対してのみ有効です こので最も有用な統計は Minimum で 指定した統計期間のすべてのデータポイントの最小残り時間を示します このの唯一の有効な単位は Seconds です このを使用して インポートしたキーマテリアルの有効期限までの残り時間を追跡します その時間が定義したしきい値を下回った場合は 新しい有効期限を使用してキーマテリアルを再インポートするなどのアクションを実行できます これが発生したときに通知する CloudWatch アラームを作成できます 詳細については Creating CloudWatch Alarms to Monitor AWS KMS Metrics in the AWS Key Management Service Developer Guide を参照してください AWS KMS のディメンション AWS KMS は AWS/KMS 名前空間を使用し 有効なディメンション : KeyId は 1 つだけです このディメンションを使用して 特定の CMK のデータまたは CMK の設定を表示できます AWS Lambda のとディメンション AWS Lambda は 1 分ごとにを CloudWatch に送信します 詳細については AWS Lambda Developer Guide の Amazon CloudWatch を使用した AWS Lambda 関数のトラブルシューティングとモニタリング を参照してください AWS Lambda CloudWatch の AWS/Lambda 名前空間には 次のが含まれます 249

259 AWS Lambda CloudWatch の Invocations イベントまたは API 呼び出しに応じて呼び出される関数の回数を測定します 廃止された RequestCount メトリックが置き換えられます これは 成功したまたは失敗した呼び出しが含まれますが 調整された試行は含まれません これは 関数の課金されるリクエストと等しくなります AWS Lambda は ゼロ以外の値を持つのみを CloudWatch 送信することに注意してください Errors 関数 ( 応答コード 4XX) エラーが原因で失敗した呼び出しの数を測定します これは 廃止された ErrorCount メトリックが置き換えられます 失敗した呼び出しは 成功する再試行のトリガーとなる場合があります ここでは次の点についてします 処理された例外 (context.fail(error) など ) コードの終了を起こす処理されない例外 メモリ不足例外 タイムアウト 権限エラー これには デフォルトの同時オペレーションの制限を超える呼び出しレートによる呼び出し失敗 ( エラーコード 429) または内部サービスエラー ( エラーコード 500) による呼び出し失敗は含まれません DeadLetterErrors Lambda が 失敗したイベントペイロードを設定済みのデッドレターキューに書き込むことができない場合に増分されます これは 次のことが原因の可能性があります 権限エラー ダウンストリームサービスからのスロットリング リソースの設定が不適切 タイムアウト Duration 呼び出しの結果として関数コードが実行を開始してから関数の実行が停止されるまでの実時間を測定します 廃止されるレイテンシーメトリックが置き換えられます データポイントの最大値は関数のタイムアウト設定で設定可能です 課金期間は 100 ミリ秒を単位として切り上げられます AWS Lambda は ゼロ以外の値を持つのみを CloudWatch 送信することに注意してください 単位 : ミリ秒 Throttles お客様の同時オペレーションを超える呼び出しレートのために調整された Lambda 関数の呼び出し試行の回数を測定します ( エラーコード 429) 失敗した呼び出しは 成功する再試行のトリガーとなる場合があります 250

260 AWS Lambda のディメンション IteratorAge ストリームベースの呼び出しのみに対して出力されます (Amazon DynamoDB ストリームまたは Kinesis ストリームによってトリガーされる関数 ) 処理されたレコードの各バッチの最後のレコードの経過日数を測定します 経過日数は Lambda がバッチを受け取った時間と バッチの最後のレコードがストリームに書き込まれた時間の差です 単位 : ミリ秒 ConcurrentExecutions アカウント内のすべての関数とカスタム同時実行制限が指定されている関数の集計として発行されます バージョンまたはエイリアスは該当しません 特定の時点でにおける特定の関数の同時実行の合計を測定します ある期間で集計された場合 平均として表示する必要があります UnreservedConcurrentExecutions アカウント内のすべての関数の集約としてのみ送信されます 機能 バージョン またはエイリアスは該当しません カスタム同時実行制限が指定されていない関数の同時実行数の合計を表します ある期間で集計された場合 平均として表示する必要があります エラー / 呼び出し率 Lambda 関数呼び出し時のエラー率を計算する際は 呼び出しのリクエストと実際の呼び出しを区別することが重要です エラー率は 課金される Lambda 関数の呼び出しの数を超える可能性があります Lambda は Lambda 関数コードが実行された場合にのみ呼び出しのをレポートします 呼び出しのリクエストによってスロットリングなどの初期化エラーが生じ Lambda 関数コードが呼び出されない場合 Lambda はエラーをレポートしますが 呼び出しを記録しません Lambda は 関数が実行されると Invocations=1 を送信します Lambda 関数が実行されない場合は 何も送信されません Lambda は 各呼び出しリクエストについて Errors のデータポイントを送信します Errors=0 は 関数実行エラーが存在しないことを意味します Errors=1 は 関数エラーが存在することを意味します Lambda は 各呼び出しリクエストについて Throttles のデータポイントを送信します Throttles=0 は 呼び出しのスロットルが存在しないことを意味します Throttles=1 は 呼び出しのスロットルが存在することを意味します AWS Lambda のディメンション Lambda のデータは 下の表にあるいずれかのディメンションでフィルタリングできます AWS Lambda CloudWatch ディメンション 次の表のディメンションを使用すると Lambda 関数に対して返されるを絞り込むことができます ディメンション FunctionName Lambda 関数によってデータをフィルタリングします 251

261 Amazon Lex ディメンション Resource ExecutedVersion 関数のバージョンまたはエイリアスなど Lambda 関数リソースによってデータをフィルタリングします Lambda 関数のバージョンによってデータをフィルタリングします これはエイリアスの呼び出しのみに適用されます Amazon Lex の 次の表は Amazon Lex ののです CloudWatch Metrics for Amazon Lex Runtime The following table describes the Amazon Lex runtime metrics. Metric Description RuntimeInvalidLambdaResponses The number of invalid Lambda responses in the specified period. Valid dimension for the PostContentoperation with the Text or Speech InputMode: BotName, BotAlias, Operation, InputMode Valid dimension for the PostText operation: BotName, BotAlias, Operation RuntimeLambdaErrors The number of AWS Lambda runtime errors in the specified period. Valid dimension for the PostContent operation with the Text or Speech InputMode : BotName, BotAlias, Operation, InputMode Valid dimension for the PostText operation: BotName, BotAlias, Operation MissedUtteranceCount The number of utterances that were not recognized in the specified period. Valid dimensions for the PostContent operation with the Text or Speech InputMode: BotName, BotVersion, Operation, InputMode BotName, BotAlias, Operation, InputMode Valid dimensions for the PostText operation: BotName, BotVersion, Operation BotName, BotAlias, Operation RuntimePollyErrors The number of invalid Amazon Polly responses in the specified period. 252

262 Runtime Metrics for Amazon Lex Metric Description Valid dimension for the PostContent operation with the Text or Speech InputMode: BotName, BotAlias, Operation, InputMode Valid dimension for the PostText operation: BotName, BotAlias, Operation RuntimeRequestCount The number of runtime requests in the specified period. Valid dimensions for the PostContent operation with the Text or Speech InputMode: BotName, BotVersion, Operation, InputMode BotName, BotAlias, Operation, InputMode Valid dimensions for the PostText operation: BotName, BotVersion, Operation BotName, BotAlias, Operation Unit: Count RuntimeSucessfulRequestLatency The latency for successful requests between the time that the request was made and the response was passed back. Valid dimensions for the PostContent operation with the Text or Speech InputMode: BotName, BotVersion, Operation, InputMode BotName, BotAlias, Operation, InputMode Valid dimensions for the PostText operation: BotName, BotVersion, Operation BotName, BotAlias, Operation Unit: Milliseconds 253

263 Runtime Metrics for Amazon Lex Metric RuntimeSystemErrors Description The number of system errors in the specified period. The response code range for a system error is 500 to 599. Valid dimension for the PostContent operation with the Text or Speech InputMode: BotName, BotAlias, Operation, InputMode Valid dimension for the PostText operation: BotName, BotAlias, Operation Unit: Count RuntimeThrottledEvents The number of throttled requests. Amazon Lex throttles a request when it receives more requests than the limit of transactions per second set for your account. If the limit set for your account is frequently exceeded, you can request a limit increase. To request an increase, see AWS Service Limits. Valid dimension for the PostContent operation with the Text or Speech InputMode: BotName, BotAlias, Operation, InputMode Valid dimension for the PostText operation: BotName, BotAlias, Operation Unit: Count RuntimeUserErrors The number of user errors in the specified period. The response code range for a user error is 400 to 499. Valid dimension for the PostContent operation with Text or Speech InputMode: BotName, BotAlias, Operation, InputMode Valid dimension for the PostText operation: BotName, BotAlias, Operation Unit: Count Amazon Lex runtime metrics use the AWS/Lex namespace, and provide metrics in the following dimensions. You can group metrics by dimenstions in the CloudWatch console: 254

264 Channel Association Metrics for Amazon Lex Dimension BotName, BotAlias, Operation, InputMode BotName, BotVersion, Operation, InputMode BotName, BotVersion, Operation BotName, BotAlias, Operation Description Groups metrics by the bot's alias, the bot's name, the operation (PostContent), and by whether the input was text or speech. Groups metrics by the bot's name, the version of the bot, the operation (PostContent), and by whether the input was text or speech. Groups metrics by the bot's name, the bots version, and by the operation, PostText. Groups metrics by the bot's name, the bot's alias, and by the operation, PostText. CloudWatch Metrics for Amazon Lex Channel Associations A channel association is the association between Amazon Lex and a messaging channel, such as Facebook. The following table describes the Amazon Lex channel association metrics. Metric BotChannelAuthErrors Description The number of authentication errors returned by the messaging channel in the specified time period. An authentication error indicates that the secret token provided during channel creation is invalid or has expired. BotChannelConfigurationErrors The number of configuration errors in the specified period. A configuration error indicates that one or more configuration entries for the channel are invalid. BotChannelInboundThrottledEvents The number of times that messages that were sent by the messaging channel were throttled by Amazon Lex in the specified period. BotChannelOutboundThrottledEvents The number of times that outbound events from Amazon Lex to the messaging channel were throttled in the specified time period. BotChannelRequestCount The number of requests made on a channel in the specified time period. BotChannelResponseCardErrors The number of times that Amazon Lex could not post response cards in the specified period. BotChannelSystemErrors The number of internal errors that occurred in Amazon Lex for a channel in the specified period. Amazon Lex channel association metrics use the AWS/Lex namespace, and provide metrics for the following dimension. You can group metrics by dimenstions in the CloudWatch console:: Dimension BotAlias, BotChannelName, BotName, Source Description Group metrics by the bot's alias, the channel name, the bot's name, and by the source of traffic. 255

265 Amazon Machine Learning Amazon Machine Learning のとディメンション Amazon Machine Learning はを 5 分ごとに CloudWatch に送信します 詳細については Amazon Machine Learning Developer Guide の Amazon CloudWatch による Amazon ML のモニタリング を参照してください Amazon ML AWS/ML 名前空間には 次のが含まれます PredictCount 指定した期間に Amazon ML によって受け取られた監視の数 PredictFailureCount 指定された期間に Amazon ML によって受け取られた 無効または正しい形式ではない監視の数 Amazon Machine Learning のディメンション Amazon ML のデータは 下の表にあるいずれかのディメンションでフィルタリングできます ディメンション MLModelId RequestMode Amazon ML モデルの識別子 使用可能なすべての統計が MLModelId によってフィルタリングされます 監視がバッチ予測リクエストの一部として受け取られたか リアルタイムの予測リクエストとして受け取られたかを示すインジケータ 使用可能なすべての統計が RequestMode によってフィルタリングされます Amazon MQ の Amazon MQ と Amazon CloudWatch は統合されているため CloudWatch を使用して ActiveMQ ブローカーのおよびブローカーの送信先 ( キューとトピック ) を表示して分析できます CloudWatch コンソール AWS CLI または CloudWatch CLI を使用して Amazon MQ を表示 分析できます Amazon MQ の CloudWatch は 1 分おきにブローカーから自動的にポーリングされ CloudWatch にプッシュされます 詳細については Amazon MQ 開発者ガイドの CloudWatch を使用した Amazon MQ のモニタリング を参照してください Note 次の統計はすべてのに対して有効です Average 256

266 Broker Metrics Minimum Maximum Sum AWS/AmazonMQ 名前空間には 次のが含まれます Broker Metrics Metric Unit Description CpuCreditBalance Credits (vcpu-minutes) Important This metric is available only for the mq.t2.micro broker instance type. CPU credit metrics are available only at fiveminute intervals. The number of earned CPU credits that an instance has accrued since it was launched or started (including the number of launch credits). The credit balance is available for the broker instance to spend on bursts beyond the baseline CPU utilization. Credits are accrued in the credit balance after they're earned and removed from the credit balance after they're spent. The credit balance has a maximum limit. Once the limit is reached, any newly earned credits are discarded. CpuUtilization Percent The percentage of allocated EC2 compute units that the broker currently uses. CurrentConnectionsCount Count The current number of active connections on the current broker. HeapUsage Percent The percentage of the ActiveMQ JVM memory limit that the broker currently uses. NetworkIn Bytes The volume of incoming traffic for the broker. NetworkOut Bytes The volume of outgoing traffic for the broker. 257

267 Destination (Queue and Topic) Metrics Metric Unit Description TotalConsumerCount Count The number of message consumers subscribed to destinations on the current broker. TotalMessageCount Count The number of messages stored on the broker. TotalProducerCount Count The number of message producers active on destinations on the current broker. Dimension for Broker Metrics Dimension Broker Description The name of the broker. Note A single-instance broker has the suffix -1. An active-standby broker for high availability has the suffixes -1 and -2 for its redundant pair. Destination (Queue and Topic) Metrics Important The following metrics record only values since CloudWatch polled the metrics last: EnqueueCount ExpiredCount DequeueCount DispatchCount Metric Unit Description ConsumerCount Count The number of consumers subscribed to the destination. EnqueueCount Count The number of messages sent to the destination. EnqueueTime Time (milliseconds) The amount of time it takes the broker to accept a message from the producer and send it to the destination. 258

268 AWS OpsWorks Metric Unit Description ExpiredCount Count The number of messages that couldn't be delivered because they expired. DispatchCount Count The number of messages sent to consumers. DequeueCount Count The number of messages acknowledged by consumers. MemoryUsage Percent The percentage of the memory limit that the destination currently uses. ProducerCount Count The number of producers for the destination. QueueSize Count The number of messages in the queue. Important This metric applies only to queues. Dimensions for Destination (Queue and Topic) Metrics Dimension Broker Description The name of the broker. Note A single-instance broker has the suffix -1. An active-standby broker for high availability has the suffixes -1 and -2 for its redundant pair. Topic or Queue The name of the topic or queue. AWS OpsWorks のとディメンション AWS OpsWorks は アクティブな各スタックのを毎分 CloudWatch に送信します 詳細モニタリングはデフォルトで有効にされています 詳細については AWS OpsWorks ユーザーガイド の Monitoring を参照してください AWS OpsWorks Stacks の AWS OpsWorks Stacks は 次のを 5 分ごとに CloudWatch に送信します 259

269 AWS OpsWorks Stacks の CPU の cpu_idle CPU がアイドル状態の時間の割合 有効なディメンション : を表示する個々のリソースの ID (StackId LayerId InstanceId) 有効な統計 : Average Minimum Maximum Sum または Data Samples 単位 : なし cpu_nice スケジュールの優先度が低い正の nice 値を持つプロセスを CPU が処理する時間の割合 この値が持つ意味の詳細については nice (Unix) を参照してください 有効なディメンション : を表示する個々のリソースの ID (StackId LayerId InstanceId) 有効な統計 : Average Minimum Maximum Sum または Data Samples 単位 : なし cpu_steal 増加するインスタンス数に対して AWS によってハイパーバイザーの CPU リソースが割り当てられると 仮想化負荷が増加し ハイパーバイザーがインスタンス上で要求された作業を実行できる頻度に影響することがあります cpu_steal では 物理的な CPU リソースがハイパーバイザーによって割り当てられるまでインスタンスが待機する時間の割合が測定されます 有効なディメンション : を表示する個々のリソースの ID (StackId LayerId InstanceId) 有効な統計 : Average Minimum Maximum Sum または Data Samples 単位 : なし cpu_system CPU がシステム操作を処理する時間の割合 有効なディメンション : を表示する個々のリソースの ID (StackId LayerId InstanceId) 有効な統計 : Average Minimum Maximum Sum または Data Samples 単位 : なし cpu_user CPU がユーザー操作を処理する時間の割合 有効なディメンション : を表示する個々のリソースの ID (StackId LayerId InstanceId) 有効な統計 : Average Minimum Maximum Sum または Data Samples 260

270 AWS OpsWorks Stacks の cpu_waitio 単位 : なし CPU が入力 / 出力操作を処理する時間の割合 有効なディメンション : を表示する個々のリソースの ID (StackId LayerId InstanceId) 有効な統計 : Average Minimum Maximum Sum または Data Samples 単位 : なし メモリの memory_buffers バッファされたメモリの量 有効なディメンション : を表示する個々のリソースの ID (StackId LayerId InstanceId) 有効な統計 : Average Minimum Maximum Sum または Data Samples 単位 : なし memory_cached キャッシュされたメモリの量 有効なディメンション : を表示する個々のリソースの ID (StackId LayerId InstanceId) 有効な統計 : Average Minimum Maximum Sum または Data Samples 単位 : なし memory_free 空きメモリの量 有効なディメンション : を表示する個々のリソースの ID (StackId LayerId InstanceId) 有効な統計 : Average Minimum Maximum Sum または Data Samples 単位 : なし memory_swap スワップ領域の量 有効なディメンション : を表示する個々のリソースの ID (StackId LayerId InstanceId) 有効な統計 : Average Minimum Maximum Sum または Data Samples 単位 : なし memory_total メモリの合計量 261

271 AWS OpsWorks Stacks の 有効なディメンション : を表示する個々のリソースの ID (StackId LayerId InstanceId) 有効な統計 : Average Minimum Maximum Sum または Data Samples 単位 : なし memory_used 使用中のメモリの量 有効なディメンション : を表示する個々のリソースの ID (StackId LayerId InstanceId) 有効な統計 : Average Minimum Maximum Sum または Data Samples 単位 : なし ロードの load_1 1 分間の平均負荷 有効なディメンション : を表示する個々のリソースの ID (StackId LayerId InstanceId) 有効な統計 : Average Minimum Maximum Sum または Data Samples 単位 : なし load_5 5 分間の平均負荷 有効なディメンション : を表示する個々のリソースの ID (StackId LayerId InstanceId) 有効な統計 : Average Minimum Maximum Sum または Data Samples 単位 : なし load_15 15 分間を超えるロードアベレージ 有効なディメンション : を表示する個々のリソースの ID (StackId LayerId InstanceId) 有効な統計 : Average Minimum Maximum Sum または Data Samples 単位 : なし プロセスの procs アクテイブなプロセスの数 262

272 AWS OpsWorks のディメンション 有効なディメンション : を表示する個々のリソースの ID (StackId LayerId InstanceId) 有効な統計 : Average Minimum Maximum Sum または Data Samples 単位 : なし AWS OpsWorks のディメンション AWS OpsWorks のデータは 下の表にあるいずれかのディメンションでフィルタリングできます ディメンション StackId LayerId InstanceId スタックの平均値 レイヤーの平均値 インスタンスの平均値 Amazon Polly の Amazon Polly はを CloudWatch に送信します 詳細については Amazon Polly 開発者ガイド を参照してください Amazon Polly Amazon Polly は リクエストごとに次のを生成します これらのは集約され 1 分間隔で CloudWatch に送信されて AWS/Polly 名前空間で利用されます RequestCharacters リクエスト内の文字数 これは請求可能な文字のみで SSML のタグは含まれません 有効なディメンション : オペレーション 有効な統計 : Minimum Maximum Average SampleCount Sum 単位 : 個 ResponseLatency リクエストの作成時からストリーミングレスポンスの開始時までのレイテンシー 有効なディメンション : オペレーション 有効な統計 : Minimum Maximum Average SampleCount 単位 : ミリ秒 263

273 Amazon Polly のディメンション 2XXCount 正常なレスポンスに応じて返される HTTP 200 レベルコード 有効なディメンション : オペレーション 有効な統計 : Average SampleCount Sum 単位 : 個 4XXCount エラーに応じて返される HTTP 400 レベルエラーコード 正常な応答ごとに ゼロ (0) が出力されます 有効なディメンション : オペレーション 有効な統計 : Average SampleCount Sum 単位 : 個 5XXCount エラーに応じて返される HTTP 500 レベルエラーコード 正常な応答ごとに ゼロ (0) が出力されます 有効なディメンション : オペレーション 有効な統計 : Average SampleCount Sum 単位 : 個 Amazon Polly のディメンション Amazon Polly は以下のディメンションのを提供します ディメンション Operation は 参照先の API メソッド別にグループ化されます 想定される値は SynthesizeSpeech PutLexicon DescribeVoices などです Amazon Redshift のとディメンション Amazon Redshift は アクティブな各クラスターのを毎分 CloudWatch に送信します 詳細モニタリングはデフォルトで有効にされています 詳細については Amazon Redshift Cluster Management Guide の Amazon Redshift クラスターパフォーマンスのモニタリング を参照してください Amazon Redshift AWS/Redshift 名前空間には 次のが含まれます 264

274 Amazon Redshift CPUUtilization CPU 使用率 このは クラスターに対するすべてのノード ( リーダーおよびコンピューティング ) の CPU 使用率の値の集計を表します 単位 : パーセント ディメンション : NodeID, ClusterIdentifier DatabaseConnections クラスターへのデータベース接続の数 ディメンション : ClusterIdentifier HealthStatus クラスターの状態を示します クラスターは毎分データベースに接続し 簡単なクエリを実行します この操作を正しく実行できる場合 クラスターは正常な状態であると見なされます それ以外の場合 クラスターは正常な状態ではありません 正常でない状態が発生する可能性があるのは クラスターデータベースに極端に高い負荷がかかっているか クラスター上のデータベースに設定の問題がある場合です Note Amazon CloudWatch では このは 1 または 0 と報告されますが Amazon CloudWatch コンソールでは このメトリックはわかりやすくするために HEALTHY または UNHEALTHY という単語で表示されます このが Amazon CloudWatch コンソールで表示される場合 サンプリング平均は無視され HEALTHY または UNHEALTHY のみが表示されます Amazon CloudWatch では サンプリングの問題により 1 または 0 以外の値が発生する場合があります HealthStatus に対して 1 未満の値は 0 (UNHEALTHY) と報告されます 単位 : 1/0 (Amazon CloudWatch コンソールでは HEALTHY/UNHEALTHY) ディメンション : ClusterIdentifier MaintenanceMode クラスターがメンテナンスモードかどうかを示します Note Amazon CloudWatch では このは 1 または 0 と報告されますが Amazon CloudWatch コンソールでは このメトリックはわかりやすくするために ON または OFF という単語で表示されます このが Amazon CloudWatch コンソールで表示される場合 サンプリング平均は無視され ON または OFF のみが表示されます Amazon CloudWatch では サンプリングの問題により 1 または 0 以外の値が発生する場合があります MaintenanceMode に対して 0 より大きい値は 1 (ON) と報告されます 単位 : 1/0 (Amazon CloudWatch コンソールでは ON/OFF) 265

275 Amazon Redshift ディメンション : ClusterIdentifier NetworkReceiveThroughput ノードまたはクラスターがデータを受け取るレート 単位 : バイト / 秒 (Amazon CloudWatch コンソールでは MB/ 秒 ) ディメンション : NodeID, ClusterIdentifier NetworkTransmitThroughput ノードまたはクラスターがデータを書き込むレート 単位 : バイト / 秒 (Amazon CloudWatch コンソールでは MB/ 秒 ) ディメンション : NodeID, ClusterIdentifier PercentageDiskSpaceUsed 使用中のディスク容量の割合 単位 : パーセント ディメンション : NodeID, ClusterIdentifier QueriesCompletedPerSecond このはクエリスループットの決定に使用されます このは 5 分間隔でレポートされる 1 秒あたりの平均クエリ完了数です 単位 : 回 / 秒 ディメンション : レイテンシー QueryDuration クエリを完了するまでの平均時間 5 分間隔で報告されます 単位 : マイクロ秒 ディメンション : レイテンシー QueryRuntimeBreakdown 過去 5 分間にすべての実行中のクエリが実行のさまざまな段階で費やした時間 単位 : ミリ秒 ディメンション : ステージ ReadIOPS 1 秒あたりのディスク読み取り操作の平均回数 単位 : 回 / 秒 ディメンション : NodeID ReadLatency ディスク読み取り I/O 操作にかかる平均時間 単位 : Seconds ディメンション : NodeID ReadThroughput 1 秒あたりのディスクからの平均読み取りバイト数 単位 : バイト (Amazon CloudWatch コンソールでは GB/ 秒 ) ディメンション : NodeID 266

276 Amazon Redshift のディメンション WLMQueriesCompletedPerSecond このはワークロード管理キューのクエリスループットの決定に使用されます このは 5 分間隔でレポートされる ワークロード管理 (WLM) キューの 1 秒あたりの平均クエリ完了数です 単位 : 回 / 秒 ディメンション : wlmid WLMQueryDuration ワークロード管理 (WLM) キューのクエリを完了するまでの平均時間 5 分間隔で報告されます 単位 : マイクロ秒 ディメンション : wlmid WLMQueueLength ワークロード管理 (WLM) キュー内のクエリ数 ディメンション : service class WriteIOPS 1 秒あたりのディスク書き込み操作の平均回数 単位 : 回 / 秒 ディメンション : NodeID WriteLatency ディスク書き込み I/O 操作にかかる平均時間 単位 : Seconds ディメンション : NodeID WriteThroughput 1 秒あたりのディスクへの平均書き込みバイト数 単位 : バイト (Amazon CloudWatch コンソールでは GB/ 秒 ) ディメンション : NodeID Amazon Redshift のディメンション Amazon Redshift のデータは 下の表にあるいずれかのディメンションでフィルタリングできます Amazon Redshift のデータは 次の表にあるいずれかのディメンションでフィルタリングできます ディメンション latency 値は short medium long です short は 10 秒未満 medium は 10 秒 ~10 分 long は 10 分を超える期間です NodeID フィルタにより クラスターのノードに固有のデータが要求されました NodeID は "Leader" "Shared" または "Compute-N" のいずれかになります ここで N はクラスターのノード数を表す です "Shared" は クラスターには 1 つのノードのみがあ 267

277 Amazon RDS ディメンション ることを意味します つまり リーダーノードとコンピューティングノードが組み合わされています CPUUtilization NetworkTransmitThroughput および ReadIOPS のは リーダーノードおよびコンピューティングノードに対してのみレポートされます NodeId ディメンションを使用するその他のは コンピューティングノードに対してのみレポートされます ClusterIdentifier service class Stage フィルタにより クラスターに固有のデータが要求されました クラスターに固有のには HealthStatus MaintenanceMode DatabaseConnections があります ノードのでもある このディメンションの全般的な (ReadIOPS など ) は ノードデータの集計を表します これらのは リーダーノードおよびコンピューティングノードの動作を集計するため その解釈には注意が必要です WLM サービスクラスの識別子 クエリの実行ステージ 指定できる値は以下のとおりです QueryPlanning: SQL ステートメントの解析と最適化にかかった時間 QueryWaiting: wlm キューの待機にかかった時間 QueryExecutingRead: 読み込みクエリの実行にかかった時間 QueryExecutingInsert: 挿入クエリの実行にかかった時間 QueryExecutingDelete: 削除クエリの実行にかかった時間 QueryExecutingUpdate: 更新クエリの実行にかかった時間 QueryExecutingCtas: テーブル作成クエリの実行にかかった時間 QueryExecutingUnload: アップロードクエリの実行にかかった時間 QueryExecutingCopy: コピークエリの実行にかかった時間 QueryCommit: コミットにかかった時間 wmlid ワークロード管理キューの ID Amazon RDS のとディメンション Amazon Relational Database Service は アクティブな各データベースインスタンスのを毎分 CloudWatch に送信します 詳細モニタリングはデフォルトで有効にされています 詳細については Amazon RDS ユーザーガイドの DB インスタンスのモニタリング を参照してください Amazon RDS AWS/RDS 名前空間には 次のが含まれます BinLogDiskUsage マスターでバイナリログが占有するディスク領域の量 MySQL リードレプリカに適用されます 268

278 Amazon RDS BurstBalance 単位 : バイト 汎用 SSD (gp2) のバーストバケット I/O クレジットの利用可能パーセント 単位 : パーセント CPUUtilization CPU 使用率 単位 : パーセント CPUCreditUsage [T2 インスタンス ] CPU 使用率に関してインスタンスで消費される CPU クレジットの数 1 つの CPU クレジットは 1 個の vcpu が 100% の使用率で 1 分間実行されること または vcpu 使用率 時間の同等の組み合わせ ( たとえば 1 個の vcpu が 50% の使用率で 2 分間実行されるか 2 個の vcpu が 25% の使用率で 2 分間実行される ) に相当します CPU クレジットは 5 分間隔でのみ利用可能です 5 分を超える期間を指定する場合は Average 統計の代わりに Sum 統計を使用します 単位 : クレジット (vcpu 分 ) CPUCreditBalance [T2 インスタンス ] インスタンスが起動または開始後に蓄積した獲得 CPU クレジットの数 T2 スタンダードの場合 CPUCreditBalance には蓄積された起動クレジットの数も含まれます クレジットは 獲得後にクレジット残高に蓄積され 消費されるとクレジット残高から削除されます クレジットバランスには インスタンスサイズによって決まる上限があります 制限に到達すると 新しいクレジットはすべて破棄されます T2 スタンダードの場合 起動クレジットは制限に対してカウントされません CPUCreditBalance のクレジットは インスタンスがそのベースライン CPU 使用率を超えてバーストするために消費できます インスタンスが実行中の場合 CPUCreditBalance のクレジットは期限切れになりません インスタンスが停止すると CPUCreditBalance は保持されず 蓄積されたすべてのクレジットが失われます CPU クレジットは 5 分間隔でのみ利用可能です 単位 : クレジット (vcpu 分 ) DatabaseConnections 使用中のデータベース接続の数 DiskQueueDepth 未処理のディスク I/O アクセス ( 読み取り / 書き込みリクエスト ) の数 FreeableMemory 使用可能な RAM の容量 単位 : バイト 269

279 Amazon RDS FreeStorageSpace 使用可能なストレージ領域の容量 単位 : バイト MaximumUsedTransactionIDs 使用された最大のトランザクション ID PostgreSQL に適用されます NetworkReceiveThroughput モニタリングとレプリケーションに使用する顧客データベーストラフィックと Amazon RDS トラフィックの両方を含む DB インスタンスの受信ネットワークトラフィック 単位 : バイト / 秒 NetworkTransmitThroughput モニタリングとレプリケーションに使用する顧客データベーストラフィックと Amazon RDS トラフィックの両方を含む DB インスタンスの送信ネットワークトラフィック 単位 : バイト / 秒 OldestReplicationSlotLag 受信した WAL データに関して最も遅延の大きいレプリカの遅延サイズ PostgreSQL に適用されます 単位 : メガバイト ReadIOPS 1 秒あたりのディスク読み取り I/O 操作の平均回数 /Second ReadLatency 1 回のディスク I/O 操作にかかる平均時間 単位 : Seconds ReadThroughput 1 秒あたりのディスクからの平均読み取りバイト数 単位 : バイト /Second ReplicaLag ソース DB インスタンスからリードレプリカ DB インスタンスまでのラグ MySQL MariaDB PostgreSQL リードレプリカに適用 単位 : Seconds ReplicationSlotDiskUsage レプリケーションスロットファイルで使用されているディスク容量 PostgreSQL に適用されます 単位 : メガバイト SwapUsage DB インスタンスで使用するスワップ領域の量 このは SQL Server では利用できません 単位 : バイト TransactionLogsDiskUsage トランザクションログで使用されているディスク容量 PostgreSQL に適用されます 単位 : メガバイト 270

280 Amazon Aurora TransactionLogsGeneration1 秒あたりに生成されるトランザクションログのサイズ PostgreSQL に適用されます 単位 : メガバイト / 秒 WriteIOPS 1 秒あたりのディスク書き込み I/O 操作の平均回数 /Second WriteLatency 1 回のディスク I/O 操作にかかる平均時間 単位 : Seconds WriteThroughput 1 秒あたりのディスクへの平均書き込みバイト数 単位 : バイト /Second Amazon Aurora AWS/RDS 名前空間には Amazon Aurora で実行されるデータベースエンティティに適用される次のが含まれます Applies to ActiveTransactions Aurora データベースインスタンスで実行されている現在のトランザクションの 1 秒あたりの平均数 AuroraBinlogReplicaLag ソース DB クラスターから Aurora と MySQL の互換性で実行されるレプリカ DB クラスターまでの遅延 Aurora MySQL Aurora MySQL このには MySQL SHOW SLAVE STATUS コマンドの Seconds_Behind_Master フィールドの値が報告されます このは 異なる AWS リージョン間でレプリケート中の Aurora DB クラスター間のレプリカの遅延をモニタリングするのに役立ちます 詳細については Aurora MySQL のレプリケーション を参照してください AuroraReplicaLag Aurora レプリカについて プライマリインスタンスからアップデートをレプリケートする際の遅延時間 ( ミリ秒単位 ) AuroraReplicaLagMaximum DB クラスター内のプライマリインスタンスと各 Aurora DB インスタンス間の最大遅延時間 ( ミリ秒単位 ) AuroraReplicaLagMinimum DB クラスター内のプライマリインスタンスと各 Aurora DB インスタンス間の最小遅延時間 ( ミリ秒単位 ) BinLogDiskUsage マスターでバイナリログが占有するディスク領域の量 ( バイト単位 ) Aurora MySQL および Aurora PostgreSQL Aurora MySQL および Aurora PostgreSQL Aurora MySQL および Aurora PostgreSQL Aurora MySQL 271

281 Amazon Aurora Applies to BacktrackChangeRecordsCreationRate DB クラスターで 5 分間に作成されたバックトラック変更レコードの数 BacktrackChangeRecordsStored DB クラスターで使用されたバックトラック変更レコードの実際の数 BacktrackWindowActual ターゲットバックトラックウィンドウと実際のバックトラックウィンドウの差異 BacktrackWindowAlert 指定された期間の 実際のバックトラックウィンドウがターゲットバックトラックウィンドウより小さかった回数 BlockedTransactions 1 秒あたりのブロックされたデータベース内のトランザクションの平均数 BufferCacheHitRatio バッファキャッシュから提供されたリクエストの割合 ( パーセント ) CommitLatency コミット操作のレイテンシー ( ミリ秒 ) Aurora MySQL Aurora MySQL Aurora MySQL Aurora MySQL Aurora MySQL Aurora MySQL および Aurora PostgreSQL Aurora MySQL および Aurora PostgreSQL CommitThroughput 1 秒あたりのコミット操作の平均回数 Aurora MySQL および Aurora PostgreSQL CPUCreditBalance インスタンスが累積される CPU クレジット数 このは db.t2.small および db.t2.medium インスタンスにのみ適用されます また 指定されたレートのベースラインパフォーマンスレベルを超えて Aurora MySQL DB インスタンスがバーストできる期間を判断するために使用されます Note Aurora MySQL CPU クレジットは 5 分間隔で報告されます CPUCreditUsage 指定した期間に消費される CPU クレジット数 このは db.t2.small および db.t2.medium インスタンスにのみ適用されます また Aurora MySQL DB インスタンスに割り当てられた仮想 CPU による命令処理に使用される物理 CPU の時間を識別します Note Aurora MySQL CPU クレジットは 5 分間隔で報告されます CPUUtilizationAurora DB インスタンスによって使用される CPU のパーセント DatabaseConnections Aurora DB インスタンスへの接続の数 Aurora MySQL および Aurora PostgreSQL Aurora MySQL および Aurora PostgreSQL 272

282 Amazon Aurora Applies to DDLLatency データ定義言語 (DDL) リクエストのレイテンシー ( ミリ秒単位 ) リクエストの作成 変更 ドロップなど Aurora MySQL DDLThroughput 1 秒あたりの DDL リクエストの平均数 Aurora MySQL Deadlocks 1 秒あたりのデータベース内のデッドロックの平均回数 Aurora MySQL および Aurora PostgreSQL DeleteLatency DELETE クエリのレイテンシー ( ミリ秒 ) Aurora MySQL DeleteThroughput 1 秒あたりの DELETE クエリの平均回数 Aurora MySQL DiskQueueDepth 未処理のディスクアクセス ( 読み取り / 書き込みリクエスト ) の数 Aurora PostgreSQL DMLLatency 挿入 更新 削除のレイテンシー ( ミリ秒単位 ) Aurora MySQL DMLThroughput 1 秒あたりの挿入 更新 削除の平均回数 EngineUptime インスタンス実行時間 ( 秒単位 ) FreeableMemory 使用可能な RAM の容量 ( バイト単位 ) FreeLocalStorage 一時テーブルおよびログで使用可能なストレージ容量 ( バイト単位 ) Aurora MySQL Aurora MySQL および Aurora PostgreSQL Aurora MySQL および Aurora PostgreSQL Aurora MySQL および Aurora PostgreSQL Aurora DB インスタンスの他の DB エンジンの場合とは異なり このでは 各 DB インスタンスの一時テーブルとログで使用できるストレージの量がレポートされます この値は DB インスタンスクラスによって異なります ( 料金の詳細については Amazon RDS の製品ページ を参照してください ) インスタンスに対してより大きな DB インスタンスクラスを選択することで インスタンス用の空きストレージ容量を増やすことができます InsertLatency INSERT クエリのレイテンシー ( ミリ秒 ) Aurora MySQL InsertThroughput 1 秒あたりの INSERT クエリの平均回数 Aurora MySQL LoginFailures 1 秒あたりの失敗したログインの平均試行回数 MaximumUsedTransactionIDs 最も古い未バキュームトランザクション ID の古さ この値が 2,146,483,648 (2^31-1,000,000) に達した場合 トランザクション ID の循還を防ぐためにデータベースは読み取り専用モードになります 詳細については PostgreSQL ドキュメントの トランザクション ID 循環の失敗を防ぐ を参照してください Aurora MySQL Aurora PostgreSQL 273

283 Amazon Aurora Applies to NetworkReceiveThroughput Aurora MySQL DB クラスター内の各インスタンスが各クライアントから受信したネットワークスループットの量 ( バイト / 秒単位 ) Aurora DB クラスターとクラスターボリューム内のインスタンス間のネットワークトラフィックは このスループットに含まれません NetworkThroughput Aurora MySQL DB クラスター内の各インスタンスが各クライアントで送受信したネットワークスループットの量 ( バイト / 秒単位 ) DB クラスターとクラスターボリューム内のインスタンス間のネットワークトラフィックは このスループットに含まれません NetworkTransmitThroughput Aurora DB クラスター内の各インスタンスが各クライアントに対して送信したネットワークスループットの量 ( バイト / 秒単位 ) DB クラスターとクラスターボリューム内のインスタンス間のネットワークトラフィックは このスループットに含まれません Aurora MySQL および Aurora PostgreSQL Aurora MySQL および Aurora PostgreSQL Aurora MySQL および Aurora PostgreSQL Queries 1 秒あたりに実行されたクエリの平均回数 Aurora MySQL RDSToAuroraPostgreSQLReplicaLag 更新をプライマリ PostgreSQL インスタンスからクラスター内の他のノードにレプリケートする際の遅延量 ( 秒 ) Aurora PostgreSQL ReadIOPS 1 秒あたりのディスク I/O 操作の平均回数 PostgreSQL との互換性がある Aurora は 1 分間隔で読み取りおよび書き込み IOPS を個別に報告します Aurora PostgreSQL ReadLatency 1 回のディスク I/O 操作にかかる平均時間 ReadThroughput1 秒あたりのディスクからの平均読み取りバイト数 ResultSetCacheHitRatio Resultset キャッシュから提供されたリクエストの割合 ( パーセント ) SelectLatency SELECT クエリのレイテンシー ( ミリ秒 ) Aurora PostgreSQL Aurora PostgreSQL Aurora MySQL Aurora MySQL SelectThroughput 1 秒あたりの選択クエリの平均回数 Aurora MySQL SwapUsage Aurora PostgreSQL DB インスタンスで使用するスワップ領域の量 Aurora PostgreSQL TransactionLogsDiskUsage Aurora PostgreSQL DB インスタンスでトランザクションログが占有するディスク領域の量 UpdateLatency UPDATE クエリのレイテンシー ( ミリ秒 ) Aurora PostgreSQL Aurora MySQL UpdateThroughput 1 秒あたりの UPDATE クエリの平均回数 Aurora MySQL 274

284 Amazon RDS Performance Insights Metrics Applies to VolumeBytesUsed Aurora DB インスタンスで使用されたストレージ容量 ( バイト単位 ) Aurora MySQL および Aurora PostgreSQL この値は Aurora DB クラスターのコストに影響します ( 料金の詳細については Amazon RDS の製品ページを参照してください ) VolumeReadIOPs 課金読み取り I/O オペレーションの平均回数は 5 分間隔で報告されます Aurora MySQL および Aurora PostgreSQL 課金読み取りオペレーションはクラスターボリュームレベルで計算され Aurora DB クラスター内のすべてのインスタンスから集計された後 5 分おきに報告されます この値は読み取りオペレーションのを 5 分間受け取ることによって計算されます 課金読み取りオペレーションのを受け取って 300 秒で割ることで 1 秒あたりの課金読み取りオペレーションの回数を決定できます たとえば 課金読み取りオペレーションが 13,686 を返す場合 1 秒あたりの課金読み取りオペレーションは 45 (13,686 / 300 = 45.62) です バッファキャッシュにないデータベースのページをリクエストするクエリの課金読み取りオペレーションが発生するため ストレージからロードする必要があります 課金読み取りオペレーションはストレージからクエリの結果が読み取られるのと同様に急増することがありますが その後バッファキャッシュにロードされます VolumeWriteIOPs クラスターボリュームに対する書き込みディスク I/ O 操作の平均回数は 5 分間隔で報告されます 課金書き込みオペレーションの計算方法の詳細なについては 上記の VolumeReadIOPS のを参照してください Aurora MySQL および Aurora PostgreSQL WriteIOPS 1 秒あたりのディスク I/O 操作の平均回数 Aurora PostgreSQL は 1 分間隔で読み取りおよび書き込み IOPS を個別に報告します Aurora PostgreSQL WriteLatency 1 回のディスク I/O 操作にかかる平均時間 Aurora PostgreSQL WriteThroughput 1 秒あたりのディスクへの平均書き込みバイト数 Aurora PostgreSQL Amazon RDS Performance Insights Metrics The AWS/RDS namespace includes the following metrics that apply to database entities running Amazon RDS Performance Insights. Metric DBLoad Description The average number of active sessions for the DB engine. 275

285 RDS のディメンション Metric DBLoadCPU DBLoadNonCPU Description The number of active sessions where the wait event type is CPU. The number of active sessions where the wait event type is not CPU. RDS のディメンション Amazon RDS のデータは 下の表にあるいずれかのディメンションでフィルタリングできます ディメンション DBInstanceIdentifier DBClusterIdentifier DBClusterIdentifier, Role DatabaseClass EngineName このディメンションを指定すると リクエストしたデータをフィルタリングして 特定のデータベースインスタンスを抽出することができます このディメンションでは 特定の Amazon Aurora DB クラスターからリクエストしたデータをフィルタリングします このディメンションは 特定の Amazon Aurora DB クラスターに対してリクエストするデータをフィルタし インスタンスロール (WRITER/READER) 別にを集計します たとえば クラスターに属するすべての READER インスタンスのを集計できます このディメンションを指定すると リクエストしたデータをフィルタリングして 特定のデータベースクラスに属する全インスタンスを抽出することができます たとえば を組み合わせて db.m1.small というデータベースクラスに属する全インスタンスを抽出することができます このディメンションを指定すると リクエストしたデータをフィルタリングして 特定のエンジン名を有するインスタンスだけを抽出することができます たとえば を組み合わせて mysql というエンジン名を有する全インスタンスを抽出することができます Route 53 のとディメンション Route 53 はを CloudWatch に送信します CloudWatch は デフォルトでは Route 53 の詳細モニタリングを提供します Route 53 は 1 分間のを CloudWatch に送信します 詳細については Amazon Route 53 開発者ガイドの Amazon CloudWatch を使用したヘルスチェックのモニタリング を参照してください Note CloudWatch を使用して Route 53 を取得するには リージョンとして米国東部 ( バージニア北部 ) を選択する必要があります それ以外のリージョンを選択した場合 Route 53 は利用できません また オプションとして Region ディメンションも指定できます 詳細については Route 53 のディメンション (p. 278) を参照してください 276

286 Route 53 Route 53 AWS/Route53 名前空間には 次のが含まれます ChildHealthCheckHealthyCount 計算されたヘルスチェックは Route 53 がモニタリングしているヘルスチェック間で正常なヘルスチェックの数です 有効な統計 : Average ( 推奨 ) Minimum Maximum 単位 : 正常なヘルスチェック ConnectionTime Route 53 ヘルスチェッカーがエンドポイントとの TCP 接続を確立するのにかかった平均時間 ( ミリ秒 ) ヘルスチェックの ConnectionTime は すべてのリージョンまたは選択した地理的リージョンについて確認できます 有効な統計 : Average ( 推奨 ) Minimum Maximum 単位 : ミリ秒 HealthCheckPercentageHealthy Route 53 ヘルスチェッカーが選択したエンドポイントを正常であるとみなす割合 HealthCheckPercentageHealthy は すべてのリージョンについてのみ確認できます ( 選択したリージョンについてのデータは表示できません ) 有効な統計 : Average Minimum Maximum 単位 : パーセント HealthCheckStatus CloudWatch で確認しているヘルスチェックエンドポイントのステータス [1] は正常を示し [0] は異常を示します HealthCheckStatus は すべてのリージョンについてのみ確認できます ( 選択したリージョンについてのデータは表示できません ) 有効な統計 : Minimum 単位 : なし SSLHandshakeTime Route 53 ヘルスチェッカーが SSL ハンドシェイクを完了するまでにかかった平均時間 ( ミリ秒 ) ヘルスチェックの SSLHandshakeTime は すべてのリージョンまたは選択した地理的リージョンについて確認できます 有効な統計 : Average ( 推奨 ) Minimum Maximum 単位 : ミリ秒 TimeToFirstByte Route 53 ヘルスチェッカーが HTTP または HTTPS リクエストへの応答の先頭バイトを受け取るまでにかかった平均時間 ( ミリ秒 ) ヘルスチェックの TimeToFirstByte は すべてのリージョンまたは選択した地理的リージョンについて確認できます 有効な統計 : Average ( 推奨 ) Minimum Maximum 単位 : ミリ秒 277

287 Route 53 のディメンション Route 53 のディメンション Route 53 は AWS/Route53 名前空間を使用して HealthCheckId のを提供します を取得する場合は HealthCheckId ディメンションを入力する必要があります さらに ConnectionTime SSLHandshakeTime および TimeToFirstByte に対して オプションとして Region も指定できます Region を省略すると CloudWatch からすべてのリージョンのが返されます Region を指定すると 指定したリージョンのみのが CloudWatch から返されます 詳細については Amazon Route 53 開発者ガイドの Monitoring Health Checks Using CloudWatch を参照してください Amazon SageMaker のとディメンション Amazon SageMaker はを CloudWatch に送信します 詳細については Amazon SageMaker 開発者ガイドの Amazon CloudWatch を使用した Amazon SageMaker のモニタリング を参照してください Invocation Metrics The AWS/SageMaker namespace includes the following request metrics. Metric Description Invocation4XXErrors The number of InvokeEndpoint requests where the model returned a 4xx HTTP response code. For each 4xx response, 1 is sent; otherwise, 0 is sent. Units: Count Valid statistics: Average, Sum Invocation5XXErrors The number of InvokeEndpoint requests where the model returned a 5xx HTTP response code. For each 5xx response, 1 is sent; otherwise, 0 is sent. Units: Count Valid statistics: Average, Sum Invocations The number of InvokeEndpoint requests sent to a model. To get the total number of requests to the endpoint variant, use the Sum statistic. Units: Count Valid statistics: Sum, Sample Count InvocationsPerInstance The number of invocations sent to a model, normalized by InstanceCount in each ProductionVariant. 1/numberOfInstances is sent as the value on each request, where numberofinstances is the number of active instances for the ProductionVariant behind the endpoint at the time of the request. Units: Count 278

288 Amazon SageMaker Metric ModelLatency Description Valid statistics: Sum The interval of time taken by a model to respond as viewed from. This interval includes the local communication times taken to send the request and to fetch the response from container of a model and the time taken to complete the inference in the container. Units: Microseconds Valid statistics: Average, Sum, Min, Max, Sample Count OverheadLatency The interval of time added to the time taken to respond to a client request by overheads. This interval is measured from the time receives the request until it returns a response to the client, minus the ModelLatency. Overhead latency can vary depending on multiple factors, including request and response payload sizes, request frequency, and authentication/authorization of the request. Units: Microseconds Valid statistics: Average, Sum, Min, Max, Sample Count Dimensions for Invocation Metrics Dimension EndpointName, VariantName Description Filters invocation metrics for a ProductionVariant of the specified endpoint and variant. Instance Metrics The /aws/sagemaker/endpoints and /aws/sagemaker/trainingjobs namespaces include the following metrics. Metric CPUUtilization Description The percentage of CPU units that are used by the containers on an instance. The value can range between 0 and 100, and is multiplied by the number of CPUs. For example, if there are four CPUs, CPUUtilization can range from 0% to 400%. For endpoint variants, the value is the sum of the CPU utilization of the primary and supplementary containers on the instance. For training jobs, the value is the CPU utilization of the Algorithm container on the instance. Units: Percent Valid statistics: Max MemoryUtilizaton The percentage of memory that is used by the containers on an instance. This value can range between 0% and 100%. 279

289 Amazon SES Metric Description For endpoint variants, the value is the sum of the memory utilization of the primary and supplementary containers on the instance. For training jobs, the value is the memory utilization of the Algorithm container on the instance. Units: Percent Valid statistics: Max GPUUtilization The percentage of GPU units that are used by the containers on an instance. The value can range between 0 and 100 and is multiplied by the number of GPUs. For example, if there are four GPUs, GPUUtilization can range from 0% to 400%. For endpoint variants, the value is the sum of the GPU utilization of the primary and supplementary containers on the instance. For training jobs, the value is the GPU utilization of the Algorithm container on the instance. Units: Percent Valid statistics: Max Dimensions for Host Metrics Dimension Host Description For endpoints, the value for this dimension has the format [endpointname]/[ production-variant-name ]/[instance-id]. Use this dimension to filter instance metrics for the specified endpoint, variant, and instance. This dimension format is present only in the /aws/sagemaker/ Endpoints namespace. For training jobs, the value for this dimension has the format [trainingjob-name]/algo-[instance-number-in-cluster]. Use this dimension to filter instance metrics for the specified training job and instance. This dimension format is present only in the /aws/sagemaker/trainingjobs namespace. Amazon Simple Service のとディメンション Amazon Simple Service は特定のデータポイントを CloudWatch に送信します これらのデータポイントは E メール送信アクティビティに関連した重要なを追跡します 詳細については Amazon Simple Service 開発者ガイドの CloudWatch からの Amazon SES イベントデータの取得 を参照してください Amazon SES の 次のは Amazon SES から入手できます 280

290 Amazon SES の 送信 Amazon SES が受け入れて送信しようとしたメッセージの数 この値は 配信メトリックとは異なる場合があります これは メッセージが それを受信したメールサーバーによってバウンスまたは拒否される可能性があるためです 単位 : 個 拒否 ウイルスや悪意のあるコンテンツが含まれていたために Amazon SES が送信しなかったメッセージの数 Amazon SES はウイルスを含むメッセージを最初は受け入れる場合がありますが ウイルスを検出するとすぐに メッセージの処理を停止します Amazon SES は メッセージを拒否すると そのメッセージを受取人のメールサーバーに配信しようとしません 単位 : 個 バウンス ハードバウンスを起こした E メールの数 ハードバウンスは 受信者のメールサーバーによって E メールが永続的に拒否された場合に発生します 単位 : 個 苦情 受信者によってスパムとしてマークされた E メールの数 単位 : 個 配信 Amazon SES が目的の受信者のメールサーバーに正常に配信した E メールの数 単位 : 個 オープン 受信者によって開かれた E メールの数 Amazon SES は オープンイベントを発行する設定セットを使用する場合にのみ このを追跡します さらに Amazon SES は HTML E メールのオープンイベントのみをキャプチャします 単位 : 個 クリック 受信者がリンクをクリックした E メールの数 Amazon SES は クリックイベントを発行する設定セットを使用する場合にのみ このを追跡します さらに Amazon SES は HTML E メールのクリックイベントのみをキャプチャします 単位 : 個 レンダリングの失敗 テンプレートのレンダリングの問題が含まれるため 送信できなかった E メールの数 このイベントタイプは SendTemplated または SendBulkTemplated API オペレーションを使用してテンプレートメールを送信する場合にのみ発生します このイベントタイプは テンプレートデータが見つ 281

291 Amazon SES のディメンション からない場合や テンプレートのパラメーターとデータが一致しない場合に発生します 単位 : 個 Reputation.BounceRate ハードバウンスが発生したメッセージの割合 バウンスした E メールの割合を計算するには Reputation.BounceRate に 100 を乗算します 単位 : パーセント Reputation.ComplaintRate 受信者によってスパムとして報告されたメッセージの割合 苦情をもたらした E メールの割合を計算するには Reputation.ComplaintRate に 100 を乗算します 単位 : パーセント Amazon SES のディメンション CloudWatch は Amazon SES でユーザーが CloudWatch イベント送信先を設定セットに追加する際に指定したディメンション名を使用します 詳細については Amazon SES イベントを発行するための CloudWatch イベント送信先の設定 参照してください Amazon Simple Notification Service のとディメンション Amazon Simple Notification Service は 複数ののデータポイントを CloudWatch に送信します すべてのアクティブなトピックでは 5 分ごとにが CloudWatch に自動送信されます 現在 詳細モニタリング (1 分 ) のは Amazon Simple Notification Service では使用できません トピックは トピックの前回のアクティビティ ( たとえば 任意の API の呼び出し ) から 6 時間はアクティブな状態を保ちます 詳細については Amazon Simple Notification Service 開発者ガイドの Amazon CloudWatch を使用した Amazon SNS のモニタリング を参照してください Amazon SNS Amazon SNS は以下のを CloudWatch に送信します NumberOfMessagesPublished Amazon SNS トピックに対して発行されたメッセージ数 有効な統計 : Sum NumberOfNotificationsDelivered Amazon Amazon SNS トピックからそのトピックにサブスクライブしているエンドポイントに正常に配信されたメッセージ数 282

292 Amazon SNS 配信の試行が成功するには エンドポイントのサブスクリプションでメッセージが許可されている必要があります サブスクリプションでメッセージが許可されるのは a) フィルタポリシーがない場合 または b) メッセージに割り当てられた属性と一致する属性がそのフィルタポリシーに含まれている場合です サブスクリプションでメッセージが拒否された場合 配信の試行はこのに対してカウントされません 有効な統計 : Sum NumberOfNotificationsFailed Amazon SNS が配信に失敗したメッセージの数 Amazon SQS E メール SMS またはモバイルプッシュエンドポイントの場合 Amazon SNS がメッセージ配信の試行を停止すると このが 1 増分されます HTTP または HTTPS エンドポイントの場合 失敗した配信の試行がすべて 初回試行に続く再試行を含め このに対してカウントされます その他のすべてのエンドポイントの場合 メッセージが配信されないと カウントが 1 増加します ( 試行回数には関係ありません ) サブスクリプションフィルタポリシーによって拒否されたメッセージは このに対してカウントされません HTTP エンドポイントの再試行回数は制御できます 詳細については HTTP/HTTPS エンドポイントに対する Amazon SNS 配信再試行ポリシーの設定 を参照してください 有効な統計 : Sum Average NumberOfNotificationsFilteredOut サブスクリプションフィルタポリシーによって拒否されたメッセージの数 メッセージの属性がポリシーの属性と一致しない場合 フィルタポリシーによってメッセージは拒否されます 有効な統計 : Sum Average NumberOfNotificationsFilteredOut- NoMessageAttributes メッセージに属性がないため サブスクリプションフィルタポリシーによって拒否されたメッセージの数 有効な統計 : Sum Average 283

293 Amazon Simple Notification Service のディメンション NumberOfNotificationsFilteredOut- InvalidAttributes メッセージの属性が無効であるため たとえば属性の JSON 形式が正しくないため サブスクリプションフィルタポリシーによって拒否されたメッセージの数 有効な統計 : Sum Average PublishSize 発行されたメッセージのサイズ 単位 : Bytes 有効な統計 : Minimum Maximum Average Count SMSMonthToDateSpentUSD 今月の始めから今日までの SMS メッセージの送信料金 このにアラームを設定すると 今月の始めから今日までの料金が アカウントの毎月の SMS 使用限度に近付いたときに それを知ることができます Amazon SNS が SMS メッセージを送信するとこの限度を超えるコストが発生すると判断した場合 数分以内に SMS メッセージの発行が停止されます 毎月の SMS の使用制限の設定について また AWS での使用制限の引き上げのリクエストについては SMS メッセージングの設定 を参照してください 単位 : USD 有効な統計 : Maximum SMSSuccessRate 正常な SMS メッセージ配信のレート 有効な統計 : Sum Average Data Samples Amazon Simple Notification Service のディメンション Amazon Simple Notification Service は以下のディメンションを CloudWatch に送信します ディメンション Application Application,Platform アプリケーションオブジェクトのフィルタ やなど サポートされるプッシュ通知サービスの 1 つに登録されているアプリケーションやデバイスを表す アプリケーションおよびプラットフォームオブジェクトのフィルタ プラットフォームオブジェクトは やなど サポートされるプッシュ通知サービスで使用される 284

294 Amazon SQS ディメンション Country Platform TopicName SMSType SMS メッセージの宛先国またはリージョンのフィルタ 国またはリージョンは ISO alpha-2 コードで表されます やなどのプッシュ通知サービスで使用されるプラットフォームオブジェクトのフィルタ Amazon SNS トピック名のフィルタ SMS メッセージのメッセージタイプのフィルタ プロモーションまたはトランザクションがあります Amazon SQS のとディメンション Amazon SQS は 複数ののデータポイントを CloudWatch に送信します すべてのアクティブなキューでは 5 分ごとにが CloudWatch に自動送信されます キューは キューの前回のアクティビティ ( たとえば 任意の API の呼び出し ) から 6 時間はアクティブの状態を保ちます 詳細については Amazon Simple Queue Service 開発者ガイドの Amazon CloudWatch を使用した Amazon SQS のモニタリング を参照してください Note 現在 詳細モニタリング (1 分 ) のは Amazon SQS では使用できません この解像度で CloudWatch にリクエストすると データは返されません Amazon SQS AWS/SQS 名前空間には 次のが含まれます ApproximateAgeOfOldestMessage キューで最も古い削除されていないメッセージのおおよその経過期間 Note デッドレターキューの場合 ApproximateAgeOfOldestMessage の値は メッセージがキューに残留した最も長い時間です 単位 : 秒 有効な統計 : Average Minimum Maximum Sum Data Samples (Amazon SQS コンソールにサンプル数として表示されます ) ApproximateNumberOfMessagesDelayed 遅延が発生したため すぐに読み取ることのできない キューのメッセージ数 これは キューが遅延キューとして設定されている場合 またはメッセージが遅延パラメータとともに送信された場合に発生することがあります 285

295 Amazon SQS ApproximateNumberOfMessagesNotVisible 有効な統計 : Average Minimum Maximum Sum Data Samples (Amazon SQS コンソールにサンプル数として表示されます ) 処理中のメッセージの数 メッセージがクライアントに送信されたが まだ削除されていない場合 または表示期限に達していない場合 メッセージは処理中とみなされます 有効な統計 : Average Minimum Maximum Sum Data Samples (Amazon SQS コンソールにサンプル数として表示されます ) ApproximateNumberOfMessagesVisible キューから取得可能なメッセージの数 有効な統計 : Average Minimum Maximum Sum Data Samples (Amazon SQS コンソールにサンプル数として表示されます ) NumberOfEmptyReceives メッセージを返さなかった ReceiveMessage API 呼び出しの数 有効な統計 : Average Minimum Maximum Sum Data Samples (Amazon SQS コンソールにサンプル数として表示されます ) 286

296 Amazon SQS NumberOfMessagesDeleted キューから削除されたメッセージの数 有効な統計 : Average Minimum Maximum Sum Data Samples (Amazon SQS コンソールにサンプル数として表示されます ) Amazon SQS は 有効な受信ハンドルを使用した削除オペレーション ( 重複の削除など ) が成功するたびに NumberOfMessagesDeleted を出力します 以下の場合は NumberOfMessagesDeleted の値が予想より高くなる場合があります 同じメッセージの異なる受信ハンドルごとに DeleteMessage アクションを呼び出した場合 : メッセージを処理する前に可視性タイムアウトが期限切れになると メッセージは再び他のコンシューマが処理して削除できるようになり NumberOfMessagesDeleted の値が増えます 同じ受信ハンドルで DeleteMessage アクションを呼び出した場合 : メッセージを処理して削除した後で同じ受信ハンドルを使用して再び DeleteMessage アクションを呼び出すと 成功ステータスが返され NumberOfMessagesDeleted の値が増えます NumberOfMessagesReceived ReceiveMessage アクションへの呼び出しで返されたメッセージの数 有効な統計 : Average Minimum Maximum Sum Data Samples (Amazon SQS コンソールにサンプル数として表示されます ) NumberOfMessagesSent キューに追加されたメッセージの数 有効な統計 : Average Minimum Maximum Sum Data Samples (Amazon SQS コンソールにサンプル数として表示されます ) 287

297 Amazon SQS のディメンション SentMessageSize キューに追加されたメッセージのサイズ 単位 : Bytes 有効な統計 : Average Minimum Maximum Sum Data Samples (Amazon SQS コンソールにサンプル数として表示されます ) SentMessageSize は 最低 1 つのメッセージがその対応するキューに送信されるまでは CloudWatch コンソールに使用可能なとして表示されないことに注意してください Amazon SQS のディメンション Amazon SQS から CloudWatch に送信される唯一のディメンションは QueueName です つまり 使用可能なすべての統計が QueueName によってフィルタリングされます Amazon Simple Storage Service のとディメンション Amazon Simple Storage Service は 1 日に 1 回 オブジェクトカウントや保存されているバイトなどのいくつかののデータポイントを CloudWatch に送信します 詳細については Amazon Simple Storage Service 開発者ガイドの CloudWatch を使用した Amazon S3 のモニタリング を参照してください バケットの Amazon S3 CloudWatch 日次ストレージ AWS/S3 名前空間には バケットの以下の日次ストレージが含まれます BucketSizeBytes Standard Standard_IA ( アクセスが頻繁でない標準ストレージ ) OneZone_IA ( ゾーンが 1 つでアクセスが頻繁ではないストレージ ) RRS ( 低冗長化ストレージ ) または GLACIER (Glacier ストレージ ) の各ストレージクラスのバケットに保存されたデータ量 ( バイト単位 ) 有効なストレージタイプのフィルタ : StandardStorage GlacierS3ObjectOverhead StandardIAStorage StandardI および GlacierObjectOverhead (StorageType ディメンションを参照 ) 単位 : バイト 有効な統計 : Average NumberOfObjects すべてのストレージクラスのバケットに保存されたオブジェクトの総数 288

298 Amazon S3 CloudWatch リクエストの 有効なストレージタイプのフィルタ : AllStorageTypes (StorageType ディメンションを参照 ) 有効な統計 : Average AWS/S3 名前空間には 次のリクエストが含まれます Amazon S3 CloudWatch リクエストの AllRequests タイプに関係なく Amazon S3 バケットに対して行われた HTTP リクエストの総数 フィルタで設定を使用している場合 このはフィルタの要件を満たすバケット内のオブジェクトに対して行われた HTTP リクエストのみを返します 有効な統計 : Sum GetRequests Amazon S3 バケット内のオブジェクトに対して行われた HTTP GET リクエストの数 これには リストオペレーションは含まれません 単位 : 個 有効な統計 : Sum Note マルチパートアップロードのリスト パートのリスト バケットオブジェクトバージョンの取得など ページ分割されたリスト志向のリクエストは このに含まれません PutRequests Amazon S3 バケット内のオブジェクトに対して行われた HTTP PUT リクエストの数 有効な統計 : Sum DeleteRequests Amazon S3 バケットのオブジェクトに対して行われた HTTP DELETE リクエストの数 これには 複数オブジェクトの削除リクエストも含まれます このは 削除されるオブジェクトの数ではなくリクエストの数を示します 有効な統計 : Sum HeadRequests Amazon S3 バケットに対して行われた HTTP HEAD リクエストの数 有効な統計 : Sum 289

299 Amazon S3 CloudWatch リクエストの PostRequests Amazon S3 バケットに対して行われた HTTP POST リクエストの数 単位 : 個 有効な統計 : Sum Note Delete Multiple Objects リクエストと SELECT Object Content リクエストは このに含まれません SelectRequests Amazon S3 バケットのオブジェクトに対して行われた Amazon S3 の SELECT Object Content リクエストの数 単位 : 個 有効な統計 : Sum SelectScannedBytes Amazon S3 バケットの Amazon S3 の SELECT Object Content リクエストの数でスキャンされたデータのバイト数 単位 : バイト 有効な統計 : Average ( リクエストあたりのバイト数 ) Sum ( 期間あたりのバイト数 ) Sample Count Min Max SelectReturnedBytes Amazon S3 バケットの Amazon S3 の SELECT Object Content リクエストの数で返るデータのバイト数 単位 : バイト 有効な統計 : Average ( リクエストあたりのバイト数 ) Sum ( 期間あたりのバイト数 ) Sample Count Min Max ListRequests バケットの内容をリストする HTTP リクエストの数 有効な統計 : Sum BytesDownloaded Amazon S3 バケットに対して行われた レスポンスに本文が含まれるリクエストに対してダウンロードされたバイト数 単位 : バイト 有効な統計 : Average ( リクエストあたりのバイト数 ) Sum ( 期間あたりのバイト数 ) Sample Count Min Max BytesUploaded Amazon S3 バケットに対して行われた リクエストボディを含むアップロードされたバイト数 単位 : バイト 有効な統計 : Average ( リクエストあたりのバイト数 ) Sum ( 期間あたりのバイト数 ) Sample Count Min Max 290

300 Amazon S3 CloudWatch ディメンション 4xxErrors Amazon S3 バケットに対して行われた 値が 0 または 1 の HTTP 4xx クライアントエラーステータスコードリクエストの数 average 統計はエラーレートを示し sum 統計は各期間中のそのタイプのエラー数を示します 有効な統計 : Average ( リクエストあたりの報告数 ) Sum ( 期間あたりの報告数 ) Min Max Sample Count 5xxErrors Amazon S3 バケットに対して行われた 値が 0 または 1 の HTTP 5xx サーバーエラーステータスコードリクエストの数 average 統計はエラーレートを示し sum 統計は各期間中のそのタイプのエラー数を示します 有効な統計 : Average ( リクエストあたりの報告数 ) Sum ( 期間あたりの報告数 ) Min Max Sample Count FirstByteLatency Amazon S3 バケットがリクエスト全体を受信してからレスポンスの返信が開始するまでのリクエストあたりの時間 単位 : ミリ秒 有効な統計 : Average Sum Min Max Sample Count TotalRequestLatency 最初のバイトが受信されてから Amazon S3 バケットに最後のバイトが送信されるまでのリクエストあたりの経過時間 これには FirstByteLatency には含まれない リクエストボディの受信とレスポンス本文の送信にかかった時間が含まれます 単位 : ミリ秒 有効な統計 : Average Sum Min Max Sample Count Amazon S3 CloudWatch ディメンション 以下のディメンションは Amazon S3 をフィルタリングするために使用されます ディメンション BucketName StorageType このディメンションを指定すると リクエストしたデータがフィルタリングされて 指定のバケットのものだけになります このディメンションを指定すると ストレージのタイプを基にしてバケットに保存したデータがフィルタリングされます タイプは StandardStorage (STANDARD ストレージクラス ) StandardIAStorage (STANDARD_IA ストレージクラス ) OneZoneIAStorage (ONEZONE_IA ストレージクラス ) ReducedRedundancyStorage (REDUCED_REDUNDANCY ストレージクラス ) GlacierStorage (GLACIER ストレージクラス ) および AllStorageTypes です AllStorageTypes タイプには STANDARD STANDARD_IA ONEZONE_IA REDUCED_REDUNDANCY および GLACIER ストレージクラスが含まれます 291

301 AWS Shield アドバンスド ディメンション FilterId このディメンションは プレフィックスやタグなど バケットに対するリクエストに対して指定する設定をフィルタリングします 設定を作成する際に フィルタ ID を指定します 詳細については バケットの設定 を参照してください AWS Shield アドバンスドの CloudWatch で使用可能な Shield アドバンスドの詳細については AWS WAF 開発者ガイドの Shield アドバンスドの を参照してください AWS Step Functions のとディメンション AWS Step Functions に関して次のを入手できます 詳細については AWS Step Functions 開発者ガイドの CloudWatch を使用した Step Functions の監視 を参照してください 実行 AWS/States 名前空間には 以下の Step Functions 実行のが含まれます ExecutionTime 実行の開始時点から終了時点までの間隔 ( ミリ秒単位 ) ExecutionThrottled ExecutionsAborted ExecutionsFailed ExecutionsStarted ExecutionsSucceeded ExecutionsTimedOut 調整済みの StateEntered イベントと再試行回数 これは StateTransition のスロットリングに関連しています 詳細については AWS Step Functions 開発者ガイドの 状態のスロットリングに関連する制限 を参照してください 中断または終了された実行の数 失敗した実行の数 開始された実行の数 正常に完了した実行の数 何らかの理由でタイムアウトした実行の数 Step Functions 実行のディメンション ディメンション StateMachineArn 当該の実行に関するステートマシンの ARN 292

302 アクティビティの アクティビティの AWS/States 名前空間には 以下の Step Functions アクティビティのが含まれます ActivityRunTime アクティビティの開始時点から終了時点までの間隔 ( ミリ秒単位 ) ActivityScheduleTime アクティビティがスケジュール状態に留まる間隔 ( ミリ秒単位 ) ActivityTime ActivitiesFailed アクティビティがスケジュールされてから終了するまでの間隔 ( ミリ秒単位 ) 失敗したアクティビティの数 ActivitiesHeartbeatTimedOut ハートビートタイムアウトが原因でタイムアウトしたアクティビティの数 ActivitiesScheduled ActivitiesStarted ActivitiesSucceeded ActivitiesTimedOut スケジュールされたアクティビティの数 開始されたアクティビティの数 正常に完了したアクティビティの数 終了時にタイムアウトしたアクティビティの数 Step Functions アクティビティのディメンション ディメンション ActivityArn アクティビティの ARN Lambda 関数 AWS/States 名前空間には Step Functions Lambda 関数の以下のが含まれます LambdaFunctionRunTime Lambda 関数の開始時点から終了時点までの間隔 ( ミリ秒単位 ) LambdaFunctionScheduleTime Lambda 関数がスケジュール状態に留まる間隔 ( ミリ秒単位 ) LambdaFunctionTime LambdaFunctionsFailed Lambda 関数がスケジュールされた時点から終了する時点までの間隔 ( ミリ秒単位 ) 失敗した Lambda 関数の数 LambdaFunctionsHeartbeatTimedOut ハートビートタイムアウトが原因でタイムアウトした Lambda 関数の数 LambdaFunctionsScheduled スケジュールされた Lambda 関数の数 LambdaFunctionsStarted 開始された Lambda 関数の数 293

303 Amazon SWF LambdaFunctionsSucceeded 正常に完了した Lambda 関数の数 LambdaFunctionsTimedOut 終了時にタイムアウトした Lambda 関数の数 Step Functions Lambda 関数メトリックスのディメンション ディメンション LambdaFunctionArn Lambda 関数の ARN Amazon SWF のとディメンション AWS/SWF 名前空間には 次の表のが含まれます 詳細については AWS Storage Gateway ユーザーガイドの CloudWatch の Amazon SWF を参照してください DecisionTaskScheduleToStartTime 決定タスクを予定した時刻からワーカーがそれを取得し 開始した時刻までの時間間隔 ( ミリ秒 ) CloudWatch 単位 : Time ディメンション : Domain, WorkflowTypeName, WorkflowTypeVersion 有効な統計 : Average, Minimum, Maximum DecisionTaskStartToCloseTime 決定タスクの開始時刻からクローズ時刻までの時間間隔 ( ミリ秒 ) CloudWatch 単位 : Time ディメンション : Domain, WorkflowTypeName, WorkflowTypeVersion 有効な統計 : Average, Minimum, Maximum DecisionTasksCompleted 完了した決定タスクの数 CloudWatch ディメンション : Domain, WorkflowTypeName, WorkflowTypeVersion 有効な統計 : Sum StartedDecisionTasksTimedOutOnClose 開始したが クローズ時にタイムアウトした決定タスクの数 CloudWatch ディメンション : Domain, WorkflowTypeName, WorkflowTypeVersion 有効な統計 : Sum 294

304 Amazon SWF WorkflowStartToCloseTime ワークフローの開始時刻からクローズ時刻までの時間間隔 ( ミリ秒 ) CloudWatch 単位 : Time ディメンション : Domain, WorkflowTypeName, WorkflowTypeVersion 有効な統計 : Average, Minimum, Maximum WorkflowsCanceled 取り消されたワークフローの数 CloudWatch ディメンション : Domain, WorkflowTypeName, WorkflowTypeVersion 有効な統計 : Sum WorkflowsCompleted 完了したワークフローの数 CloudWatch ディメンション : Domain, WorkflowTypeName, WorkflowTypeVersion 有効な統計 : Sum WorkflowsContinuedAsNew 新規として継続したワークフローの数 CloudWatch ディメンション : Domain, WorkflowTypeName, WorkflowTypeVersion 有効な統計 : Sum WorkflowsFailed 失敗したワークフローの数 CloudWatch ディメンション : Domain, WorkflowTypeName, WorkflowTypeVersion 有効な統計 : Sum WorkflowsTerminated 終了されたワークフローの数 CloudWatch ディメンション : Domain, WorkflowTypeName, WorkflowTypeVersion 有効な統計 : Sum 295

305 Amazon SWF WorkflowsTimedOut 何らかの理由でタイムアウトしたワークフローの数 CloudWatch ディメンション : Domain, WorkflowTypeName, WorkflowTypeVersion 有効な統計 : Sum ActivityTaskScheduleToCloseTime アクティビティのスケジュール時刻からクローズ時刻までの時間間隔 ( ミリ秒 ) CloudWatch 単位 : Time ディメンション : Domain, ActivityTypeName, ActivityTypeVersion 有効な統計 : Average, Minimum, Maximum ActivityTaskScheduleToStartTime アクティビティタスクのスケジュール時刻から開始時刻までの時間間隔 ( ミリ秒 ) CloudWatch 単位 : Time ディメンション : Domain, ActivityTypeName, ActivityTypeVersion 有効な統計 : Average, Minimum, Maximum ActivityTaskStartToCloseTime アクティビティタスクの開始時刻からクローズ時刻までの時間間隔 ( ミリ秒 ) CloudWatch 単位 : Time ディメンション : Domain, ActivityTypeName, ActivityTypeVersion 有効な統計 : Average, Minimum, Maximum ActivityTasksCanceled 取り消されたアクティビティタスクの数 CloudWatch ディメンション : Domain, ActivityTypeName, ActivityTypeVersion 有効な統計 : Sum ActivityTasksCompleted 完了したアクティビティタスクの数 CloudWatch ディメンション : Domain, ActivityTypeName, ActivityTypeVersion 有効な統計 : Sum 296

306 Amazon SWF ActivityTasksFailed 失敗したアクティビティタスクの数 CloudWatch ディメンション : Domain, ActivityTypeName, ActivityTypeVersion 有効な統計 : Sum ScheduledActivityTasksTimedOutOnClose スケジュールされたが クローズ時にタイムアウトしたアクティビティタスクの数 CloudWatch ディメンション : Domain, ActivityTypeName, ActivityTypeVersion 有効な統計 : Sum ScheduledActivityTasksTimedOutOnStart スケジュールされたが 開始時にタイムアウトしたアクティビティタスクの数 CloudWatch ディメンション : Domain, ActivityTypeName, ActivityTypeVersion 有効な統計 : Sum StartedActivityTasksTimedOutOnClose 開始されたが クローズ時にタイムアウトしたアクティビティタスクの数 CloudWatch ディメンション : Domain, ActivityTypeName, ActivityTypeVersion 有効な統計 : Sum StartedActivityTasksTimedOutOnHeartbeat 開始されたが ハートビートタイムアウトのためタイムアウトしたアクティビティタスクの数 CloudWatch ディメンション : Domain, ActivityTypeName, ActivityTypeVersion 有効な統計 : Sum ThrottledEvents スロットルされたリクエストの数 CloudWatch ディメンション : APIName, DecisionName 有効な統計 : Sum 297

307 AWS Storage Gateway ProvisionedBucketSize 1 秒あたりに利用できるリクエストの数 ディメンション : APIName, DecisionName 有効な統計 : Minimum ConsumedCapacity 1 秒あたりのリクエストの数 CloudWatch ディメンション : APIName, DecisionName 有効な統計 : Sum ProvisionedRefillRate バケットで許可される 1 秒あたりのリクエストの数 ディメンション : APIName, DecisionName 有効な統計 : Minimum Amazon SWF でサポートされるディメンションは以下のとおりです ディメンション Domain ActivityTypeName ActivityTypeVersion WorkflowTypeName WorkflowTypeVersion APIName DecisionName TaskListName ワークフローまたはアクティビティが実行中の Amazon SWF ドメインにデータをフィルタリングします アクティビティタイプの名前にデータをフィルタリングします アクティビティタイプのバージョンにデータをフィルタリングします このワークフロー実行のワークフロータイプの名前にデータをフィルタリングします このワークフロー実行のワークフロータイプのバージョンにデータをフィルタリングします 指定された API 名の API にデータをフィルタリングします 指定された決定名にデータをフィルタリングします 指定されたタスクリスト名にデータをフィルタリングします AWS Storage Gateway のとディメンション AWS Storage Gateway は 複数ののデータポイントを CloudWatch に送信します すべてのアクティブなキューでは 5 分ごとにが CloudWatch に自動送信されます 現在 詳細モニタリング (1 分 ) のは AWS Storage Gateway では使用できません 詳細については AWS Storage Gateway ユーザーガイドの AWS Storage Gateway のモニタリング を参照してください 298

308 AWS Storage Gateway AWS Storage Gateway AWS/StorageGateway 名前空間には 次のが含まれます これらのを使用して ゲートウェイについての情報を入手できます 表の項目は 測定機能別にまとめてあります GatewayId または GatewayName ディメンションを各に指定して ゲートウェイのデータを表示します これらのは 5 分間隔で測定できます 適用先.. CacheHitPercent CachePercentUsed CachePercentDirty CloudBytesDownloaded CloudDownloadLatency CloudBytesUploaded キャッシュから提供されたアプリケーション読み取りの割合 サンプリングは レポート期間の最後に行われます 単位 : パーセント ゲートウェイのキャッシュストレージの使用率 サンプリングは レポート期間の最後に行われます 単位 : パーセント AWS に保管されていないゲートウェイのキャッシュの割合 サンプリングは レポート期間の最後に行われます 単位 : パーセント レポートの期間中に AWS からダウンロードされたゲートウェイの圧縮済みの総バイト数 このを Sum 統計と共に使用してスループットを測定し Samples 統計と共に使用して 1 秒あたりの入力 / 出力オペレーション (IOPS) を測定します 単位 : バイト レポートの期間中に AWS からのデータの読み取りにかかった合計時間 ( ミリ秒 ) このを Average 統計と共に使用してレイテンシーを測定します 単位 : ミリ秒 レポートの期間中にから AWS にアップロードされた圧縮済みの総バイト数 ファイル キャッシュボリューム およびテープ ファイル キャッシュボリューム およびテープ ファイル キャッシュボリューム およびテープ ファイル キャッシュボリューム 保管型ボリューム およびテープ ファイル キャッシュボリューム 保管型ボリューム およびテープ ファイル キャッシュボリューム 保管型ボリューム およびテープ 299

309 AWS Storage Gateway 適用先.. このを Sum 統計と共に使用してスループットを測定し Samples 統計と共に使用して IOPS を測定します 単位 : バイト UploadBufferFree CacheFree UploadBufferPercentUsed UploadBufferUsed CacheUsed QueuedWrites ゲートウェイのアップロードバッファの未使用領域の量 サンプリングは レポート期間の最後に行われます 単位 : バイト ゲートウェイのキャッシュストレージの未使用領域の量 サンプリングは レポート期間の最後に行われます 単位 : バイト ゲートウェイのアップロードバッファの使用率 サンプリングは レポート期間の最後に行われます 単位 : パーセント ゲートウェイのアップロードバッファで使用されている総バイト数 サンプリングは レポート期間の最後に行われます 単位 : バイト ゲートウェイのキャッシュストレージで使用されている総バイト数 サンプリングは レポート期間の最後に行われます 単位 : バイト ゲートウェイにあるすべてのボリュームを対象としたレポートの期間の終わりの時点でサンプリングされた AWS への書き込みを待機しているバイト数 このバイト数はゲートウェイの作業ストレージに保存されます 単位 : バイト キャッシュボリュームおよびテープ ファイル キャッシュボリューム およびテープ キャッシュボリュームおよびテープ キャッシュボリュームおよびテープ ファイル キャッシュボリューム およびテープ ファイル キャッシュボリューム 保管型ボリューム およびテープ 300

310 AWS Storage Gateway 適用先.. ReadBytes ReadTime TotalCacheSize WriteBytes WriteTime ゲートウェイにあるすべてのボリュームを対象としたレポートの期間中に内部設置型のアプリケーションから読み取られた総バイト数 このを Sum 統計と共に使用してスループットを測定し Samples 統計と共に使用して IOPS を測定します 単位 : バイト ゲートウェイにあるすべてのボリュームを対象としたレポートの期間中にオンプレミスのアプリケーションからの読み込みオペレーションにかかった合計時間 ( ミリ秒 ) このを Average 統計と共に使用してレイテンシーを測定します 単位 : ミリ秒 キャッシュの総バイト数 サンプリングは レポート期間の最後に行われます 単位 : バイト ゲートウェイにあるすべてのボリュームを対象としたレポートの期間中に内部設置型のアプリケーションに書き込まれた総バイト数 このを Sum 統計と共に使用してスループットを測定し Samples 統計と共に使用して IOPS を測定します 単位 : バイト ゲートウェイにあるすべてのボリュームを対象としたレポートの期間中にオンプレミスのアプリケーションからの書き込みオペレーションにかかった合計時間 ( ミリ秒 ) このを Average 統計と共に使用してレイテンシーを測定します 単位 : ミリ秒 ファイル キャッシュボリューム および保管型ボリューム ファイル キャッシュボリューム および保管型ボリューム ファイル キャッシュボリューム およびテープ ファイル キャッシュボリューム および保管型ボリューム ファイル キャッシュボリューム および保管型ボリューム 301

311 AWS Storage Gateway 適用先.. TimeSinceLastRecoveryPoint 使用可能な最新の復旧ポイントからの時間 詳細については ゲートウェイキャッシュ型が到達不可能なためデータを復旧する場合 を参照してください キャッシュボリュームと保管型ボリューム WorkingStorageFree 単位 : 秒 ゲートウェイの作業ストレージの未使用領域の量 サンプリングは レポート期間の最後に行われます 単位 : バイト 保管型ボリュームのみ WorkingStoragePercentUsed ゲートウェイのアップロードバッファの使用率 サンプリングは レポート期間の最後に行われます 保管型ボリュームのみ WorkingStorageUsed 単位 : パーセント ゲートウェイのアップロードバッファで使用されている総バイト数 サンプリングは レポート期間の最後に行われます 単位 : バイト 保管型ボリュームのみ 次の表で ストレージボリュームについての情報の取得に使用できる AWS Storage Gateway についてします 各に VolumeId ディメンションを指定して ストレージボリュームのデータを表示します キャッシュボリューム保管型ボリューム CacheHitPercent キャッシュから提供されるボリュームからのアプリケーション読み込みオペレーションの割合 サンプリングは レポート期間の最後に行われます はい いいえ ボリュームからのアプリケーション読み込みオペレーションがない割合 このメトリックにより 100 パーセントが報告されます 単位 : パーセント 302

312 AWS Storage Gateway キャッシュボリューム保管型ボリューム CachePercentDirty AWS に保管されていないゲートウェイのキャッシュの割合全体に対するボリュームの割合 サンプリングは レポート期間の最後に行われます はい いいえ ゲートウェイの CachePercentDirty を使用して AWS に保管されていないゲートウェイのキャッシュの割合全体を表示します 詳細については ゲートウェイのモニタリング を参照してください 単位 : パーセント CachePercentUsed ゲートウェイのキャッシュストレージの総使用率に対するボリュームの割合 サンプリングは レポート期間の最後に行われます はい いいえ ゲートウェイの CachePercentUsed を使用して ゲートウェイのキャッシュストレージの総使用率を表示します 詳細については ゲートウェイのモニタリング を参照してください 単位 : パーセント ReadBytes レポートの期間中にオンプレミスのアプリケーションから読み取られた総バイト数 はい はい このを Sum 統計と共に使用してスループットを測定し Samples 統計と共に使用して IOPS を測定します 単位 : バイト 303

313 AWS Storage Gateway キャッシュボリューム保管型ボリューム ReadTime レポートの期間中にオンプレミスのアプリケーションからの読み込みオペレーションにかかった合計時間 ( ミリ秒 ) はい はい このを Average 統計と共に使用してレイテンシーを測定します 単位 : ミリ秒 WriteBytes レポートの期間中にオンプレミスのアプリケーションに書き込まれた総バイト数 はい はい このを Sum 統計と共に使用してスループットを測定し Samples 統計と共に使用して IOPS を測定します 単位 : バイト WriteTime レポートの期間中にオンプレミスのアプリケーションからの書き込みオペレーションにかかった合計時間 ( ミリ秒 ) はい はい このを Average 統計と共に使用してレイテンシーを測定します 単位 : ミリ秒 QueuedWrites レポートの期間の終わりの時点でサンプリングされた AWS への書き込みを待機しているバイト数 はい はい 単位 : バイト 次の表は ファイル共有に関する情報を取得するために使用できるストレージゲートウェイを示しています 304

314 AWS Storage Gateway CacheHitPercent キャッシュから提供されるファイル共有からのアプリケーション読み取りオペレーションのパーセント サンプリングは レポート期間の最後に行われます ファイル共有からのアプリケーション読み取りオペレーションがない割合 このは 100 パーセントをレポートします 単位 : パーセント CachePercentDirty AWS に保管されていないゲートウェイのキャッシュ全体の割合に占めるファイル共有のパーセント サンプリングは レポート期間の最後に行われます ゲートウェイの CachePercentDirty を使用して AWS に保管されていないゲートウェイのキャッシュの割合全体を表示します 詳細については ゲートウェイのモニタリング を参照してください 単位 : パーセント CachePercentUsed ゲートウェイのキャッシュストレージの総使用率に占めるファイル共有のパーセント サンプリングは レポート期間の最後に行われます ゲートウェイの CachePercentUsed を使用して ゲートウェイのキャッシュストレージの総使用率を表示します 詳細については ゲートウェイのモニタリング を参照してください 単位 : パーセント ReadBytes ファイル共有のレポート期間中にオンプレミスのアプリケーションから読み取られた総バイト数 このを Sum 統計と共に使用してスループットを測定し Samples 統計と共に使用して IOPS を測定します 単位 : バイト ReadTime レポートの期間中にオンプレミスのアプリケーションからの読み込みオペレーションにかかった合計時間 ( ミリ秒 ) このを Average 統計と共に使用してレイテンシーを測定します 単位 : ミリ秒 WriteBytes レポートの期間中にオンプレミスのアプリケーションに書き込まれた総バイト数 305

315 AWS Storage Gateway のディメンション このを Sum 統計と共に使用してスループットを測定し Samples 統計と共に使用して IOPS を測定します 単位 : バイト WriteTime レポートの期間中にオンプレミスのアプリケーションからの書き込みオペレーションにかかった合計時間 ( ミリ秒 ) このを Average 統計と共に使用してレイテンシーを測定します 単位 : ミリ秒 AWS Storage Gateway のディメンション AWS Storage Gateway サービス用の Amazon CloudWatch 名前空間は AWS/StorageGateway です データは自動的に 5 分間無料で取得できます ディメンション GatewayId GatewayName このディメンションを指定すると リクエストしたデータがフィルタリングされて ゲートウェイ固有ののものだけになります 対象となるゲートウェイは GatewayId または GatewayName で特定できます ただし の表示に関連した時間範囲でゲートウェイの名前が変更された場合は GatewayId を使用します ゲートウェイのスループットとレイテンシーデータは ゲートウェイの全ボリュームによって変動します ゲートウェイの詳細については Measuring Performance Between Your Gateway and AWS を参照してください VolumeId このディメンションを指定すると リクエストしたデータがフィルタリングされて ボリュームに固有ののものだけになります VolumeId によって 使用するストレージの量を特定します ボリュームの使用については Measuring Performance Between Your Application and Gateway を参照してください Amazon Translate の 次の表は Amazon Translate ののです CloudWatch Metrics for Amazon Translate Metric CharacterCount Description The number of billable characters in requests. 306

316 CloudWatch Dimensions for Amazon Translate Metric Description Valid dimensions: Language pair, Operation Valid statistics: Average, Maximum, Minimum, Sum Unit: Count ResponseTime The time that it took to respond to a request. Valid dimensions: Language pair, Operation Valid statistics: Data samples, Average Unit: For Data samples, count. For Average statistics, milliseconds. ServerErrorCount The number of server errors. The HTTP response code range for a server error is 500 to 599. Valid dimension: Operation Valid statistics: Average, Sum Unit: Count SuccessfulRequestCount The number of successful translation requests. The response code for a successful request is 200 to 299. Valid dimension: Operation Valid statistics: Average, Sum Unit: Count ThrottledCount The number of requests subject to throttling. Use ThrottledCount to determine if your application is sending requests to Amazon Translate faster than your account is configured to accept them. For more information, see Amazon Translate Limits in the アマゾンウェブサービス全般のリファレンス. Valid dimension: Operation Valid statistics: Average, Sum Unit: Count UserErrorCount The number of user errors that occurred. The HTTP response code range for a user error is 400 to 499. Valid dimension: Operation Valid statistics: Average, Sum Unit: Count CloudWatch Dimensions for Amazon Translate Use the following dimensions to filter Amazon Translate metrics. Metrics are grouped by the source language and the target language. 307

317 AWS Trusted Advisor Dimension LanguagePair Operation Description Restricts the metrics to only those that contain the specified languages. Restricts the metrics to only those with the specified operation. AWS Trusted Advisor のとディメンション Trusted Advisor はを CloudWatch に送信します 詳細については AWS サポート User Guide の CloudWatch の Trusted Advisor の作成 を参照してください AWS/TrustedAdvisor 名前空間には 次のが含まれます Trusted Advisor チェックレベル RedResources YellowResources 赤 (ERROR) 状態になっている Trusted Advisor チェックによって識別されたリソースの数 黄色 (WARN) 状態になっている Trusted Advisor チェックによって識別されたリソースの数 Trusted Advisor カテゴリレベル GreenChecks RedChecks YellowChecks 緑 (OK) 状態になっている Trusted Advisor チェックの数 赤 (ERROR) 状態になっている Trusted Advisor チェックの数 黄色 (WARN) 状態になっている Trusted Advisor チェックの数 Trusted Advisor サービスレベル ServiceLimitUsage サービスの制限に対するリソース使用率 チェックレベルのディメンション ディメンション CheckName Trusted Advisor チェックの名前 チェックの詳細については コスト最適化 を参照してください 308

318 カテゴリレベルのディメンション カテゴリレベルのディメンション ディメンション Category Trusted Advisor チェックカテゴリの名前 チェックカテゴリの詳細については Trusted Advisor のベストプラクティス ( チェック ) を参照してください サービス制限のディメンション ディメンション Region ServiceName ServiceLimit 特定のサービスの制限のリージョン サービス名 サービスの制限の名前 チェックの詳細については サービス制限のチェックに関する質問 を参照してください Amazon VPCNAT ゲートウェイのおよびディメンション NAT ゲートウェイのデータは 1 分間隔で提供されています 詳細については Amazon VPC ユーザーガイドの Amazon CloudWatch で NAT ゲートウェイを監視する を参照してください NAT ゲートウェイ 次のは NAT ゲートウェイサービスから入手できます ActiveConnectionCount NAT ゲートウェイ経由の同時アクティブ TCP 接続の合計数 値が 0 の場合は NAT ゲートウェイ経由のアクティブな接続がないことを示します 統計 : 最も有用な統計は Max です BytesInFromDestination NAT ゲートウェイによって受信された送信先からのバイト数 BytesOutToSource の値が BytesInFromDestination の値より少ない場合 NAT ゲートウェイの処理中 またはトラフィックが NAT ゲートウェイによりアクティブにブロックされている間に データ損失が発生する可能性があります 309

319 NAT ゲートウェイ 単位 : バイト 統計 : 最も有用な統計は Sum です BytesInFromSource VPC 内のクライアントから NAT ゲートウェイによって受信されたバイト数 BytesOutToDestination の値が BytesInFromSource の値よりも小さい場合 NAT ゲートウェイの処理中にデータ損失が発生する可能性があります 単位 : バイト 統計 : 最も有用な統計は Sum です BytesOutToDestination NAT ゲートウェイ経由で送信先に送信されたバイト数 値が 0 より大きい場合は NAT ゲートウェイの背後にあるクライアントからインターネットへのトラフィックがあることを示します BytesOutToDestination の値が BytesInFromSource の値よりも小さい場合 NAT ゲートウェイの処理中にデータ損失が発生する可能性があります 単位 : バイト 統計 : 最も有用な統計は Sum です BytesOutToSource VPC 内の NAT ゲートウェイ経由でクライアントに送信されたバイト数 値が 0 より大きい場合は インターネットから NAT ゲートウェイの背後にあるクライアントへのトラフィックがあることを示します BytesOutToSource の値が BytesInFromDestination の値より少ない場合 NAT ゲートウェイの処理中 またはトラフィックが NAT ゲートウェイによりアクティブにブロックされている間に データ損失が発生する可能性があります 単位 : バイト 統計 : 最も有用な統計は Sum です 310

320 NAT ゲートウェイ ConnectionAttemptCount NAT ゲートウェイ経由で行われた接続試行の回数 ConnectionEstablishedCount の値が ConnectionAttemptCount の値よりも小さい場合は NAT ゲートウェイの背後にあるクライアントが応答のない新しい接続を確立しようとしたことを示します 単位 : 個 統計 : 最も有用な統計は Sum です ConnectionEstablishedCount NAT ゲートウェイ経由で確立された接続の数 ConnectionEstablishedCount の値が ConnectionAttemptCount の値よりも小さい場合は NAT ゲートウェイの背後にあるクライアントが応答のない新しい接続を確立しようとしたことを示します 単位 : 個 統計 : 最も有用な統計は Sum です ErrorPortAllocation NAT ゲートウェイが送信元ポートを割り当てられなかった回数 値が 0 より大きい場合は NAT ゲートウェイ経由の同時接続数が多すぎることを示します 統計 : 最も有用な統計は Sum です IdleTimeoutCount アクティブな状態からアイドル状態に移行した接続の数 適切に閉じられなかった場合や 直前の 350 秒間にアクティビティがなかった場合 アクティブな接続はアイドル状態に移行します 値が 0 より大きい場合は アイドル状態に移行した接続があることを示します IdleTimeoutCount の値が増加する場合は NAT ゲートウェイの背後にあるクライアントが無効な接続を再使用している可能性があります 単位 : 個 統計 : 最も有用な統計は Sum です 311

321 NAT ゲートウェイ PacketsDropCount NAT ゲートウェイによって破棄されたパケットの数 値が 0 より大きい場合は NAT ゲートウェイで進行中の一時的な問題を示している可能性があります この値が大きい場合は AWS Service Health Dashboard を参照してください 統計 : 最も有用な統計は Sum です PacketsInFromDestination NAT ゲートウェイによって受信された送信先からのパケット数 PacketsOutToSource の値が PacketsInFromDestination の値より少ない場合 NAT ゲートウェイの処理中 またはトラフィックが NAT ゲートウェイによりアクティブにブロックされている間に データ損失が発生する可能性があります 単位 : 個 統計 : 最も有用な統計は Sum です PacketsInFromSource VPC 内のクライアントから NAT ゲートウェイによって受信されたパケット数 PacketsOutToDestination の値が PacketsInFromSource の値よりも小さい場合 NAT ゲートウェイの処理中にデータ損失が発生する可能性があります 単位 : 個 統計 : 最も有用な統計は Sum です PacketsOutToDestination NAT ゲートウェイ経由で送信先に送信されたパケット数 値が 0 より大きい場合は NAT ゲートウェイの背後にあるクライアントからインターネットへのトラフィックがあることを示します PacketsOutToDestination の値が PacketsInFromSource の値よりも小さい場合 NAT ゲートウェイの処理中にデータ損失が発生する可能性があります 単位 : 個 統計 : 最も有用な統計は Sum です 312

322 NAT ゲートウェイのディメンション PacketsOutToSource VPC 内の NAT ゲートウェイ経由でクライアントに送信されたパケット数 値が 0 より大きい場合は インターネットから NAT ゲートウェイの背後にあるクライアントへのトラフィックがあることを示します PacketsOutToSource の値が PacketsInFromDestination の値より少ない場合 NAT ゲートウェイの処理中 またはトラフィックが NAT ゲートウェイによりアクティブにブロックされている間に データ損失が発生する可能性があります 単位 : 個 統計 : 最も有用な統計は Sum です NAT ゲートウェイのディメンション 以下のディメンションを使用して NAT ゲートウェイデータをフィルタできます ディメンション NatGatewayId このディメンションは NAT ゲートウェイ ID ごとにデータを絞り込みます Amazon VPC VPN のとディメンション Amazon VPN は 利用可能になると CloudWatch にデータを送信します 詳細については Amazon VPC ユーザーガイドの CloudWatch を使用したモニタリング を参照してください VPN の 以下のは Amazon VPC VPN から入手できます TunnelState トンネルの状態 0 は DOWN 1 は UP を示します 単位 : ブール TunnelDataIn VPN トンネル経由で受信されたバイト 各のデータポイントは 前のデータポイント以降に受信されたバイトの数を表します 該当期間中に受信されたバイトの総数を表示するには Sum 統計を使用します このは 復号化の後のデータをカウントします 単位 : バイト 313

323 VPN のディメンション TunnelDataOut VPN トンネル経由で送信されたバイト 各のデータポイントは 前のデータポイント以降に送信されたバイトの数を表します 該当期間中に送信されたバイトの総数を表示するには Sum 統計を使用します このは 暗号化の前のデータをカウントします 単位 : バイト VPN のディメンション 以下のディメンションを使用して Amazon VPC VPN データをフィルタできます ディメンション VpnId TunnelIpAddress このディメンションでは VPN 接続でデータをフィルタします このディメンションでは 仮想プライベートゲートウェイのトンネルの IP アドレスでデータをフィルタします AWS WAF のとディメンション AWS WAF は毎分 CloudWatch にデータを送信します 詳しくは AWS WAF 開発者ガイドの Testing Web ACLs を参照してください AWS WAF の WAF 名前空間には 次のが含まれます AllowedRequests 許可された ウェブリクエストの数 レポート条件 : ゼロ以外の値がある 有効な統計 : Sum BlockedRequests ブロックされたウェブリクエストの数 レポート条件 : ゼロ以外の値がある 有効な統計 : Sum CountedRequests カウントされたウェブリクエストの数 レポート条件 : ゼロ以外の値がある カウントされたウェブリクエストは 特定のルールすべての条件に一致します カウントされたウェブリクエストは 通常はテストに使用されます 314

324 AWS WAF ディメンション PassedRequests 有効な統計 : Sum ルールグループに渡されたリクエストの数 レポート条件 : ゼロ以外の値がある 渡されたリクエストは ルールグループに含まれるどのルールとも一致しないリクエストです 有効な統計 : Sum AWS WAF ディメンション AWS WAF for CloudFront では 次のディメンションの組み合わせを使用できます ルール WebACL RuleGroup WebACL ルール RuleGroup AWS WAF for Application Load Balancer では 次のディメンションの組み合わせを使用できます リージョン ルール WebACL リージョン RuleGroup WebACL リージョン ルール RuleGroup ディメンション Rule 次のいずれかです ルールのの名前 ALL WebACL または RuleGroup 内のすべてのルールを表します Default_Action (WebACL ディメンションと組み合わせた場合のみ ) アクションの許可またはブロックで どのルールとも一致しないリクエストに割り当てられているアクションを表します RuleGroup WebACL Region RuleGroup のの名前 WebACL のの名前 Application Load Balancer のリージョン名 Amazon WorkSpaces のとディメンション Amazon WorkSpaces は 複数ののデータポイントを 5 分ごと (5 分の ) に CloudWatch に送信します 現在 詳細モニタリング (1 分 ) のは Amazon WorkSpaces では 315

325 Amazon WorkSpaces メトリックス 使用できません 詳細については Amazon WorkSpaces Administration Guide の Amazon WorkSpaces のモニタリング を参照してください Amazon WorkSpaces メトリックス 次のメトリックスは Amazon WorkSpaces から入手できます Amazon WorkSpaces CloudWatch のメトリックス メトリックス ディメンション 利用可能な統計情 報 単位 Available 1 Unhealthy 1 正常な状態を返した WorkSpace の数 正常でない状態を返した WorkSpace の数 ConnectionAttempt 2 接続試行の数 ConnectionSuccess 2 成功した接続の数 ConnectionFailure 2 失敗した接続の数 SessionLaunchTime 2 WorkSpaces セッションを開始するためにかかる時間 InSessionLatency 2 WorkSpaces クライアントと WorkSpace 間のラウンドトリップ時間 SessionDisconnect 2 ユーザーが開始して失敗した接続を含む 閉じられた接続の数 DirectoryId WorkspaceId DirectoryId WorkspaceId DirectoryId WorkspaceId DirectoryId WorkspaceId DirectoryId WorkspaceId DirectoryID WorkspaceID DirectoryID WorkspaceID DirectoryID WorkspaceID Average Sum Maximum カウント Minimum Data Samples Average Sum Maximum カウント Minimum Data Samples Average Sum Maximum カウント Minimum Data Samples Average Sum Maximum カウント Minimum Data Samples Average Sum Maximum カウント Minimum Data Samples Average Sum Maximum 秒 ( 時間 Minimum ) Data Samples Average Sum Maximum ミリ秒 ( Minimum 時間 ) Data Samples Average Sum Maximum カウント Minimum Data Samples 1 Amazon WorkSpaces は定期的にステータスリクエストを WorkSpace に送信します WorkSpace は これらのリクエストに応答すると Available とマークされ リクエストに応答できないと Unhealthy とマークされます これらのメトリックスは WorkSpace の粒度で利用でき 組織のすべての WorkSpace で集計されます 2 Amazon WorkSpaces は 各 WorkSpace に対して行われた接続のメトリックスを記録します これらのメトリックスは ユーザーが WorkSpace クライアント経由で正常に認証され クライアントがセッションを開始した後で出力されます メトリックスは WorkSpace の粒度で利用でき ディレクトリのすべての WorkSpace で集計されます 316

326 Amazon WorkSpaces メトリックスのディメンション Amazon WorkSpaces メトリックスのディメンション Amazon WorkSpaces メトリックスは 次のディメンションで使用できます Amazon WorkSpaces CloudWatch ディメンション ディメンション DirectoryId WorkspaceId 指定したディレクトリの WorkSpace で受け取るデータを制限します DirectoryId 値の形式は d-xxxxxxxxxx です 指定した WorkSpace で受け取るデータを制限します WorkspaceId 値の形式は ws-xxxxxxxxxx です 317

327 アラームの状態 Amazon CloudWatch アラームの作成 1 つのをモニタリングする CloudWatch アラームを作成できます このアラームは 複数の期間にわたるしきい値との値の関係性に基づき 1 つ以上のアクションを実行します アクションには Amazon EC2 アクション Amazon EC2 Auto Scaling アクション または Amazon SNS トピックに送信される通知があります CloudWatch ダッシュボードにアラームを追加して視覚的にモニタリングすることもできます ダッシュボードにある場合 ALARM 状態になると アラームは赤に変わるため 状態を事前にモニタリングしやすくなります アラームは 持続している状態変化に対してのみアクションを呼び出します CloudWatch アラームは 単に特定の状態にあるというだけでアクションを呼び出すわけではありません 状態が変わり それが指定した数の期間にわたって持続している必要があります 状態変化に伴いアラームによって呼び出されるアクションの内容は そのアラームに関連付けられたアクションの種類によって異なります Amazon EC2 Auto Scaling アクションの場合 アラームは新しい状態に留まる期間ごとにアクションを呼び出します Amazon SNS 通知では アクションが呼び出されるのは 1 回だけです Note CloudWatch は 指定したアクションのテストや検証は行いません また 存在しないアクションの呼び出しから生じる Amazon EC2 Auto Scaling や Amazon SNS のエラーも検出しません アクションが存在していることを確認してください アラームの状態 アラームには次の状態があります OK の値が 定義されたしきい値を下回っている ALARM の値が 定義されたしきい値を上回っている INSUFFICIENT_DATA アラームが開始直後であるか が利用できないか データが不足していてアラームの状態を判定できない アラームを評価する アラームを作成するときに CloudWatch がアラームの状態を変更するタイミングを評価できるように 3 つの設定を指定します [ 期間 ] は それぞれに個別のデータポイント作成するためにを評価する期間です これは秒単位で表されます 期間として 1 分を選択した場合 1 分ごとに 1 つのデータポイントが存在します [ 評価期間 ] は アラーム状態を判断するタイミングを評価する直近のデータポイントの数です [Datapoints to Alarm ( アラームを発生させるデータポイント数 )] は アラームが ALARM 状態に遷移するために超過する必要がある評価期間内のデータポイントの数です 超過したデータポイントは連続である必要はありませんが すべてが [ 評価期間 ] に等しい直近のデータポイント数に含まれている必要があります 以下の図では アラームのしきい値が 3 単位に設定されています アラームは ALARM 状態に遷移するように設定され [ 評価期間 ] および [Datapoints to Alarm ( アラームを発生させるデータポイント数 )] はどちらも 3 です つまり 連続する直近の 3 つの期間内の 3 つのデータポイントすべてがしきい値を上回わると アラームは ALARM 状態になります この図では 第 3 期間から第 5 期間にかけてこれが発生しま 318

328 アラームの欠落データの処理の設定 す 第 6 期間で値がしきい値を下回り 評価対象の期間の 1 つが超過していないため アラームの状態は OK に変化します 第 9 期間中のしきい値に再度超過がありますが 1 つの期間のみです そのため アラームの状態は OK のままです [ 評価期間 ] と [Datapoints to Alarm ( アラームを発生させるデータポイント数 )] に異なる値を設定する場合 N 個中 M 個 のアラームを設定することになります [Datapoints to Alarm ( アラームを発生させるデータポイント数 )] が ( M ) [ 評価期間 ] が ( N ) です 評価間隔は 期間により乗算されるデータポイントの数です たとえば 1 分の期間を持つ 5 個のデータポイントのうち 4 個を設定した場合 評価間隔は 5 分です 10 分の期間を持つ 3 個のデータポイントのうち 3 個を設定した場合 評価間隔は 30 分です CloudWatch アラームの欠落データの処理の設定 アラームを設定したのデータポイントの一部が CloudWatch に報告されない場合があります たとえば接続が失われた場合 サーバーがダウンした場合 設計上が断片的にのみデータを報告する場合などにこれが発生する可能性があります CloudWatch では アラームを評価する際の欠落データポイントの処理方法を指定できます これは モニタリングされているデータの種類上適切な場合は アラームが ALARM 状態に遷移するように設定する場合に便利です 欠落データが問題を示すものではない場合の誤検出を避けることができます 各アラームが常に 3 つの状態のいずれかであるように CloudWatch にレポートされるデータポイントはそれぞれ 次の 3 つのカテゴリのいずれかの状態に該当します Not breaching ( しきい値内 ) Breaching ( しきい値を超過 ) Missing ( 見つからない ) アラームごとに CloudWatch が欠落データポイントを次のいずれかとして処理するように指定できます missing このアラームは 状態を変更するかどうかを評価する際に 欠落データポイントを考慮に入れません notbreaching 欠落データポイントはしきい値内として扱われます breaching 欠落データポイントはしきい値超過として扱われます ignore 現在のアラーム状態が維持される 319

329 データが欠落した場合のアラーム状態の評価方法 最適な選択は の種類によって異なります インスタンスの CPUUtilization など 継続的にデータを報告しているの場合は 問題が発生していることを表すため 欠落データポイントは breaching として処理します ただし Amazon DynamoDB の ThrottledRequests など エラー発生時のみデータポイントを生成するの場合は notbreaching として欠落データを処理します デフォルトの動作は missing です アラームに最適なオプションを選択することで アラームが 不要で誤解を招く状態に変更されることを防ぐだけでなく システムの状態をさらに正確に表すことができます データが欠落した場合のアラーム状態の評価方法 欠落データの処理方法に設定した値にかかわらず アラームが状態を変更するかどうかを評価する際に CloudWatch は [ 評価期間 ] の指定よりも多くのデータポイントを取得しようとします 取得を試みるデータポイントの正確な数は アラーム期間の長さと 基づいているが標準解像度か高解像度かによって異なります 取得を試みるデータポイントのタイムフレームは評価範囲です CloudWatch がこれらのデータポイントを取得すると 次の処理が実行されます 評価範囲内のデータポイントが欠落していない場合 CloudWatch は収集された最新のデータポイントに基づいてアラームを評価します 評価範囲のデータポイントの一部が欠落しているが 取得された既存のデータポイントの数がアラームの [ 評価期間 ] 以上である場合 正常に取得された最新の既存のデータポイントに基づいてアラームの状態が CloudWatch で評価されます この場合 欠落データを処理する方法に設定した値は不要であり 無視されます 評価範囲のデータポイントの一部が欠落しており 取得された既存のデータポイントの数がアラームの評価期間の数を下回る場合 CloudWatch によって 欠落データ部分に欠落データの処理方法に指定された結果が入力され アラームが評価されます ただし 評価範囲内の実際のデータポイントが 報告されたタイミングにかかわらず 評価に含まれます CloudWatch は 欠落データポイントの使用を最小限に抑えます これらのすべての状況で 評価されるデータポイントの数は [ 評価期間 ] の値と同じです 超過している数が [Datapoints to Alarm ( アラームを発生させるデータポイント数 )] の値よりも少数の場合 アラームの状態は OK に設定されます それ以外の場合 状態は ALARM に設定されます Note この動作の特殊なケースは のフローが停止した後の一定期間 CloudWatch アラームがデータポイントの最後のセットを繰り返し評価する可能性があることです この再評価により のストリームが停止した直前にアラームの状態が変更されていた場合にアクションが再実行される可能性があります この動作を軽減するには より短い期間を使用します 次の表は アラーム評価の動作の例を示しています 最初の表では [Datapoints to Alarm ( アラームを発生させるデータポイント数 )] と [ 評価期間 ] はどちらも 3 です CloudWatch はアラームを評価する際に直近のデータポイントを 5 個取得します 列 2 は この 5 個のデータのうちいくつが欠落しており 欠落データの処理方法の設定を使用して入力する必要があるかを示しています 列 3 ~ 6 は 欠落データの処理方法の各設定 ( 列の上部に表示 ) に基づき設定されるアラーム状態を示します データポイント列の 0 は超過していないデータポイント X は超過しているデータポイント - は欠落しているデータポイントを示します データポイント 欠落データポイント数 MISSING IGNORE BREACHING NOT BREACHING 0 - X - X 0 OK OK OK OK OK OK OK OK 320

330 高解像度アラーム データポイント 欠落データポイント数 MISSING IGNORE BREACHING NOT BREACHING 不十分なデータ 現在の状態を維 持 アラーム OK 0 X X - X 0 アラームアラームアラームアラーム X 2 不十分なデータ 現在の状態を維 持 アラーム OK 前の表の 2 行目で 欠落データが超過として処理されても アラームは OK のままです 既存のデータポイント 1 個が超過しておらず これが超過として扱われる欠落しているデータポイント 2 個とともに評価されるためです 次回このアラームが評価される際にデータがまだ欠落したままであれば ALARM に遷移します これは 超過していないデータポイントが 取得される直近の 5 個のデータポイントの中に含まれなくなるためです 4 行目では すべてのケースでアラームは ALARM 状態になります これは 実際のデータポイントが十分にあるため 欠落データの処理方法の設定を効力する必要がないためです 次の表では [ 期間 ] は再び 5 分に設定され [Datapoints to Alarm ( アラームを発生させるデータポイント数 )] は 2 のみですが [ 評価期間 ] は 3 です つまり 3 個のうち 2 個 N 個中 M のアラームです データポイント 欠落データポイント数 MISSING IGNORE BREACHING NOT BREACHING 0 - X - X 0 アラーム アラーム アラーム アラーム 0 0 X 0 X 0 アラーム アラーム アラーム アラーム 0 - X OK OK アラーム OK OK OK アラーム OK X 2 不十分なデータ 現在の状態を維 持 アラーム OK アラームの作成後すぐにデータポイントが欠落し アラームの作成前にが CloudWatch に報告されている場合 CloudWatch はアラームを評価する際にアラーム作成前の直近のデータポイントを取得します 高解像度アラーム 高解像度でアラームを設定する場合 10 秒または 30 秒の期間で高解像度アラームを指定するか 60 秒の倍数の期間で通常のアラームを設定できます 高解像度のアラームには高い料金が発生します 高解像度の詳細については カスタムをパブリッシュする (p. 45) を参照してください パーセンタイルベースの CloudWatch アラームおよび少数のデータサンプル アラームの統計としてパーセンタイルを設定すると 統計評価に使用する十分なデータがない場合の処理を指定することができます そのまま統計を評価し 任意でアラームの状態を変更するように指定するこ 321

331 CloudWatch アラームでよく使用する機能 ともできます また サンプルサイズが小さい場合は を無視し 統計的に十分なデータが揃うまで評価を保留することもできます パーセンタイルが 0.5 から 1.00 の間の場合 この設定は 評価期間中にデータポイントが 10/(1- パーセンタイル ) を下回ると使用されます たとえば この設定は p99 パーセンタイルのアラームのサンプル数が 1000 を下回ると使用されます パーセンタイルが 0 から 0.5 の間の場合 この設定は データポイントが 10/ パーセンタイルを下回ると使用されます CloudWatch アラームでよく使用する機能 次の機能は すべての CloudWatch アラームに適用されます AWS アカウントにつき リージョンごとに最大 5,000 のアラームを作成できます アラームを作成または更新するには PutMetricAlarm API アクション (mon-put-metric-alarm コマンド ) を使用します アラーム名には ASCII 文字のみを使用する必要があります DescribeAlarms (mon-describe-alarms) を使用して 現在設定しているアラームのいずれかまたはすべてを一覧表示したり 特定の状態にあるアラームを一覧表示したりできます さらに 時間レンジで一覧をフィルタできます アラームを無効にするには DisableAlarmActions (mon-disable-alarm-actions) を 有効にするには EnableAlarmActions (mon-enable-alarm-actions) を使用します アラームの動作をテストするには SetAlarmState (mon-set-alarm-state) を使用して任意の状態に設定します この一時的な状態変更が持続するのは 次のアラーム比較が行われるときまでです カスタムを作成する前に PutMetricAlarm (mon-put-metric-alarm) を使用してアラームを作成できます アラームを有効にするには 名前空間および名に加えて カスタムのディメンションをすべてアラームの定義に含める必要があります アラームの履歴を見るには DescribeAlarmHistory (mon-describe-alarm-history) を使用します CloudWatch は アラーム履歴を 2 週間保存します 各状態変化に 固有のタイムスタンプが付きます まれに 1 つの状態変化に対して複数の通知が履歴に残されることがあります タイムスタンプによって 固有の状態変化を確認できます アラームの評価期間の数を各評価期間の長さで乗算した値が 1 日を超えることはできません Note 特定の状況では AWS リソースが CloudWatch にデータを送信していないことがあります たとえば Amazon EBS は Amazon EC2 インスタンスに追加されていない利用可能なボリュームに関するデータを送信しないことがあります これは そのボリュームでモニタリングするの動作がないためです そのようなにアラームを設定すると 状態が Insufficient Data に変わることがあります これは リソースが動作していない状態を示している可能性があり 必ずしも問題があることを意味しているわけではありません Amazon SNS 通知の設定 Amazon CloudWatch は Amazon SNS を使用して E メールを送信します 最初に SNS トピックを作成してサブスクライブします CloudWatch アラームを作成する際 この SNS トピックを追加して アラームの状態が変わったときにメールの通知が送信されるように設定できます 詳細については Amazon Simple Notification Service 入門ガイド を参照してください 322

332 AWS マネジメントコンソールを使用した Amazon SNS トピックの設定 Note または AWS マネジメントコンソールを使用して CloudWatch アラームを作成する計画の場合は アラームの作成ウィザードを使用してトピックを作成できるため この手順を省略できます AWS マネジメントコンソールを使用した Amazon SNS トピックの設定 最初にトピックを作成して それをサブスクライブします オプションでトピックにテストメッセージを発行できます SNS トピックを作成するには 1. にある Amazon SNS コンソールを開きます 2. Amazon SNS ダッシュボードの [ 一般的なアクション ] の下で [ トピックの作成 ] を選択します 3. [Create new topic] ダイアログボックスの [Topic name] に トピックの名前 ( 例 : my-topic) を入力します 4. [Create topic] を選択します 5. 次のタスクの [ トピックの ARN] ( 例 : arn:aws:sns:us-east-1: :my-topic) をコピーします SNS トピックをサブスクライブするには 1. にある Amazon SNS コンソールを開きます 2. ナビゲーションペインで [Subscriptions] [Create subscription] の順に選択します 3. [Create subscription] ダイアログボックスの [Topic ARN] に 前のタスクで作成したトピック ARN を貼り付けます 4. [Protocol] で [ ] を選択します 5. [Endpoint] に通知の受取先として使用する E メールアドレスを入力し [Create subscription] を選択します 6. E メールアプリケーションで AWS 通知から届いたメッセージを開き サブスクライブを確認します ウェブブラウザに Amazon SNS の確認画面が表示されます SNS トピックにテストメッセージを発行するには 1. にある Amazon SNS コンソールを開きます 2. ナビゲーションペインで [Topics] を選択します 3. [Topics] ページでトピックを選択し 次に [Publish to topic] を選択します 4. [Publish a message] ページの [Subject] にメッセージの件名を入力し [Message] に短いメッセージを入力します 5. [Publish Message] を選択します 6. メールをチェックして メッセージを受信したことを確認します AWS CLI を使用した SNS トピックの設定 最初に SNS トピックを作成してから 直接メッセージをトピックにパブリッシュして 設定が正しいことをテストします 323

333 AWS CLI を使用した SNS トピックの設定 SNS トピックを設定するには 1. 次のように create-topic コマンドを使用してトピックを作成します aws sns create-topic --name my-topic Amazon SNS は次の形式でトピック ARN を返します { } "TopicArn": "arn:aws:sns:us-east-1: :my-topic" 2. subscribe コマンドを用いて 自分の E メールアドレスをトピックにサブスクライブします サブスクライブのリクエストが成功すると 確認メールが届きます aws sns subscribe --topic-arn arn:aws:sns:us-east-1: :my-topic --protocol --notification-endpoint my- -address Amazon SNS は 次の情報を返します { } "SubscriptionArn": "pending confirmation" 3. E メールアプリケーションで AWS 通知から届いたメッセージを開き サブスクライブを確認します ウェブブラウザに Amazon Simple Notification Service の確認画面が表示されます 4. list-subscriptions-by-topic コマンドを使用して サブスクリプションを確認します aws sns list-subscriptions-by-topic --topic-arn arn:aws:sns:us-east-1: :mytopic Amazon SNS は 次の情報を返します { "Subscriptions": [ { "Owner": " ", "Endpoint": "Protocol": " ", "TopicArn": "arn:aws:sns:us-east-1: :my-topic", "SubscriptionArn": "arn:aws:sns:us-east-1: :my-topic: bf10-48fb-a2f1-dab033aa67a3" } ] } 5. ( オプション ) publish コマンドを使用してトピックにテストメッセージを発行します aws sns publish --message "Verification" --topic arn:aws:sns:us-east-1: :mytopic Amazon SNS は 次の情報を返します { "MessageId": "42f189a cf6-8fd7-c2dde61a4d7d" 324

334 アラームの作成または編集 } 6. メールをチェックして メッセージを受信したことを確認します CloudWatch アラームの作成または編集 アラームをトリガーする特定のを選択し それらののしきい値を指定することができます また が設定したしきい値を超えたときに状態が変わるよう アラームを設定することができます アラームを作成するには 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインで [Alarms] [Create Alarm] の順に選択します 3. [Select Metric] ステップでは 以下の作業を行います a. カテゴリ ( 例 : EC2 ) を選択します b. インスタンスを選択し ( 例 : CPU 使用率 ) を選択します c. 統計では 統計 (Average など ) または事前定義されたパーセンタイルのいずれかを選択するか カスタムパーセンタイル (p95.45 など ) を指定します d. 期間 ( 例 : 1 Hour) を選択します e. [ 次へ ] を選択します 4. [Define Alarm] ステップでは 以下の作業を行います a. [ アラームしきい値 ] で アラームの一意の名前とアラームのを入力します アラーム名には ASCII 文字のみを使用する必要があります [Whenever] では しきい値 ( たとえば CPU 使用率の 80%) と アラームをトリガーするために超過する必要があるデータポイントの数 ( N 個中 M 個 ) を指定します 詳細については アラームを評価する (p. 318) を参照してください b. [Additional settings] の下の [Treat missing data as] で アラームによる欠落データポイントの処理を選択します 詳細については CloudWatch アラームの欠落データの処理の設定 (p. 319) を参照してください アラームの監視統計としてパーセンタイルを使用している場合は 低サンプルレートのケースを評価するか無視するか選択してください [ignore] を選択すると サンプルサイズが小さすぎる場合でも現在のアラーム状態は維持されます 詳細については パーセンタイルベースの CloudWatch アラームおよび少数のデータサンプル (p. 321) を参照してください c. [ アクション ] で アラームがトリガーされたときに アラームが実行するアクションのタイプを選択します d. [Create Alarm] を選択します アラームはダッシュボードに追加することもできます 詳細については CloudWatch ダッシュボードよりアラームを追加または削除する (p. 26) を参照してください 325

335 CPU 使用率アラームの作成 アラームを編集するには 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインで [Alarms] を選択します 3. アラームを選択してから [Actions] [Modify] の順に選択します 4. [Modify Alarm] ダイアログボックスで 必要に応じてアラームを更新し [Save Changes] を選択します 既存のアラームの名前は変更できません は変更できます または アラームをコピーし 新しいコピーしたアラームに別の名前を付けることができます アラームをコピーするには アラームを選択して [Actions ( アクション )] [Copy ( コピー )] の順に選択します Amazon SNS コンソールを使用して作成された E メール通知リストを更新するには 1. にある Amazon SNS コンソールを開きます 2. ナビゲーションペインで [Topics] を選択し 通知リスト ( トピック ) の ARN を選択します 3. 次のいずれかを行ってください メールアドレスを追加するには [Create subscription] を選択します [Protocol] で [ ] を選択します [Endpoint] に 新しい受取人のメールアドレスを入力します [Create subscription] を選択します メールアドレスを削除するには [Subscription ID] を選択します [Other subscription actions] [Delete subscriptions] の順に選択します 4. [Publish to topic] を選択します E メールを送信する CPU 使用率アラームの作成 アラームの状態が OK から ALARM に切り替わったら Amazon SNS を使用して E メールメッセージを送信する CloudWatch アラームを作成できます EC2 インスタンスの平均 CPU 使用率が連続した指定期間のしきい値を超えると アラームは ALARM 状態に変わります AWS マネジメントコンソールを使用した CPU 使用率アラームの設定 AWS マネジメントコンソールを使用して CPU 使用率アラームを作成するには 次のステップを実行します CPU 使用率に基づいてメールを送信するアラームを作成するには 1. にある CloudWatch コンソールを開きます 2. ナビゲーションペインで [Alarms] [Create Alarm] の順に選択します 3. [EC2 Metrics] で カテゴリ ( 例 : Per-Instance Metrics) を選択します 4. 次のようにを選択します a. インスタンスおよび CPUUtilization がある行を選択します b. 統計で [Average] を選択し 事前定義されたパーセンタイルのいずれかを選択するか カスタムパーセンタイル (p95.45 など ) を指定します 326

336 c. 期間 ( 例 : 5 minutes) を選択します d. [ 次へ ] を選択します Amazon CloudWatch ユーザーガイド AWS マネジメントコンソールを使用した CPU 使用率アラームの設定 5. アラームを次のように定義します a. [Alarm Threshold] で アラームの一意の名前 ( 例 : myhighcpualarm) と アラームの ( 例 : CPU usage exceeds 70 percent) を入力します アラーム名には ASCII 文字のみを使用する必要があります b. [ 次の時 ] の [is ( 等しい )] で [>] を選択し 70 と入力します [ 期間 ] に 2 と入力します これにより 2 つの連続するサンプリング期間で CPU 利用率が 70% を超えた場合にアラームがトリガーされるよう指定されます c. [ 追加設定 ] の [ 欠落データの処理方法 ] で [ 不正 ( しきい値を超えている )] を選択します これは 欠落データポイントで インスタンスがダウンしていることを表す場合があるためです 327

337 AWS CLI を使用した CPU 使用率アラームの設定 d. [Actions] の [Whenever this alarm] で [State is ALARM] を選択します [Send notification to] で 既存の SNS トピックを選択するか 新しいトピックを作成します e. 新しい SNS トピックを作成するには [New list] を選択します [Send notification to] に SNS トピックの名前 ( 例 : myhighcpualarm) を入力し [ list] に アラームが ALARM 状態に変わったときに通知を受ける E メールアドレスをカンマで区切って入力します 各 E メールアドレスに トピックのサブスクリプションの確認メールが送信されます 通知を送信する前にサブスクリプションを確認する必要があります f. [Create Alarm] を選択します AWS CLI を使用した CPU 使用率アラームの設定 AWS CLI を使用して CPU 使用率アラームを作成するには 次のステップを実行します CPU 使用率に基づいてメールを送信するアラームを作成するには 1. SNS トピックを設定します 詳細については Amazon SNS 通知の設定 (p. 322) を参照してください 2. 以下のように put-metric-alarm コマンドを使用してアラームを作成します aws cloudwatch put-metric-alarm --alarm-name cpu-mon --alarm-description "Alarm when CPU exceeds 70%" --metric-name CPUUtilization --namespace AWS/EC2 --statistic Average --period threshold 70 --comparison-operator GreaterThanThreshold -- dimensions Name=InstanceId,Value=i evaluation-periods 2 --alarm-actions arn:aws:sns:us-east-1: :my-topic --unit Percent 3. set-alarm-state コマンドを使用してアラーム状態の変更を適用することにより アラームをテストします a. アラームの状態を INSUFFICIENT_DATA から OK に変更します aws cloudwatch set-alarm-state --alarm-name cpu-mon --state-reason "initializing" --state-value OK b. アラームの状態を OK から ALARM に変更します aws cloudwatch set-alarm-state --alarm-name cpu-mon --state-reason "initializing" --state-value ALARM c. アラームに関するメール通知を受け取ったことを確認します 328

概要 ABAP 開発者が SAP システム内の SAP ソースまたは SAP ディクショナリーオブジェクトを変更しようとすると 2 つのアクセスキーを入力するよう求められます 1 特定のユーザーを開発者として登録する開発者キー このキーは一度だけ入力します 2 SAP ソースまたは SAP ディクシ

概要 ABAP 開発者が SAP システム内の SAP ソースまたは SAP ディクショナリーオブジェクトを変更しようとすると 2 つのアクセスキーを入力するよう求められます 1 特定のユーザーを開発者として登録する開発者キー このキーは一度だけ入力します 2 SAP ソースまたは SAP ディクシ オンラインヘルプ :SAP ソフトウェア変更登録 (SSCR) キーの登録 目次 概要... 2 参考リンク... 3 アプリケーションの起動... 4 アプリケーションとメインコントロールの概要... 5 キーリストのカスタマイズ... 7 リストのフィルタリング... 7 表のレイアウトのカスタマイズ... 8 新しい開発者の登録... 10 新しいオブジェクトの登録... 12 特定のインストレーションから別のインストレーションに個々の

More information

構築例 お客様構築 IoT デバイス DynamoDB IoT デバイスで計測した値を出力させ データを API で DynamoDB に送信させるために IAM Access Key を IAM で取得します IoT.kyoto は DynamoDB から IoT デバイスで計測したデータを取得し

構築例 お客様構築 IoT デバイス DynamoDB IoT デバイスで計測した値を出力させ データを API で DynamoDB に送信させるために IAM Access Key を IAM で取得します IoT.kyoto は DynamoDB から IoT デバイスで計測したデータを取得し IoT.kyoto 操作マニュアル 事前に用意するもの IoT デバイス ( 計測する値を出力します ) AWS アカウント 目次 0 事前説明 P2 0-1 IoT.kyoto 構築例 P2 0-2 IoT.kyoto を使用するために必要なデータ P2 1 DynamoDB の構築手順 P3~P5 2 IAM Access Key の取得 P5~P6 3 IoT.kyoto のユーザー設定 P7~P8

More information

スケジューリングおよび通知フォーム のカスタマイズ

スケジューリングおよび通知フォーム のカスタマイズ CHAPTER 6 この章では Outlook 予定表から会議をスケジュールまたは会議に参加するために [MeetingPlace] タブをクリックしたときに表示される項目の最も簡単なカスタマイズ方法について説明します 次の項を参照してください スケジューリングフォームと会議通知 (P.6-1) スケジューリングフォームおよび会議通知のカスタマイズ (P.6-2) MeetingPlace タブのフォームのデフォルト情報とオプション

More information

Symantec AntiVirus の設定

Symantec AntiVirus の設定 CHAPTER 29 Symantec AntiVirus エージェントを MARS でレポートデバイスとしてイネーブルにするためには Symantec System Center コンソールをレポートデバイスとして指定する必要があります Symantec System Center コンソールはモニタ対象の AV エージェントからアラートを受信し このアラートを SNMP 通知として MARS に転送します

More information

9 WEB監視

9  WEB監視 2018/10/31 02:15 1/8 9 WEB 監視 9 WEB 監視 9.1 目標 Zabbix ウェブ監視は以下を目標に開発されています : ウェブアプリケーションのパフォーマンスの監視 ウェブアプリケーションの可用性の監視 HTTPとHTTPSのサポート 複数ステップで構成される複雑なシナリオ (HTTP 要求 ) のサポート 2010/08/08 08:16 Kumi 9.2 概要 Zabbix

More information

ゲートウェイ ファイル形式

ゲートウェイ ファイル形式 ゲートウェイ ファイル形式 この章では Cisco Unified Communications Manager 一括管理 BAT を使用して Cisco Unified Communications Manager データベース内の Cisco ゲートウェイのファイル形式を一括して設定す る方法について説明します ゲートウェイ ファイル形式の検索, 1 ページ ゲートウェイ ファイル形式の設定,

More information

McAfee SaaS Protection 統合ガイド Microsoft Office 365 と Exchange Online の保護

McAfee SaaS  Protection 統合ガイド Microsoft Office 365 と Exchange Online の保護 統合ガイド改訂 G McAfee SaaS Email Protection Microsoft Office 365 と Exchange Online の保護 Microsoft Office 365 の設定 このガイドの説明に従って McAfee SaaS Email Protection を使用するように Microsoft Office 365 と Microsoft Exchange Online

More information

マイクロソフト IT アカデミー E ラーニングセントラル簡単マニュアル ( 管理者用 ) 2014 年 11 月

マイクロソフト IT アカデミー E ラーニングセントラル簡単マニュアル ( 管理者用 ) 2014 年 11 月 マイクロソフト IT アカデミー E ラーニングセントラル簡単マニュアル ( 管理者用 ) 2014 年 11 月 サインインについて Microsoft Online Learning にアクセスする方法は 組織の既存の管理者にアカウントを作成してもらい 受信した電子メールのリンクをクリックして登録するか もしくはメンバーシップのアクティブ化リンク から登録する必要があります 初めてのサインイン

More information

Cisco ViewMail for Microsoft Outlook クイックスタートガイド (リリース 8.5 以降)

Cisco ViewMail for Microsoft Outlook クイックスタートガイド (リリース 8.5 以降) クイックスタートガイド Cisco ViewMail for Microsoft Outlook クイックスタートガイド ( リリース 8. 以降 ) Cisco ViewMail for Microsoft Outlook( リリース 8. 以降 ) Cisco ViewMail for Microsoft Outlook の概要 Outlook 010 および Outlook 007 での ViewMail

More information

電話機のファイル形式

電話機のファイル形式 この章では テキスト エディタを使用して作成する CSV データ ファイルのファイル形式を設定 する方法について説明します 電話機 CSV データ ファイルを作成するためのテキスト エディタ, 1 ページ の検索, 2 ページ CSV データ ファイルの電話機ファイル形式の設定, 3 ページ テキストベースのファイル形式と CSV データ ファイルの関連付け, 7 ページ 電話機 CSV データ ファイルを作成するためのテキスト

More information

AWS Artifact - ユーザーガイド

AWS Artifact - ユーザーガイド AWS Artifact ユーザーガイド AWS Artifact: ユーザーガイド Copyright 2019 Amazon Web Services, Inc. and/or its affiliates. All rights reserved. Amazon's trademarks and trade dress may not be used in connection with any

More information

Simple Violet

Simple Violet セキュリティパック管理画面の操作方法 更新 :2018 年 6 月 19 日 内容 セキュリティパックサービスでは お客様専用のサイトが用意されております 専用サイトでは 以下の機能が利用できます アカウントを登録する アカウントの登録 を参照してください 4 ページ 隔離メッセージを管理する 隔離メッセージの管理 を参照してください 6 ページ 承認済み送信者とブロック済み送信者を管理する 承認済み送信者とブロック済み送信者について

More information

ゲートウェイのファイル形式

ゲートウェイのファイル形式 CHAPTER 47 Cisco Unified Communications Manager 一括管理 (BAT) を使用すると シスコのを Cisco Unified Communications Manager データベースに一括して設定できます 次のトピックでは これらのタスクの情報とについて説明します の検索 の設定 の検索 を検索するは 次のとおりです ステップ 1 [ 一括管理 ]>[

More information

AWS 認定 DevOps エンジニア - プロフェッショナルサンプル試験問題 1) あなたは Amazon EBS ボリュームを使用する Amazon EC2 上で実行されているアプリケーションサーバ ー向けに 自動データバックアップソリューションを導入する業務を担当しています 単一障害点を回避し

AWS 認定 DevOps エンジニア - プロフェッショナルサンプル試験問題 1) あなたは Amazon EBS ボリュームを使用する Amazon EC2 上で実行されているアプリケーションサーバ ー向けに 自動データバックアップソリューションを導入する業務を担当しています 単一障害点を回避し 1) あなたは Amazon EBS ボリュームを使用する Amazon EC2 上で実行されているアプリケーションサーバ ー向けに 自動データバックアップソリューションを導入する業務を担当しています 単一障害点を回避し データの耐久性を高めるために 分散データストアを使用してバックアップを取りたいと考えています また データを 1 時間以内に復元できるように 毎日のバックアップを 30 日間保存する必要があります

More information

R80.10_FireWall_Config_Guide_Rev1

R80.10_FireWall_Config_Guide_Rev1 R80.10 ファイアウォール設定ガイド 1 はじめに 本ガイドでは基本的な FireWall ポリシーを作成することを目的とします 基本的な Security Management Security Gateway はすでにセットアップ済みであることを想定しています 分散構成セットアップ ガイド スタンドアロン構成セットアップ ガイド等を参照してください [Protected] Distribution

More information

2 / 8 オンデマンドダウンロード機能 を使用するときに次の制約があります 1. インターネットに接続されていない ( オフライン ) 場合は OneDrive エリアのみにあるファイルを開くことはできない 2.OneDrive エリアからダウンロードが完了するまでいくらか待たされるし ( 特に大

2 / 8 オンデマンドダウンロード機能 を使用するときに次の制約があります 1. インターネットに接続されていない ( オフライン ) 場合は OneDrive エリアのみにあるファイルを開くことはできない 2.OneDrive エリアからダウンロードが完了するまでいくらか待たされるし ( 特に大 1 / 8 OneDrive のファイルのオンデマンドダウンロード機能 オンデマンドダウンロード機能 とは OneDrive( ワンドライブ ) は 2017 年の秋に行われた Fall Creators Update で オ ンデマンドダウンロード機能 が使用できるようになりました 以下 Web ブラウザで使用できる OneDrive Web ページを OneDrive パソコンで実行する OneDrive

More information

目次 専用アプリケーションをインストールする 1 アカウントを設定する 5 Windows クライアントから利用できる機能の紹介 7 1ファイル フォルダのアップロードとダウンロード 8 2ファイル更新履歴の管理 10 3 操作履歴の確認 12 4アクセスチケットの生成 ( フォルダ / ファイルの

目次 専用アプリケーションをインストールする 1 アカウントを設定する 5 Windows クライアントから利用できる機能の紹介 7 1ファイル フォルダのアップロードとダウンロード 8 2ファイル更新履歴の管理 10 3 操作履歴の確認 12 4アクセスチケットの生成 ( フォルダ / ファイルの ServersMan@Disk Windows 版専用アプリケーション操作マニュアル 目次 専用アプリケーションをインストールする 1 アカウントを設定する 5 Windows クライアントから利用できる機能の紹介 7 1ファイル フォルダのアップロードとダウンロード 8 2ファイル更新履歴の管理 10 3 操作履歴の確認 12 4アクセスチケットの生成 ( フォルダ / ファイルの公開 ) 13

More information

ストレージ パフォーマンスのモニタリング

ストレージ パフォーマンスのモニタリング ストレージ パフォーマンスのモニタリング ストレージ パフォーマンスのモニタリング, 1 ページ [Performance] ポートレット, 1 ページ [Datastore Trends] ポートレット, 2 ページ パフォーマンス チャートのモニタリング, 2 ページ パフォーマンス チャートのカスタマイズ, 4 ページ HTML パフォーマンス チャート, 7 ページ ストレージ パフォーマンスのモニタリング

More information

2014 年 11 月 ボリュームライセンスサービスセンターで Online Service をアクティブ化する Open プログラムのお客様は VLSC の新しい [Online Service のアクティブ化 ] セクションのシンプルなプロセスに従って マイクロソフトボリュームライセンスサービス

2014 年 11 月 ボリュームライセンスサービスセンターで Online Service をアクティブ化する Open プログラムのお客様は VLSC の新しい [Online Service のアクティブ化 ] セクションのシンプルなプロセスに従って マイクロソフトボリュームライセンスサービス 2014 年 11 月 ボリュームライセンスサービスセンターで Online Service をアクティブ化する Open プログラムのお客様は VLSC の新しい [Online Service のアクティブ化 ] セクションのシンプルなプロセスに従って マイクロソフトボリュームライセンスサービスセンター (VLSC) で 新しい Microsoft のオンラインサービスをアクティブ化できます このガイドは

More information

ゲートウェイのファイル形式

ゲートウェイのファイル形式 この章では Cisco Unified Communications Manager 一括管理 BAT を使用して シスコのゲー トウェイのファイル形式を Cisco Unified Communications Manager データベースに一括して設定す る方法について説明します の検索, 1 ページ の設定, 2 ページ ファイル形式と CSV データ ファイルの関連付け, 5 ページ の検索

More information

Microsoft Word - Office365_EndUser_Basic_Guide.docx

Microsoft Word - Office365_EndUser_Basic_Guide.docx 3.1 メール 予定表 および連絡先 (Outlook Web App) 3.1.1 メール Outlook Web App を使えば 社内だけでなく外出先で PC を持ち歩いていない場合や自宅など いつでもどこでもメールの確認ができます Outlook Web App には Office 365 ポータルからアクセスすることができます 最初のログインを行った後 署名を作成 メールの作成と返信 整理を行うという

More information

目 次 1. はじめに ソフトの起動と終了 環境設定 発助 SMS ファイルの操作 電話番号設定 運用条件 回線情報 SMS 送信の開始と停止 ファイル出力... 16

目 次 1. はじめに ソフトの起動と終了 環境設定 発助 SMS ファイルの操作 電話番号設定 運用条件 回線情報 SMS 送信の開始と停止 ファイル出力... 16 発助 SMS 操作マニュアル Ver1.2 2018.7.21 ソフトプラン合同会社 1/18 目 次 1. はじめに... 3 2. ソフトの起動と終了... 3 3. 環境設定... 5 4. 発助 SMS ファイルの操作... 7 5. 電話番号設定... 9 6. 運用条件... 11 7. 回線情報... 12 8.SMS 送信の開始と停止... 13 9. ファイル出力... 16 10.

More information

キャビネットの確認 キャビネットの確認 登録権または参照権があるキャビネットでは キャビネットの登録データを確認できます 各利用者の権限は 管理者によって設定されます キャビネットとファイル送受信の違い それぞれの特徴を確認し お客様のニーズに合わせて利用してください ファイル送受信の操作方法 ファ

キャビネットの確認 キャビネットの確認 登録権または参照権があるキャビネットでは キャビネットの登録データを確認できます 各利用者の権限は 管理者によって設定されます キャビネットとファイル送受信の違い それぞれの特徴を確認し お客様のニーズに合わせて利用してください ファイル送受信の操作方法 ファ この章では キャビネットの利用方法などについて説明します キャビネットは 利用者同士が共有するデータ保管場所として利用できます ただし キャビネットは管理者のみが登録できます キャビネットの確認 26 新着データの確認 35 ごみ箱の確認 36 ファイルの検索 39 ファイルの管理 41 簡易クリップ 48 キャビネットの設定 49 キャビネットの確認 キャビネットの確認 登録権または参照権があるキャビネットでは

More information

目次 第 1 章はじめに 取扱いについて 記載内容について... 6 第 2 章基本操作 Excel Online を開く ファイル ( ブック ) を作成する ファイル ( ブック ) を開く..

目次 第 1 章はじめに 取扱いについて 記載内容について... 6 第 2 章基本操作 Excel Online を開く ファイル ( ブック ) を作成する ファイル ( ブック ) を開く.. Office 365 Excel Online - 利用マニュアル - 発行日 2015/11/01 1 目次 第 1 章はじめに... 5 1.1. 取扱いについて... 6 1.2. 記載内容について... 6 第 2 章基本操作... 7 2.1. Excel Online を開く... 8 2.2. ファイル ( ブック ) を作成する... 10 2.3. ファイル ( ブック ) を開く...

More information

在学生向けメールサービス

在学生向けメールサービス メールシステム ( 新潟大学 Gmail) 基本操作マニュアル - 1 - 目次 1. ログイン...- 3-2. 画面の説明...- 4-3. メールの作成...- 7-4. ファイルの添付方法...- 9-5. メールの削除...- 10-6. メールの返信...- 10-7. メールの転送...- 11-8. メールの下書き保存...- 12-9. ラベルについて...- 13-9.1. ラベルの作成...-

More information

Design with themes — Part 1: The Basics

Design with themes — Part 1: The Basics PowerPoint 入門 PowerPoint はプレゼンテーションのための効果的なアプリケーションです 最も効果的に使用するためには 最初にその基礎を理解する必要があります このチュートリアルでは すべてのプレゼンテーションで使用する作業と機能をいくつか紹介します 開始する前に... 1 1. 新しい空白のプレゼンテーションを作成する... 2 2. PowerPoint ユーザーインターフェイスについて...

More information

( 目次 ) 1. はじめに 開発環境の準備 仮想ディレクトリーの作成 ASP.NET のWeb アプリケーション開発環境準備 データベースの作成 データベースの追加 テーブルの作成

( 目次 ) 1. はじめに 開発環境の準備 仮想ディレクトリーの作成 ASP.NET のWeb アプリケーション開発環境準備 データベースの作成 データベースの追加 テーブルの作成 KDDI ホスティングサービス (G120, G200) ブック ASP.NET 利用ガイド ( ご参考資料 ) rev.1.0 KDDI 株式会社 1 ( 目次 ) 1. はじめに... 3 2. 開発環境の準備... 3 2.1 仮想ディレクトリーの作成... 3 2.2 ASP.NET のWeb アプリケーション開発環境準備... 7 3. データベースの作成...10 3.1 データベースの追加...10

More information

登録する - ヘルプ https://support.google.com/sites/bin/answer.py?hl=ja&answer=153098&topic=23216... 1/1 ページ 登録する を使用すると 独自のサイトを簡単に作成し 更新できます では 各種情報 ( 動画 スライドショー カレンダー プレゼンテーション 添付ファイル テキストなど ) を 1 つの場所に表示し それを小さなグループ

More information

プロフィールを編集するにはほかの人のプロフィールが表示されているときは 自分のアカウント名をクリックし プロフィール } タブをクリックし skype 表示名をクリックします 新しい skype 表示名を入力し をクリックすると Skype 表示名がへんこうされます { 番号を追加 } をクリックし

プロフィールを編集するにはほかの人のプロフィールが表示されているときは 自分のアカウント名をクリックし プロフィール } タブをクリックし skype 表示名をクリックします 新しい skype 表示名を入力し をクリックすると Skype 表示名がへんこうされます { 番号を追加 } をクリックし SKYPE 通話する時の 重要チェックポイント 1 画面についてスカイプを起動するとスカイプホーム画面が表示される連絡先を追加したり スカイプの設定変更などが出来る各種メニューにアクセス出来ます skpe 連絡先リスト 会話 通話 表示 ツール ヘルプ等 画面を分離するには ウィンドウ右上の をクリックすると 左ペインと右ペインを分離できます 元に戻す場合は再度右上の をクリックします チャットなど行うと

More information

ユーザ デバイス プロファイルの ファイル形式

ユーザ デバイス プロファイルの ファイル形式 CHAPTER 34 CSV データファイルの作成にテキストエディタを使用する場合 デバイスフィールドと回線フィールドを CSV データファイル内で識別するファイル形式を使用する必要があります このファイル形式には次のオプションがあります Default User Device Profile: ユーザデバイスプロファイルのデバイスフィールドと回線フィールドの事前決定済みの組み合せを含む Simple

More information

HP Primeバーチャル電卓

HP Primeバーチャル電卓 HP Prime バーチャル電卓 Windows は 米国 Microsoft Corporation およびその関連会社の米国およびその他の国における商標または登録商標です 本書の内容は 将来予告なしに変更されることがあります HP 製品およびサービスに関する保証は 当該製品およびサービスに付属の保証規定に明示的に記載されているものに限られます 本書のいかなる内容も 当該保証に新たに保証を追加するものではありません

More information

V-CUBE One

V-CUBE One V-CUBE One コンテンツ配信機能システム管理マニュアル ブイキューブ 2016/12/22 この文書は V-CUBE One コンテンツ配信機能のシステム管理マニュアルです 更新履歴 更新日 内容 2015/04/28 新規作成 2015/07/24 グループ管理のユーザーインタフェース変更に伴う修正 ユーザー管理のユーザーインタフェース変更に伴う修正 2015/09/30 連携サービス追加に伴う

More information

モジュール 1: インターフェースの特徴 主なインターフェースの特徴 DocuShare のインターフェースは使いやすく あらゆるレベルのユーザーが機能を簡単に学習することができます 主要な特徴には 次のようなものがあります 様々な種類のコンテンツを表すアイコン クリック 1 つでタスクページを表示

モジュール 1: インターフェースの特徴 主なインターフェースの特徴 DocuShare のインターフェースは使いやすく あらゆるレベルのユーザーが機能を簡単に学習することができます 主要な特徴には 次のようなものがあります 様々な種類のコンテンツを表すアイコン クリック 1 つでタスクページを表示 ユーザーチュートリアル : ようこそ ユーザーチュートリアルは 基本的な DocuShare の機能を迅速に学習できる一連のエクササイズで構成されています エクササイズを活用するには DocuShare をブラウザウィンドウで実行中である必要があります モジュール 1: インターフェースの特徴 モジュール 2: アカウントの作成 モジュール 3: コンテンツをサイトに追加 モジュール 4: ドキュメントの作業

More information

PowerPoint Presentation

PowerPoint Presentation AWS AWS AWS AWS AWS AWS AWS オンプレミス データセンター AWS Storage Gateway Amazon Kinesis Firehose EFS File Sync S3 Transfer Acceleration AWS Direct Connect Amazon Macie AWS QuickSight AWS Lambda AWS CloudFormation

More information

2. Save をクリックします 3. System Options - Network - TCP/IP - Advanced を開き Primary DNS server と Secondary DNS Server に AXIS ネットワークカメラ / ビデオエンコーダが参照できる DNS サ

2. Save をクリックします 3. System Options - Network - TCP/IP - Advanced を開き Primary DNS server と Secondary DNS Server に AXIS ネットワークカメラ / ビデオエンコーダが参照できる DNS サ はじめに 本ドキュメントでは AXIS ネットワークカメラ / ビデオエンコーダのファームウエアバージョン 5.4x 以降で 指定された曜日と時間帯に 画像を添付したメールを送信するための設定手順を説明します 設定手順手順 1:AXIS ネットワークカメラ / ビデオエンコーダの設定ページにアクセスする 1. Internet Explorer などの Web ブラウザを起動します 2. Web ブラウザの

More information

内容 1 Office 365 のサインイン サインアウト サインイン方法 サインアウト方法 Outlook on the Web 画面構成 メールの利用方法 受信メールの閲覧 添付ファイルのダウンロ

内容 1 Office 365 のサインイン サインアウト サインイン方法 サインアウト方法 Outlook on the Web 画面構成 メールの利用方法 受信メールの閲覧 添付ファイルのダウンロ Outlook on the Web の利用方法 第 1.4 版 2018 年 8 月 11 日同志社大学 Microsoft 社の仕様変更により 画面の表示内容や画面遷移が予告なく変更になることがあります 何卒ご容赦ください 1 内容 1 Office 365 のサインイン サインアウト... 4 1.1 サインイン方法... 4 1.2 サインアウト方法... 5 2 Outlook on the

More information

履歴 作成日 バージョン番号 変更点 2016 年 9 月 19 日 新システム稼働本マニュアル ( 初版 ) 2016 年 10 月 6 日 システム公開に伴う 初版最終調整 2016 年 11 月 7 日 添付ファイルの公開設定について 追加 2

履歴 作成日 バージョン番号 変更点 2016 年 9 月 19 日 新システム稼働本マニュアル ( 初版 ) 2016 年 10 月 6 日 システム公開に伴う 初版最終調整 2016 年 11 月 7 日 添付ファイルの公開設定について 追加 2 岡山市 Ver. 201802 株式会社ファントゥ 履歴 作成日 バージョン番号 変更点 2016 年 9 月 19 日 201608 新システム稼働本マニュアル ( 初版 ) 2016 年 10 月 6 日 201610 システム公開に伴う 初版最終調整 2016 年 11 月 7 日 201611 5.1 添付ファイルの公開設定について 追加 2018 年 2 月 8 日 201802 ユーザーインターフェース変更に伴う画像

More information

目次 1. ログイン 最初に設定しましょう メールの受信 メールの削除 振り分け ( ラベル付け ) メールの作成 メールの返信 転送 メールの自動転送 ログアウト

目次 1. ログイン 最初に設定しましょう メールの受信 メールの削除 振り分け ( ラベル付け ) メールの作成 メールの返信 転送 メールの自動転送 ログアウト 2015/5/22 システム管理室 目次 1. ログイン... 1 2. 最初に設定しましょう... 3 3. メールの受信... 5 4. メールの削除 振り分け ( ラベル付け )... 9 5. メールの作成... 13 6. メールの返信 転送... 14 7. メールの自動転送... 16 8. ログアウト... 19 9. ヘルプ... 20 このマニュアルは 2015 年 5 月現在の

More information

VPN 接続の設定

VPN 接続の設定 VPN 接続の設定 AnyConnect 設定の概要, 1 ページ AnyConnect 接続エントリについて, 2 ページ ハイパーリンクによる接続エントリの追加, 2 ページ 手動での接続エントリの追加, 3 ページ ユーザ証明書について, 4 ページ ハイパーリンクによる証明書のインポート, 5 ページ 手動での証明書のインポート, 5 ページ セキュアゲートウェイから提供される証明書のインポート,

More information

V-CUBE One

V-CUBE One V-CUBE One Office 365 連携マニュアル ブイキューブ 2017/06/02 この文書は V-CUBE One の Office 365 連携用ご利用マニュアルです 更新履歴 更新日 内容 2016/02/09 新規作成 2016/03/11 Office 365 ID を既存の One 利用者と紐付ける機能に関する記述の追加 2016/04/01 V-CUBE ミーティング Outlook

More information

PowerPoint Presentation

PowerPoint Presentation Amazon WorkSpaces Active Directory 証明書サービス (ADCS) を用いたデバイス認証構成 アマゾンウェブサービスジャパン株式会社 2017 / 11 / 10 Agenda 1. Amazon WorkSpaces のデバイス認証の仕組み 2. 環境構成概要 Amazon WorkSpaces デバイス認証の仕組み 3 WorkSpaces のエンドポイントへアクセス

More information

目次 第 1 章はじめに 取扱いについて 記載内容について... 6 第 2 章基本操作 OneNote Online を開く ノートブックを開く ノート ( セクション ) を作成する... 11

目次 第 1 章はじめに 取扱いについて 記載内容について... 6 第 2 章基本操作 OneNote Online を開く ノートブックを開く ノート ( セクション ) を作成する... 11 Office 365 OneNote Online - 利用マニュアル - 発行日 2015/09/01 1 目次 第 1 章はじめに... 5 1.1. 取扱いについて... 6 1.2. 記載内容について... 6 第 2 章基本操作... 7 2.1. OneNote Online を開く... 8 2.2. ノートブックを開く... 10 2.3. ノート ( セクション ) を作成する...

More information

Upload path ファイル送信先ディレクトリのパスを指定します ホームディレクトリに画像を送信する場合は空白のまま サブディレクトリに画像を送信する場合はディレクトリ名を指定します さらに下位のディレクトリを指定する場合は \ マークを利用します 例 ) ホームディレクトリ以下の camera

Upload path ファイル送信先ディレクトリのパスを指定します ホームディレクトリに画像を送信する場合は空白のまま サブディレクトリに画像を送信する場合はディレクトリ名を指定します さらに下位のディレクトリを指定する場合は \ マークを利用します 例 ) ホームディレクトリ以下の camera はじめに 本ドキュメントでは AXIS ネットワークカメラ / ビデオエンコーダのファームウエアバージョン 5.5x 以降で 任意の間隔で画像を FTP サーバへ送信するための設定手順を説明します 設定手順手順 1:AXIS ネットワークカメラ / ビデオエンコーダの設定ページにアクセスする 1. Internet Explorer などの Web ブラウザを起動します 2. Web ブラウザの URL

More information

(Microsoft PowerPoint - 10_\203J\203\214\203\223\203_\201[.pptx)

(Microsoft PowerPoint - 10_\203J\203\214\203\223\203_\201[.pptx) サービスガイド カレンダー スケジュール登録終日スケジュールのスケジュールの登録繰り返し設定共有メモをメモを登録スケジュールを編集 カレンダーと同期化 カレンダーと同期化その他の機能 TeamOffice サービスガイド Copyright c Daou Japan K.K. All rights reserved. カレンダー チームと自分のスケジュールの共有ができます スケジュールは リマインドのメッセージ

More information

Windowsクライアントユーザーマニュアル_version+1_0_1_

Windowsクライアントユーザーマニュアル_version+1_0_1_ Cloud Disk Windows 版専用アプリリケーション操作マニュュアル ~ すべべて 一生保存する ~ 本プロダクト概要 Disk 容量の追加が自由に 10GB Windows/Mac/Android/iPhone/linux/ itron 対応 10GB 10GB 10GB ファイルの履歴管理が可能 RealTime Nortification! ファイルやフォルダを自由な権限で共有 /

More information

Groups for Business とは Google グループを使用すると 組織の内外のユーザーと 効率的なコミュニケーションを図ることができます グループ の作成と管理をチームに任せることができ コラボレーショ ンが容易に実現します Groups for Business を使用すると もっ

Groups for Business とは Google グループを使用すると 組織の内外のユーザーと 効率的なコミュニケーションを図ることができます グループ の作成と管理をチームに任せることができ コラボレーショ ンが容易に実現します Groups for Business を使用すると もっ 管理者向けの Groups for Business 設定 このガイドの内容 1. Google Groups for Business がチームのコミュニケーションに どのように役立つかを確認する 2. Groups for Business のおすすめの設定を選択する 3. 自動返信を使用するメーリングリスト 外部 ユーザーを含むメーリングリスト 共有メールボックスを作成する 4. ユーザーをトレーニングする

More information

brick アクセス解析レポート マニュアル

brick アクセス解析レポート マニュアル アクセス解析レポート 使い方ガイド 2016.03 2015 TechLoCo, Inc. All Rights Reserved. 目次 アクセス解析レポートでできること P 3 Google アナリティクスを登録する P 4 レポートを作成する P 9 有料契約のお申し込み ( 支払登録 ) P 17 有料契約の解除 ( 解約申請 ) P 24 2015 TechLoCo, Inc. All Rights

More information

DataWare-NETご利用ガイド

DataWare-NETご利用ガイド DataWare-NET ご利用ガイド . 毎日夕方に配信先に設定したアドレスにメールが配信されます 登録が完了すると 配信先に設定されたメールアドレスに毎日夕方にメールをお届けします メールの配信先は 6 メールアドレスまで設定可能です 本日の収集案件数や 設定された条件に合致した案件数が記載されています メール本文に記載された マイページ URL をクリックすると 専用のマイページに移動します

More information

サイボウズ Office 10「個人フォルダ」

サイボウズ Office 10「個人フォルダ」 サイボウズ Office 10 バージョン 10.4 個人フォルダ Copyright (C) 2013-2016 Cybozu 商標について 記載された商品名 各製品名は各社の登録商標または商標です また 当社製品には他社の著作物が含まれていることがあります 個別の商標 著作物に関する注記については 弊社の Web サイトを参照してください http://cybozu.co.jp/company/copyright/other_companies_trademark.html

More information

Section1_入力用テンプレートの作成

Section1_入力用テンプレートの作成 入力用テンプレートの作成 1 Excel には 効率よく かつ正確にデータを入力するための機能が用意されています このセクションでは ユーザー設定リストや入力規則 関数を利用した入力用テンプレートの作成やワークシート操作について学習します STEP 1 ユーザー設定リスト 支店名や商品名など 頻繁に利用するユーザー独自の連続データがある場合には ユーザー設定リスト に登録しておけば オートフィル機能で入力することができ便利です

More information

Upload path ファイル送信先ディレクトリのパスを指定します ホームディレクトリに画像を送信する場合は空白のまま サブディレクトリに画像を送信する場合はディレクトリ名を指定します さらに下位のディレクトリを指定する場合は \ マークを利用します 例 ) ホームディレクトリ以下の camera

Upload path ファイル送信先ディレクトリのパスを指定します ホームディレクトリに画像を送信する場合は空白のまま サブディレクトリに画像を送信する場合はディレクトリ名を指定します さらに下位のディレクトリを指定する場合は \ マークを利用します 例 ) ホームディレクトリ以下の camera はじめに 本ドキュメントでは AXIS ネットワークカメラ / ビデオエンコーダのファームウエアバージョン 5.4x 以降で 定期的に画像を FTP サーバへ送信するための設定手順を説明します 設定手順手順 1:AXIS ネットワークカメラ / ビデオエンコーダの設定ページにアクセスする 1. Internet Explorer などの Web ブラウザを起動します 2. Web ブラウザの URL

More information

管理者向けのドライブ設定 このガイドの内容 1. ドライブの設定を調整する 2. パソコンにドライブをインストールする 必要なもの G Suite 管理者アカウント 30 分

管理者向けのドライブ設定 このガイドの内容 1. ドライブの設定を調整する 2. パソコンにドライブをインストールする 必要なもの G Suite 管理者アカウント 30 分 ドライブの紹介 Google ドライブを使用すると ファイルを クラウドに保存してチームのメンバーや外 部のパートナーと共有できると共に どこ からでもファイルにアクセスできます また ファイルを容易に検索でき あらゆる ドキュメントを安全に保管できます ドライブの利用に必要なのは ウェブブラ ウザまたはドライブがインストールされた 端末のみです 管理者向けのドライブ設定 このガイドの内容 1. ドライブの設定を調整する

More information

5-2. 顧客情報をエクスポートする 顧客管理へのアクセス手順 メールディーラーで管理する顧客情報に関する設定を行います 1. 画面右上の 管理設定 をクリックする 2. 管理設定 をクリックする 3. ( タブ ) 顧客管理 をクリックする 2

5-2. 顧客情報をエクスポートする 顧客管理へのアクセス手順 メールディーラーで管理する顧客情報に関する設定を行います 1. 画面右上の 管理設定 をクリックする 2. 管理設定 をクリックする 3. ( タブ ) 顧客管理 をクリックする 2 目次 顧客管理 Ver.12.3 1. 顧客管理へのアクセス手順... 2 2. 顧客管理に関する設定をする... 3 3. 顧客情報を管理する基本項目を作成する... 4 項目を作成する... 4 選択肢形式の項目を作成する... 5 3-1. 顧客検索の設定をする...6 検索項目を設定する... 6 検索結果の件数表示の設定をする... 6 検索条件の設定をする... 7 3-2. 顧客一覧画面の設定をする...7

More information

ユーザーチュートリアル : ようこそ ユーザーチュートリアルは 基本的な DocuShare の機能を迅速に学習できる一連のエクササイズで構成されています エクササイズを活用するには DocuShare をブラウザウィンドウで実行中である必要があります モジュール 1: インターフェースの機能 モジ

ユーザーチュートリアル : ようこそ ユーザーチュートリアルは 基本的な DocuShare の機能を迅速に学習できる一連のエクササイズで構成されています エクササイズを活用するには DocuShare をブラウザウィンドウで実行中である必要があります モジュール 1: インターフェースの機能 モジ ユーザーチュートリアル : ようこそ ユーザーチュートリアルは 基本的な DocuShare の機能を迅速に学習できる一連のエクササイズで構成されています エクササイズを活用するには DocuShare をブラウザウィンドウで実行中である必要があります モジュール 1: インターフェースの機能 モジュール 2: アカウントの作成 モジュール 3: コンテンツをサイトに追加 モジュール 4: ドキュメントの作業

More information

ファイル メニューのコマンド

ファイル メニューのコマンド CHAPTER43 次のオプションは Cisco Configuration Professional(Cisco CP) の [ ファイル ] メニューから利用できます 実行コンフィギュレーションを PC に保存 ルータの実行コンフィギュレーションファイルを PC 上のテキストファイルに保存します 43-1 設定をルータに配信する 第 43 章 設定をルータに配信する このウィンドウでは Cisco

More information

Ontrack PowerControls バックアップ・復旧ガイド

Ontrack PowerControls バックアップ・復旧ガイド 1 版 2015 年 10 月 05 日 改定履歴 版改定日改定ページ改定内容 1 版 1 版 1 目次 改定履歴... 1 はじめに... 3 1. 概略... 4 1.1 操作概要... 5 2. Exchange サーバーのバックアップ... 6 3. バックアップイメージのマウント... 8 4. OPC による操作... 10 4.1 ソース ターゲットの設定... 10 4.2 事前準備...

More information

目次 1. ログイン P2 2. 送受信管理 P メールの新規送信 P 未送信 ( 保存 ) メールの編集 削除 P 送信済みメールの状況確認 P6 3. メンバー ( 送信先 ) 管理 P メンバーの新規登録 編集 P メンバーの削除 P

目次 1. ログイン P2 2. 送受信管理 P メールの新規送信 P 未送信 ( 保存 ) メールの編集 削除 P 送信済みメールの状況確認 P6 3. メンバー ( 送信先 ) 管理 P メンバーの新規登録 編集 P メンバーの削除 P 2011.02.24 目次 1. ログイン P2 2. 送受信管理 P3 2-1. メールの新規送信 P4 2-2. 未送信 ( 保存 ) メールの編集 削除 P5 2-3. 送信済みメールの状況確認 P6 3. メンバー ( 送信先 ) 管理 P7 3-1. メンバーの新規登録 編集 P8 3-2. メンバーの削除 P9 3-3. メンバーの一括管理 P10 4. グループ管理 P11 4-1.

More information

Acronis Snap Deploy 5

Acronis Snap Deploy 5 Acronis Snap Deploy 5 クイックスタートガイド 1. はじめに... 2 2. ブータブルメディアの作成... 4 3. マスターイメージの作成... 7 4. マスターイメージの配置... 16 1 1. はじめに 本書は Snap Deploy を初めてお使いの方へインストール後の使用方法について一連の手順を説明しています Snap Deploy for PC と Snap

More information

目次 1. Azure Storage をインストールする Azure Storage のインストール Azure Storage のアンインストール Azure Storage を使う ストレージアカウントの登録... 7

目次 1. Azure Storage をインストールする Azure Storage のインストール Azure Storage のアンインストール Azure Storage を使う ストレージアカウントの登録... 7 QNAP Azure Storage ユーザーガイド 発行 : 株式会社フォースメディア 2014/6/2 Rev. 1.00 2014 Force Media, Inc. 目次 1. Azure Storage をインストールする... 3 1.1. Azure Storage のインストール... 3 1.2. Azure Storage のアンインストール... 5 2. Azure Storage

More information

Microsoft PowerPoint - Outlook2016(新)

Microsoft PowerPoint - Outlook2016(新) Office 365 Outlook 2016 目次 1. Outlook 2016 の概要... 3 Outlook 2016の各機能の画面... 3 2. Outlook 2016 のアカウント設定... 4 3. メール... 6 3.1 メールの構成画面... 6 3.2 メールの作成 送信... 7 3.3 受信メールの確認... 9 3.4 メールの返信... 10 3.5 フォルダーの作成...

More information

目次. WEB メールへのログイン.... メール送信手順.... メール受信手順.... アドレス帳の操作手順.... フォルダーの操作手順 メール発信者登録 署名登録手順 基本的な設定 参考情報... 8

目次. WEB メールへのログイン.... メール送信手順.... メール受信手順.... アドレス帳の操作手順.... フォルダーの操作手順 メール発信者登録 署名登録手順 基本的な設定 参考情報... 8 Web メール操作マニュアル 目次. WEB メールへのログイン.... メール送信手順.... メール受信手順.... アドレス帳の操作手順.... フォルダーの操作手順... 6. メール発信者登録 署名登録手順... 8 7. 基本的な設定... 9 8. 参考情報... 8 . WEB メールへのログイン 概要 ユーザアカウントでのログイン手順を記載します. ログイン方法を記載します URL:https://webmail.clovernet.ne.jp/

More information

ドキュメント情報... 2 グローバルサイトマネージャー (GSM)... 3 コンソール概要... 3 サイト情報の表示... 4 サイトの作成および編集... 6 管理者の追加... 8 管理者の編集...10 GSM アカウント情報の表示...13 ポリシーの作成...13 ポリシーの自動イン

ドキュメント情報... 2 グローバルサイトマネージャー (GSM)... 3 コンソール概要... 3 サイト情報の表示... 4 サイトの作成および編集... 6 管理者の追加... 8 管理者の編集...10 GSM アカウント情報の表示...13 ポリシーの作成...13 ポリシーの自動イン GSM コンソールクイックガイド Ver.1.2 1 ドキュメント情報... 2 グローバルサイトマネージャー (GSM)... 3 コンソール概要... 3 サイト情報の表示... 4 サイトの作成および編集... 6 管理者の追加... 8 管理者の編集...10 GSM アカウント情報の表示...13 ポリシーの作成...13 ポリシーの自動インポート...15 ポリシーの手動インポート...16

More information

【rakumoソーシャルスケジューラー】管理者マニュアル

【rakumoソーシャルスケジューラー】管理者マニュアル 2018.12.17 ソーシャルエンタープライズアプリケーション rakumo ソーシャルスケジューラー管理者マニュアル お申し込み お問い合わせ rakumo サポート 9:00~18:00( 土 / 日 / 祝日除く ) 050-1746-9402 support-sfdc@rakumo.com https://support.rakumo.com /rakumo-support/inquiry/

More information

PC にソフトをインストールすることによって OpenVPN でセキュア SAMBA へ接続することができます 注意 OpenVPN 接続は仮想 IP を使用します ローカル環境にて IP 設定が被らない事をご確認下さい 万が一仮想 IP とローカル環境 IP が被るとローカル環境内接続が行えなくな

PC にソフトをインストールすることによって OpenVPN でセキュア SAMBA へ接続することができます 注意 OpenVPN 接続は仮想 IP を使用します ローカル環境にて IP 設定が被らない事をご確認下さい 万が一仮想 IP とローカル環境 IP が被るとローカル環境内接続が行えなくな 操作ガイド Ver.2.3 目次 1. インストール... - 2-2. SAMBA Remote 利用... - 9-2.1. 接続確認... - 9-2.2. 自動接続... - 11-2.3. 編集... - 13-2.4. インポート... - 16-2.5. 削除... - 18-2.6. 参考資料 ( 接続状況が不安定な場合の対処方法について )... - 19-2.6.1. サービスの再起動...

More information

障害およびログの表示

障害およびログの表示 この章の内容は 次のとおりです 障害サマリー, 1 ページ 障害履歴, 4 ページ Cisco IMC ログ, 7 ページ システム イベント ログ, 9 ページ ロギング制御, 12 ページ 障害サマリー 障害サマリーの表示 手順 ステップ 1 [ナビゲーション Navigation ] ペインの [シャーシ Chassis ] メニューをクリックします ステップ 2 [シャーシ Chassis

More information

Microsoft Word - L08_Backup_Lab.docx

Microsoft Word - L08_Backup_Lab.docx バックアップおよび復元機能の確認 この実習では 手動バックアップ 自動バックアップのスケジュール作成 ファイルとフォルダの回復 および WinRE を使用したシステム障害への備えとシステム障害からの復元を行います この実習の推定所要時間 : 1 時間 開始する前に この実習を開始するための前提条件を次に示します エンタープライズ環境における Windows Server 2003 のサポート経験があること

More information

AFP FORUM

AFP FORUM Titre de la présentation PowerPoint 1 AFP FORUM 2015 Titre de la présentation PowerPoint 2 AFP Forum のカスタマイズ 2015 AFP Forum マイアカウントページでカスタマイズ設定する マイアカウントページの Settings を開きます 1 2 3 1 言語の設定 以下の言語から選択します 英語

More information

AWS の運用監視入門 (AWS CloudWatch)

AWS の運用監視入門 (AWS CloudWatch) AWS の運用監視入門 Amazon CloudWatch 技術統括本部ソリューションアーキテクト藤倉和明 2017 年 6 月 2 日 2017, Amazon Web Services, Inc. or its Affiliates. All rights reserved. 本セッションの Feedback をお願いします 受付でお配りしたアンケートに本セッションの満足度やご感想などをご記入くださいアンケートをご提出いただきました方には

More information

掲示板の閲覧 掲示板の閲覧 登録権または参照権のある掲示板グループの掲示版を閲覧することができます 各利用者の権限は 管理者によって設定されます 掲示板を閲覧する 1 掲示板画面を表示し 閲覧する掲示が含まれている掲示板グループ 掲示板の順にクリックします 掲示板画面の表示方法 ポータル画面の画面説

掲示板の閲覧 掲示板の閲覧 登録権または参照権のある掲示板グループの掲示版を閲覧することができます 各利用者の権限は 管理者によって設定されます 掲示板を閲覧する 1 掲示板画面を表示し 閲覧する掲示が含まれている掲示板グループ 掲示板の順にクリックします 掲示板画面の表示方法 ポータル画面の画面説 この章では 掲示板の利用方法などについてご案内しています 掲示板には文書を登録したり 返信を書き込むことができます 掲示板グループや掲示板は 管理者によって登録されます 掲示板の閲覧 140 掲示板の検索 146 掲示内容を転送する 148 掲示内容の登録 151 掲示内容をメールで登録する 158 掲示板の登録予約 159 掲示板の設定 163 掲示板の閲覧 掲示板の閲覧 登録権または参照権のある掲示板グループの掲示版を閲覧することができます

More information

SAMBA Stunnel(Windows) 編 1. インストール 1 セキュア SAMBA の URL にアクセスし ログインを行います xxx 部分は会社様によって異なります xxxxx 2 Windows 版ダウンロード ボ

SAMBA Stunnel(Windows) 編 1. インストール 1 セキュア SAMBA の URL にアクセスし ログインを行います   xxx 部分は会社様によって異なります xxxxx 2 Windows 版ダウンロード ボ 操作ガイド Ver.2.3 目次 1. インストール... - 2-2. SAMBA Stunnel 利用... - 8-2.1. 接続確認... - 8-2.2. 編集... - 11-2.3. インポート... - 14-2.4. 削除... - 15-2.5 フォルダショートカットの作成... - 16-3. 動作環境... - 18-4. 参考資料 ( 接続状況が不安定な場合の対処方法について

More information

ZCBクイックスタートガイド

ZCBクイックスタートガイド ZCB クイックスタートガイド Release 4.1 Zmanda Inc. 内容 イントロダクション... 2 ZCB のインストール... 2 バックアップの概要... 4 バックアップセットの作成... 5 バックアップセットの設定... 5 バックアップの対象... 6 バックアップの保存先... 7 バックアップの方法... 8 バックアップの日時... 9 設定を保存する... 10

More information

目次 Web インターフェースでのログイン方法 1 Web インターフェースから利用できる機能の紹介 3 1ファイルのアップロードとダウンロード 4 2 転送確認 ( ファイルのアップロード状況 ) 9 3ファイル更新履歴の管理 10 4 操作履歴の確認 12 5アクセスチケットの生成 ( フォルダ

目次 Web インターフェースでのログイン方法 1 Web インターフェースから利用できる機能の紹介 3 1ファイルのアップロードとダウンロード 4 2 転送確認 ( ファイルのアップロード状況 ) 9 3ファイル更新履歴の管理 10 4 操作履歴の確認 12 5アクセスチケットの生成 ( フォルダ ServersMan@Disk WEB インターフェースでの ご利用方法 目次 Web インターフェースでのログイン方法 1 Web インターフェースから利用できる機能の紹介 3 1ファイルのアップロードとダウンロード 4 2 転送確認 ( ファイルのアップロード状況 ) 9 3ファイル更新履歴の管理 10 4 操作履歴の確認 12 5アクセスチケットの生成 ( フォルダ / ファイルの公開 ) 13

More information

ご利用のコンピュータを設定する方法 このラボの作業を行うには 事前設定された dcloud ラボを使用するか 自身のコンピュータをセットアップします 詳細については イベントの事前準備 [ 英語 ] とラボの設定 [ 英語 ] の両方のモジュールを参照してください Python を使用した Spar

ご利用のコンピュータを設定する方法 このラボの作業を行うには 事前設定された dcloud ラボを使用するか 自身のコンピュータをセットアップします 詳細については イベントの事前準備 [ 英語 ] とラボの設定 [ 英語 ] の両方のモジュールを参照してください Python を使用した Spar ご利用のコンピュータを設定する方法 このラボの作業を行うには 事前設定された dcloud ラボを使用するか 自身のコンピュータをセットアップします 詳細については イベントの事前準備 [ 英語 ] とラボの設定 [ 英語 ] の両方のモジュールを参照してください Python を使用した Spark API との通信 このラーニングモジュールでは Python を使用した Spark API とのインターフェイスを扱います

More information

IBM API Connect 開発者ポータル構成ガイド 1章

IBM API Connect 開発者ポータル構成ガイド 1章 IBM API Connect 開発者ポータル構成ガイド 1. 開発者ポータルの一般的な構成 2016/10/01 日本アイ ビー エム株式会社 はじめに 当資料の位置づけ 当資料は API Connect の開発者ポータルの主要なカスタマイズ方法についてまとめたものです V5.0.1 を前提としています 注意事項 当資料に含まれる情報は可能な限り正確を期しておりますが 当資料に記載された内容に関して何ら保証するものではありません

More information

V-CUBE Gate 管理者用マニュアル

V-CUBE Gate 管理者用マニュアル Admin Page 管理者用マニュアル ブイキューブ 1 目次 はじめに 本マニュアルについて とは 機能 1) ログイン 2) ダッシュボード 3) 管理者 4) ユーザー 5) 組織管理 6) チャットグループ管理 7) お知らせ 8) チャットログ 9) IP アドレス制限 10) デバイスセッション 11) 操作ログ 12) アプリ設定 13) ミーティングルーム 14) 企業情報 15)

More information

インテル(R) Visual Fortran コンパイラ 10.0

インテル(R) Visual Fortran コンパイラ 10.0 インテル (R) Visual Fortran コンパイラー 10.0 日本語版スペシャル エディション 入門ガイド 目次 概要インテル (R) Visual Fortran コンパイラーの設定はじめに検証用ソースファイル適切なインストールの確認コンパイラーの起動 ( コマンドライン ) コンパイル ( 最適化オプションなし ) 実行 / プログラムの検証コンパイル ( 最適化オプションあり ) 実行

More information

誓約書の同意 4 初回のみ 下記画面が表示されるので内容を確認後 同意する ボタンをクリック 同意していただけない場合はネット調達システムを使うことができません 参照条件設定 5 案件の絞り込み画面が表示されます 5-1 施工地域を選択して 施工地域選択完了 ボタンをクリック - 2 -

誓約書の同意 4 初回のみ 下記画面が表示されるので内容を確認後 同意する ボタンをクリック 同意していただけない場合はネット調達システムを使うことができません 参照条件設定 5 案件の絞り込み画面が表示されます 5-1 施工地域を選択して 施工地域選択完了 ボタンをクリック - 2 - ネット調達システム簡易マニュアル 協力会社編 システムの起動 ~ 案件参照 ~ 見積提出 ログイン 1OC-COMET にログインします 2 左側のメニューより 関連システム連携 ( 見積回答 S 他 ) をクリック 3 ネット調達システム をクリック - 1 - 誓約書の同意 4 初回のみ 下記画面が表示されるので内容を確認後 同意する ボタンをクリック 同意していただけない場合はネット調達システムを使うことができません

More information

PowerPoint Presentation

PowerPoint Presentation 製品ソフトウェアのセットアップ手順 UNIX/Linux 編 1. セットアップファイルの選択開発環境 / 実行環境 / バージョン /Hotfix/ インストール先 OS 2. 対象セットアップファイルのダウンロード開発環境の場合は 2 つのファイルが対象 3. ソフトウェア要件の確認 4. ソフトウェアのインストール 5. ライセンスの認証 1 1. セットアップファイルの選択 選択項目選択肢該当チェック

More information

ハングアウトとは 1 25 人の相手とビデオハングアウトで会話 することができ 同僚との会議を快適に進め られます ハングアウトでは 人の参加者とチ ャットすることができます パソコンで始めたハングアウトの会議やチ ャットの続きを スマートフォンで行うこ とができます 必要なものはウェブ

ハングアウトとは 1 25 人の相手とビデオハングアウトで会話 することができ 同僚との会議を快適に進め られます ハングアウトでは 人の参加者とチ ャットすることができます パソコンで始めたハングアウトの会議やチ ャットの続きを スマートフォンで行うこ とができます 必要なものはウェブ Google ハングアウトの設定 管理者向け このガイドの内容 1. Google ハングアウトをインストールして設定を調整する 2. チャットやビデオハングアウトを開始する 3. さまざまな機能やモバイル ハングアウトを使ってみる 4. 組織向けにハングアウトを設定する 必要なもの カメラとマイク付きのパソコン G Suite 管理者アカウント 30 分 ハングアウトとは 1 25 人の相手とビデオハングアウトで会話

More information

Office365 スマートフォンからの活用 <メール/予定表/OneDrive>

Office365 スマートフォンからの活用  <メール/予定表/OneDrive> Office365 スマートフォンからの利用 < メール / 予定表 /OneDrive> イー レンジャー株式会社 はじめに Office365 は iphone Android それぞれに Microsoft 純正の Outlook 等スマホ用 Office アプリや他社メールアプリなどから利用が可能です しかしそれらのアプリはアップデートにより動作が変わる また個々のスマホによりバージョンが異なると動作が変わってしまうということも想定されます

More information

ServerView Resource Orchestrator V3.0 ネットワーク構成情報ファイルツール(Excel形式)の利用方法

ServerView Resource Orchestrator V3.0 ネットワーク構成情報ファイルツール(Excel形式)の利用方法 ServerView Resource Orchestrator V3.0 ネットワーク構成情報ファイル作成ツール mknetdevconf-tool-0300-1 本ファイルでは ServerView Resource Orchestrator V3.0 で使用する ネットワーク構成情報ファイル作成ツール の動作条件 使用方法 およびその他の重要な情報について説明しています 本ツールを使用する前に必ず最後まで目を通すようお願いします

More information

LINE WORKS セットアップガイド目次 管理者画面へのログイン... 2 ドメイン所有権の確認... 3 操作手順... 3 組織の登録 / 編集 / 削除... 7 組織を個別に追加 ( マニュアル操作による登録 )... 7 組織を一括追加 (XLS ファイルによる一括登録 )... 9

LINE WORKS セットアップガイド目次 管理者画面へのログイン... 2 ドメイン所有権の確認... 3 操作手順... 3 組織の登録 / 編集 / 削除... 7 組織を個別に追加 ( マニュアル操作による登録 )... 7 組織を一括追加 (XLS ファイルによる一括登録 )... 9 VER.4.0.0 ライトプラン 1 LINE WORKS セットアップガイド目次 管理者画面へのログイン... 2 ドメイン所有権の確認... 3 操作手順... 3 組織の登録 / 編集 / 削除... 7 組織を個別に追加 ( マニュアル操作による登録 )... 7 組織を一括追加 (XLS ファイルによる一括登録 )... 9 組織の編集... 11 組織の移動... 12 組織の並べ替え...

More information

アーカイブ機能インストールマニュアル

アーカイブ機能インストールマニュアル Microsoft SQL Server 2005 SQL Server Management Studio データベースバックアップ設定マニュアル 1. 注意事項... 1 2.SQL Server 2005 Integration Services (SSIS) インストール... 2 3. データベースのバックアッププラン作成方法... 3 4. データベースのバックアップ...

More information

メール利用マニュアル (Web ブラウザ編 ) 1

メール利用マニュアル (Web ブラウザ編 ) 1 メール利用マニュアル (Web ブラウザ編 ) 1 目次 1. メールサービス (OWA) への接続... 4 1.1. 前提条件... 4 1.2. 接続手順... 5 2. 基本設定の変更... 9 2.1. メール表示方法の変更... 9 2.2. 添付ファイルの設定... 10 2.3. 優先受信トレイ... 12 2.4. リンクのプレビュー... 13 2.6. メッセージ形式... 14

More information

Excel2013基礎 数式と表編集

Excel2013基礎 数式と表編集 OA ベーシック Excel2013 基礎数式と表編集 1 / 8 Excel2013 基礎数式と表編集 数式と表編集前編 ( 数式 ) 数式の入力 Excel では 等号 (=) で始まるデータを数式として認識します 数式を入力する場合は 数値を直接入力するのではなく 数値が入力されたセルを参照する形で式を立てます 基本的な 四則演算を行う場合は 四則演算子を使用します 操作数式を入力します 前月比を求める数式

More information

Windows 10 IoT Core MVA 2015 August Windows 10 IoT Core ハンズオントレーニング Building and running Github MS IoT Samples on Windows 10 IoT Core 5 章センサーデータをクラウドへ

Windows 10 IoT Core MVA 2015 August Windows 10 IoT Core ハンズオントレーニング Building and running Github MS IoT Samples on Windows 10 IoT Core 5 章センサーデータをクラウドへ Windows 10 IoT Core ハンズオントレーニング Building and running Github MS IoT Samples on Windows 10 IoT Core 5 章センサーデータをクラウドへ集約 Lab version: 10240.1.0 Last updated: 6/21/2016 Building and running Github MS IoT Samples

More information

AWS Deck Template

AWS Deck Template AWS OpsWorks のご紹介 Amazon Data Services Japan 2013/06/25 Agenda AWS OpsWorks とは OpsWorks の特長 OpsWorks 利用の流れ OpsWorks のメリット Chef とは OpsWorks のライフサイクルイベント どのようなアプリケーションが OpsWorks に向いているのか? OpsWorks の機能詳細

More information

ユーザーズガイド Brother Meter Read Tool JPN Version 0

ユーザーズガイド Brother Meter Read Tool JPN Version 0 ユーザーズガイド Brother Meter Read Tool JPN Version 0 著作権 Copyright 2017 Brother Industries, Ltd. All rights reserved. 本書の情報は予告なく変更されることがあります 本書に記載されているソフトウェアは 使用許諾契約書に基づいて提供されます 本ソフトウェアは 使用許諾契約書に従う場合に限り 使用または複製することができます

More information

目次 P. ログイン P. TOPページ P3. 物件概要の更新 P4. ページの編集 P6. 項目の編集 全体概要 登録本告 先着本告 予告 の編集 P7. 項目の編集 フリーエリア の編集 P8. 編集エディターのご使用方法 P. 項目の編集 更新日 の編集 P3. 次回更新予定日アラートメール

目次 P. ログイン P. TOPページ P3. 物件概要の更新 P4. ページの編集 P6. 項目の編集 全体概要 登録本告 先着本告 予告 の編集 P7. 項目の編集 フリーエリア の編集 P8. 編集エディターのご使用方法 P. 項目の編集 更新日 の編集 P3. 次回更新予定日アラートメール E-MS 管理画面操作マニュアル Copyright C 07 E-STATE ONLINE Co.,Ltd.All Rights Reserved. 目次 P. ログイン P. TOPページ P3. 物件概要の更新 P4. ページの編集 P6. 項目の編集 全体概要 登録本告 先着本告 予告 の編集 P7. 項目の編集 フリーエリア の編集 P8. 編集エディターのご使用方法 P. 項目の編集 更新日

More information

目次事前準備 コントロールパネルのアクセス方法と概要 ログイン 初回設定 コントロールパネルメニュー コントロールパネルの概要 ダッシュボード ユーザー画面 設

目次事前準備 コントロールパネルのアクセス方法と概要 ログイン 初回設定 コントロールパネルメニュー コントロールパネルの概要 ダッシュボード ユーザー画面 設 SiteLock CDN マニュアル GMO クラウド株式会社 20180328 2017 GMO CLOUD K.K. All Rights Reserved. 目次事前準備... 1 1. コントロールパネルのアクセス方法と概要... 2 1.1 ログイン... 2 1.2 初回設定... 3 2. コントロールパネルメニュー... 5 2.1 コントロールパネルの概要... 5 2.2 ダッシュボード...

More information

PowerPoint プレゼンテーション

PowerPoint プレゼンテーション 注文レポートを定期的に自動ダウンロードする方法 記載の内容は2016 年 9 月 27 日現在のものです サービス内容 およびインターネットサイト上の表示等は変更となる場合がありますのでご了承ください 無断転載 複製を禁止します Amazon, アマゾン, Amazon.co.jp, Amazon Services Japan, Merchants@amazon.co.jp, フルフィルメント by

More information

パスワード管理

パスワード管理 Cisco UCS パスワードの注意事項, 1 ページ Cisco UCS ユーザ名に関する注意事項, 3 ページ 変更間隔のパスワード変更の最大数の設定, 4 ページ パスワードの変更禁止間隔の設定, 5 ページ パスワード履歴カウントの設定, 6 ページ ローカル認証されたユーザのパスワード プロファイル, 7 ページ ローカル認証されたユーザのパスワード履歴のクリア, 8 ページ Cisco

More information

IBM Proventia Management/ISS SiteProtector 2.0

IBM Proventia Management/ISS  SiteProtector 2.0 CHAPTER 10 IBM Proventia Management/ISS SiteProtector 2.0 この章は 次の内容で構成されています グローバルイベントポリシーを定義する IBM Proventia Management/ISS SiteProtector (P.10-1) (P.10-5) グローバルイベントポリシーを定義する IBM Proventia Management/ISS

More information

WebMail ユーザーズガイド

WebMail ユーザーズガイド ニフティクラウドビジネスメール メール共有サービスユーザーズガイド 第 1.0 版平成 24 年 2 月 7 日 ニフティ株式会社 目次 はじめに... 3 1. 共有メールボックスとは... 4 2. 共有メールボックスを表示する... 5 3. 閲覧履歴 操作履歴を表示する... 8 4. 共有メールボックスからメールを送信する... 10 4-1. メールの新規作成... 10 4-2. メールの返信

More information

1 Ver /3/10

1 Ver /3/10 SOBA ミエルカ クラウド ライブ配信モード管理者マニュアル 目次 はじめに... 2 1. お申込から管理者のユーザー登録について... 2 2. グループ情報の登録... 3 3. ライブ配信の作成... 4 4. ライブ配信への招待... 5 5. ライブ配信への参加方法... 7 (1) ライブ配信を選んで参加する方法 ( 管理者 配信者 )... 7 (2) 招待状より参加する方法 (

More information

スライド 1

スライド 1 第 6 章表計算 B(Excel 2003) ( 解答と解説 ) 6B-1. 表計算ソフトの操作 1 条件付き書式の設定 1. ( ア )=E ( イ )= お 条件付き書式とは セルの数値によりセルの背景に色を付けたり 文字に色を付けたり アイコンをつけたりして分類することができる機能です 本問題では 以下の手順が解答となります 1 2 ユーザー定義の表示形式 1. ( ア )=2 ( イ )=4

More information

注意 : ネットワークカメラの画像を回転させて表示した場合 モーション検知ウインドウは回転しないまま表示されますが 検知ウインドウは被写体に対して 指定した場所通りに動作します モーション検知ウインドウの縦横のサイズは 8 ピクセルで割り切れるサイズに自動調整されます モーション検知ウインドウを作成

注意 : ネットワークカメラの画像を回転させて表示した場合 モーション検知ウインドウは回転しないまま表示されますが 検知ウインドウは被写体に対して 指定した場所通りに動作します モーション検知ウインドウの縦横のサイズは 8 ピクセルで割り切れるサイズに自動調整されます モーション検知ウインドウを作成 はじめに 本ドキュメントでは AXIS ネットワークカメラ / ビデオエンコーダのファームウエアバージョン 5.4x 以降で 動体検知があった際にメールを任意のアドレスに送信するための設定手順を説明します 設定手順手順 1:AXIS ネットワークカメラ / ビデオエンコーダの設定ページにアクセスする 1. Internet Explorer などの Web ブラウザを起動します 2. Web ブラウザの

More information

Microsoft Word - インストールマニュアルSBS XP SP1第1版 doc

Microsoft Word - インストールマニュアルSBS XP SP1第1版 doc spaaqs 光セキュリティベーシック powered by Symantec Windows XP Service Pack 2 版インストールマニュアル 第 2 版 2010 年 9 月 7 日 1 目次 1. ご利用の前に P. 3 2. 申し込みから利用開始までの流れ P. 4 3. お申し込み ダウンロード P. 5 4. インストール P. 9 5. アクティブ化 P.13 6. Live

More information