Informatica HotFix 1 Service Pack 1 - Big Dataリリースノート( HotFix 1 Service Pack 1) - (Japanese)

Similar documents
Informatica Cloud Connectors - Spring リリースノート - (Japanese)

Informatica リリースノート - (Japanese)

Informatica リリースノート - (Japanese)

使用する前に

Oracle Un お問合せ : Oracle Data Integrator 11g: データ統合設定と管理 期間 ( 標準日数 ):5 コースの概要 Oracle Data Integratorは すべてのデータ統合要件 ( 大量の高パフォーマンス バッチ ローブンの統合プロセスおよ

intra-mart Accel Platform

Oracle SQL Developer Data Modeler

Oracleセキュア・エンタープライズ・サーチ

ESET Smart Security 7 リリースノート

( 目次 ) 1. はじめに 開発環境の準備 仮想ディレクトリーの作成 ASP.NET のWeb アプリケーション開発環境準備 データベースの作成 データベースの追加 テーブルの作成

Oracle Universal Content Management ドキュメント管理 クイック・スタート・チュ-トリアル

— intra-mart Accel Platform セットアップガイド (WebSphere編)   第7版  

SAMBA Stunnel(Windows) 編 1. インストール 1 セキュア SAMBA の URL にアクセスし ログインを行います xxx 部分は会社様によって異なります xxxxx 2 Windows 版ダウンロード ボ

改版履歴 版数 改版日付 改版内容 /03/14 新規作成 2013/03まで製品サイトで公開していた WebSAM DeploymentManager Ver6.1 SQL Server 2012 製品版のデータベース構築手順書 ( 第 1 版 ) を本 書に統合しました 2

内容 Visual Studio サーバーエクスプローラで学ぶ SQL とデータベース操作... 1 サーバーエクスプローラ... 4 データ接続... 4 データベース操作のサブメニューコンテキスト... 5 データベースのプロパティ... 6 SQL Server... 6 Microsoft

BOM for Windows Ver

Exfront4.1.0リリースノート

Oracle SALTを使用してTuxedoサービスをSOAP Webサービスとして公開する方法

音声認識サーバのインストールと設定

PowerPoint Presentation

Team Foundation Server 2018 を使用したバージョン管理 補足資料

eYACHO 管理者ガイド

PowerPoint Presentation

モバイル統合アプリケーション 障害切り分け手順書

アーカイブ機能インストールマニュアル

共有フォルダ接続手順 1 共有フォルダ接続ツールのダウンロード 展開 CSVEX のトップページから共有フォルダ接続ツールの zip ファイルをダウンロードします ダウンロードした zip ファイルを右クリックして すべて展開 を選択します (Windows 環境では zip ファイルを解凍しなくて

Symantec AntiVirus の設定

DataKeeper for Windows リリースノート

はじめに 本ドキュメントでは Salesforce 標準機能である 変更セット を使用して Visualforce ページ Apex クラスを Sandbox から本番環境に移行する手順を説明します 但し前提条件として Sandbox 本番環境共に SkyVisualEditor がインストールされ

レベルアップ詳細情報 < 製品一覧 > 製品名 バージョン < 追加機能一覧 > 管理番号 内容 説明書参照章 カナ文字拡張対応 < 改善一覧 > 管理番号 内容 対象バージョン 説明書参照章 文字列のコピー ペースト改善 ~ 子画面の表示方式 ~ 履歴の詳細情報 ~ タブの ボタン ~ 接続時の管

V-CUBE One

1. アンケート集計サンプルについて ここでは Windows Azure と SQL Azure を使ってアンケートを実施し アンケート結果を Excel で集計するサンプルについて説明します アンケートは Windows Azure で運用し アンケート結果は SQL Azure に格納されます

Oracle Enterprise Managerシステム監視プラグイン・インストレーション・ガイドfor Juniper Networks NetScreen Firewall, 10gリリース2(10.2)

VPN 接続の設定

ESET NOD32 アンチウイルス 8 リリースノート

IBM API Connect 開発者ポータル構成ガイド 1章

ソフトウェアの説明

Mindjet MindManager Version 9 for Windows サービスパック 2 リリースノート : 2011 年 4 月 20 日

SAMBA Stunnel(Mac) 編 1. インストール 1 セキュア SAMBA の URL にアクセスし ログインを行います xxxxx 部分は会社様によって異なります xxxxx 2 Mac OS 版ダウンロー

intra-mart EX申請システム version.7.2 事前チェック

クライアント証明書導入マニュアル

Microsoft PowerPoint ï½žéł»å�’å–¥æœ�ㇷㇹㅃㅀ㇤ㅳㇹㅋㅼㅫ曉逃.ppt [äº™æ‘łã…¢ã…¼ã…›]

OSSTechプレゼンテーション

アーカイブ機能インストールマニュアル

RICOH Device Manager Pro バックアップ/バージョンアップ作業手順書

Attain3 インストール説明書

新製品 Arcserve Backup r17.5 のご紹介 (SP1 対応版 ) Arcserve Japan Rev. 1.4

Oracle Business Intelligence Standard Edition One のインストール

PrintBarrierV3L50(V ) アップデート手順書 第 1.01 版 株式会社富士通アドバンストエンジニアリング 平成 25 年 3 月 7 日 1

proventia_site_protector_sp8_sysreq

概要 ABAP 開発者が SAP システム内の SAP ソースまたは SAP ディクショナリーオブジェクトを変更しようとすると 2 つのアクセスキーを入力するよう求められます 1 特定のユーザーを開発者として登録する開発者キー このキーは一度だけ入力します 2 SAP ソースまたは SAP ディクシ

提案書

Active Directory フェデレーションサービスとの認証連携

UNIVERGE SG3000 から SG3600 Ver.6.2(2012 年モデル ) への 移行手順 All Rights Reserved, Copyright(C) NEC Corporation 2017 年 11 月 4 版

Microsoft Word - nvsi_090200jp_r1_nvbsvr_mscs.doc

WebARENA SuiteX V2 EC-CUBE 2.13 インストールマニュアル ( 標準 MySQL+ 非 SSL ) 作成 :2014 年 2 月 Ver.1.1

DBMSリポジトリへの移行マニュアル

Filr 2.0 Desktopアプリケーションリリースノート

HDC-EDI Manager Ver レベルアップ詳細情報 < 製品一覧 > 製品名バージョン HDC-EDI Manager < 対応 JavaVM> Java 2 Software Development Kit, Standard Edition 1.4 Java 2

Microsoft認定資格問題集DEMO(70-459_Part2)

(2) [ バックアップツール ] が表示されます [1] [2] [3] [4] [5] [6] Windows Storage Server 2012 バックアップ手順 (V_01) < 画面の説明 > [1] バックアップ項目リスト登録されているバックアップセットの一覧です [2] 新規 ボタ

Microsoft Word - L08_Backup_Lab.docx

QualysGuard(R) Release Notes

CubePDF ユーザーズマニュアル

intra-mart Accel Platform — TableMaintenance ユーザ操作ガイド   第8版  

ESET NOD32 アンチウイルス 6 リリースノート

インテル(R) Visual Fortran コンパイラ 10.0

Silk Central Connect 15.5 リリースノート

Veritas System Recovery 16 Management Solution Readme

APEX Spreadsheet ATP HOL JA - Read-Only

GlobalFlow5 Ver.1.00R04 リリースノート

AppsWF ワークフロー設定ガイド Ver.1.1 株式会社オプロ

ESMPRO/JMSS Ver6.0

WebView のハング:- java.lang.OutOfMemoryError

PC にソフトをインストールすることによって OpenVPN でセキュア SAMBA へ接続することができます 注意 OpenVPN 接続は仮想 IP を使用します ローカル環境にて IP 設定が被らない事をご確認下さい 万が一仮想 IP とローカル環境 IP が被るとローカル環境内接続が行えなくな

Section1_入力用テンプレートの作成

Microsoft Word - ssVPN MacOS クライアントマニュアル_120版.doc

Microsoft Word - NW2013_Installation_Guide_English_no_screenshots_JPN.doc

Control Manager 6.0 Service Pack 3 System Requirements

新OS使用時の留意事項

ADempiere (3.5)

NortonAntiVirus for MicrosoftExchange

HP Device Manager4.7インストール・アップデート手順書

システム要件 Trend Micro Safe Lock 2.0 SP1 Trend Micro Safe Lock 2.0 SP1 エージェントのシステム要件 OS Client OS Server OS Windows 2000 (SP4) [Professional] (32bit) Wind

Oracle Data Pumpのパラレル機能

Informatica Enterprise Data Catalog

目次 1. Azure Storage をインストールする Azure Storage のインストール Azure Storage のアンインストール Azure Storage を使う ストレージアカウントの登録... 7

鳥取県物品電子入札システムセキュリティ ポリシー設定マニュアル IC カードを利用しない応札者向け 第 1.7 版 平成 31 年 2 月鳥取県物品契約課 鳥取県物品電子入札システムセキュリティ ポリシー設定マニュアル Ver.01-07

PALNETSC0184_操作編(1-基本)

ER/Studio Data Architect 2016 の新機能

IBM Internet Security Systems NTFS ファイルシステム必須 一覧の 以後にリリースされた Service Pack (Release 2 等は除く ) は特に記載の無い限りサポートいたします メモリ 最小要件 512MB 推奨要件 1GB 最小要件 9GB 推奨要件

Windows Server 2003 Service Pack 適用手順書

クライアント証明書インストールマニュアル

Microsoft Word - Qsync設定の手引き.docx

電話機のリセットと再起動

SQL Server または MSDE のバージョン、およびサービス パック レベルの確認

目次 専用アプリケーションをインストールする 1 アカウントを設定する 5 Windows クライアントから利用できる機能の紹介 7 1ファイル フォルダのアップロードとダウンロード 8 2ファイル更新履歴の管理 10 3 操作履歴の確認 12 4アクセスチケットの生成 ( フォルダ / ファイルの

Acronis® Backup & Recovery ™ 10 Advanced Editions

intra-mart ワークフローデザイナ

ITdumpsFree Get free valid exam dumps and pass your exam test with confidence

Transcription:

Informatica 10.2.2 HotFix 1 Service Pack 1 Big Data リリースノート (10.2.2 HotFix 1 Service Pack 1) 2019 年 9 月 著作権 Informatica LLC 1998, 2019 10.2.2 HotFix 1 Service Pack 1 のインストールおよびアップグレード... 3 サポートの変更... 3 システム要件の確認... 4 アップグレードの方法... 4 インストール... 4 インストール後の手順... 7 10.2.2 に統合された緊急修正 HotFix 1 Service Pack 1... 7 10.2.2 HotFix 1 Service Pack 1 で解消された制限事項... 7 アプリケーションサービスの既知の制限事項 (10.2.2 HotFix 1 Service Pack 1).... 7 Big Data Management で解消された制限事項 (10.2.2 HotFix 1 Service Pack 1).... 7 Big Data Streaming で解消された制限事項 (10.2.2 HotFix 1 Service Pack 1).... 8 ドメインで解消された制限事項 (10.2.2 HotFix 1 Service Pack 1).... 8 Enterprise Data Catalog で解消された制限事項 (10.2.2 HotFix 1 Service Pack 1).... 8 プロファイルおよびスコアカードの解消された制限事項 (10.2.2 HotFix 1 Service Pack 1).... 9 サードパーティ製品で解消された制限事項 (10.2.2 HotFix 1 Service Pack 1).... 10 10.2.2 HotFix 1 Service Pack 1 の既知の制限事項... 10 Big Data Management の既知の制限事項 (10.2.2 HotFix 1 Service Pack 1).... 10 Enterprise Data Catalog の既知の制限事項 (10.2.2 HotFix 1 Service Pack 1).... 10 サードパーティ製品に関する既知の制限事項 (10.2.2 HotFix 1 Service Pack 1).... 11 10.2.2 HotFix1 で解消された制限事項... 11 Big Data Management で解消された制限事項 (10.2.2 HotFix 1).... 11 Big Data Streaming で解消された制限事項 (10.2.2 HotFix 1).... 12 Developer tool の解消された制限事項 (10.2.2 HotFix 1).... 13 Enterprise Data Catalog で解消された制限事項 (10.2.2 HotFix 1).... 13 Enterprise Data Preparation で解消された制限事項 (10.2.2 HotFix 1).... 15 サードパーティ製品で解消された制限事項 (10.2.2 HotFix 1).... 15 10.2.2 HotFix1 の既知の制限事項... 16 Big Data Management の既知の制限事項 (10.2.2 HotFix 1)... 16 Big Data Streaming の既知の制限事項 (10.2.2 HotFix 1).... 16 Enterprise Data Catalog の既知の制限事項 (10.2.2 HotFix 1).... 17 2019-09-23 1

Web サービスの既知の制限事項 (10.2.2 HotFix 1).... 19 サードパーティ製品に関する既知の制限事項 (10.2.2 HotFix 1).... 19 10.2.2 Service Pack 1 で解消された制限事項... 20 Big Data Management で解消された制限事項 (10.2.2 Service Pack 1).... 20 Big Data Quality で解消された制限事項 (10.2.2 Service Pack 1).... 20 Enterprise Data Catalog で解消された制限事項 (10.2.2 Service Pack 1).... 21 サードパーティ製品で解消された制限事項 (10.2.2 Service Pack 1).... 21 10.2.2 Service Pack 1 の既知の制限事項... 21 アプリケーションサービスの既知の制限事項 (10.2.2 Service Pack 1).... 21 Big Data Management の既知の制限事項 (10.2.2 Service Pack 1).... 22 Big Data Streaming の既知の制限事項 (10.2.2 Service Pack 1).... 23 Enterprise Data Catalog の既知の制限事項 (10.2.2 Service Pack 1).... 23 Enterprise Data Preparation の既知の制限事項 (10.2.2 Service Pack 1).... 23 サードパーティ製品に関する既知の制限事項 (10.2.2 Service Pack 1).... 24 10.2.2 の解消された制限事項と実装された拡張要求... 24 アプリケーションサービスの解消された制限事項 (10.2.2).... 24 Big Data Management 解消された制限事項 (10.2.2).... 25 Developer tool の解消された制限事項 (10.2.2).... 27 Enterprise Data Catalog の解消された制限事項と実装された拡張要求 (10.2.2).... 28 Enterprise Data Lake の解消された制限事項 (10.2.2).... 32 マッピングおよびワークフローの解消された制限事項と実装された拡張 (10.2.2).... 32 パラメータの解消された制限事項 (10.2.2).... 34 プロファイルおよびスコアカードの解消された制限事項 (10.2.2).... 34 セキュリティの解消された制限事項 (10.2.2).... 35 サードパーティ製品で解消された制限事項 (10.2.2).... 35 10.2.2 の既知の制限事項... 36 アプリケーションサービスの既知の制限事項 (10.2.2).... 36 Big Data Management 既知の制限事項 (10.2.2).... 36 Big Data Streaming の既知の制限事項 (10.2.2).... 38 Developer tool の既知の制限事項 (10.2.2).... 38 Enterprise Data Catalog の既知の制限事項 (10.2.2).... 38 Enterprise Data Lake の既知の制限事項 (10.2.2).... 42 プロファイルおよびスコアカードの既知の制限事項 (10.2.2).... 42 サードパーティ製品に関する既知の制限事項 (10.2.2).... 43 2 2019-09-23

ワークフローの既知の制限事項 (10.2.2).... 45 このドキュメントには 10.2.2 と 10.2.2 HotFix 1 Service Pack 1 までのすべてのホットフィックスとサービスパックの制限付きの機能 既知の制限事項 解消されたについての重要な情報が記載されています 10.2.2 HotFix 1 Service Pack 1 のインストールおよびアップグレード Informatica 10.2.2 HotFix 1 Service Pack 1 には複数の緊急修正が含まれています このサービスパックは Big Data Management Big Data Streaming Enterprise Data Catalog Enterprise Data Preparation および Big Data Quality をサポートしています サービスパックを入手するには Informatica グローバルカスタマサポートにお問い合わせください サポートの変更 ここでは バージョン 10.2.2 HotFix 1 Service Pack 1 のサポートの変更点についてします ディストリビューションのサポート Informatica Big Data 製品は次のディストリビューションをサポートしています Amazon EMR Azure HDInsight Azure Databricks Cloudera CDH Google Cloud Dataproc Hortonworks HDP MapR 各リリースで 非ネイティブディストリビューションおよびディストリビューションバージョンのサポートが追加 保留 削除される可能性があります 将来のリリースで保留していたバージョンのサポートを再開する可能性があります サポートされるバージョンの最新リストを確認するには 次の Informatica カスタマポータルの製品可用性マトリックスを参照してください https://network.informatica.com/community/informatica-network/product-availability-matrices テクニカルプレビューサポート テクニカルプレビューが開始 バージョン 10.2.2 HotFix 1 Service Pack 1 では Informatica にテクニカルプレビュー用の次の機能が含まれています Hive Warehouse Connector Spark コードで Hive テーブルの操作を行えるようにするには Hortonworks HDP 3.1 を使用する Hive Warehouse Connector を Informatica Big Data 製品で使用してください 2019-09-23 3

評価目的でのテクニカルプレビュー機能はサポートされていますが 保証対象外で本番環境には対応していません 非本番環境でのみ使用することをお勧めします Informatica では 本番環境用に次のリリースでプレビュー機能を導入するつもりですが 市場や技術的な状況の変化に応じて導入しない場合もあります 詳細については Informatica グローバルカスタマサポートにお問い合わせ下さい テクニカルプレビューが昇格 バージョン 10.2.2 HotFix 1 Service Pack 1 では Hortonworks HDP 3.1 がテクニカルプレビューから昇格しています HDP 3.1 にアップグレードすると 管理対象の Hive テーブルに影響が及ぶ可能性があります アップグレードする前に KB 記事 What Should Big Data Customers Know About Upgrading to Hortonworks HDP 3.1? で HDP 3.1 のアップグレード情報と Cloudera の既知の制限事項を確認してください HDP 3.1 へのアップグレード計画の検証を希望される場合は Informatica グローバルカスタマーサービスまたは Cloudera プロフェッショナルサービスにお問い合わせください システム要件の確認 環境がオペレーティングシステムや Hadoop ディストリビューションなど最小システム要件を満たしていることを確認します サポートされるバージョンを最新のリストで確認するには Informatica Network (https://network.informatica.com/community/informatica-network/product-availability-matrices) の製品マトリックスを参照して下さい 注 : ドメインで実行されているすべての Informatica サービスとリポジトリを Informatica 10.2.2 HotFix 1 にアップグレードしてから Informatica 10.2.2 HotFix 1 Service Pack 1 を適用します アップグレードの方法 10.2.2 HotFix 1 より前のバージョンを使用している場合 まず 10.2.2 HotFix 1 にアップグレードしてから 10.2.2 HotFix 1 Service Pack 1 を適用する必要があります 注 : サポート EOL ステートメントの詳細については Informatica グローバルカスタマーサポートに問い合わせるか https://network.informatica.com/docs/doc-16182 を参照してください インストール サービスパックを適用するには インストーラファイルをダウンロードし Input.properties ファイルを更新して インストーラを実行します インストーラを実行して すべての製品コンポーネントや単体の製品コンポーネントを適用したりロールバックしたりすることができます サービスパックの適用またはロールバックを行ったら インストール後の手順は完了です サービスパックをロールバックするには Input.properties ファイルのロールバックプロパティを設定し インストーラを実行します 4 2019-09-23

サービスパックファイル Informatica はサービスパックを.tar ファイル形式と.zip ファイル形式で提供しています サービスパックをダウンロードしたら ファイルコンテンツを展開します Linux および Windows インストール用のサービスパックが用意されています サービスパックには次のファイルが含まれています Input.properties サービスパックのインストール先となる Informatica インストールのルートディレクトリを特定します このファイルをディレクトリパスで更新してください このファイルには サービスパックをアンインストールする場合に設定できるロールバックプロパティも含まれています install.bat Windows マシン上の指定したディレクトリにサービスパックをインストールします このファイルは Windows インストーラ内にあります install.sh Linux マシン上の指定したディレクトリにサービスパックをインストールします このファイルは Linux インストーラ内にあります サービスパックファイルのダウンロード 1 つ以上のインストーラファイルをダウンロードし サービスパックをインストールしたり インストール後にサービスパックをロールバックしたりすることができます サービスパックを適用するには サーバーインストーラ Informatica Developer インストーラ およびコマンドラインユーティリティパッケージをダウンロードする必要があります 次のいずれかのパッケージをダウンロードします informatica_10221sp1_server_linux-x64.tar Redhat Enterprise Linux インストールのアップデートが含まれます informatica_10221sp1_server_suse11-x64.tar SUSE Linux Enterprise Server インストールのアップデートが含まれます Informatica Developer の次のパッケージをダウンロードします informatica_10221sp1_client_winem-64t.zip Developer tool インストールのアップデートが含まれます コマンドラインユーティリティの次のいずれかのパッケージをダウンロードします informatica_10221sp1_cmd_utilities_linux-x64.zip Redhat Enterprise Linux インストールのアップデートが含まれます informatica_10221sp1_cmd_utilities_suse11-x64.zip SUSE Linux Enterprise Server インストールのアップデートが含まれます Input.properties ファイルの更新 Input.properties ファイルには Informatica インストールを特定するプロパティと サービスパックイントーラファイルの実行時に行うアクションを定義するプロパティが含まれています サービスパックの 2019-09-23 5

インストールまたはロールバックの前に これらのプロパティを更新します ダウンロードした各サービスパックのファイルを更新します 1. サービスパックファイルを展開します 2. サービスパック内の Input.properties ファイルを見つけます 3. ファイルの DEST_DIR プロパティを Informatica ルートディレクトリのパスで更新します Linux マシンでは パスを次の形式で設定します DEST_DIR=/home/infauser/<version number> Windows マシンでは パスを次の形式で設定します DEST_DIR=C:\\Informatica\\<version number> 4. ROLLBACK プロパティの値を設定します すべての製品コンポーネントや単体の製品コンポーネントにサービスパックを適用またはロールバックできます サービスパックをインストールするには デフォルト値の 0 のままにします サービスパックをロールバックするには この値を 1 に設定します サービスパックをインストールまたはロールバックするときに インストーラはデフォルトではすべてのコンポーネントを適用します 特定のコンポーネントを適用またはロールバックするには 適用するコンポーネントに関連するコメントタグ (#) を削除します Big Data Management コンポーネントの場合 BDM_ONLY を 1 に設定します Enterprise Data Catalog の場合 EDC_ONLY を 1 に設定します Enterprise Data Preparation の場合 EDP_ONLY を 1 に設定します カスタマイズされた製品アプリケーションでは個々のコンポーネントを次の順番で適用する必要があります 1. Big Data Management 2. Enterprise Data Catalog 3. Enterprise Data Preparation カスタマイズされた製品アプリケーションでは個々のコンポーネントを次の順番でロールバックする必要があります 1. Enterprise Data Preparation 2. Enterprise Data Catalog 3. Big Data Management 5. ファイルを保存し 閉じます インストーラの実行 インストール後に インストーラファイルを実行し サービスパックのインストールやロールバックを行います 1. すべての Informatica アプリケーションを閉じ すべての Informatica サービスを停止します 2. サービスパックファイル内でインストーラファイルを見つけて そのファイルを展開します Linux システムの場合 インストーラファイルは install.sh です Windows システムの場合 インストーラファイルは install.bat です 6 2019-09-23

インストール後の手順 サービスパックを適用したら 製品に適用するインストール後のタスクを実行します アナリストサービスのインストール後の手順 サービスパックをダウンロードして適用したら 次の手順を実行します 1. アナリストサービスが実行中でないことを確認します 2. Informatica のインストール場所から次のディレクトリを削除します <Informatica ルートディレクトリ >/services/analystservice/analyst <Informatica ルートディレクトリ >/services/analystservice/analysttool <Informatica ルートディレクトリ >/services/analystservice/mappingspec <Informatica ルートディレクトリ >/tomcat/temp/< アナリストサービス名 > temp ディレクトリに複数のアナリストサービスディレクトリが含まれている場合 各アナリストサービスのディレクトリを削除します 3. アナリストサービスを再起動します 4. すべてのクライアントマシン上のブラウザキャッシュをクリアします 10.2.2 に統合された緊急修正 HotFix 1 Service Pack 1 Informatica では 緊急修正 (EBF) をバージョン 10.2.2 HotFix 1 Service Pack 1 に統合しました これらの EBF では 以前のリリースで見つかった問題に対する修正が提供されています バージョン 10.2.2 HotFix 1 Service Pack 1 に統合された EBF の一覧については 次の Informatica ナレッジベースの記事を参照して下さい https://kb.informatica.com/faq/7/pages/23/586154.aspx 10.2.2 HotFix 1 Service Pack 1 で解消された制限事項 アプリケーションサービスの既知の制限事項 (10.2.2 HotFix 1 Service Pack 1) OCON-20992 モデルリポジトリサービスのバージョン 10.2 から 10.2.2 へのアップグレードが NullPointerException で失敗する Big Data Management で解消された制限事項 (10.2.2 HotFix 1 Service Pack 1) 以前の解消された問題に関しては 以前のリリースのリリースノートをご確認ください 2019-09-23 7

以下の表に解消された制限事項を示します BDM-266 10 BDM-265 60 BDM-260 03 Hadoop 接続を設定するときに 変更が Administrator ツールに反映されない 特定の条件下でモデルリポジトリサービスがデータ統合サービスと通信できなくなるため マッピングが失敗する Hive ターゲットテーブルが Date データ型によりパーティション化されている場合 Hortonworks HDP 3.1 クラスタで Hive ターゲットテーテーブル内のパーティションを切り詰めることができない Big Data Streaming で解消された制限事項 (10.2.2 HotFix 1 Service Pack 1) 以前の解消された制限事項に関しては 以前のリリースのリリースノートをご確認下さい 以下の表に 解消された制限事項を示します IIS-3491 HDFS ターゲットファイルのファイル名で ターゲットファイルがロールオーバーされているかアクティブかどうかが示されていない ドメインで解消された制限事項 (10.2.2 HotFix 1 Service Pack 1) 以前の解消された問題に関しては 以前のリリースのリリースノートをご確認ください 以下の表に解消された制限事項を示します PLAT-242 87 Informatica サーバーの場所に INFA_CLIENT_RESILIENCE_TIMEOUT 環境変数を設定している場合 ドメインの開始に失敗する Enterprise Data Catalog で解消された制限事項 (10.2.2 HotFix 1 Service Pack 1) 以前の解消された問題に関しては 以前のリリースのリリースノートをご確認ください 以下の表に解消された制限事項を示します EIC-20754 EIC-20051 Google BigQuery リソースが SELECT クエリで ELSE 式のない CASE 式をサポートしていない プロファイリングスキャナが Oracle リソースをスキャンしたときに NULL ポインタ例外が表示される 8 2019-09-23

EIC-19731 EIC-19412 EIC-18626 EIC-17062 EIC-16705 EIC-16482 EIC-16460 Amazon S3 リソース SFTP オプションを使用したファイルシステムリソース または Microsoft Azure Blob Storage リソースを実行すると.tsv ファイルまたはタブ区切り値ファイルのプロファリイングが失敗する 次の条件に当てはまる場合 正しくない結果が表示される 1. ローカルファイルシステムリソースを作成している 2. リソースに区切りテキストファイルをインポートしている 3. リソースを実行している 接続がパラメータ化されており 複数のパラメータファイルが渡された場合 Informatica Platform リソースの接続詳細が Enterprise Data Catalog で完全には抽出されない Microsoft Internet Explorer ブラウザを使用しているときに Enterprise Data Catalog でカスタム属性値が... と誤って表示される場合がある SELECT クエリで CAST 式が使用されている場合 Google BigQuery リソースが NULL ポインタ例外で失敗する フィールド名に - が含まれる JSON ファイルがあるファイルシステムリソースを実行する場合 そのファイルの値の頻度が表示されない カスタム属性を CSV ファイルにエクスポートする前に [ カスタム属性のエクスポート ] ダイアログボックスでカスタム属性をソートできない プロファイルおよびスコアカードの解消された制限事項 (10.2.2 HotFix 1 Service Pack 1) 以前の解消された問題に関しては 以前のリリースのリリースノートをご確認ください 以下の表に解消された制限事項を示します IDE-4264 IDE-4253 IDE-4221 IDE-4214 Analyst ツールのプロファイルに Hadoop ランタイム環境を選択すると [Hadoop 接続の選択 ] ダイアログボックスにすべての接続が表示されるが この中には 必要な権限を持っていない接続も含まれる 次の条件が当てはまる場合に スコアカードに重複したメトリックが表示される 1. Developer tool で スコアカードを作成して保存した 2. スコアカードを開き メトリックを追加し スコアカードを保存した 3. スコアカードを再び開いた 次の条件が当てはまる場合に 電子メール通知にメトリック名が 2 回表示され 現在のスコアと以前のスコアが表示される 1. スコアカードを作成し メトリックにスコアを割り当て スコアカードを保存した 2. 同じメトリックに別のスコアを割り当て スコアカードを実行した 論理データオブジェクトのステージング済みプロファイル結果でドリルダウンを実行すると 誤ったドリルダウン結果が表示される 2019-09-23 9

サードパーティ製品で解消された制限事項 (10.2.2 HotFix 1 Service Pack 1) 以前の解消された問題に関しては 以前のリリースのリリースノートをご確認ください 以下の表に解消された制限事項を示します BDM-25070 Spark エンジンが Hortonworks HDP 3.1 クラスタで外部のパーティション化された Hive テーブルを切り詰める処理が失敗する 10.2.2 HotFix 1 Service Pack 1 の既知の制限事項 Big Data Management の既知の制限事項 (10.2.2 HotFix 1 Service Pack 1) 次の表に 既知の制限事項を示します BDM-27388 Spark エンジンで同時マッピングを実行している場合 一部のマッピングが次のエラーで失敗する java.util.concurrentmodificationexception Enterprise Data Catalog の既知の制限事項 (10.2.2 HotFix 1 Service Pack 1) 次の表に 既知の制限事項を示します EIC-20637 リソースに対するデフォルトの権限を Catalog Administrator のユーザーとグループに付与できない 10 2019-09-23

サードパーティ製品に関する既知の制限事項 (10.2.2 HotFix 1 Service Pack 1) 以下の表にサードパーティの既知の制限事項を示します OCON-21568 BDM-27149 ADLS Gen2 をストレージとして使用する Azure HDInsight クラスタで Sqoop マッピングを実行すると Spark エンジンでマッピングが失敗する Microsoft チケットの参照番号 : 119081323000763 Azure HDInsight ADLS Gen2 クラスタで マッピングが次のエラーで失敗する java.io.ioexception: Resource abfs:// adlsilabsqa3-2019-07-24t10-59-47-631z@adlsilabsqa3.dfs.core.windows.net/tmp/ SPARK_hdssh/.sparkStaging/application_1564036266488_0001/log4j_infa_spark.properties changed on src filesystem (expected 1564016783000, was 1564036583000 Microsoft チケットの参照番号 : 119072523002150 回避策 : クライアントマシンとクラスタマシンのタイムゾーンが一致している必要があります クライアントマシンとクラスタマシンのタイムゾーンが一致していることを確認するには 次のタスクを実行します 1. クライアントマシンで 以下のコマンドを実行します setenv TZ <cluster time zone> 2. ドメインを再起動します 10.2.2 HotFix1 で解消された制限事項 Big Data Management で解消された制限事項 (10.2.2 HotFix 1) 以前の解消された問題に関しては 以前のリリースのリリースノートをご確認ください 以下の表に解消された制限事項を示します OCON-19 759 OCON-19 687 OCON-19 601 OCON-19 495 Hortonworks Connector for Teradata を使用し Spark エンジンで動的マッピングを実行して Date データ型のデータを Teradata ターゲットに書き込む場合 データが破損する developercore.ini ファイルで -DINFA_HADOOP_DIST_DIR プロパティの値をデフォルト値以外の値に設定した場合 Developer tool マシンで複合ファイルのインポートが失敗する Spark エンジンで Sqoop に最適化されたマッピングを実行して Sqoop ソースからデータを読み取って Hive ターゲットに書き込む場合 マッピングに SQL クエリが含まれていると データ統合サービスが SQL クエリを無視し データを Hive ターゲットに書き込む データを読み取る Sqoop マッピングを実行し オーバーライドに使用されているカスタム SQL にカラム名のエイリアスが含まれている場合 Spark エンジンでマッピングが失敗する 2019-09-23 11

OCON-19 312 OCON-19 140 BDM-254 42 BDM-249 61 BDM-249 19 Hortonworks HDP 3.1 ディストリビューションで Sqoop パススルーマッピングを実行して Hive ターゲットに書き込むと 次のシナリオでマッピングが最適化されない - [ 実行時にテーブルを作成または置換 ] ターゲットスキーマストラテジを有効にしており Hive ターゲットでテーブルを作成または置換するための DDL クエリを指定していない - Hive ターゲットの [ 既存のターゲットスキーマを維持 ] オプションを有効にしている Spark エンジンで Sqoop マッピングを実行して Date データ型のデータを Teradata に書き込むと マッピングが失敗する Optimized Row Columnar(ORC) ファイル形式のデータを HDP 3.1 の外部 Hive ターゲットに書き込むと Blaze エンジンでマッピングが失敗することがある Hive ソースおよびターゲットにアクセスしてステージングディレクトリで一時結果をステージングするマッピングが 次のようなエラーで失敗する SEVERE: [GRIDDTM_1016] The Integration Service failed to execute grid mapping with following error [An internal exception occurred with message: java.lang.runtimeexception: Failure to execute Query CREATE EXTERNAL TABLE 一時結果をステージングするマッピングの例は Hive ソースへの SQL オーバーライドクエリを使用するマッピング アップデートストラテジトランスフォーメーションを含むマッピング またはトランザクションテーブルを作成するマッピングです マッピングを Blaze エンジンを使用して実行した場合や HDP 3.1 で Spark エンジンを使用して実行した場合に マッピングが失敗します HDP 2.6 で Spark エンジンを使用して実行する場合は成功します この問題が発生するのは プロパティ hive.server2.enable.doas が FALSE に設定されており クラスタがユーザー偽装を使用するように設定されていないためです HDP 3.1 で圧縮コーデックを使用して作成された Hive テーブルを読み取る場合 Blaze エンジンでマッピングの実行が失敗する 次の表に 実装された拡張要求を示します BDM-24191 Hive タスク用に クラスタで Hive on Spark を有効にしている場合 クラスタが Spark ジョブを起動し データ統合サービスが MapReduce または Tez を通して HiveServer2 タスクを処理する Big Data Streaming で解消された制限事項 (10.2.2 HotFix 1) 以前の解消された問題に関しては 以前のリリースのリリースノートをご確認ください 12 2019-09-23

以下の表に解消された制限事項を示します IIS-3275 IIS-3274 IIS-2781 複数のパーティションを持つ Kafka ターゲットトピック上のランクトランスフォーメーションがソートされていないデータを生成する 複数のパーティションを持つ Kafka ターゲットトピック上のランクトランスフォーメーションがソートされていないデータを生成する セキュアクラスタで Hive ターゲットを使用したマッピングが 24 時間後に失敗する Developer tool の解消された制限事項 (10.2.2 HotFix 1) 以前の解消された問題に関しては 以前のリリースのリリースノートをご確認ください 以下の表に解消された制限事項を示します OCON-19876 動的マッピングで ODBC 接続を使用して Sybase ASE ソース / ターゲットに接続すると Sybase ASE データベースで接続リークが発生し 次のエラーが表示される Maximum Connection Limit reached Enterprise Data Catalog で解消された制限事項 (10.2.2 HotFix 1) 以前の解消された問題に関しては 以前のリリースのリリースノートをご確認ください 以下の表に解消された制限事項を示します LDM-7496 EIC-18492 EIC-18062 EIC-18024 EIC-17885 EIC-17785 EIC-17687 Amazon S3 リソースにチルダ (~) 文字を含むタブ区切りファイルがある場合 リソースのデータ検出が失敗する Enterprise Data Catalog がテーブルの最初の 300 カラムのみを表示する場合がある ビジネス用語にカンマ (,) または二重引用符 (") 文字が含まれている場合 ビジネス用語インポートが失敗する 属性名に漢字を含むカスタム属性を作成するとエラーが表示される SFTP ファイルプロトコルオプションでファイルシステムリソースを実行する場合 22 以外のポート番号を選択すると テスト接続とリソース実行が失敗する ファイルシステムリソース OneDrive リソース または SharePoint リソースを実行する場合 リソースにファイルサイズが 200 MB を超える Microsoft Excel ファイルがあると メモリ不足エラーが表示される [ 最初の N 行 ] サンプリングオプションで Netezza ソースを実行する場合 プッシュダウン最適化が失敗する 2019-09-23 13

EIC-17607 EIC-17548 EIC-17394 EIC-17167 EIC-17103 EIC-16825 EIC-16406 EIC-16175 EIC-16073 EIC-16060 EIC-15881 EIC-15822 EIC-15528 EIC-15733 EIC-15601 EIC-15554 EIC-15528 Catalog Administrator で 任意のリソースを実行している場合 リソーススキャナがリソース内で破損したファイルを検出するとスキャンが停止する SAP Business Objects リソースがユーザー名として Administrator のみを受け付ける Cognos リソースを作成する場合 レポート名に < 文字または > 文字が含まれるレポートを作成できない Catalog Administrator で リソースを開いて [ スケジュール ] タブをクリックすると スケジュール '[UNDEFINED]' が見つかりません というエラーメッセージが表示される SQL Server Integration Services リソースに対してスタンドアロンスキャナユーティリティを実行すると [SSIS スキャナタイプ ] オプションが ファイル の場合にテスト接続が失敗する バージョン 10.2.2 にアップグレードすると 不正 / サポートされていないエスケーブシーケンス 例外が表示される [ システム属性 ] セクションに ビジネス用語カスタム属性が誤って表示される Kerberos クラスタで 検出および類似性プロファイルを持つリソースを実行する場合 一時ファイルが作成される 一時ファイルはマスクされていない状態で作成され Enterprise Data Catalog ユーザー全員がファイルコンテンツを閲覧できる カスタム属性をエクスポートし エクスポートされたファイルを変更して そのファイルをカタログにインポートし直すと インポートされたファイルに変更した属性が含まれていない /user/<scn_user> および /Informatica/LDM/<scn> フォルダに適切な権限が割り当てられていない場合 Enterprise Data Catalog のインストールが失敗する Enterprise Data Catalog 用に複数レルムの Kerberos 認証を設定できない -ad( アプリケーション開始日 ) オプションとともに使用すると infacmd collectapplogs コマンドが java.lang.nullpointerexception エラーで失敗する このエラーは Kerberos と WANdisco Fusion が有効になっている既存のクラスタでコマンドを実行すると発生する 複数のデータドメインを選択してキュレーションすると 1 つのデータドメインのみがキュレーションされ 他のデータドメインは無視される データドメイン名に特殊文字が含まれていると データドメインを推測できない Enterprise Data Catalog が 参照データ型のすべての複数値のカスタム属性値をインポートしない この問題は Axon の用語集をカタログにインポートした場合に発生する [ アプリケーション設定 ] ページからカスタム属性を削除した後も [ 概要 ] タブにカスタム属性が表示される 推測されたデータドメインと自動承認されたデータドメインをエクスポートまたはインポートできない 複数のデータドメインを選択してキュレーションすると 1 つのデータドメインのみがキュレーションされ 他のデータドメインは無視される データドメイン名に特殊文字が含まれていると データドメインを推測できない 14 2019-09-23

EIC-14825 EIC-14792 Enterprise Data Catalog 検索が アンダースコア (_) 文字をワイルドカード文字として誤って使用する ワイルドカード検索を実行すると Enterprise Data Catalog で正しくない検索結果が表示されることがある Enterprise Data Preparation で解消された制限事項 (10.2.2 HotFix 1) 以前の解消された問題に関しては 以前のリリースのリリースノートをご確認ください 以下の表に解消された制限事項を示します IDL-12755 IDL-12839 IDL-12870 ワークシートの行を選択すると 日本語を使用するように設定された Web ブラウザで Enterprise Data Preparation が誤ったエラーメッセージを表示する Enterprise Data Preparation で使用する Hive 接続で厳密に定義された認証を有効にしている場合 アセットをコピーしてデータレイクにパブリッシュしたときに作成された Hive テーブルのカラムに 誤ったデータ型が適用される ファイル名が 128 文字を超える場合に区切りファイルのデータプレビューが失敗する サードパーティ製品で解消された制限事項 (10.2.2 HotFix 1) 以前の解消された問題に関しては 以前のリリースのリリースノートをご確認ください 以下の表に解消された制限事項を示します OCON-19673 Cloudera CDH 6.1 環境で Parquet ファイルを Developer tool にインポートできない これは Cloudera CDH 6.1 の Parquet ファイルでは配列が bag データ型として表されるためである 2019-09-23 15

10.2.2 HotFix1 の既知の制限事項 Big Data Management の既知の制限事項 (10.2.2 HotFix 1) 以下の表に既知の制限事項を示します BDM-26248 BDM-26206 BDM-25475 カスタムクエリで圧縮コーデックを指定した場合 Hortonworks HDP 3.1 以外のすべての Hadoop ディストリビューションで Blaze エンジンがこのコーデックを使用した HDFS ファイルの圧縮に失敗する Spark エンジンを使用するフラットファイルソースおよびターゲットのマッピングを WANdisco 対応の Hortonworks HDP 2.6.5 クラスタで実行しようとすると失敗する 回避策 : 1. クラスタから usr/hdp/< バージョン >/hadoop/client ディレクトリにある次の.jar ファイルをコピーし Informatica データ統合サービスがイントールされている各ノードの <Informatica ホーム >/services/shared/spark/lib_spark_< バージョン > ディレクトリにコピーします - hadoop-common-x.x.x.jar - hadoop-auth-x.x.x.jar x.x.x は WANdisco が使用する.jar のバージョンです 例えば クラスタの /usr/hdp/2.6.5.0-292/hadoop/client ディレクトリにはファイル hadoop-common-2.7.3.2.6.5.0-292.jar があります 2. 各ノードのデータ統合サービスを再起動します 3. HDFS ソース / ターゲットが置かれているクラスタノードで HDFS に 733 権限を付与します クラスタステージングディレクトリ内のイレージャーコーディング (EC) 用のコンテンツを削除してマッピングを実行すると 自動インストーラのコピーが Raw EC 用の XOR コーデックの作成に失敗する場合があり そのときにマッピングが失敗する可能性がある Big Data Streaming の既知の制限事項 (10.2.2 HotFix 1) 次の表に 既知の制限事項を示します IIS-3484 ストリーミングマッピングを実行して APPLYNEWCOLUMNS ターゲットスキーマストラテジを使用して外部 Hive テーブルにデータを書き込むと マッピングが失敗する 16 2019-09-23

Enterprise Data Catalog の既知の制限事項 (10.2.2 HotFix 1) 次の表に 既知の制限事項を示します EIC-19445 EIC-19443 EIC-19423 EIC-19385 EIC-19237 EIC-19106 EIC-19027 EIC-18992 EIC-18935 EIC-18926 EIC-18915 EIC-18905 EIC-18817 EIC-18683 EIC-18717 次の条件が当てはまる場合に MicroStrategy リソースのレポート数が誤って表示される 1. バージョン 10.2.1 またはバージョン 10.2.1 Service Pack 1 で MicroStrategy リソースを実行した 2. バージョン 10.2.2 HotFix 1 にアップグレードした 3. リソースを再実行した Enterprise Data Catalog で 場所など一部のシステム属性に対して [ ソートを許可 ] および [ フィルタリングを許可 ] オプションが有効になっていない 次の条件が当てはまる場合に 検索タブにすべてのデフォルトフィルタと [ フィルタ ] パネルの組み合わせフィルタが誤って表示される 1. 認定評価とリソースタイプ 認定評価とアセットタイプなど フィルタの組み合わせを使用して検索タブを作成し 保存した 2. ホームページに移動した 3. ランダムアセットを検索し 検索結果ページが表示されている 4.[ 新規検索 ] タブをクリックした [ フィルタリングを許可 ] オプションを使用してフィルタが適用されているカスタム属性を削除すると 検索結果にそのカスタム属性が誤って表示される シノニムを検索した場合 カタログに誤った結果が表示される Catalog Administrator で Oracle および Microsoft SQL Server リソースを含めてすべてのリソースの [ データプロビジョニング ] タブを閲覧できる [ 新規検索 ] タブページの [ 最終更新日 ] フィルタセクションで [ カスタム ] オプションを使用して検索タブを作成すると エラーが表示される 以前に実行していたリソースに対して EBF-13039 を適用し バージョン 10.2.2 HotFix 1 にアップグレードすると アップグレード後は同じリソースの実行が失敗する マルチノードの埋め込みクラスタのノードを削除すると クラスタが起動に失敗し クラスタサービスが何もログメッセージを表示しない [ ソースメタデータフィルタ ] オプションを使用して IBM DB2 with z/os リソースを作成して実行すると カタログのスキャナ結果が正しくない カタログサービスのバックアップ / リストア操作中に リストア操作が 40 回試行した後 エラーが発生しました 例外 : というエラーで失敗することがある HDFS クラスタでイレージャーコーディングを有効にしている場合 カタログサービスが開始しない Informatica Administrator で pmdtm プロセスの [ 最大ヒープサイズ ] オプションがデフォルト値に設定されている場合 ファイルサイズが 1 GB を超えるテキストファイル またはファイルサイズが 200 MB を超える Microsoft Excel ファイルのデータ検出が失敗する ファイル管理リソースグループでリソースを実行する場合 リソースにファイルサイズが 200 MB を超える Microsoft Excel ファイルがあると リソースの実行が失敗する 2019-09-23 17

EIC-18682 EIC-18632 EIC-18584 EIC-18562 EIC-18563 EIC-18554 EIC-18548 EIC-18544 EIC-18545 EIC-18335 EIC-17826 EIC-17704 EIC-17699 EIC-17674 Enterprise Data Catalog プラグインで タイトルまたはフィールド修飾子のないアセットを検索すると 検索結果にはアセット名に検索文字列があるアセットしか表示されない クラス 属性 マッピングの検索結果が SAP HANA PowerCenter IBM InfoSphere DataStage Informatica Platform リソース用の正しくない不明なラベルの下に表示される SQL 条件を持つ計算ビューを使用して SAP HANA リソースを実行すると カタログにそのリソースの追加の空のアセットが表示される LdmCustomOptions.ingest.hbase.namespace.name 名前空間を ldmns 以外の値で設定すると 次の問題が発生する - 接続ユーティリティの userconfigurationstore および userwatchstore パラメータが 設定された名前空間値ではなくデフォルトの名前空間 ldmns を使用する - カタログサービスのバックアップおよびリストア操作中に サービスが 設定された名前空間のバックアップを取得しない カタログのアセットを検索すると 正しくない評価結果が表示されることがある スター結合または複合型の計算ビューを使用して SAP HANA リソースを実行すると 次の問題が発生する - 計算ビューの [ 属性 ] や [ メジャー ] などの関連アセットが [ 概要 ] タブに表示されない - [ リネージュと影響 ] タブに正しくない結果が表示される クラスタに適切な特権がない場合 カタログサービスのバックアップとリストアが [java.lang.indexoutofboundsexception: Index: 0, Size: 0] エラーで失敗する REST API を使用してカスタム属性を取得すると カスタム属性の pagesize パラメータが 10,000 を超える場合に [ 検証エラー ] エラーが表示される Informatica クラスタサービスが Kerberos および SSL 認証を使用している場合 10 時間後にサービスが応答を停止し Error 401 認証が必要です エラーが表示される Developer tool または Analyst ツールで テーブルを 2 回インポートし インポートされたテーブルでプロファイルを実行すると プロファイリングウェアハウススキャナが 元のテーブル名のテーブルのプロファイル結果のみを移行する 次の条件に当てはまる場合 リソース結果がカタログに表示されない 1. リソースを作成し [ メタデータのロード設定 ] > [ スキーマ ] フィールドで [ すべて ] オプションを選択している 2. リソースを実行している 3. プロファイリングウェアハウスリソースを実行している Informatica Administrator で Solr でカタログサービスを開始すると java.net.bindexception: アドレスがすでに使用されています エラーメッセージが表示される EIC-17012 カスタムスキャナを一時停止して再開すると Catalog Administrator の [ モニタリング ] > [ 統計 ] セクションに重複したジョブが表示される 18 2019-09-23

Web サービスの既知の制限事項 (10.2.2 HotFix 1) 次の表に 既知の制限事項を示します OCON-19767 前ゼロの後に数字が続く値を含む JSON ファイルから 入力文字列を Web サービスコンシューマトランスフォーメーションに渡す場合 データ統合サービスが前ゼロを削除し 数字をターゲットに書き込む また データ統合サービスが値のデータ型を文字列データ型から数値データ型に変更する サードパーティ製品に関する既知の制限事項 (10.2.2 HotFix 1) 以下の表にサードパーティの既知の制限事項を示します BDM-25924 BDM-25513 BDM-25490 BDM-25491 IIS-3381 次の条件が当てはまる場合に Hortonworks HDP 3.1 クラスタで実行されるマッピングが失敗することがある - マッピングが LLAP が有効化されたカスタムデータオブジェクトから読み取る - マッピングが Blaze エンジンで実行されている 次のようなエラーが表示される場合があります "Data partitioning is not supported for the mapping due to [Index: 0, Size: 0] エラーの詳細については データ統合サービスのログを参照してください Cloudera チケットの参照番号 : 00228458 Spark エンジンで実行される Hive ACID ソース / ターゲットテーブルを使用するマッピングがある場合 サマリ統計ビューに mapping job のスループット統計がまったく反映されない Cloudera チケットの参照番号 : 00225986 Hortonworks HDP 3.1 クラスタで実行されるマッピングがアップデートストラテジトランスフォーメーションを使用しており Hive Warehouse Connector が有効化されている場合 マッピングが DD_INSERT でマークされた行に誤ったデータを書き込む Cloudera チケットの参照番号 : 00228458 Hortonworks HDP 3.1 クラスタで Spark エンジンが文字列データ型をバイナリデータ型に誤って変換する Hortonworks チケットの参照番号 : 270 2019-09-23 19

10.2.2 Service Pack 1 で解消された制限事項 Big Data Management で解消された制限事項 (10.2.2 Service Pack 1) 以下の表に既知の制限事項を示します PLAT-23580 OCON-19308 OCON-18427 BDM-24853 BDM-24592 BDM-24307 LDAP を介してユーザーとグループを同期している場合 グループ内のユーザーがオペレーティングシステムプロファイル権限を失う SAP テーブルソースから DATS データを読み取るマッピングを実行すると マッピングが次のエラーで失敗する An error occurred while converting the value of the field [DATE_FROM] of type [DATS] to type [date/time] Spark エンジンで データを Google Cloud Storage フラットファイルターゲットに書き込むマッピングを実行し データサイズが 750 MB を超えていると マッピングが次のエラーで無期限でハングする ERROR AbstractGoogleAsyncWriteChannel: Exception not convertible into handled response java.io.ioexception: Write end dead サービスの使用可能時に REST 要求を送信することなく REST Operations Hub Service をリサイクルする処理に失敗する 選択したワークフローのワークフローグラフがモニタリングツールに表示されない Blaze エンジンが Hive の Parquet ファイルからのタイムスタンプ値を処理するときに エンジンがタイムスタンプ値を切り捨て ナノ秒をターゲットに書き込まない Big Data Quality で解消された制限事項 (10.2.2 Service Pack 1) 以下の表に既知の制限事項を示します IDQ-7917 IDQ-7863 IDQ-7801 大きなルール仕様をテストすると Analyst ツールが応答しなくなる場合がある この問題はルール仕様に 12 を超えるルールセットが含まれている場合に発生する可能性がある Analyst ツールがルール仕様を初めてコンパイルするときに数分かかる可能性がある 次の条件に当てはまる場合 標準化トランスフォーメーションを含むマッピングの実行に失敗する - トランスフォーメーションのストラテジ名に 1 つ以上の特殊文字が含まれている - マッピングが Informatica 10.2 にアップグレードした Informatica 9.6.1 モデルリポジトリで始まる 20 2019-09-23

Enterprise Data Catalog で解消された制限事項 (10.2.2 Service Pack 1) 以下の表に既知の制限事項を示します LDM-7416 EIC-16115 EIC-16153 EIC-16781 クラスタノードで JAVA_TOOL_OPTIONS 環境変数が設定されている場合 Informatica Platform リソースが次のエラーで失敗する 無効なコマンドオプション : [xmx1g] JSON ファイルに対してデータ検出を実行する場合 ファイルのカラムに NULL データ型が含まれていると プロファイル実行が失敗し 例外が表示される Enterprise Data Catalog が 100 万件のアセットがある Hive リソースをエクスポートするのに 20 時間以上かかる LDAP 認証を使用した SSL および Kerberos が有効になっている Cloudera クラスタに Enterprise Data Catalog をデプロイする場合 次のエラーで失敗する The difference in the Cluster s Core site and CCO core site regarding the property hadoop.security.group.mapping.ldap.ssl.keystore.password.cluster has localjceks:// file/cmf_conf_dir/creds.localjceks (Parameterized), whereas CCO has complete path. サードパーティ製品で解消された制限事項 (10.2.2 Service Pack 1) 以下の表にサードパーティの既知の制限事項を示します BDM-17204 偽装ユーザーが HDFS ソースを含むマッピングを実行しようとして ファイルを読み取るための DECRYPT_EEK 権限を持っていないと ログファイルに誤ったエラーメッセージが表示される HADOOP-12604 10.2.2 Service Pack 1 の既知の制限事項 アプリケーションサービスの既知の制限事項 (10.2.2 Service Pack 1) 次の表に 既知の制限事項を示します OCON-19438 メタデータアクセスサービスが長時間にわたって非アクティブな状態で Hive HBase MapR-DB または複合ファイルのデータオブジェクトをインポートしようとした場合 インポートが次のエラーで失敗する java.util.concurrent.rejectedexecutionexception 回避策 : メタデータアクセスサービスを再起動して オブジェクトを再びインポートする 2019-09-23 21

Big Data Management の既知の制限事項 (10.2.2 Service Pack 1) 以下の表に既知の制限事項を示します BDM-24789 BDM-24787 OCON-19697 OCON-19627 OCON-19518 OCON-19467 OCON-19466 OCON-19451 OCON-16421 Blaze エンジン上のマッピングで Hive テーブルを読み取り データアクセス接続文字列とランタイムプロパティの両方でデータベース名を指定した場合 SQL オーバーライドがデータオブジェクトのデータベースではなく Hive 接続のデータベースを使用する Spark 上のマッピングで Hive テーブルを読み取り データオブジェクトでデータベース名を指定した場合 SQL オーバーライドがデータオブジェクトのデータベースではなく Hive 接続のデータベースを使用する Hive 接続を使用して 接続文字列で指定されているスキーマ名とは異なるスキーマ名で物理データオブジェクトを作成すると マッピング結果の一貫性がない可能性があるため Hive ソースからデータを読み取るカスタムクエリを使用できない 次の条件が当てはまる場合に Amazon EMR バージョン 5.2.0 を使用する Spark でマッピングが失敗することがある - マッピングに 1 つ以上の参照テーブルを読み取るトランスフォーメーションが含まれている - 参照テーブルのカラム名に大文字と小文字が混在している 次の条件が当てはまる場合に MapR バージョン 6.1.0 を使用する Spark エンジンでマッピングが失敗することがある - マッピングに 1 つ以上の参照テーブルを読み取るトランスフォーメーションが含まれている - 参照テーブルのカラム名に大文字と小文字が混在している [ リソースの選択 ] ダイアログボックスから Hive テーブルを選択した場合 他のデータベースのテーブルも選択される 回避策 : 接続エクスプローラで 他のデータベースを最小化して 選択するデータベースのみを展開する 接続エクスプローラで [ デフォルトのスキーマだけを表示する ] オプションを使用して デフォルトのスキーマを使用するテーブルを表示したり デフォルト以外のスキーマからテーブルを追加したりすることができない カスタムデータオブジェクトからデータを読み取る Hive マッピングを実行するときに ソースに同じ名前だが別のデータベースのものである Hive テーブルが 2 つある場合 マッピングが失敗する ネイティブ環境でマッピングを実行して Hive ターゲットにデータを書き込むと マッピングは正常に実行される ただし セッションログには次のエラーが表示される java.lang.arrayindexoutofboundsexception 22 2019-09-23

Big Data Streaming の既知の制限事項 (10.2.2 Service Pack 1) 次の表に 既知の制限事項を示します IIS-3242 IIS-3187 IIS-3185 次の JMS メッセージヘッダーフィールドに割り当てられている値が JMS サーバーで管理されていないために JMS ソースおよびターゲットで無視される - JMSMessageID - JMSRedelivered - JMSTimestamp JMS メッセージの JMSCorrelationID ヘッダーフィールドがバイト配列に設定されている場合 ストリーミングマッピングが応答を停止する データ統合サービスが Kafka パーティション ID ヘッダーポートで指定された Kafka パーティションではなく任意のパーティションにデータを書き込む Enterprise Data Catalog の既知の制限事項 (10.2.2 Service Pack 1) 次の表に 既知の制限事項を示します OCON-19561 EIC-17499 EIC-17168 文字データに UTF-8 エンコーディングを使用していないフラットファイルに対して検出を実行すると プロファイリングが失敗し 例外が表示される Amazon S3 リソースまたはフラットファイルリソース内の XML ファイルに対して検出を実行すると カラム名にアンダースコア (_) やスペースなどの特殊文字が含まれるカラムがあるファイルがプロファイル結果に表示されない リソースのカラム名の末尾がスペースの場合 プロファイリングスキャナがそのカラムでプロファイルを実行しない Enterprise Data Preparation の既知の制限事項 (10.2.2 Service Pack 1) 以下の表に既知の制限事項を示します IDL-11924 IDL-12243 JSON ファイルの MongoDB データ型のフィールドを選択すると フィールドが空で表示される データレイクが Apache Sentry で保護された Hadoop クラスタである場合 Avro ファイルをプレビューまたはパブリッシュできない 2019-09-23 23

サードパーティ製品に関する既知の制限事項 (10.2.2 Service Pack 1) 以下の表にサードパーティの既知の制限事項を示します BDM-24903 BDM-24885 BDM-24616 BDM-21486 BDM-20346 OCON-19506 OCON-19488 パーティション化された Hive ターゲットを使用して Spark エンジンでマッピングを実行すると マッピングが日付 / タイムスタンプデータを UTC 形式で書き込み 誤ったデータとなる この問題は マッピングターゲットオブジェクトの詳細プロパティで [ ターゲットテーブルの切り詰め ] および [ ターゲットパーティションの切り詰め ] が有効になってい場合に発生します 詳細については 以下の Hive の問題を参照してください - HIVE-21290 - HIVE-21002 Blaze エンジン上 および Ranger KMS 認証を使用する Hortonworks HDP 3.1 クラスタ上で Sqoop マッピング Amazon S3 マッピング または Amazon Redshift マッピングを実行する場合 マッピングが次のエラーで失敗する org.apache.hadoop.security.authentication.client.authenticationexception: GSSException: 有効な資格情報が提供されていません ( メカニズムレベル : 新しい INITIATE 資格情報の取得に失敗しました (null)) Hortonworks HDP チケットの参照番号 : 00220585 HiveServer 2 タスクを起動するマッピングが Hortonworks 3.1 で実行される場合に 実行時に char データ型のカラムを持つパーティション化された Hive ターゲットテーブルを作成するよう設定されている場合 失敗する Hortonworks HDP チケットの参照番号 : 00219433 マッピングが Azure HDInsight クラスタで実行されている場合 Hive ソースの Date/ Time カラムで SQL オーバーライドを使用すると マッピングが失敗する Apache Hive チケットの参照番号 : HIVE-12200 Spark エンジンが Hortonworks HDP 3.1 クラスタで CSV タイプの組み込みの Hive SerDe の実行に失敗する Hortonworks HDP チケットの参照番号 : 00220586 Spark エンジンで データを Google Cloud Storage フラットファイルターゲットに書き込むマッピングを実行し データサイズが 750 MB を超えていると Google Cloud Storage での一時的なエラーにより 複数の Spark ジョブが失敗する ただし マッピングは正常に実行され 次のエラーが表示される java.io.ioexception: java.io.ioexception: Write end dead Sqoop Hortonworks Connector for Teradata を使用して Hortonworks HDP 3.1 クラスタの Blaze または Spark エンジンで Teradata マッピングを実行すると マッピングが失敗する 10.2.2 の解消された制限事項と実装された拡張要求 アプリケーションサービスの解消された制限事項 (10.2.2) 以前の解消された問題に関しては 以前のリリースのリリースノートをご確認ください 24 2019-09-23

以下の表に解消された制限事項を示します OCON-13454 MRS-1795 MRS-1571 BDM-17402 BDM-17301 BDM-17293 BDM-17055 高可用性を得られるようにメタデータアクセスサービスを設定していても Developer tool はアクティブなメタデータアクセスサービスプロセスに接続できない モデルリポジトリサービスでメモリが不足すると Java ヒープダンプが生成されない デバッグレベルのログでモデルリポジトリサービスを有効にすると サービスによって複数のエラーレベルのログメッセージが生成される データ統合サービスがグリッド上で実行されると サービスが開始されるまでアプリケーションの読み込みを待機する サービスの起動時 展開されたアプリケーションの読み込みに 15 分以上かかると データ統合サービスが再起動する データ統合サービスでアプリケーションを展開している間 データ統合サービスからアプリケーションの詳細を取得できない サービスの起動時 マッピングを含むアプリケーションがデータ統合サービスで読み込まれると マッピングの送信要求がハングする Big Data Management 解消された制限事項 (10.2.2) 以前の解消された問題に関しては 以前のリリースのリリースノートをご確認ください 以下の表に解消された制限事項を示します OCON-17874 OCON-16535 IN-3362 IDL-8652 IDL-10354 TLS 対応ドメインを使用し SparkSqoopDisSideInvocation プロパティを true に設定して Sqoop マッピングを実行した場合 データ統合サービスのトラストストアシステムプロパティの場所が -Djavax.net.ssl.trustStore= $INFA_HOME/services/shared/security/ infa_truststore.jks から -Djavax.net.ssl.trustStore=$INFA_HOME/externaljdbcjars/../ java/jre/lib/security/cacerts に変更されているため マッピングが失敗する Spark エンジンで Sqoop マッピングを実行した場合 データ統合サービスが coresite.xml ファイル内の hadoop.security.token.service.use_ip 設定プロパティを無視するため MapReduce ジョブが失敗する インテリジェント構造モデルのデータオブジェクトは ファイルをパーティション化できない場合でも 属性間に改行を指定してフォーマットされた JSON 入力ファイルをパーティション化に適したものとして受け入れる場合がある このため モデルに対応するデータが Spark ログ内で失われたデータとして識別される可能性がある 2,000 以上のテーブルを含む一括取り込み仕様を実行すると ほとんどの取り込みマッピングジョブが失敗し 次のエラーが表示される SEVERE: UserDefinedJob execution failed 一括取り込み仕様の実行インスタンスが完了した場合に 一括取り込みツールの [ サマリ ] ページでステータスが [RUNNING] と表示され続ける 実行インスタンスの [ 実行統計 ] ページに移動した後にのみ [ サマリ ] ページのステータスが更新される 2019-09-23 25

BDM-23906 BDM-23599 BDM-23199 BDM-22862 BDM-22754 BDM-22736 BDM-21657 BDM-21324 BDM-18221 BDM-18195 BDM-18173 BDM-17879 BDM-17849 カスタムタグがない Databricks クラスタがドメインに含まれていると infacmd ccps listclusters コマンドが失敗する 回避策 : 手動でクラスタにカスタムタグを追加するか クラスタワークフローを通じてクラスタを作成します Hortonworks HDP 2.6.1 以降のバージョンのクラスタで SSE-KMS 認証を使用する Amazon S3 上の Hive ソースおよびターゲットへの接続が The encryption method specified is not supported というエラーで失敗する ソート済みジョイナトランスフォーメーションが単一のソースからのデータを結合するときに キーカラムの行サイズがデータキャッシュサイズを超えている場合 データが失われる可能性がある Spark エンジンが一時 Hive テーブルを作成するマッピングを実行し データに改行文字 (\n) を含む文字列値が含まれている場合 改行文字が 1 レコードの終わりとして扱われる 例えば 一時 Hive テーブルに abc \n def という文字列が格納される場合は 最初のレコードが abc になり 2 番目のレコードが def になる この問題が発生する状況の 1 つに アップデートストラテジトランスフォーメーションを含むマッピングがある このマッピングが Spark エンジンで実行されると アップデートストラテジトランスフォーメーションは一時 Hive テーブルにデータをステージングする DTM のメモリが不足してシャットダウンすると マッピングの初期化中に後続のマッピングが NullPointerException で失敗することがある Spark エンジンで多数のジョイナトランスフォーメーションを使用するマッピングを実行すると データ統合サービスのメモリが不足する Blaze マッピングが Parquet 形式の Hive テーブルから NULL データを読み取る カラム名が数字で始まる場合に Hive のアップデートストラテジ用に正しくないクエリが生成される tez.tez-ui.history-url.base が NULL に設定されているか クラスタ設定にない場合に Tez ジョブが NULL ポインタ例外で失敗する クラスタ設定で yarn.timeline-service を無効にした場合に Tez ビューに Hadoop ジョブが表示されない 管理者以外のユーザーの Administrator ツールでサマリ統計と実行統計をロードするためにかかる時間が 管理者と比べて長い OS プロファイルが有効になっている場合に ドメインのパフォーマンスが低下する infacmd コマンドラインプログラムを使用して 複雑なデータ型の XML ペイロードが含まれるマッピングをエクスポートすると エクスポートが失敗して 次のエラーが表示される com.sun.xml.xsom.parser.xsomparser cannot be found by com.infa.products.sdk.adapter.parser.xml.utils_1.1.0 com/sun/xml/xsom/parser/xsomparser [ICMD_10033] Command [ExportObjects] failed with error [[OIECMD_10006] Error occurred during export function. See previous error.]. BDM-17831 データ統合サービスのデバッグ用の JVM オプションが無効になっている 26 2019-09-23

BDM-17755 BDM-17698 BDM-17685 BDM-17541 BDM-17175 BDM-16843 BDM-14626 BDM-14139 BDM-13107 パーティション化され バケット化された Hive ターゲットの 10 進数のポートを切断すると Blaze エンジンで実行するパススルーマッピングが失敗する Cloudera Connector Powered by Teradata を使用して Sqoop TDCH マッピングを実行した場合に 次のエラーでマッピングが失敗する : Missing argument for option: stagingdatabase 次のすべての条件に当てはまるのに データ統合サービスがオペレーティングシステムプロファイルのターゲットディレクトリから空の一時ファイルを削除しない - データ統合サービスでオペレーティングシステムのプロファイルを使用できる - マッピングは HDFS ターゲットに書き込まれます - マッピングは Hive エンジンで実行されます [ ウィンドウ ]>[ 設定 ]>[ 実行設定 ]>[ マッピング ] を選択してマッピングを実行すると Developer tool が設定したすべてのドメインとの接続を再構築しようとする 接続の品質によっては パフォーマンスが大幅に低下する場合があります ワークフローをモデルリポジトリにインポートすると 空のデフォルト値を使用して SQL パラメータのパラメータセットを作成できない SQL パラメータをモデルリポジトリにインポートすると パラメータ値は編集できるが 後でデフォルトの空または NULL 値にリセットできない 物理データオブジェクトで接続を割り当てない場合 ワークフローアプリケーションの展開に失敗する Hortonworks HDP または Amazon EMR 環境では 次のすべての条件に当てはまる場合 Spark エンジンでマッピングを実行できない - マッピングは Avro ターゲットに書き込まれます - スキーマには ネストの 2 つのレベルを超える配列またはマップが含まれています - 構造体要素は ネストの 3 番目またはそれ以上のレベルに存在します 例えば array(array(struct)) や array(map(string, struct)) などのスキーマを使用して Avro ターゲットに書き込むと マッピングは失敗します Spark 監視を有効にしてマッピングを実行すると パフォーマンスにボトルネックが発生する可能性がある パフォーマンスはマッピングの複雑さによって異なります Developer tool の解消された制限事項 (10.2.2) 以前の解消された問題に関しては 以前のリリースのリリースノートをご確認ください 以下の表に解消された制限事項を示します OCON-14447 OCON-13057 SQL トランスフォーメーションを使用してストアドプロシージャから複数のレコードを読み取ると データプレビューに失敗する Microsoft SQL Server で ODBC 接続を ODBC プロバイダとして使用し Microsoft SQL Server の名前付きインスタンスでデータプレビューを実行すると データプレビューに失敗する 2019-09-23 27

IDQ-7121 BDM-20406 BDM-18315 BDM-17541 モデルリポジトリにマップレットをインポートし 次の条件に該当する場合 Developer tool でエラーが発生する - インポートするマップレットが リポジトリ内のマップレットと置き換わる - リポジトリ内のマプレットが 置換マプレットが読み取らないトークンセットを読み取る - 2 つのマップレットが トークンセットを読み取るラベラトランスフォーメーションを含めて 同じ設定を持つ ローカルオブジェクトとキャッシュオブジェクトの ID が一致しない場合に Developer がオブジェクトを開けない 次のエラーが返される : Duplicate object of ID Developer tool で フラットファイルの [ ヘッダーコマンド ] 書き込みプロパティがエスケープ文字をサポートしていない [ ウィンドウ ] > [ 設定 ] > [ 実行設定 ] > [ マッピング ] を選択してマッピングを実行すると Developer tool が設定したすべてのドメインとの接続を再構築しようとする 接続の品質によっては パフォーマンスが大幅に低下する場合があります この問題を回避するには Developer tool から未使用のドメイン設定を削除します Enterprise Data Catalog の解消された制限事項と実装された拡張要求 (10.2.2) 以前の解消された問題に関しては 以前のリリースのリリースノートをご確認ください 以下の表に解消された制限事項を示します LDM-7044 LDM-5987 EIC-8243 EIC-8032 EIC-7969 EIC-6422 リソースを作成するときに [ 安全な通信を有効にする ] オプションを選択しないと Axon リソースのテスト接続が失敗することがある サーバーロケールを日本語に変更すると Enterprise Data Catalog および Catalog Administrator で検索結果とリソースのプロパティセクションが文字化けして表示される 既存のシステム属性と同じ名前のカスタム属性を作成できない Kerberos 対応の Hortonworks Data Platform(HDP) クラスタで実行されている Apache Atlas インスタンスでは Apache Atlas リソースは Hive のソースとターゲットの情報のみを抽出する サイレントモードでインストールまたはアップグレードを実行し プロパティ INSTALL_LDM に 1 以外の値を指定するか 値を空白のままにすると モデルリポジトリサービスのアップグレードが失敗する カタログサービスを以前のバージョンからバージョン 10.2.1 Update 1 に更新すると 次のエラーが発生する ScannerPluginRegistrationManager@288] - [ModelValidationException_00016] Datatype for Attribute [FireonUpdated] has been altered. Expected: [core.boolean]. Found: [core.integer]. 28 2019-09-23

EIC-6384 EIC-6080 EIC-6073 EIC-5999 EIC-5916 EIC-5906 EIC-5860 EIC-5768 EIC-5734 関連付けられたビジネスタイトルを持つアセットを含む CSV ファイルをインポートした後 そのアセットに関連付けられたビジネスタイトルが Enterprise Data Catalog で表示されない Catalog Administrator でカスタム属性の [ フィルタリングを許可 ] オプションを有効にしても Enterprise Data Catalog で [ 部門 ] という名前のデフォルトカスタム属性の [ フィルタリングを許可 ] オプションが有効にならない Catalog Administrator で PowerCenter リソースを再実行した後も Enterprise Data Catalog で削除されたマッピングが表示される 特殊文字を含むアセット名を使用してカタログを検索すると Enterprise Data Catalog に正しくない検索結果が表示される Amazon S3 リソースが次のデータ検証エラーで失敗する Error occured in scanner execution java.util.concurrent.executionexception: com.infa.products.ldm.filescanner.file.processor.api. FileProcessorException: java.util.concurrent.executionexception: com.infa.products.ldm.filescanner.file.processor.api. FileProcessorException: com.infa.products.ldm.ingestion.exceptions. DataValidationException: [DataValidationException_00009] Enterprise Data Catalog 10.2 Update 2 のカタログサービスを開始しても カタログサービスが開始されない ロードタイプを中 スキャナメモリを高に設定して約 600 のマッピングを持つ PowerCenter リソースを実行すると String index out of range: -1 というエラーでリソース実行が失敗する テーブルやビューなどの外部オブジェクト上にマウスポインタを移動したときに表示されるポップアップに リネージュ図とスキーマ名が表示されない 1000 を超える要素を含む XML ファイルで HDFS リソースを実行すると そのリソースのプロファイリング実行が失敗する EIC-5407 Informatica Platform リソースが次のエラーで失敗する : "ArrayIndexOutOfBoundsException" EIC-5374 EIC-5306 EIC-4640 EIC-4626 EIC-4545 シードアセットの両側にあるテーブルを含むデータソースのカスタムリネージュで テーブルがグループとして表示される リソースの実行中に Kerberos チケットを更新すると リソースが失敗する リソース名にロケール文字が含まれていると Enterprise Data Catalog がリソースにビジネスタイトルを追加しない マッピングに PDF などの非構造化ファイルが含まれていると Informatica Platform リソースが失敗する Enterprise Data Catalog で 参照データ型の複数値のカスタム属性値を削除できない 2019-09-23 29

EIC-4053 EIC-2975 EIC-14407 EIC-13725 EIC-13723 EIC-13443 EIC-12993 EIC-12822 EIC-12551 EIC-12493 EIC-12474 EIC-12142 EIC-12057 EIC-11880 EIC-11879 EIC-11597 Enterprise Data Catalog を埋め込みクラスタにインストールし /etc/yum.conf で Web プロキシサーバーを設定している場合に 問題が発生する可能性がある この問題を解決するには 次のリポジトリファイルに proxy=none という行を追加する必要がある - ambari.repo - HDP.repo - HDP-utils.repo ルックアップトランスフォーメーションを含むマッピングに関連付けられたテーブルのリネージュと影響のビューに 重複するマッピングオブジェクトが表示される スキーマのサブセットを選択する正規表現が Hive メタデータリソースに対して機能しない インポートファイルで参照データ型のカスタム属性値を更新すると NULL ポインタ例外によりインポートジョブが失敗する この問題はビジネス用語集アセットで発生する リソースを実行すると Solr プロセスが HDFS 内の.lock ファイルの削除を待機する Enterprise Data Catalog でリソースのビジネスタイトルを表示できないことがある 事前検証ユーティリティが /usr ディレクトリと /var ディレクトリで 2GB の必要空きディスク容量を検証する Informatica Platform リソースについて マッピングパラメータがない場合に Enterprise Data Catalog でマッピングインスタンスの追加のマッピングが抽出される Salesforce リソースに対してプロファイリングを実行すると いくつかのテーブルでプロファイリングが失敗し ERROR: nsort_define() returns -26 というエラーが表示されることがある XMI ファイルから XDoc ファイルへの変換中に PowerCenter リソースが次のエラーで失敗する : java.lang.arrayindexoutofboundsexception Enterprise Data Catalog で Oracle リソースのデータベース名の代わりにインスタンス名が表示される Informatica クラスタサービスを作成するための前提条件を検証するときに 事前検証ユーティリティが失敗する この失敗は 別のディレクトリ内にネストされているカスタム Hadoop ディレクトリを指定した場合に発生する WANdisco Fusion 対応クラスタに Enterprise Data Catalog をデプロイするときに使用できるカスタムプロパティが追加されました このプロパティを使用して WANdisco Fusion が有効になっていないクラスタに関する問題を解決できます Informatica クラスタサービスを開始するたびに Ambari_server_launch.sh スクリプトと Ambari_agent_install.sh スクリプトにより /usr/sbin/ambari-server ファイルと /usr/sbin/ ambari-agent ファイルに export PYTHONHTTPSVERIFY=0 という行が追加される この行は 存在しない場合にのみ追加する必要がある 実行中または開始中のプロセスがない場合でも カタログサービスが継続的に CPU コアを使用する Server Message Block(SMB) プロトコルを使用すると ファイルシステムスキャナが失敗する 30 2019-09-23

EIC-11597 EIC-11484 EIC-11371 EIC-11357 EIC-11335 EIC-11289 EIC-11282 EIC-11229 EIC-11220 EIC-11202 EIC-11178 EIC-11140 EIC-11065 EIC-11053 ファイルシステムからメタデータを抽出するために Server Message Block(SMB) プロトコルを使用すると ファイルシステムリソースが失敗する 関連付けられたカスタム属性値を持つアセットを含む CSV ファイルをインポートした後 そのアセットに関連付けられたカスタム属性値が Enterprise Data Catalog で表示されない リソース名 アプリケーション名 およびパラメータファイルが同じ名前を共有していると Informatica Platform リソースが次のエラーで失敗する ERROR com.infa.products.ldm.lineageservice. client.impl.lineageserviceclientimpl- Sep 14, 2018 3:21:46 PM com.infa.products.ldm.scanners.mrsscanner.cmd961bundle. LineageServiceCaller$LineageServiceTask disconnect SAP Business Objects リソースを作成して実行した後 Enterprise Data Catalog で Crystal Reports のリネージュ情報が表示されない Windows File System リソースに存在するフラットファイルがリネージュサマリに表示されない この問題は FTP 接続タイプを使用して Windows File System リソースを設定した場合に発生する Azure Microsoft SQL Server リソースを作成し データ検出を有効にしてリソースを実行すると リソースの実行中に作成された一時テーブルがデフォルトで削除されない Enterprise Data Catalog の [ 概要 ] タブで アセットの関連するビジネス用語のソースが表示されない この問題は Enterprise Data Catalog をバージョン 10.2.0 から 10.2.2 にアップグレードした後に発生する Informatica Platform リソースに正しくないドメイン名を設定すると そのリソースが失敗し スキャナログファイルは誤ってリネージュサービスログファイルを指す 参照データ型のカスタム属性の名前にアンパサンド (&) 記号が含まれている場合に Enterprise Data Catalog がカスタム属性名に amp を追加する 自動接続割り当てを使用して PowerCenter リソースを実行した後に HDFS リソースを実行すると HDFS リソースの実行が完了するまでに長い時間がかかる 空のソースファイルを含むリソースを実行すると プロファイル実行が失敗し ログファイルに NULL ポインタ例外が表示される リソースが複数値属性をサポートしていないため Erwin リソースのデータ検証が失敗する HDFS 接続がパラメータ化されていると PowerCenter リソースのパスを追加したパラメータ値が接続割り当てパスに表示される UCF.MongoDBNoSQLDatabase リソースのテスト接続が失敗し 次のエラーが表示される Error com.mongodb.mongocommandexception: Command failed with error 13: 'not authorized on admin to execute command { listdatabases: 1 }' on server inkrh65qa01:27017. The full response is { "ok" : 0.0, "errmsg" : "not authorized on admin to execute command 2019-09-23 31

EIC-11019 EIC-11004 EIC-10255 EIC-1486 [ 概要 ] タブの [ 類似カラム ] セクションで 推測されたデータドメインがオレンジ色ではなく緑色で表示されることがある Amazon S3 URL でリージョン名を指定すると 正しくない URL が生成される リソースのデータ統合サービスプロパティで ドメインユーザーの代わりに LDAP ユーザーを追加すると リソースのプロファイリングが失敗する [ トランスフォーメーションロジック ] ビューには Informatica Cloud サービストランスフォーメーションの不正確なマッピング名が表示される 次の表に 実装された拡張要求を示します EIC-5268 EIC-13569 Informatica Platform リソースについて マッピングでカスタム SQL クエリがパラメータ化されていると Enterprise Data Catalog でリネージュを表示できない Enterprise Data Catalog で アセットにビジネスタイトルまたはカスタム属性値を割り当てた後に そのアセットのリネージュ情報を表示できない Enterprise Data Lake の解消された制限事項 (10.2.2) 以前の解消された問題に関しては 以前のリリースのリリースノートをご確認ください 以下の表に解消された制限事項を示します IDL-9988 IDL-8888 Enterprise Data Lake でインポート パブリッシュ 検索 またはデータプレビューなどの操作を実行したときに アプリケーションにデータレイク内のすべての Hive スキーマが表示される ( 権限がないスキーマも含む ) ユーザーアカウントが属する Informatica セキュリティドメインの名前にスペースが含まれている場合に Enterprise Data Lake でアップロード パブリッシュ またはダウンロードのアクティビティを実行すると アプリケーションのホームページ アクティビティページ およびプロジェクトページでそのアクティビティが表示されない 次の表に 実装された拡張要求を示します IDL-11420 アプリケーションが ログインプロセス中に外部 Web サイトへの要求を行わないようになりました マッピングおよびワークフローの解消された制限事項と実装された拡張 (10.2.2) 以前の解消された問題に関しては 以前のリリースのリリースノートをご確認ください 32 2019-09-23

以下の表に解消された制限事項を示します MWF-1680 MWF-1668 MWF-1639 MWF-1636 MWF-1631 MWF-1621 MWF-1597 IDQ-7594 IDQ-7162 BDM-20274 BDM-18771 BDM-18115 BDM-17376 多数のワークフローアプリケーションを実行し ワークフローにオペレーティングシステムプロファイルから実行されるマッピングが含まれていると データ統合サービスでメモリリークが発生する可能性がある ワークフロー変数をマッピング出力にバインドした場合 マッピング出力が NULL のときに データ統合サービスが変数値を更新しない taskstatus 出力を integer 変数にバインドすると タスクの成功または失敗にかかわらず ワークフロータスクが taskstatus 値 0 を返す 通知タスクなどで電子メールを送信するワークフローを実行すると データ統合サービスが過剰な数のスレッドやその他のリソースを生成する可能性がある infacmd コマンドからワークフローが実行され infacmd がデータ統合サービスとの接続を失った場合に ワークフローが正常に開始されているにもかかわらず ワークフローの開始に失敗したと infacmd がレポートする ワークフローデータベースにロックされたプロセスがあると ワークフローエンジンが開始されない 実行するタスクがタスクインスタンスで指定されていないワークフローを保存できるが 実行時にワークフローが失敗する原因となる可能性がある 一致トランスフォーメーションを使用する複数のマッピングを同時に実行すると マッピングにより同じ名前の複数のキャッシュデータファイルが生成される可能性がある データ統合サービスがすべてのキャッシュデータファイルの削除に失敗する可能性があるため マッピングが失敗する可能性がある トランスフォーメーション入力データに非常に大きなレコードグループが含まれていると 一致トランスフォーメーションですべての一致するレコードが正しいクラスタに追加されない可能性がある その年の最後の週にマッピングを実行し その週が翌年に終わる場合に システムパラメータ MappingRunStartTime の年が 1 年進む 週は日曜日に始まり 土曜日に終わる 例えば 2018 年の最後の週には 日曜日 (12 月 30 日 ) と月曜日 (12 月 31 日 ) が含まれていた 12 月 30 日または 12 月 31 日にマッピングを実行した場合 パラメータの値はそれぞれ 12/30/2019 または 12/31/2019 になる infacmd wfs upgradeworkflowparameterfile コマンドで一連のワークフローパラメータファイルのアップグレードを完了するために長い時間がかかることがある 次の条件が当てはまる場合に LTRIM 関数と RTRIM 関数がスペースをトリムしない - LTRIM(LTRIM(<expression>)) や RTRIM(LTRIM(<expression>)) のように 複数レベルの LTRIM 関数または RTRIM 関数に式がネストされている - ネストされた式は SQL オーバーライド由来の Hive テーブルのカラムを参照する 次の条件が当てはまる場合に 共有体トランスフォーメーションを使用するマッピングで予期しない結果となる可能性がある - 共有体トランスフォーメーションに少なくとも 3 つの入力グループがある - 同じ 2 つのポートがすべてのグループで接続されていない - データをフィルタするダウンストリームトランスフォーメーションがマッピングに含まれている トランスフォーメーションにより 保持する必要があるデータが誤ってフィルタされることや フィルタする必要があるデータが保持されることがある 2019-09-23 33

次の表に 実装された拡張要求を示します MWF-1638 データ統合サービスが ワークフローエンジンの開始時にワークフローエンジンのアクティビティをするログメッセージを書き込みます データ統合サービスが ワークフローエンジンが処理するワークフローインスタンスの数をログに書き込みます また データ統合サービスは ワークフロー名 アプリケーション名 およびインスタンス ID もログに書き込みます パラメータの解消された制限事項 (10.2.2) 以前の解消された問題に関しては 以前のリリースのリリースノートをご確認ください 以下の表に解消された制限事項を示します BDM-17211 AppSDK データオブジェクトを含むマッピングでマッピングパラメータを解決すると 次のアクションを実行した場合に例外が発生する - マッピングを実行する - データプレビューを実行する - 実行プランを表示する プロファイルおよびスコアカードの解消された制限事項 (10.2.2) 以前の解消された問題に関しては 以前のリリースのリリースノートをご確認ください 以下の表に解消された制限事項を示します IDE-3703 IDE-3640 IDE-3463 IDE-3448 IDE-3396 IDE-3180 IDE-3161 プロファイリングウェアハウスが UseDSN オプションを使用して ODBC 接続を使用する場合に プライマリキーと外部キーの推測オプションを使用するエンタープライズ検出プロファイルが機能しない Informatica Analyst で [ スコアカード ] ワークスペースがアクティブなときに Analyst ツールで何らかのタスクを実行すると CPU 使用量が多くなり メモリ使用率が高くなる 10.1.1 HotFix 1 から 10.2.1 にアップグレードした後に いくつかの既存のスコアカードが実行できなくなる スコアカードの [ メトリック ] タブでルールを削除した後に スコアカードが実行できなくなる バージョン 10.2 にアップグレードした後に 論理データオブジェクトに対するスコアカードの実行が NULL ポインタ例外により失敗する 精度値が 255 より大きいカラムがあるソースに対してカラムプロファイルを実行すると そのカラムでデータ型を推測できない Informatica Analyst で Internet Explorer を使用してプロファイル名に日本語の文字が含まれているカラムプロファイルを作成すると ページが応答しなくなる 34 2019-09-23

IDE-3115 IDE-3065 BDM-19917 BDM-17440 Hive でパーティション化されたソースのカラムプロファイルに失敗する データドメイン検出を使用するエンタープライズ検出プロファイルを実行すると 一部の Hive ソースのプロファイリングが失敗する infacmd ps execute infacmd コマンドを実行すると プロファイリングの実行が失敗する パーティション化された Hive テーブルでカラムプロファイルまたはデータドメイン検出プロファイルを作成し Blaze エンジンでプロファイルを実行すると プロファイルの実行が断続的に失敗する セキュリティの解消された制限事項 (10.2.2) 以前の解消された問題に関しては 以前のリリースのリリースノートをご確認ください 以下の表に解消された制限事項を示します ANT-520 セキュアなドメインが SAML に対応する場合に Administrator ツールに SAML ユーザーとしてログインすると Administrator ツールにユーザーアクティビティログが表示されない Analyst ツールにはユーザーアクティビティログが表示されるが アクティビティログの [ ユーザー ] フィールドにはユーザーの名前が表示されない サードパーティ製品で解消された制限事項 (10.2.2) 以前の解消された問題に関しては 以前のリリースのリリースノートをご確認ください 以下の表に解消された制限事項を示します BDM-10410 Hortonworks クラスタでは テーブルがトランザクションに対して有効になっている場合 Amazon S3 上の Hive ターゲットテーブルに挿入できない 2019-09-23 35

10.2.2 の既知の制限事項 アプリケーションサービスの既知の制限事項 (10.2.2) OCON-13257 MRS-1861 Hadoop クラスタから複合ファイルオブジェクト HBase オブジェクト または Hive オブジェクトをインポートする場合 ドメインおよびメタデータアクセスサービスで Kerberos 認証を使用すると メタデータのインポートが失敗する モデルリポジトリサービスでメモリ不足エラーが表示されることがある 回避策 : [ 詳細プロパティ ] の [ 最大ヒープサイズ ] 値を 1536m または 2048m に増やします Big Data Management 既知の制限事項 (10.2.2) 以下の表に既知の制限事項を示します OCON-17245 OCON-17194 OCON-16315 BDM-4597 BDM-23575 BDM-23550 ADLS をストレージとして使用する Kerberos 対応 HDInsight クラスタで Sqoop マッピングを実行すると Blaze エンジンでマッピングが失敗する Spark エンジンと Databricks Spark エンジンでのルックアップトランスフォーメーション用のソースオプションとして Microsoft Azure Blob ストレージが誤って表示されるが このオプションはサポートされていない Spark エンジンまたは Databricks Spark エンジンでのルックアップソースとして Microsoft Azure Blob ストレージを選択すると 次のエラーでマッピングの検証が失敗する [Spark Validation] The Integration Service cannot use the Spark engine to push the transformation [test_input_txt_read1] of type [LookupTx] to the Hadoop cluster. [ID: TRANSFORMATION_NOT_SUPPORTED] test_input_txt_read1 複雑なデータ型としてカラムを投影する データオブジェクトの読み取りおよび書き込み操作で多数の同時マッピングを実行すると メモリ不足エラーでデータ統合サービスが失敗する 回避策 : 次のいずれかの手順を実行します - データ統合サービスが実行されているマシンでヒープメモリ設定を増やします - 複合データ型を処理する同時マッピングの数を減らします - データ統合サービスのカスタムプロパティ ExecutionOptions.CBOStatCacheSize をある程度小さな値に設定します 1 つのパーティションで 4,294,967,294 行を超える処理を行うジョイナトランスフォーメーションを使用したマッピングは失敗する 回避策 : 可能な場合は ソースのパーティションを増やします Blaze エンジンと Spark エンジンで実行される クラスタ内でラベル付けされたノードで実行されるマッピングのセッションログで ノード数が誤って表示される アップデートストラテジトランスフォーメーションに 挿入操作 更新操作 または削除操作と JDBC ターゲットが含まれていると Spark イベントの挿入された行 更新された行 または削除された行の数が誤って表示される 36 2019-09-23

BDM-23392 BDM-23317 BDM-22490 BDM-22481 BDM-22260 BDM-2222 BDM-20856 BDM-20697 BDM-18140 BDM-17174 Spark で実行されるマッピングがアップデートストラテジトランスフォーメーションを使用していると テーブル制約により BatchUpdateException が発生し マッピングが失敗する可能性がある 回避策 : マッピングのランタイムプロパティの Spark.JdbcNumPartition 設定を編集して パーティションの数を 1 に減らします これにより すべての行が単一パーティションとして処理されます ファイルベースのキューを使用して設定されたデータ統合サービスの統計を監視すると ジョブがキューに追加された状態でも ジョブが実行されているように誤って表示される Spark で実行される動的マッピングがアップデートストラテジトランスフォーメーションを使用している場合 Hive ターゲットテーブルスキーマにカラムを追加するとマッピングが失敗する 同等の精度と位取りで設定されている 10 進型ポートで Spark エンジンがゼロの入力値を処理するときに エンジンがその値をデータオーバーフローとして扱い 戻り値が NULL になる Google BigQuery Google Cloud Storage Google Cloud Spanner または Google Analytics の接続を使用するマッピング実行の Spark 監視統計を取得できない Spark エンジンがフラットファイルターゲット用に設定されたフッタ行コマンドを実行しない (459942) クラスタワークフローをインポートするときに クラスタの作成タスクに関連付けられていた非ネイティブ接続を選択するためのオプションがインポートウィザードに含まれていない 回避策 : ワークフローをインポートした後に クラスタの作成タスクに Databricks 接続または Hadoop 接続を手動で割り当てます Spark エンジンで実行されるマッピングで numberoferrorrows システム定義マッピング出力を使用すると エンジンがマッピング出力に正しくない値を返す Spark エンジンで多数の参照テーブルを読み取るマッピングを実行すると 予想以上に時間がかかる場合がある この問題は マッピングに合計 140 個の参照テーブルを読み取るトランスフォーメーションが含まれている場合に発生します 回避策 : Blaze エンジンでマッピングを実行します メモリ使用量が最大コンテナサイズに達すると YARN がコンテナを終了する 次の条件に当てはまる場合 OOP コンテナマネージャのメモリ使用量は最大コンテナサイズに達します - 同時ジョブの実行には 2 日以上かかります - Blaze エンジンがアイドル状態タイムアウト制限または日没時間に達していません 2019-09-23 37

Big Data Streaming の既知の制限事項 (10.2.2) 次の表に 既知の制限事項を示します IIS-2761 IIS-2573 IIS-2329 同じフラットファイルデータオブジェクトに対する複数のルックアップがマッピングに含まれていると Developer tool または Administrator ツールで Spark の実行プランを表示できない 回避策 : パイプライン内の各ルックアップトランスフォーメーションについて 同じ物理ソース上に物理データオブジェクトを作成します 動的マッピングを実行するときに ウィンドウトランスフォーメーションからアグリゲータトランスフォーメーションにウィンドウポートを接続すると マッピングの検証が失敗する AWS 資格情報ファイルを削除するか 無効な資格情報を使用して更新すると Amazon Kinesis 接続を使用するストリーミングマッピングがハングする Developer tool の既知の制限事項 (10.2.2) 以下の表に既知の制限事項を示します BDM-19301 差分デプロイメントウィザードが ランタイムオブジェクトへの影響を一度に 1 つずつ分析し 一括での分析を実行できない 多数のオブジェクトを含むアプリケーションで 分析が遅くなる Enterprise Data Catalog の既知の制限事項 (10.2.2) 次の表に 既知の制限事項を示します EIC-8187 EIC-8171 EIC-8127 EIC-7622 EIC-7583 EIC-7406 Catalog Administrator の 1 つのリソースに対して読み取りおよび書き込み権限を持つユーザーを設定すると Enterprise Data Catalog のユーザー検索ページには 1 つのカウントではなく 合計リソース数が表示される Informatica Axon リソースを削除すると Enterprise Data Catalog では アセットに割り当てられているカスタム属性がカタログから削除されない アンダースコア (_) を含むアセット名を検索すると 検索結果ページは結果を返さない カスタムメタデータリソースは ビジネスインテリジェンスメタデータソースの接続パラメータを抽出しない relationships REST API は 同じクエリで異なる levelcount の詳細を返す リソースに使用される再利用可能な構成で誤った詳細を修正しても その変更はリソースに反映されない 38 2019-09-23

EIC-7405 EIC-6927 EIC-6084 EIC-4015 EIC-3848 EIC-3288 EIC-1837 EIC-1835 EIC-15696 EIC-15657 EIC-15650 EIC-15338 EIC-14761 EIC-14746 EIC-14668 整数のカスタム属性では スライダフィルタを使用して負の値を選択できない 回避策 : 範囲に基づくフィルタを許可するようカスタム属性を設定します 次の条件に当てはまる場合 データドメインまたは複合データドメインの実行時エラーが表示される 1. Internet Explorer バージョン 11.2 で Catalog Administrator を開いている 2. データドメインまたは複合データドメインを作成して保存している この問題は 名前に英語以外の文字が含まれるデータドメインと複合データドメインでのみ発生します YARN アプリケーションのログファイルを収集するために infacmd collectapplogs コマンドを実行すると ERROR: java.lang.indexoutofboundsexception エラーメッセージが表示される このエラーは WANdisco Fusion が有効になっている既存の Hortonworks クラスタでカタログサービスを作成して有効にすると発生する 固定データ型の Avro ファイルを実行すると コアスキャナに精度が未定義と表示され NULL ポインタ例外によりプロファイルの実行が失敗する ファイルが OneDrive SFTP またはリモートの Windows の場所に配置されている場合は Avro ファイルと Parquet ファイルでプロファイリングスキャナが実行されない データソース内のカラムにデータが含まれていない場合 類似性検出システムリソースがカラム名に基づいてカラムを検出しない リレーション図にシノニムが表示されない シノニムの [ アセットの詳細 ] ビューでは [ 次を含む ] パネルに カラムだけでなく カラムとともにソース修飾子とマッピングアセットが表示される infacmd collectapplogs コマンドが collectapplogs] failed with error [Java heap space] エラーメッセージで失敗する Enterprise Data Catalog で REST API を使用してユニバーサル接続フレームワーク (UCF) リソースを作成できる しかし このリソースを編集できない 回避策 : UCF ライセンスについてグローバルカスタマサポートにお問い合わせ下さい カタログサービスが正常にアップグレードされた後 SAP HANA リソースの UCF リソースモデル登録が失敗する Catalog Administrator で リソース内のすべてのアセットにカスタム属性値を適用すると [ 通知 ] ページで次の問題が発生する - [ 通知 ] ページに重複した通知メッセージが表示される - アセットの変更がカタログに反映される前に [ 通知 ] ページに通知メッセージが表示される - 通知メッセージで アセット名の代わりにアセットのオブジェクト ID が表示される Enterprise Data Catalog でシノニムアセットの [ 変更概要 ] に正しくない通知メッセージが表示されることがある ユーザーがストアドプロシージャのビジネスタイトルの関連付けまたは削除を行ったときに Enterprise Data Catalog が通知メッセージを送信しない この問題は ストアドプロシージャアセットのエンリッチメント変更をフォローしている場合に発生する Catalog Administrator で リソースの作成中にリソース内のすべてのアセットに関係者の値をプロパゲートすると [ リレーション ] タブにアセットの正しくない情報が表示される 2019-09-23 39