コンピュータシステム シンポジウム Computer System Symposium ComSys /12/5 分散ファイルシステム GPFS を用いた スケーラブルな非同期コピーの提案 松 井 壮 介 高 井 聡 三 好 浩 之 荒 木 博 志 分散ファイルシステムの同一ディレク
|
|
|
- そう みょうだに
- 6 years ago
- Views:
Transcription
1 分散ファイルシステム GPFS を用いた スケーラブルな非同期コピーの提案 松 井 壮 介 高 井 聡 三 好 浩 之 荒 木 博 志 分散ファイルシステムの同一ディレクトリを複数のノードが同時に更新する際 ファイルシステム の一貫性を保証するための排他制御による書き込み遅延が発生し 書き込み速度が向上しない とい う問題が知られている この問題は 複数のノードで大量のファイルを短時間に作成するスケールア ウト NAS の非同期コピーにおいて 特に顕著に見られる ディレクトリの更新などをスケーラブル に行えるよう 分散ファイルシステムを設計する方法が提案されてきたが これらの方法は その設 計を取り入れたファイルシステムの使用を前提としていた 本稿では 使用するファイルシステムに 依存せず スケーラブルな非同期コピーを実現するために 分散ファイルシステムの排他制御による 書き込み遅延とファイルサイズの関係に着目し サイズの大きいファイル群はサイズが均等になるよ うにノード間でファイル転送処理の負荷を分散させ サイズの小さいファイル群は同一ディレクトリ ごとに集めて同一ノードから転送する方法を提案する 本手法により ファイル転送処理の負荷分散 と書き込み遅延の解消を同時に実現できる 本手法を非同期コピーに適用することで ノード数に応 じてファイル転送速度が向上することを確認できた A Proposal of Scalable Asynchronous Replication on GPFS Distributed File System Sosuke Matsui, Hiroyuki Miyoshi, Satoshi Takai and Hiroshi Araki It is well known that write performance is not scalable if multiple nodes update the same directory in parallel on distributed file system. This is due to the fact that distributed file system forces exclusive access to the directory in order to maintain consistency. This problem appears prominently in asynchronous replication on scale-out NAS that creates a lot of files in a short period of time. There are some researches that propose scalable metadata operation on distributed file system, but these approaches force to use proposed file systems. In this paper, we propose to distribute large files among nodes based on file size, and assign small files in the same directory to the same node in order to implement scalable asynchronous replication that does not depend on file system. Our method enables workload distribution and resolves delayed write at the same time. By applying our method, we verified that the file transfer rate of asynchronous replication became scalable on our test environment. 1. は じ め に スケールアウト NAS とは複数のノードから構成さ れるクラスタ型のファイルサーバ専用装置である 分 非同期コピーとは 運用中のストレージ 以下 コ 散ファイルシステムを搭載し ノード間で同一ファイ ピー元ストレージ のデータのコピーを ホストから ルシステムを共有する ノード数に応じて I/O 性能 の I/O とは非同期に 遠隔地に設置したストレージ やストレージ容量が向上する という特徴を持つ 非 以下 コピー先ストレージ に定期的に作成する機 同期コピーをはじめとする スケールアウト NAS が 能である 非同期コピーはスケールアウト Network 提供する機能も ノード数に応じて性能が向上するよ Attached Storage (NAS) を含む多くのストレージ製 うに設計される必要がある 品で利用可能である これまで IBM Scale Out Network Attached Stor- age (SONAS)7) EMC Isilon4) Hitachi NAS Plat 日本アイ ビー エム ストレージ システムズ開発 IBM Japan, Storage Systems Development form) などのスケールアウト NAS が発売され いず れも非同期コピーが利用可能となっている スケール 2
2 r による アウト NAS の非同期コピーでは 一般に ファイル ファイル転送 転送プロセスを複数のノードで並列に実行し コピー ノード1 ノード1 ノード2 ノード2 ノードN ノードN コピー元ストレージ コピー先ストレージ 元ストレージのファイルツリーの複製をコピー先スト レージに高速に作成する さらに ノードを追加する ことでファイル転送プロセスの数も増加し ファイル 転送速度が向上する 分散ファイルシステムにおいて複数のノードが同一 ディレクトリを同時に更新すると ファイルシステム の一貫性を保証するための排他制御による書き込み遅 延が発生し 書き込み速度が向上しない という問題 が発生する11),12) この問題は 複数のノードを使っ Fig. 1 図 1 SONAS 非同期コピーの概略図 Overview of SONAS asynchronous replication て短時間に大量のファイルを作成するスケールアウト き込み遅延を算出するモデルを導入し 転送方式を切 NAS の非同期コピーにおいて 特に顕著に見られる り替えるファイルサイズを判定する方法も提案する 分散ファイルシステムに対してディレクトリ更新処 本手法の適用により 同一ディレクトリに集中するサ 理をスケーラブルに行えるように ファイルシステム イズの大きいファイルの転送処理が各ノードに分散さ を設計する方法が考えられてきた1),3),1) 12),1) 17) れると同時に サイズの小さいファイルの転送時の排 一方で General Parallel File System (GPFS) 14) や 他制御を回避できる さらに 本手法は非同期コピー Global File System (GFS)13) などの分散ファイルシ に修正を加えるため 排他制御による書き込み遅延が ステムは これらの手法が提案するように設計されて 発生するどのような分散ファイルシステムに対しても おらず 依然として 複数のノードが同一ディレクト スケーラブルに稼動する非同期コピーを実現すること リを更新すると書き込み遅延が発生する という問題 ができる 分散ファイルシステムに変更を加えず 分 を抱えている11) そこで どのような分散ファイル 散ファイルシステムへの書き方を工夫してスケーラブ システムに対してもスケーラブルに稼動する非同期コ ルな機能を実現している手法は 我々の知る限り存在 ピーを実現するためには ファイルシステムを設計し しない 本稿で提案する手法を SONAS の非同期コ 直すのではなく 非同期コピーに修正を加えるほうが ピーに実装し ノード数に応じて転送速度が向上する 容易である ことを確認した なお 本稿ではコピー元ストレージ SONAS の非同期コピーにおいて 分散ファイルシ ステムの一貫性の保証に起因する書き込み遅延を解消 とコピー先ストレージの間のネットワークに十分な帯 域が確保されている環境を想定している するために 我々は 先行研究でファイルを同一ディ 本稿では スケールアウト NAS の中でも 特に レクトリごとに集め 同一ディレクトリ下のファイル SONAS の非同期コピーをスケーラブルに実現する方 は同一ノードが転送する という手法を提案し 修正 法について説明するが 本手法は SONAS に限らず を加えた18) しかし この手法を適用すると 同一 分散ファイルシステムの排他制御による書き込み遅延 ディレクトリにサイズの大きいファイルが集中する場 が発生するスケールアウト NAS に対して効果がある 合 あるノードに転送処理の負荷が集中し 転送速度 以下 本稿では 2 節で SONAS の非同期コピーの概 が向上しないことが判明した19) 要と課題を説明する 3 節で提案手法 4 節でその評 以上から スケーラブルな非同期コピーを実現する ためには ファイル転送処理の負荷を分散すると同時 に 排他制御による書き込み遅延の解消を実現する必 要がある そこで 我々は 排他制御による書き込み 価結果について述べる 節で関連研究について説明 し 6 節で結論を述べる 2. SONAS の非同期コピーにおける課題 遅延がサイズの小さいファイルを転送する際に顕著に 2.1 SONAS とは なる という点に着目し サイズの大きいファイル群 SONAS とは 分散ファイルシステムに GPFS を はサイズが均等になるようにノード間で転送処理の負 採用したクラスタ型の NAS 製品である 複数のノー 荷を分散し サイズの小さいファイル群は同一ディレ ドで GPFS クラスタを 1 つ構成し 各ノードが同一 クトリごとに集め 同一ディレクトリ下のファイルを ファイルシステムにアクセスする ノードを追加する 同一ノードから転送する という方法を提案する ま ことで I/O の性能やストレージ容量が向上する と た 転送するファイルのサイズから排他制御による書 いう特徴を持つ 26
3 図 2 SONAS 非同期コピーの流れ Fig. 2 Flow of SONAS asynchronous replication SONAS の非同期コピーは 2 つのストレージ間で 合 まず そのファイルの親ディレクトリを更新する データ転送を行い コピー元ストレージのファイルツ 権利を取得し 次いでそのディレクトリに対する更新 リーの複製を コピー先ストレージにて作成する 非 処理を実行する ディレクトリの更新処理とは 新規 同期コピーはファイル単位で行われ rsync 2) により 作成するファイルを親ディレクトリに追加する処理を コピー元ストレージのファイルがコピー先ストレージ 指す 複数のノードが同一ディレクトリに同時にファ へネットワーク転送される 図 1 のように コピー イル等を新規作成する場合 あるノードがディレクト 元ストレージとコピー先ストレージのノードは 1 対 1 リを更新した後 別のノードに更新権が渡る前に 更 の関係になっており 各ノードで複数の rsync プロセ 新の内容が必ずディスクに書き込まれる14) このディ スが並列に実行される 非同期コピーに使用するノー スクへの書き込み処理により遅延が発生し 複数の ドの数 最小 1 台 最大 3 台 と 各ノードで実行 ノードが同一ディレクトリを更新すると 書き込み速 する rsync プロセスの数 最小 1 プロセス 最大 1 度が劣化し ノード数に応じて書き込み速度が向上し プロセス は管理者が自由に設定できる ない という問題 以降 ディレクトリ競合と呼ぶ SONAS 非同期コピーの流れは以下の通りであり これを模式化したものを図 2 に示す るため 異なるノードで実行される rsync プロセスが ピーの実行時から現在までに更新があったファ コピー先ストレージの同一ディレクトリ下にファイル イルのリストを GPFS のスキャン機能を用い を転送する場合 ディレクトリ競合が発生する の絶対パスが記載される 数のノードが並列に rsync を用いてファイル転送をす コピー元ストレージにおいて 前回の非同期コ て作成する ファイル リストには ファイル が発生してしまう11) SONAS の非同期コピーでは複 ディレクトリ競合により非同期コピーの性能が向上 しないことを確認するために テスト環境で検証を ファイル リストを 非同期コピーに使用する 行った 検証のために Linux の Kernel-based Vir- ノードの数 図 2 では 3 つ で分割し 各ノー tual Machine KVM を用いて作成した 8 台の仮 ドに分配する 各分割ファイル リストに記載 想マシンに GPFS をインストールし これら全ての されるファイルの数は均等にする 仮想マシンを用いて GPFS クラスタを 1 つ構成した 各ノードで複数の rsync プロセスを実行する場 8 台のノードは SONAS の基本ラックに構成可能な 合は 分割ファイル リストをさらに rsync プ 最大のノード数となっている8) 次いで 仮想マシン ロセスの数で分割し 各 rsync プロセスが分割 間で共有するファイルシステムを作成した さらに ファイル リスト上のファイルを コピー先ス 実環境を模倣するために 仮想マシンとホスト OS と トレージに並列に転送する の間の仮想ネットワークに 1ms の遅延を設定した 2.2 同一ディレクトリ更新による排他制御の影響 この GPFS クラスタの共有ファイルシステムに対し あるノードが GPFS にファイル等を新規作成する場 て rsync を用いてホスト OS からファイルをコピー 27
4 ノード数の増加に伴い転送速度が向上することも確認 9 Directory collision File transfer rate [MB/sec] 8 No directory collision できた したがって 複数のノードで並列にファイル 7 転送を行う場合 転送速度を向上させるためにはディ 6 レクトリ競合を回避する必要がある 上記の検証を含め 以下 本稿では仮想マシン上 4 で測定を行う 複数の仮想マシンを同一サーバ上で稼 3 動させることにより ハードウェア資源の競合が発生 2 し6) 測定結果へ影響を与えることになる ただし 1 上記の検証において ディレクトリ競合が発生する場 合と発生しない場合とではファイル転送方式のみが異 図 3 ディレクトリ競合による排他制御の影響 Fig. 3 Effect of exclusive control due to directory collision なり 複数の仮想マシンによるハードウェア資源の競 合は どちらの転送方式にも同等の影響を与える と 考えられる したがって 我々は 仮想マシン上での 検証でも 転送方式の違いによる転送速度の傾向の差 し 転送に要する時間を測定した 検証の手順は以下 の通りである ホスト OS にディレクトリを N 個作成する 各ディレクトリに 1kB のファイルを 124 個 (4) を観測することができると考える 2.3 ファイルサイズを考慮しない同一ノードによ る同一ディレクトリの更新 我々の先行研究では ディレクトリ競合に対応する 作成する ために ファイルを同一ディレクトリごとに集め 同 ホスト OS で N 個の rsync プロセスを並列に 一ディレクトリ下のファイルは同一ノードが転送する 実行させ 2 で作成したファイルを仮想マシ という修正を SONAS の非同期コピーに加えた18) 具 ンが共有するファイルシステムに転送する 各 体的には 図 2 のファイル リストを分割する前に プロセスは N 個の異なる仮想マシンに対して ファイルパスでソートしてから分割することで 同一 ファイル転送を行う 分割ファイル リストに同一ディレクトリ下のファイ ファイルの転送速度を測定する ルが現れやすくなるようにした これにより ディレ 上記の手順で N = 2, 4, 8 の 3 通りについて 以 クトリ競合による影響を削減することに成功したが 下の 2 つの転送方法による転送速度の比較を行った サイズの大きい仮想マシンのイメージファイルやデー ディレクトリ競合が発生するように ファイル転 タベースファイルなどが同じディレクトリに集中する 送を行う 具体的には 各ディレクトリのファイ 場合 新たな問題が顕在化した 文献 18) で提案した ルを 数が均等になるように N 個のグループに 方法は ファイルの数が均等になるようにファイル 分割する 各 rsync プロセスは 同時に同一ディ リストを分割するため サイズの大きいファイルがあ レクトリ内の異なるグループのファイルを転送す るディレクトリに集中すると ある分割ファイル リ る 転送先のファイルシステムには異なるノード ストに記載されるファイルサイズの合計値が他の分割 が同時に同一ディレクトリを更新することになる ファイル リストと比較して 突出して大きくなるこ ディレクトリ競合が発生しないように ファイル とがあった このため ファイルツリーの構成によっ 転送を行う 具体的には 各ディレクトリのファ て 非同期コピーを実行するとサイズの大きいファイ イルは それぞれ異なる rsync プロセスが転送す ルの転送処理が特定のノードに集中し 転送速度が向 る 転送先のファイルシステムには異なるノード 上しない という問題が発生した が異なるディレクトリを更新することになる さらに N = 1 に設定し 全ファイルを 1 つのノー ドに転送させた場合の転送速度も測定した この場合 この問題を調査するために 2.2 節の実験と同じ環 境を用い 以下の手順で問題を再現した も ディレクトリ競合は発生しない 測定結果を図 3 に示す この結果から ディレクトリ競合が発生する ホスト OS のあるディレクトリに 1GB のファ イルを 1 個作成する ホスト OS の別のディレクトリ下に各サブディ 場合は ノード数に応じて転送速度が向上せず 複数 レクトリにファイルが 6 個 ディレクトリが のノードを使用すると転送速度が劣化することが確認 個存在する深さが 4 のファイルツリーを作成す できた 一方 ディレクトリ競合が発生しない場合は る 各ファイルのサイズは 1MB とする 28
5 ディレクトリの更新処理は 追加するファイルのサイ 6 Node 1 Execution time [sec] 4 Node 2 ズに依存しない という点に着目した 比較的サイズ Node 3 の大きいファイルを転送した場合 コピー先ストレー Node 4 ジではディレクトリの更新処理に対してファイルデー Node 3 2 Node 6 タの書き込み処理が多く発生することが予想される Node 7 すなわち 複数のノードがサイズの大きなファイルを Node 8 コピー先ストレージの同一ディレクトリ下に転送した 場合 ディレクトリ競合による書き込み遅延に対して 1 ファイルデータの書き込み処理に要する時間が十分に 図 4 各ノードの rsync の実行時間 Fig. 4 rsync execution time on each node 大きく 書き込み遅延は無視できると考えられる 3.1 排他制御による書き込み遅延のモデル化 ディレクトリ競合による書き込み遅延を無視できる ファイルサイズを算出するために ファイルサイズか ら書き込み遅延を計算するモデルを導出した (4) () 全ファイルのリストを作成し ファイルパスで 1 つ作成するのに要する時間 以下 競合あり時間 ソートされたファイル リストを N 個に分割 を tc ディレクトリ競合の発生していない環境でファ する イルを 1 つ作成するのに要する時間 以下 競合なし ホスト OS から N 個の異なる仮想マシンに対 時間 を tn とする また 競合あり時間に占める書 して N 個の rsync プロセスにより並列にファ き込み遅延の割合 Pd を イルをコピーする 各 rsync プロセスは 4 で作成した分割ファイル リスト上のファイル を転送する (6) ディレクトリ競合が発生している環境でファイルを ソートする 全てのファイル転送プロセスの実行時間を計測 する Pd = tc tn tc と定義する 次に 競合あり時間と競合なし時間を導出する 2.2 節で説明したように ディレクトリ競合は ディレク 図 4 に ファイル転送に使用するノードの数 N を トリに対する更新権を保持していないノードが その とした場合の 各ノードの rsync プロセス ディレクトリにファイルを追加する際に発生する あ の実行時間を示す あるディレクトリにサイズの大き るディレクトリに対する更新権を保持するノードはク いファイルが集中する場合は 特定の rsync プロセス ラスタ内にただ一つ存在するため あるノードがディ にファイル転送処理の負荷が集中することが確認でき レクトリにファイルを新規作成する場合 ディレクト た また このときに ノードの数を増やしてもファ リ競合が発生する確率は イルの転送速度が向上しないことも確認できた この ドの数を N とした さらに ディレクトリ競合が発生 ような環境でファイル転送速度を向上させるためには すると あるノードによるディレクトリの更新がディ 各 rsync プロセスが転送するファイルサイズを均等に スクに書き込まれることになる 以上から ディレク する必要がある トリの更新をディスクへ書き込むのに要する時間を 3. 提 案 手 法 以上から スケーラブルな非同期コピーを実装する ために 我々は以下の二つの問題を同時に解決する必 要があった 複数のノードがコピー先ストレージの同一ディレ N 1 N とおける ただし ノー tdir ファイルを 1 つ新規に作成する時間を tcr とす ると 競合あり時間と競合なし時間はそれぞれ N 1 tdir + tcr N tn = tcr tc = 占める書き込み遅延の割合は レクトリ競合 tdir tdir + NN 1 tcr と表すことができる 群の転送処理が集中する問題 上記の 2 つの問題を同時に解決するために 我々は とおける 式 より 競合あり時間に クトリ下にファイルを追加する際に発生する ディ 特定の rsync プロセスにサイズの大きなファイル Pd = (4) GPFS ではディスクへの最小の書き込みの単位をブ 29
6 ロックと呼び ディレクトリを更新するとブロックサ 1, measured value.9 よって ブロックサイズを Sb ディレクトリの更新.8, measured value によるディスクへの書き込み速度を Wd ファイルサ.7, estimated value.6, estimated value イズを Sf ファイルの書き込み速度を Wf とすると tdir = Sb /Wd tcr = Sf /Wf となる これらを式 4 に代入すると 書き込み遅延の割合は 1 Pd = Wd Sf 1 + NN 1 W S f Delayed write ratio イズと等しい量のデータがディスクへ書き込まれる (), measured value, estimated value b.1 とおくことができる ブロックサイズ Sb はファイルシ ステム作成時に決まる定数であり ディレクトリの更 新によるディスクへの書き込み速度 Wd はシステムの 構成ごとにほぼ一定の値となる また コピー先スト レージの各ノードには十分な大きさのページキャッシュ 領域が用意されており ディレクトリ競合が発生しな File size[kb] 図 ファイルサイズに対する書き込み遅延の割合の 実測値とモ デル値の比較 Fig. Comparison between actual measured value and estimated value of overhead with respect to file size い場合 GPFS にファイルを新規作成してもディスク アクセスが発生しないと仮定する 例えば SONAS 測定した まず GPFS のあるディレクトリに空の の場合 各ノードに最大 144GB のメモリを搭載可能 ファイルを作り 更新内容をディスクへ書き込むプロ であり9) そのうち 3 分の 1 が GPFS のページキャッ グラムを作成し 実行時間を測定した ブロックサ シュ領域に割り当てられる このように仮定すると イズ Sb = 26kB をプログラムの実行時間で割り ファイルの書き込み速度 Wf はページキャッシュへの Wd = 86.74MB/s を得た 次いで Linux の dd コマ 書き込み速度となり この値もシステムの構成ごとに ンドを用いて ファイルの書き込み速度を測定したと ほぼ一定の値となる すなわち ノード数 N を固定 ころ Wf = 83.4MB/s であった すると ファイルサイズ Sf の増加に伴い 書き込み 遅延の割合 Pd は単調に減少する このようにモデル化した書き込み遅延の割合 Pd の 図 に 式 から算出した予測値 Pd と 実測 値から求めた Pd を示す 実測値はモデルによる予測 値と同様にファイルサイズ Sf の増加に伴い単調に減 正しさを 実測値と比較することによって確かめた 少し 予測値から大きく外れてしまうことがない と まず 2.2 節と 2.3 節で用いた環境で 実際にディ いうことを確認できた また 一定以上のファイルサ レクトリ競合による書き込み遅延の割合 Pd を測定し イズでは Pd の値 すなわち転送速度に占める書き込 た 測定方法は以下の通りである み遅延の割合の変化は小さく ほぼ一定となることも GPFS にディレクトリを N 個用意する 確認できた そこで 仮に書き込み遅延の割合が % N 個のノードが それぞれ異なるディレクトリ 以下の場合に遅延が無視できるとすると この実験 にファイルを 1 つ作成するのに要する時間を測 環境では ノード数 N の場合に Pd =. となる 定する この値が 競合なし時間 tn となる ファイルサイズ STN は 式 から ST2 = 16.3MB N 個のノードが 同一ディレクトリにファイル ST4 = 24.MB ST8 = 28.6MB であった を 1 つ作成するのに要する時間を測定する こ の値が 競合あり時間 tc となる 3.2 提案手法の流れ 提案手法による非同期コピーの処理の流れは以下の それぞれのケースで 1 ノードあたり合計 2MB と ようになり これを模式化したものを図 6 に示す 非 なるように複数のファイルを作成し 作成に要した時 同期コピーに使用するノード数 N は 事前に設定さ 間をファイルの数で割ることで ファイル 1 つあたり れているとする の測定時間を求めた N = 2, 4, 8 の場合に 作成する コピー元ストレージにおいて GPFS のスキャ ファイルのサイズを 128kB 26kB 12kB 1MB ン機能を用い ファイル リストを作成する 2MB 4MB 8MB 1MB 2MB と変えて 測定 このとき ファイル リストには ファイルの 絶対パスとファイル サイズが記載される 値から式 1 を用いて書き込み遅延の割合 Pd を算出 した 次いで この実験環境における 式 の定数を 排他制御による書き込み遅延が無視できる 遅 延の割合 Pd の値を事前に設定しておく コピー 3
7 図 6 提案手法の流れ Fig. 6 Flow of our proposed method 先ストレージにおいて ブロックサイズ Sb ファ () ソートされたスモール ファイル リストを 起 (6) 各 rsync プロセスが 分割ラージ ファイル イルの書き込み速度 Wf およびディレクトリ の更新によるディスクへの書き込み速度 Wd を 動する rsync プロセスの数で分割する 測定し ディレクトリ競合による書き込み遅延 を無視できるファイルサイズの閾値 STN を計算 する 作成されたファイル リストを一行ずつ 読み サイズがある閾値 STN 以上のものをラー ジ ファイル リスト 閾値 STN 以下のものを スモール ファイル リストに記載する ク転送する (7) 各 rsync プロセスが 分割スモール ファイル リストに記載されたファイルを順にネットワー ク転送する 3 で分割ラージ ファイル リストのサイズに上 ラージ ファイル リストに記載されたファイル 限を設けることで rsync プロセスの負荷を制限する を上から順に 各 rsync プロセスに配るように ことができる また 分割スモール ファイル リス して分割ラージ ファイル リストに記載する トには 同一ディレクトリ下のファイル群が記載され 分割ラージ ファイル リストに記載されたファ る 以上により サイズの大きいファイルについては イル サイズの合計がある閾値以上になった場 負荷分散が サイズの小さいファイルについてはディ 合 新しい分割ラージ ファイル リストを作 レクトリ競合の解消が実現される 成し そこに記載する 図 6 の場合は 3MB, GB, および 1GB のファイルの転送を異なる rsync プロセスが担当する SONAS の非同期 (4) リストに記載されたファイルを順にネットワー 4. 評 価 4.1 提案手法の効果 コピーはファイル単位であるため ファイルを 提案手法により ファイル転送速度がノード数の増 分割して rsync プロセス間で負荷を分散するこ 加に伴い改善する度合いを測定した まず サイズの とはできない 大きいファイルが同一ディレクトリに集中する という スモール ファイル リストを絶対パスでソー 環境を再現するために GPFS の同一ディレクトリに トする 1GB のファイルを 16 個作成した 次に 同一ディレ 31
8 Previous method Previous method 2 Proposed method File transfer rate [MB/sec] File transfer rate [MB/sec] Proposed method 図 7 P (9,, 3, 2, ) の場合の ファイル転送速度の比較 Fig. 7 Comparison of file transfer throughput for P (9,, 3, 2, ) 図 8 P (7, 1, 1,, ) の場合の ファイル転送速度の比較 Fig. 8 Comparison of file transfer throughput for P (7, 1, 1,, ) 3 Previous method Previous method Proposed method Proposed method 3 Execution time [sec] File transfer rate [MB/sec] 図 9 P (, 2, 1, 1, ) の場合の ファイル転送速度の比較 Fig. 9 Comparison of file transfer throughput for P (, 2, 1, 1, ) 図 Node ID P (7, 1, 1,, ) の場合の 各ノードの rsync 実行時間 Fig. 1 rsync exection time on each node for P (7, 1, 1,, ) クトリに集中しないファイルツリーを生成するために 想ネットワークを経由して 同じ GPFS クラスタの 1kB-1MB のサイズのファイルを A% 1MB-1MB あるファイルシステムから別のファイルシステムに対 のファイルを B% 1MB-1MB のファイルを C% して行った 1MB-1GB のファイルを D% 1GB のファイル 結果を 図 7 図 8 および図 9 に示す いずれの を E% の確率で作成するプログラム P (A, B, C, D, E) ファイルツリー構成でも 従来手法はノードの数を増 を用意した 様々なファイルツリー構成で提案手法を やしても転送速度がまったく向上しないか 向上の変 評価するために このプログラムを用いて A-E の 化が緩やかなのに対し 提案手法は同一ディレクトリ 値を変えて 各サブディレクトリにファイルが 4 つ に保存された 1GB のファイル群の転送処理をノード ディレクトリが 3 つ存在する深さが 4 のファイルツ 間で分散したため ノードの数を増やすことによって リーを作成した ファイルサイズの上限を 1GB とし 転送速度も向上した 特に P (9,, 3, 2, ) のファイ たのは 実験環境の容量の制限のためである 2.2 節 ルツリーを転送した場合 非同期コピーに使用する で用いた実験環境に SONAS の非同期コピープログ ノードの数を 1 つから 8 つに増やすことで 8% の ラムをインストールし ノードの数 N を変えて 本 改善効果を得た 稿の提案手法と従来手法18) のファイル転送速度を比 また 3 つのファイルツリー構成の中で 転送速度 較した 比較対象の従来手法として我々の先行研究を の改善率が平均的であった P (7, 1, 1,, ) の構成 選んだ理由は 他のスケールアウト NAS の非同期コ で ノードを 8 つ使って非同期コピーを実行した場合 ピーのファイル転送方式が明らかとなっていないため の 各ノードの rsync プロセスの実行時間を計測した である ファイル転送は 1ms の遅延を設定した仮 ところ 図 1 のようになった 提案手法を適用する 32
9 2 Previous method File transfer rate [MB/sec] Proposed method 効率化する方法である Carns らは Parallel Virtual File System (PVFS) のメタデータ操作の内部で行わ れる手続きを効率化し サイズの大きいファイルの書 1 き込みや読み込み速度に影響を与えることなく サイ ズの小さなファイルの処理速度の改善に成功した1) 1 二つ目は サイズの小さい複数のファイルをサイズ の大きい一つのファイルに変換して書き込むことで 書き込みバイト数あたりのメタデータ操作の回数を 減らす方法である Dong らは Hadoop Distributed 図 11 サイズの大きいファイルが同一ディレクトリに集中せず か つ P (7, 1, 1,, ) の場合の ファイル転送時間の比較 Fig. 11 Comparison of file transfer throughput for P (7, 1, 1,, ) and when large files do not exist in the same directory File System(HDFS) へ上記の変更を加え サイズの 小さいファイル操作をスケーラブルに行う方法を提案 した3) また この他にも いくつかの同様な手法が 提案されてきた1),17) 三つ目は 書き込み時に分散ファイルシステムの一 貫性を保証せず 読み込み時に保証する方法である Patil らは ディレクトリを複数のブロックに分割し ことで あるノードに集中していた転送処理の負荷が 複数のノードが並列に同一ディレクトリを更新する 分散されたことがわかった 際 各ノードが異なるブロックを独立に更新し ディ 4.2 サイズの大きいファイルが同一ディレクトリ に集中しない場合 レクトリの読み込みの際に整合性を取る手法を提案し た11),12) 提案手法による改善が期待できないケースを明ら 四つ目は 複数のノードで同一オブジェクトに対す かにするために 4.1 節で作成した P (9,, 3, 2, ) の るメタデータ操作を衝突させない方法である Weil ら ファイルツリーから 1GB のファイルを 16 個含んだ は ファイルシステムを複数のサブツリーに分割し ディレクトリを削除し 非同期コピーを実行してファ 同一ノードが同一サブツリーに対するメタデータ操作 イルの転送速度を計測した 結果は図 11 のようになっ を行う方法を提案した1) た サイズの大きいファイルがあるディレクトリに集 これらの手法はいずれも 新たな分散ファイルシス 中しないため 提案手法と従来手法に大きな差が見ら テムの設計方法を提案しているため ファイルシステ れなかった ただし 同じ種類のファイルを同一ディ ムを入れ替えた場合 その都度これらの設計を取り入 レクトに保存するファイルツリー構成は一般的である れる必要がある どのようなファイルシステムに対し ため 仮想マシンのイメージファイルやデータベース てもスケーラブルなファイル操作を行うためには ファ ファイルなど サイズの大きいファイルが同一ディレ イル操作を行う側に修正を加えるほうが容易である クトリに集中する可能性が高く 提案手法による改善 の効果が期待できる. 関 連 研 究 我々の先行研究では GPFS を導入したシステムで スケーラブルに稼動する非同期コピーを実現するため に ファイルを同一ディレクトリごとに集め 同一ディ レクトリ下のファイルは同一ノードから転送する修正 分散ファイルシステムでは ファイルを複数のブロッ を非同期コピーに実装した18) しかし この方法は クに分割し 複数のノードに分散させて並列に読み書 サイズの大きいファイルが同一ディレクトリに集中す きを行うため サイズの大きなファイルの操作がスケー る場合 ノードの数を増やしても転送速度が向上しな ラブルに行える という特徴を持つ これに対し サ いという問題があった 別の先行研究19) では 本稿 イズの小さいファイルの読み書きやディレクトリ更新 と同様にファイルサイズの大小で非同期コピーのファ などのメタデータ操作は分散の効果が現れず スケー イル転送方式を切り替える方法を提案したが ファイ ラブルに行えない という課題がある これまでも ルサイズの閾値を経験的に決めており ノードの数な 分散ファイルシステムに対するメタデータ操作方法な どの構成が異なる環境には適用できない可能性があっ どの設計を見直し サイズに依存せずスケーラブルに た また 非同期コピーのファイル転送速度の改善に ファイル操作を行う方法が提案されてきた 注力しており ノード数に応じて転送速度が向上する 一つ目は 分散ファイルシステムのメタデータ処理を か検証は行われていなかった 33
10 我々は 分散ファイルシステムへのファイルの書き 方を工夫することによって どのような分散ファイル システムに対しても スケーラブルに稼動する非同期 コピーを実現できた また 我々の先行研究19) と異 なり ファイル転送速度に占める書き込み遅延の割合 をモデル化し 転送方式を切り替えるファイルサイズ を算出する方法を提案した さらに ノード数に応じ てファイル転送速度が向上することも検証した これ まで 分散ファイルシステムの設計方法の改善により スケーラブルなメタデータ操作を実現する方法は数多 く提案されているが 分散ファイルシステムへの書き 方を工夫したスケーラブルな機能を提案している事例 は 我々の知る限り存在しない 6. 結 論 本稿では スケーラブルに稼動する非同期コピーを 実現するために サイズの大きいファイル群とサイズ の小さいファイル群の転送方式を切り替える方法を提 案した 8 台の仮想マシンから構成した GPFS クラ スタによる実験から 提案手法は従来手法と比較し て ノードを追加することにより転送速度が改善する ことを確認できた あるファイルツリー構成では提案 手法による改善の効果は見られなかったが 同じ種類 のファイルを同一ディレクトリに保存するファイルツ リー構成は一般的であるため 仮想マシンのイメージ ファイルやデータベースファイルなどのサイズの大き いファイルがあるディレクトリに集中する可能性が高 く 提案手法による改善の効果が期待できる また 本手法は GPFS に限らず ディレクトリ競合による 書き込み遅延が発生する分散ファイルシステム対して 効果がある 本稿では ファイルの転送速度に占める書き込み遅 延の割合が % 以下の場合 書き込み遅延の影響が無 視できる と仮定してファイルサイズの閾値を算出し 検証を行った 今後は 非同期コピーの全処理を効率 化するために ファイル転送処理 およびその前処理 を合わせて最適化するファイルサイズの閾値を算出す る方法について検討予定である 参 考 文 献 1) Carns, P., Lang, S., Ross, R., Vilayannur, M., Kunkel, J. and Ludwig, T.: Small-File Access in Parallel File Systems, Proceedings of the 23rd International Symposium on Parallel&Distributed Processing, IEEE Computer Society, pp (29). 2) Davidson, W.: rsync. org/. 3) Dong, B., Qiu, J., Zheng, Q., Zhong, X., Li, J. and Li, Y.: A Novel Approach to Improving the Efficiency of Storing and Accessing Small Files on Hadoop: a Case Study by PowerPoint Files, Proceedings of the 7th International Conference on Services Computing, IEEE Computer Society, pp (21). 4) EMC: Isilon Scale-out Network Attached Storage (NAS) for Big Data. com/domains/isilon/index.htm. ) Hitachi: HDS: Hitachi Network Attached Storage (HNAS) Platform NAS System Solutions. file-and-content/network-attached-storage/. 6) Hwang, J., Zeng, S., Wu, F. and Wood, T.: A Component-Based Performance Comparison of Four Hypervisors, Proceedings of the IFIP/IEEE International Symposium on Integrated Network Management, IEEE Computer Society, pp (213). 7) IBM: SONAS Concepts, Architecture, and Planning Guide (212). ibm.com/redbooks/pdfs/sg pdf. 8) IBM: SONAS Information Center (213). sonas1ic/topic/com.ibm.sonas.doc/pln_f2c_ featurecode_racks_rxa.html. 9) IBM: SONAS Information Center (213). sonas1ic/topic/com.ibm.sonas.doc/pln_f2c_ featurecode_nodes_si2.html. 1) Liu, X., Han, J., Zhong, Y., Han, C. and He, X.: Implementing WebGIS on Hadoop: A Case Study of Improving Small File I/O Performance on HDFS, Proceedings of the International Conference on Cluster Computing and Workshops, IEEE Computer Society, pp. 1 8 (29). 11) Patil, S. and Gibson, G.: GIGA+ : Scalable Directories for Shared File System, Technical report, Parallel Data Laboratory, Carnegie Mellon University (28). 12) Patil, S. and Gibson, G.: Scale and Concurrency of GIGA+: File System Directories with Millions of Files, Proceedings of the 9th USENIX Conference on File and Storage Technologies, USENIX Association, pp (211). 13) RedHat: Red Hat Global File System. http: // INS32US.pdf. 14) Schmuck, F. and Haskin, R.: GPFS: A SharedDisk File System for Large Computing Clus- 34
11 ters, Proceedings of the 1st USENIX Conference on File and Storage Technologies, USENIX Association (22). 1) Weil, S. A., Brandt, S. A., Miller, E. L., Long, D. D. E. and Maltzahn, C.: Ceph: A Scalable, High-Performance Distributed File System, Proceedings of the 7th Symposium on Operating Systems Design and Implementation, USENIX Association, pp (26). 16) Xing, J., Xiong, J., Sun, N. and Ma, J.: Adaptive and Scalable Metadata Management to Support a Trillion Files, Proceedings of the Conference on High Performance Computing Networking, Storage and Analysis, ACM Press (29). 17) Zhang, Y. and Liu, D.: Improving the Efficiency of Storing for Small Files in HDFS, Proceedings of the International Conference on Computer Science and Service System, IEEE Computer Society, pp (212). 18) 三好浩之, 萩原克彦, 松井壮介, 岩崎礼江: SONAS 非同期コピーのパフォーマンス改善, PROVISION, No. 7, pp (211). 19) 松井壮介, 三好浩之, 高井聡, 荒木博志: rsync プ ロセスの負荷分散による SONAS 非同期コピーの パフォーマンス改善, PROVISION, No. 77, pp (213). 3
Microsoft Word - nvsi_050110jp_netvault_vtl_on_dothill_sannetII.doc
Article ID: NVSI-050110JP Created: 2005/10/19 Revised: - NetVault 仮想テープ ライブラリのパフォーマンス検証 : dothill SANnetⅡSATA 編 1. 検証の目的 ドットヒルシステムズ株式会社の SANnetll SATA は 安価な SATA ドライブを使用した大容量ストレージで ディスクへのバックアップを行う際の対象デバイスとして最適と言えます
i Ceph
23 Ceph I/O 20 20115107 i 1 1 2 2 2.1.............................. 2 2.1.1..................... 2 2.1.2.................. 3 2.1.3....................... 3 2.2 Ceph........................ 4 2.2.1.................................
ERDAS IMAGINE における処理速度の向上 株式会社ベストシステムズ PASCO CORPORATION 2015
ERDAS IMAGINE における処理速度の向上 株式会社ベストシステムズ 本セッションの目的 本セッションでは ERDAS IMAGINEにおける処理速度向上を目的として機器 (SSD 等 ) 及び並列処理の比較 検討を行った 1.SSD 及び RAMDISK を利用した処理速度の検証 2.Condorによる複数 PCを用いた並列処理 2.1 分散並列処理による高速化試験 (ERDAS IMAGINEのCondorを使用した試験
Windows Server 2016 Hyper-V ストレージQoS機能の強化
Windows Server 2016 Hyper-V ストレージ QoS 機能の強化 1. はじめに Windows Server 2012 R2 の Hyper-V ストレージ QoS(Quality of Service) 機能は 仮想ディスクに対する I/O 帯域制御において Hyper-V ホスト上の仮想マシン ( 以下 VM と略 ) に対してのみ管理が可能でした このため Hyper-V
第62巻 第1号 平成24年4月/石こうを用いた木材ペレット
Bulletin of Japan Association for Fire Science and Engineering Vol. 62. No. 1 (2012) Development of Two-Dimensional Simple Simulation Model and Evaluation of Discharge Ability for Water Discharge of Firefighting
& Vol.2 No (Mar. 2012) 1,a) , Bluetooth A Health Management Service by Cell Phones and Its Us
1,a) 1 1 1 1 2 2 2011 8 10, 2011 12 2 1 Bluetooth 36 2 3 10 70 34 A Health Management Service by Cell Phones and Its Usability Evaluation Naofumi Yoshida 1,a) Daigo Matsubara 1 Naoki Ishibashi 1 Nobuo
23 Fig. 2: hwmodulev2 3. Reconfigurable HPC 3.1 hw/sw hw/sw hw/sw FPGA PC FPGA PC FPGA HPC FPGA FPGA hw/sw hw/sw hw- Module FPGA hwmodule hw/sw FPGA h
23 FPGA CUDA Performance Comparison of FPGA Array with CUDA on Poisson Equation ([email protected]), ([email protected]), ([email protected]), ([email protected]),
スライド 1
Zabbix のデータベース ベンチマークレポート PostgreSQL vs MySQL Yoshiharu Mori SRA OSS Inc. Japan Agenda はじめに Simple test 大量のアイテムを設定 Partitioning test パーティションイングを利用して計測 Copyright 2013 SRA OSS, Inc. Japan All rights reserved.
<95DB8C9288E397C389C88A E696E6462>
2011 Vol.60 No.2 p.138 147 Performance of the Japanese long-term care benefit: An International comparison based on OECD health data Mie MORIKAWA[1] Takako TSUTSUI[2] [1]National Institute of Public Health,
IPSJ SIG Technical Report Vol.2014-IOT-27 No.14 Vol.2014-SPT-11 No /10/10 1,a) 2 zabbix Consideration of a system to support understanding of f
1,a) 2 zabbix Consideration of a system to support understanding of fault occurrences based on the similarity of the time series Miyaza Nao 1,a) Masuda Hideo 2 Abstract: With the development of network
DPA,, ShareLog 3) 4) 2.2 Strino Strino STRain-based user Interface with tacticle of elastic Natural ObjectsStrino 1 Strino ) PC Log-Log (2007 6)
1 2 1 3 Experimental Evaluation of Convenient Strain Measurement Using a Magnet for Digital Public Art Junghyun Kim, 1 Makoto Iida, 2 Takeshi Naemura 1 and Hiroyuki Ota 3 We present a basic technology
Vol.55 No (Jan. 2014) saccess 6 saccess 7 saccess 2. [3] p.33 * B (A) (B) (C) (D) (E) (F) *1 [3], [4] Web PDF a m
Vol.55 No.1 2 15 (Jan. 2014) 1,a) 2,3,b) 4,3,c) 3,d) 2013 3 18, 2013 10 9 saccess 1 1 saccess saccess Design and Implementation of an Online Tool for Database Education Hiroyuki Nagataki 1,a) Yoshiaki
VDM-SL ISO.VDM++ VDM-SL VDM- RT VDM++ VDM,.VDM, [5]. VDM VDM++.,,, [7]., VDM++.,., [7] VDM++.,,,,,,,.,,, VDM VDMTools OvertureTo
KAOS 1 1 1 1 1,.,. ( ). KAOS VDM++.,.,,, 1. 1.1,, [1].,,, [2].,, [3]. 1.2 ( ),, [3] KAOS, VDM++, KAOS VDM++ 1 Kyushu University, KAOS,, KAOS, KAOS, VDM++., 1.3 2,., 3, KAOS VDM++. 4, 3,. 5 2. 2.1,,,,,
Microsoft Word - nvsi_050090jp_oracle10g_vlm.doc
Article ID: NVSI-050090JP Created: 2005/04/20 Revised: Oracle Database10g VLM 環境での NetVault 動作検証 1. 検証目的 Linux 上で稼動する Oracle Database10g を大容量メモリ搭載環境で動作させる場合 VLM に対応したシステム設定を行います その環境において NetVault を使用し
Microsoft Word - nvsi_100222jp_oracle_exadata.doc
Article ID: NVSI-100222JP Created: 2010/10/22 Revised: -- Oracle Exadata v2 バックアップ動作検証 1. 検証目的 Oracle Exadata Version 2 上で稼動する Oracle Database11g R2 Real Application Clusters( 以下 Oracle11g R2 RAC) 環境において
MAC root Linux 1 OS Linux 2.6 Linux Security Modules LSM [1] Security-Enhanced Linux SELinux [2] AppArmor[3] OS OS OS LSM LSM Performance Monitor LSMP
LSM OS 700-8530 3 1 1 [email protected] [email protected] 242-8502 1623 14 [email protected] OS Linux 2.6 Linux Security Modules LSM LSM Linux 4 OS OS LSM An Evaluation of Performance
Arcserve Replication/High Availability 製品の仕組み
目次 1. Arcserve Replication/High Availability 共通の仕組み 1-1: 同期とレプリケーションについて 1-2: 同期の仕組み ファイルレベル同期 ブロックレベル同期 オフライン同期 1-3: レプリケーションの仕組み 2. Arcserve High Availability スイッチオーバーの仕組み 2-1: IP 移動 2-2: コンピュータ名の切り替え
情報処理学会研究報告 IPSJ SIG Technical Report Vol.2013-HPC-139 No /5/29 Gfarm/Pwrake NICT NICT 10TB 100TB CPU I/O HPC I/O NICT Gf
Gfarm/Pwrake NICT 1 1 1 1 2 2 3 4 5 5 5 6 NICT 10TB 100TB CPU I/O HPC I/O NICT Gfarm Gfarm Pwrake A Parallel Processing Technique on the NICT Science Cloud via Gfarm/Pwrake KEN T. MURATA 1 HIDENOBU WATANABE
Microsoft Word - nvsi_080177jp_trendmicro_bakbone.doc
Article ID: NVSI-080177JP Created: 2008/06/10 Revised: - 1. 検証目的 トレンドマイクロウイルス対策ソフト ServerProtect for Linux 3.0 とウイルスバスターコーポレートエディション 8.0 を組み合わせた NetVault Backup バックアップ動作検証 各クライアントが様々なファイルを書き込む中で ファイル サーバ自身とそのバックアップ
PowerPoint プレゼンテーション
vsmp Foundation スケーラブル SMP システム スケーラブル SMP システム 製品コンセプト 2U サイズの 8 ソケット SMP サーバ コンパクトな筐体に多くのコアとメモリを実装し SMP システムとして利用可能 スイッチなし構成でのシステム構築によりラックスペースを無駄にしない構成 将来的な拡張性を保証 8 ソケット以上への拡張も可能 2 システム構成例 ベースシステム 2U
A Feasibility Study of Direct-Mapping-Type Parallel Processing Method to Solve Linear Equations in Load Flow Calculations Hiroaki Inayoshi, Non-member
A Feasibility Study of Direct-Mapping-Type Parallel Processing Method to Solve Linear Equations in Load Flow Calculations Hiroaki Inayoshi, Non-member (University of Tsukuba), Yasuharu Ohsawa, Member (Kobe
Windows7 OS Focus Follows Click, FFC FFC focus follows mouse, FFM Windows Macintosh FFC n n n n ms n n 4.2 2
1 1, 2 A Mouse Cursor Operation for Overlapped Windowing 1 Shota Yamanaka 1 and Homei Miyashita 1, 2 In this paper we propose an operation method for overlapped windowing; a method that the user slides
1 Web [2] Web [3] [4] [5], [6] [7] [8] S.W. [9] 3. MeetingShelf Web MeetingShelf MeetingShelf (1) (2) (3) (4) (5) Web MeetingShelf
1,a) 2,b) 4,c) 3,d) 4,e) Web A Review Supporting System for Whiteboard Logging Movies Based on Notes Timeline Taniguchi Yoshihide 1,a) Horiguchi Satoshi 2,b) Inoue Akifumi 4,c) Igaki Hiroshi 3,d) Hoshi
IPSJ SIG Technical Report Vol.2010-GN-74 No /1/ , 3 Disaster Training Supporting System Based on Electronic Triage HIROAKI KOJIMA, 1 KU
1 2 2 1, 3 Disaster Training Supporting System Based on Electronic Triage HIROAKI KOJIMA, 1 KUNIAKI SUSEKI, 2 KENTARO NAGAHASHI 2 and KEN-ICHI OKADA 1, 3 When there are a lot of injured people at a large-scale
BOK body of knowledge, BOK BOK BOK 1 CC2001 computing curricula 2001 [1] BOK IT BOK 2008 ITBOK [2] social infomatics SI BOK BOK BOK WikiBOK BO
DEIM Forum 2012 C8-5 WikiBOK 252 5258 5 10 1 E-mail: [email protected], {kaz,masunaga}@si.aoyama.ac.jp, {yabuki,sakuta}@it.aoyama.ac.jp Body Of Knowledge, BOK BOK BOK BOK BOK, BOK Abstract Extention
GPGPU
GPGPU 2013 1008 2015 1 23 Abstract In recent years, with the advance of microscope technology, the alive cells have been able to observe. On the other hand, from the standpoint of image processing, the
DEIM Forum 2012 C2-6 Hadoop Web Hadoop Distributed File System Hadoop I/O I/O Hadoo
DEIM Forum 12 C2-6 Hadoop 112-86 2-1-1 E-mail: [email protected], [email protected] Web Hadoop Distributed File System Hadoop I/O I/O Hadoop A Study about the Remote Data Access Control for Hadoop
2). 3) 4) 1.2 NICTNICT DCRA Dihedral Corner Reflector micro-arraysdcra DCRA DCRA DCRA 3D DCRA PC USB PC PC ON / OFF Velleman K8055 K8055 K8055
1 1 1 2 DCRA 1. 1.1 1) 1 Tactile Interface with Air Jets for Floating Images Aya Higuchi, 1 Nomin, 1 Sandor Markon 1 and Satoshi Maekawa 2 The new optical device DCRA can display floating images in free
& Vol.5 No (Oct. 2015) TV 1,2,a) , Augmented TV TV AR Augmented Reality 3DCG TV Estimation of TV Screen Position and Ro
TV 1,2,a) 1 2 2015 1 26, 2015 5 21 Augmented TV TV AR Augmented Reality 3DCG TV Estimation of TV Screen Position and Rotation Using Mobile Device Hiroyuki Kawakita 1,2,a) Toshio Nakagawa 1 Makoto Sato
6 2. AUTOSAR 2.1 AUTOSAR AUTOSAR ECU OSEK/VDX 3) OSEK/VDX OS AUTOSAR AUTOSAR ECU AUTOSAR 1 AUTOSAR BSW (Basic Software) (Runtime Environment) Applicat
AUTOSAR 1 1, 2 2 2 AUTOSAR AUTOSAR 3 2 2 41% 29% An Extension of AUTOSAR Communication Layers for Multicore Systems Toshiyuki Ichiba, 1 Hiroaki Takada, 1, 2 Shinya Honda 2 and Ryo Kurachi 2 AUTOSAR, a
2. CABAC CABAC CABAC 1 1 CABAC Figure 1 Overview of CABAC 2 DCT 2 0/ /1 CABAC [3] 3. 2 値化部 コンテキスト計算部 2 値算術符号化部 CABAC CABAC
H.264 CABAC 1 1 1 1 1 2, CABAC(Context-based Adaptive Binary Arithmetic Coding) H.264, CABAC, A Parallelization Technology of H.264 CABAC For Real Time Encoder of Moving Picture YUSUKE YATABE 1 HIRONORI
B HNS 7)8) HNS ( ( ) 7)8) (SOA) HNS HNS 4) HNS ( ) ( ) 1 TV power, channel, volume power true( ON) false( OFF) boolean channel volume int
SOA 1 1 1 1 (HNS) HNS SOA SOA 3 3 A Service-Oriented Platform for Feature Interaction Detection and Resolution in Home Network System Yuhei Yoshimura, 1 Takuya Inada Hiroshi Igaki 1, 1 and Masahide Nakamura
IPSJ SIG Technical Report Vol.2011-EC-19 No /3/ ,.,., Peg-Scope Viewer,,.,,,,. Utilization of Watching Logs for Support of Multi-
1 3 5 4 1 2 1,.,., Peg-Scope Viewer,,.,,,,. Utilization of Watching Logs for Support of Multi-View Video Contents Kosuke Niwa, 1 Shogo Tokai, 3 Tetsuya Kawamoto, 5 Toshiaki Fujii, 4 Marutani Takafumi,
[4] ACP (Advanced Communication Primitives) [1] ACP ACP [2] ACP Tofu UDP [3] HPC InfiniBand InfiniBand ACP 2 ACP, 3 InfiniBand ACP 4 5 ACP 2. ACP ACP
InfiniBand ACP 1,5,a) 1,5,b) 2,5 1,5 4,5 3,5 2,5 ACE (Advanced Communication for Exa) ACP (Advanced Communication Primitives) HPC InfiniBand ACP InfiniBand ACP ACP InfiniBand Open MPI 20% InfiniBand Implementation
Journal of Geography 116 (6) Configuration of Rapid Digital Mapping System Using Tablet PC and its Application to Obtaining Ground Truth
Journal of Geography 116 (6) 749-758 2007 Configuration of Rapid Digital Mapping System Using Tablet PC and its Application to Obtaining Ground Truth Data: A Case Study of a Snow Survey in Chuetsu District,
TFTP serverの実装
TFTP サーバーの実装 デジタルビジョンソリューション 佐藤史明 1 1 プレゼンのテーマ組み込みソフトのファイル転送を容易に 2 3 4 5 基礎知識 TFTP とは 実践 1 実際に作ってみよう 実践 2 組み込みソフトでの実装案 最後におさらい 2 プレゼンのテーマ 組み込みソフトのファイル転送を容易に テーマ選択の理由 現在従事しているプロジェクトで お客様からファームウェアなどのファイル転送を独自方式からTFTPに変更したいと要望があった
28 Docker Design and Implementation of Program Evaluation System Using Docker Virtualized Environment
28 Docker Design and Implementation of Program Evaluation System Using Docker Virtualized Environment 1170288 2017 2 28 Docker,.,,.,,.,,.,. Docker.,..,., Web, Web.,.,.,, CPU,,. i ., OS..,, OS, VirtualBox,.,
1 Fig. 1 Extraction of motion,.,,, 4,,, 3., 1, 2. 2.,. CHLAC,. 2.1,. (256 ).,., CHLAC. CHLAC, HLAC. 2.3 (HLAC ) r,.,. HLAC. N. 2 HLAC Fig. 2
CHLAC 1 2 3 3,. (CHLAC), 1).,.,, CHLAC,.,. Suspicious Behavior Detection based on CHLAC Method Hideaki Imanishi, 1 Toyohiro Hayashi, 2 Shuichi Enokida 3 and Toshiaki Ejima 3 We have proposed a method for
IPSJ SIG Technical Report Vol.2009-DPS-141 No.20 Vol.2009-GN-73 No.20 Vol.2009-EIP-46 No /11/27 1. MIERUKEN 1 2 MIERUKEN MIERUKEN MIERUKEN: Spe
1. MIERUKEN 1 2 MIERUKEN MIERUKEN MIERUKEN: Speech Visualization System Based on Augmented Reality Yuichiro Nagano 1 and Takashi Yoshino 2 As the spread of the Augmented Reality(AR) technology and service,
3_23.dvi
Vol. 52 No. 3 1234 1244 (Mar. 2011) 1 1 mixi 1 Casual Scheduling Management and Shared System Using Avatar Takashi Yoshino 1 and Takayuki Yamano 1 Conventional scheduling management and shared systems
PoINT Storage ManagerのWindows Failover Clusterでの動作設定
PoINT Storage Manager の Windows Failover Cluster での 動 作 設 定 (2016/5/6) 有 限 会 社 オプティカルエキスパート PoINT Storage Manager には Windows Failover Cluster での 稼 動 を 前 提 とした Cluster Option のライセンスがあり ます これは ハードウェアとソフトウェアをクラスター
監査ログ分析機能 ソフトウェア説明書
ソフトウェア説明書 Windows 版 Systemwalker Centric Manager Enterprise Edition Systemwalker Centric Manager Standard Edition 監査ログ分析機能 V13.2.0 本書は 製品の取扱い ご使用に際して特に注意すべき事項 参考となる情報等を記 したものです [ 高度な安全性が要求される用途への使用について
EQUIVALENT TRANSFORMATION TECHNIQUE FOR ISLANDING DETECTION METHODS OF SYNCHRONOUS GENERATOR -REACTIVE POWER PERTURBATION METHODS USING AVR OR SVC- Ju
EQUIVALENT TRANSFORMATION TECHNIQUE FOR ISLANDING DETECTION METHODS OF SYNCHRONOUS GENERATOR -REACTIVE POWER PERTURBATION METHODS USING AVR OR SVC- Jun Motohashi, Member, Takashi Ichinose, Member (Tokyo
149 (Newell [5]) Newell [5], [1], [1], [11] Li,Ryu, and Song [2], [11] Li,Ryu, and Song [2], [1] 1) 2) ( ) ( ) 3) T : 2 a : 3 a 1 :
Transactions of the Operations Research Society of Japan Vol. 58, 215, pp. 148 165 c ( 215 1 2 ; 215 9 3 ) 1) 2) :,,,,, 1. [9] 3 12 Darroch,Newell, and Morris [1] Mcneil [3] Miller [4] Newell [5, 6], [1]
【Cosminexus V9】クラウドサービスプラットフォーム Cosminexus
http://www.hitachi.co.jp/soft/ask/ http://www.hitachi.co.jp/cosminexus/ Printed in Japan(H) 2014.2 CA-884R データ管 タ管理 理 ノンストップデータベース データ管 タ管理 理 インメモリデータグリッド HiRDB Version 9 ucosminexus Elastic Application
Vol. 48 No. 4 Apr LAN TCP/IP LAN TCP/IP 1 PC TCP/IP 1 PC User-mode Linux 12 Development of a System to Visualize Computer Network Behavior for L
Vol. 48 No. 4 Apr. 2007 LAN TCP/IP LAN TCP/IP 1 PC TCP/IP 1 PC User-mode Linux 12 Development of a System to Visualize Computer Network Behavior for Learning to Associate LAN Construction Skills with TCP/IP
IPSJ SIG Technical Report Vol.2012-CG-148 No /8/29 3DCG 1,a) On rigid body animation taking into account the 3D computer graphics came
3DCG 1,a) 2 2 2 2 3 On rigid body animation taking into account the 3D computer graphics camera viewpoint Abstract: In using computer graphics for making games or motion pictures, physics simulation is
2. 2.1 Lytro [11] The Franken Camera [12] 2.2 Creative Coding Community Creative Coding Community [13]-[19] Sketch Fork 2.3 [20]-[23] 3. ourcam 3.1 ou
情 報 処 理 学 会 インタラクション 2013 IPSJ Interaction 2013 2013-Interaction (3EXB-06) 2013/3/2 ourcam: 1 2 ourcam ourcam: On-Site Programming Environment for Digital Photography RYO OSHIMA 1 YASUAKI KAKEHI 2 In these
DataKeeper for Windows リリースノート
DataKeeper for Windows リリースノート Version 7.4.2 (Version 7 Update 4 Maintenance 2) 重要 本製品をインストールまたは使用する前に 必ずこのドキュメントをお読みください! このドキュメントには インストール時とその前後に留意すべき重要な項目に関する情報が記載されています はじめに SteelEye DataKeeper Cluster
( ) [1] [4] ( ) 2. [5] [6] Piano Tutor[7] [1], [2], [8], [9] Radiobaton[10] Two Finger Piano[11] Coloring-in Piano[12] ism[13] MIDI MIDI 1 Fig. 1 Syst
情報処理学会インタラクション 2015 IPSJ Interaction 2015 15INT014 2015/3/7 1,a) 1,b) 1,c) Design and Implementation of a Piano Learning Support System Considering Motivation Fukuya Yuto 1,a) Takegawa Yoshinari 1,b) Yanagi
Microsoft Word - nvsi_060132jp_datadomain_restoreDRAFT4.doc
Article ID: NVSI-060132JP Created: 2006/11/28 Revised: - DataDomain を使用した NetVault Backup VTL レプリケーション環境における複製先からのリストア 1. 概要 NetVault Backup 7.1.2 と DataDomain OS 3.3.2.3-27034 以前の組み合わせで NetVault の仮想テープ
1. HNS [1] HNS HNS HNS [2] HNS [3] [4] [5] HNS 16ch SNR [6] 1 16ch 1 3 SNR [4] [5] 2. 2 HNS API HNS CS27-HNS [1] (SOA) [7] API Web 2
THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS TECHNICAL REPORT OF IEICE. 657 8531 1 1 E-mail: {soda,matsubara}@ws.cs.kobe-u.ac.jp, {masa-n,shinsuke,shin,yosimoto}@cs.kobe-u.ac.jp,
変更履歴 項番版数内容更新日 版新規作成 2013 年 11 月 18 日 1
Windows Server 2012 R2 評価レポート Windows Server 2012 R2 Hyper-V レプリカの改良点 第 1.0 版 2013 年 11 月 18 日 株式会社日立製作所 IT プラットフォーム事業本部 変更履歴 項番版数内容更新日 1 1.0 版新規作成 2013 年 11 月 18 日 1 用語および略号 Windows Server 2012 R2 マイクロソフトが2013
DEIM Forum 2017 H ,
DEIM Forum 217 H5-4 113 8656 7 3 1 153 855 4 6 1 3 2 1 2 E-mail: {satoyuki,haya,kgoda,kitsure}@tkl.iis.u-tokyo.ac.jp,.,,.,,.,, 1.. 1956., IBM IBM RAMAC 35 IBM 35 24 5, 5MB. 1961 IBM 131,,, IBM 35 13.,
Arcserve Backup r16 新機能 テープブロックサイズの拡張 効果実測 Arcserve Japan 1.5 版
Arcserve Backup r16 新機能 テープブロックサイズの拡張 効果実測 Arcserve Japan 1.5 版 新機能 テープブロックサイズの拡張 とその効果実測 1. はじめに 2. バックアップを高速化! テープブロックサイズの拡張 3. 効果測定 4. 測定結果からの考察 補足情報 : A) 検証環境 B) 設定方法 C) 考慮 注意事項 D) 富士通株式会社とArcserve
1 DHT Fig. 1 Example of DHT 2 Successor Fig. 2 Example of Successor 2.1 Distributed Hash Table key key value O(1) DHT DHT 1 DHT 1 ID key ID IP value D
P2P 1,a) 1 1 Peer-to-Peer P2P P2P P2P Chord P2P Chord Consideration for Efficient Construction of Distributed Hash Trees on P2P Systems Taihei Higuchi 1,a) Masakazu Soshi 1 Tomoyuki Asaeda 1 Abstract:
Fig. 3 Flow diagram of image processing. Black rectangle in the photo indicates the processing area (128 x 32 pixels).
Fig. 1 The scheme of glottal area as a function of time Fig. 3 Flow diagram of image processing. Black rectangle in the photo indicates the processing area (128 x 32 pixels). Fig, 4 Parametric representation
1 2 4 5 9 10 12 3 6 11 13 14 0 8 7 15 Iteration 0 Iteration 1 1 Iteration 2 Iteration 3 N N N! N 1 MOPT(Merge Optimization) 3) MOPT 8192 2 16384 5 MOP
10000 SFMOPT / / MOPT(Merge OPTimization) MOPT FMOPT(Fast MOPT) FMOPT SFMOPT(Subgrouping FMOPT) SFMOPT 2 8192 31 The Proposal and Evaluation of SFMOPT, a Task Mapping Method for 10000 Tasks Haruka Asano
出岡雅也 旭健作 鈴木秀和 渡邊晃 名城大学理工学部
( ) Study of Access Control Method in Ad-hoc Networks that Prevents Hidden Terminal Problems using Strong Busy Tone Masaya Izuoka, Kensaku Asahi, Hidekazu Suzuki, Akira Watanabe(Meijo University) 1 2 IEEE802.11
Oracle Database 10g Release 2を使用したデータベース・パフォーマンス
Oracle Database 10g Release 2 2005 9 Oracle Database 10g Release 2... 3... 3... 3 Automatic Workload Repository AWR... 3 Automatic Database Diagnostic Monitor ADDM... 4 Automatic SQL Tuning SQL... 4 SQL
Arcserve Replication High Availability 18.0 ライセンスガイド Rev 1.3
Arcserve Replication High Availability 18.0 ライセンスガイド Rev 1.3 Windows 環境 2 1. 購入するライセンスの数 基本的な考え方 : Arcserve Replication/HA の = マスタとレプリカサーバ ( ノード ) 数の合計 Arcserve Replication/HA ではエンジンをインストールするノード つまり保護対象となるマスタサーバと複製先となるレプリカサーバの合計数だけライセンスが必要です
17 Proposal of an Algorithm of Image Extraction and Research on Improvement of a Man-machine Interface of Food Intake Measuring System
1. (1) ( MMI ) 2. 3. MMI Personal Computer(PC) MMI PC 1 1 2 (%) (%) 100.0 95.2 100.0 80.1 2 % 31.3% 2 PC (3 ) (2) MMI 2 ( ),,,, 49,,p531-532,2005 ( ),,,,,2005,p66-p67,2005 17 Proposal of an Algorithm of
使用する前に
この章では Cisco Secure ACS リリース 5.5 以降から Cisco ISE リリース 2.4 システムへのデー タ移行に使用される Cisco Secure ACS to Cisco ISE Migration Tool について説明します 移行の概要 1 ページ Cisco Secure ACS から データ移行 1 ページ Cisco Secure ACS to Cisco ISE
Oracle Data Pumpのパラレル機能
Oracle Data Pump のパラレル機能 Carol Palmer オラクル社 Principal Product Manager はじめに Oracle Database 10g 上の Oracle Data Pump により 異なるデータベース間のデータとメタデータを高速で移動できます Data Pump の最も便利な機能の 1 つは エクスポート ジョブとインポート ジョブをパラレルに実行しパフォーマンスを高める機能です
パナソニック技報
Panasonic Technical Journal Vol. 64 No. 2 Nov. 2018 Optical Disc Archiving System with 100 Years Lifespan of Digital Data Takuto Yamazaki Yasushi Kobayashi Blu-ray Disc 1 Archival Disc 2 3300 GB 10012
1部2部3. ライセンスの順位 第 3 章ライセンスガイド第CA ARCserve Replication / High Availability のライセンスは 以下のように順位が決められており 上位ライセンスを下位の環境に適用することが可能です Enterprise > Standard > V
2部1. 購入するライセンスの数 基本的な考え方 : CA ARCserve Replication/HA のライセンス数 = マスタとレプリカサーバ ( ノード ) 数の合計 3 ライセンスガイド第1部第 3 章ライセンスガイド CA ARCserve Replication / HA ではエンジンをインストールするノード つまり保護対象となるマスタサーバと複製先となるレプリカサーバの合計数だけライセンスが必要です
P1: P2: P3: P4: P1 P3 API Scallop4SC API [3] P1 P2 Hadoop [4] HBase [5] Scallop4SC HBase HBase Key Value Hadoop Scallop4SC P3 P4 API 2 API API 2. 2. 1
THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS TECHNICAL REPORT OF IEICE. 657 8531 1 1 E-mail: {shintaro,koupe,okushi}@ws.cs.kobe-u.ac.jp, {shinsuke,masa-n}@cs.kobe-u.ac.jp Scallop4SC
Arcserve Unified Data Protection サーバ構成とスペック見積もり方法 2018 年 10 月 Arcserve Japan Ver
Arcserve Unified Data Protection サーバ構成とスペック見積もり方法 2018 年 10 月 Arcserve Japan Ver. 1.2 1 はじめに 本資料ではバックアップ要件に基づき Arcserve Unified Data Protection(UDP) の 管理サーバ と 復 旧ポイントサーバ を導入するサーバスペックの見積もり例を記載しています 見積もり例はバックアップ対象容量を
2) TA Hercules CAA 5 [6], [7] CAA BOSS [8] 2. C II C. ( 1 ) C. ( 2 ). ( 3 ) 100. ( 4 ) () HTML NFS Hercules ( )
1,a) 2 4 WC C WC C Grading Student programs for visualizing progress in classroom Naito Hiroshi 1,a) Saito Takashi 2 Abstract: To grade student programs in Computer-Aided Assessment system, we propose
