Microsoft Word - htsst-axies2013_backup.doc

Size: px
Start display at page:

Download "Microsoft Word - htsst-axies2013_backup.doc"

Transcription

1 Extreme Big Data 時代に向けた TSUBAME スーパーコンピュータでの取り組み 佐藤仁, 松岡聡 東京工業大学学術国際情報センター 概要 :2010 年 11 月より 東京工業大学学術国際情報センターでは スーパーコンピュータ TSUBAME2 の運用を行ってきた 近年 様々な分野で 大規模なデータ処理の需要が高まってきており TSUBAME2 上でも 例外ではなく 実験器や観測器 あるいは スーパーコンピュータ上のシミュレーションから生成された大量のデータに対する分析処理への対応の要求が非常に大きくなってきている 本稿では TSUBAME2 上での大規模データ処理に関する活動の一部を紹介し 将来のスーパーコンピュータ上での大規模データ処理にむけた活動について述べる 1 はじめに近年 情報技術の発達により 人類の取り扱う データ量が爆発的に増加している 例えば Google 社では 1 日に 20 PB 以上のデータに対してクラ スタ計算機を用いた並列分散処理を行っていると 報告されている 科学技術計算の分野においても この傾向は当てはまり 高エネルギー物理学 生 物学 天文学などの分野においても大規模なデー タに対して並列分散処理を行う試みが広く行われ ている 東京工業大学 ( 東工大 ) 学術国際情報セン ター (GSIC) では 2010 年 11 月よりスーパーコン ピュータ TSUBAME2 の運用を行ってきた この TSUBAME2 も 例外ではなく 実験器や観 測器 あるいは スーパーコンピュータ上のシミ ュレーションから生成された大量のデータに対す る分析処理への対応の要求が非常に大きい 本稿では TSUBAME2 上での大規模データ処 理に関する活動の一部を紹介する まず TSUBAME2 の大規模データ処理を支えるアーキ テクチャの構成の現状を示し ひとつの事例とし て どのようにストレージ構成が変遷してきたか を示めす また TSUBAME2 上で動作する大規 模データ処理関連のソフトウェアについて紹介し 最後に 将来のスーパーコンピュータ上での大規 模データ処理にむけた活動について述べる た さらに 2013 年 9 月 これまで TSUBAME2.0 に搭載されていた NVIDIA M2050 GPU アクセラレータを NVIDIA Tesla K20X へと置き換え 既存の TSUBAME2.0 をアップグレードし 理論ピーク性能 5.76PFlops( 倍精度 ) 17.1PFlops( 単精度 ) の TSUBAME2.5 の運用を開始した 図 1 に 現在の TSUBAME2 の全体の構成について示す 2013 年 9 月現在 TSUBAME2 は 1422 台の計算ノードからなり 総メインメモリ容量は 80TB を超える また 各計算ノードには SSD が搭載され 総容量は 190TB 以上となっている これらの計算ノードは フルバイセクション構成の QDR Infiniband ネットワークにより相互に接続され さらに 7PB 超の HDD によるストレージ領域や 4PB のテープライブラリ領域とも接続されており 大規模データ処理にも適した構成となっている この章では まず 2013 年 9 月現在の TSUBAME2 (version 2.5) の構成に触れ その後 TSUBAME2 上での大規模データ処理を支えるストレージの構成の詳細について述べる 2 TSUBAME2 の構成 2010 年 11 月 東工大 GSIC では スーパーコ ンピュータ TSUBAME2.0 [1] の運用を開始し

2 x5 2.1 計算ノード PCI E gen2 x16 x2slot/node GSIC:NVIDIA Tesla S1070GPU 図 1 TSUBAME2 の全体構成 TSUBAME2 の計算ノードは 1408 台の Thin ノード 24 台の Medium ノード 10 台の Fat ノ ードと呼ばれる計算ノード群からなる これらの 計算ノードの違いは主には搭載されるメモリ容量 の違いからなる これらの全ての計算ノード上で OS として 標準的な Linux である 64bit 対応の x86 ベースの SuSE Linux Enterprise Server 11 が動作している 従って 標準的なデスクトップ PC やサーバで動作する多くのオープンソースソ フトウェアは特別な改変をすることなく動作させ ることが可能である Thin ノードは HP ProLiant SL390s G7 からな り CPU として Intel Xeon X GHz (6 core) を 2 socket GPU アクセラレータとして NVIDIA Tesla K20X を 3 つ搭載する メインメ モリとして計 54GB ( 一部 96GB) の DDR3 メモリ を搭載し また 60GB ( 一部 120GB) の SSD 2 台 を RAID0 によりローカルストレージを構成する また 40Gbps の QDR Inifniband の HCA (Host Channel Adaptor) を 2 つ持ち 各計算ノードやス トレージへ接続されている 一方 Medium ノードと Fat ノードはともに HP ProLiant DL580 DL からなり CPU として Intel Xeon X GHz (8 core) を 4 socket GPU アクセラレータとして NVIDIA Tesla S1070 (Medium ノードでは一部 NextIO vcore Express 2070 を搭載 ) を備える Medium ノード では計 128GB Fat ノードでは DDR3 メモリを計 512GB( 一部 256GB) 搭載するが ローカルストレ ージは Medium ノード Fat ノードとも 128GB の SSD4 台を RAID0 として構成する この他に 40 Gbps の QDR Infiniband の HCA を 1 つ持ち 他の計算ノードやストレージへ接続されている 2.2 ネットワーク各計算ノードとストレージとの間は QDR Infiniband のインターコネクトにより接続される このインターコネクトは 2 段のスイッチからなるファットツリー フルバイセクション構成で Dual rail により各 rail がファットツリーを構成する エッジスイッチとして 36 ポートの Voltaire GridDirector 4036 を 185 台 ( うち 6 台は Voltaire GridDirector 4036e) を持ち 各エッジスイッチのポートのうち 18 ポートは上流のコアスイッチに接続され 残りの 18 ポートは下流のノードに接続される コアスイッチは 324 ポートの GridDirector 4700 で 各 rail につき 6 台 計 12 台存在する 各ノードは 2 本の 40Gbps QDR InfiniBand によりエッジスイッチに接続され 2 本は Dual rail のそれぞれに接続される 各ストレージは 5 台の Voltaire GridDirector 4036 からなるエッジスイッチに接続され これらのエッジスイッチは Dual rail の片方の各コアスイッチと 2 本の QDR InfiniBand によりファットツリーで接続される 2.2 ストレージ TSUBAME2.5 のストレージは 1.2 PB のホーム領域と 6PB の並列ファイルシステム領域から構成される ホーム領域は 1 台の DDN SFA ストレージシステムを FC8 ネットワークを介して 4 台の HP ProLiant DL 380 G6 サーバと 2 台の BlueArc Mercury 100 サーバに接続した構成となっている ホーム領域は QDR Infiniband や 10Gbps Ethernet 経由で NFS, CIFS, iscsi などでアクセスされ TSUBAME2.5 上の /home 領域の提供や 教育 事務などの学内向けの様々なストレージサービスの用途に使用している 並列ファイルシステム領域は TSUBAME1.0 の運用経験を基に I/O のスケーラビリティと信頼性を実現するために分割された複数の Lustre[2] 及び GPFS[3] からなる並列ファイルシステムで構成される 総計で 30 台の HP ProLiant DL 360 G6 サーバに DDN SFA をバックエンドのストレージシステムと

3 して それぞれを QDR Infiniband を介してネ ットワークに接続した構成となっている 並列 ファイルシステム領域の構成は TSUBAME2 の運用が進むにつれ 利用状況に応じて再構成 を行い変遷しているため この点の詳細につい ては 次章で詳しく述べる これらのホーム領域 及び 並列ファイルシ ステム領域のストレージは 計 4 PB の Sun SL8500 のテープライブラリに接続され 適時 バックアップされる また テープライブラリ は 階層型ファイルシステムの基盤レイヤとし ての利用もされている これらのストレージ構成に加えて TSUBAME2.5 では 各計算ノードが GB の SSD をローカルストレージとし て持ち アプリケーションの一時ファイル生成 やチェックポイントなどのような細粒度な I/O のために使用される また 東工大 GSIC では 2012 年 9 月末より TSUBAME2 の 革新的ハイパフォーマンス コンピューティング インフラ (HPCI) の共用 運用を開始した HPCI では 現在 広域での データ共有環境の整備が進められており 理化 学研究所計算科学研究機構 及び 東京大学情 報基盤センターに設置されたストレージシステ ムを広域分散ファイルシステム Gfarm [4] で 連携し HPCI 共用ストレージ を構築してい る 東工大 GSIC においても この HPCI 共用 ストレージの資源の一部として利用するために 600TB のストレージ (DDN SFA 12000) の導入 を進めており 広域分散環境での大規模データ の高度な利用の推進や 次世代のスーパーコン ピュータのための大規模データ共有手法の検討 を進めている 3 TSUABME2 のストレージ構成の変遷前節でも述べたとおり TSUBAME2 のストレ ージの構成は これまで利用状況により変遷して きた この章では TSUBAME2 のストレージの 構成が どのような理由によりどのように変更し てきたか について具体的に述べる 3.1 TSUBAME2 稼働直後のストレージ構成 2010 年 11 月 TSUBAME2 の稼働直後の並列 ファイルシステム領域のストレージ構成 (2010 年 11 月 2011 年 3 月 ) を図 2 に示す Global$Work$Space $#1 Thin$Nodes Global$Work$ Space $#2 Infiniband$QDR$Network$for$MPI Global$Work$ Space $#3 Medium/Fat$Nodes Infiniband$QDR$Network$for$LNET$and$Other$Services Scratch $$ MDS$x10 cnfs/clusterd$samba$ w/$gpfs $$ OSS$x20 NFS/CIFS/iSCSI$ by$bluearc $$ 図 2 TSUBAME2 のストレージ構成 (2010 年 11 月 年 3 月 ) この地点では 全ての並列ファイルシステム領 域は /work0, /work1, /work9, /gscr の 4 つの Lustre ファイルシステムとして構成されていた これは TSUBAME1 の運用経験から 分割して 複数のファイルシステムを構成したほうが I/O のスケーラビリティと信頼性を実現しやすいと判 断したためである このうち /wor0 は TSUBAME2 のユーザへの MPI-IO などの並列 I/O を伴うアプリケーション用のデータ領域 /gscr は Gaussian など 大量の中間ファイルの 生成やスクラッチ I/O を伴うアプリケーション用 の領域としての使用を意図した また /work1 は TSUBAME1 からの移行用のデータの保存領域と して利用し /work9 は未使用とした 図 3 に 各 /work0 /work1, /gscr と同一の Lustre ファイル システムの構成とその上での I/O スループット性 能の結果について示す Lustre ファイルシステム は プロセスからの並列 I/O に高い性能を示すこ とが伺える Client'#1 Client'#5 Client'#2 Client'#6 Client'#3 Client'#7 Client'#4 Client'#8 IB'QDR'Network SFA 10k 600 Slots Data 560x 2TB SATA 7200 rpm 図 3 Lustre の構成と I/O スループット性能 3.2 階層型ファイルシステムの導入 TSUBAME1 の運用において 運用の末期であ る 2009 年 2010 年は ストレージの利用率が常

4 に 80% 90%となり 容量不足に陥り 運用に深 刻な支障をきたしていた このような背景により 2010 年 3 月 Sun SL8500 のテープドライブを導 GPFS%#0% TB% Inode 1%Bil. GPFS%#1% TB% Inode 1%Bil. System%Pool TSM%Pool 入し この慢性的なストレージ容量不足状態を劇 的に改善して 効率的なストレージ利用の促進を 図った 一方 このテープライブラリの導入は 主に GPFS%HSM%Client% TSM%Client GPFS%HSM%Client% TSM%Client TSM%Server TSM%Server バックアップ用途を意図しており TSUBAME2 のユーザからは利用しづらいものであった しか し 数十 数百テラバイト ないし ペタバイト 図 4 階層型ファイルシステムの構成 規模の大容量のストレージを必要とするアプリケ 図 5 に GPFS ファイルシステムの構成とその上 ーションユーザの要求が年々増加しており ユー での I/O スループット性能を示す Lustre と比較 ザ自身によるストレージ領域の不要データのテー して 若干性能が低いものの 複数プロセスから プライブラリ領域へバックアップや 必要データ の大量の逐次アクセス性能では Lustre よりも良 のテープライブラリからストレージ領域へリスト 好 な 結 果 を 得 て い る こ と が 伺 え る ア などの要望が高まり 既存のインフラでは対 応できないことが問題となった そこで 上記のような問題を解消するために テープライブラリと連携して階層的なデータ管理 機能を持つストレージシステムの導入を進め HSM(Hierarchical Storage Management)機能を 持つ GPFS 並列ファイルシステムの配備を行った 図 4 がその構成図である 4 台の HP ProLiant DL 380 G6 と 4 台の HP ProLiant DL 360 G6 が NSD サーバとして動作し 2 台の DDN SFA ス トレージシステムと QDR Infiniband を介して接 続され ストレージ機能を提供する DDN SFA 内は System Pool と TSM (Tivoli Storage Manager) Pool と2つのパーティッションに分割 して構成される System Pool は GPFS による実 際のファイルの格納のための領域として機能し GPFS の機能である ILM(Information Lifecycle 図 5 GPFS の構成と I/O スループット性能 図 6 に GPFS 直後の TSUBAME2 のストレージ の全体構成を示す Lustre 領域はこれまでと同様 /work0 /work1, /gscr との 3 つの Lustre ファイ ル シ ス テ ム と し て 構 成 さ れ た Lustre 領 域 と GPFS 領域の使い分けは Lustre が従来の並列 I/O を伴うもの GPFS はテープライブラリと連動し て動作するため 大量のデータを伴うビッグデー タ向けのアプリケーションのものを意図した Management)機能により定期的にアクセス頻度 MDS$x10 OSS$x20 Infiniband$QDR$Network$for$LNET$and$Other$Services の少ないファイルを TSM Pool へファイルを転送 する TSM Pool は TSM によりテープライブラ リへファイルをバックアップ ないし リストア するためのバッファ領域として機能する これら Global$Work$Space $#1 Global$Work$ Space $#2 Global$Work$ Space $#3 Scratch $$ cnfs/clusterd$samba$ w/$gpfs $$ NFS/CIFS/iSCSI$ by$bluearc $$ の機能が協調動作することにより ユーザからは 透過的に利用できる階層的なファイルシステムを 構 成 す る 図 6 TSUBAME2 のストレージ構成 (2011 年 4 月 2012 年 3 月) 3.1 大 規 模 ス ト レ ー ジ の 耐 故 障 性 2011 年度末から TSUBAME2 の利用が進み ストレージへのアクセス集中による I/O スループ

5 ットの低下や ストレージの故障などが頻発する ようになった ハードウェアの故障としては HDD 故障やスト レージコントローラの故障が圧倒的に多かった しかし これらの故障は 大抵の場合 コンポー ネントの交換により対応可能であり 交換も運用 中に可能であるため ユーザへの影響はほとんど 見られなかった 一方 ソフトウェアの故障に関しては Lustre や GPFS など フェイルオーバなど耐故障機能を サポートしているものの ユーザへ多大な影響を 与えた 例えば Lustre においては ソフトウェ アのバグによる OSS や MDS のハングアップ 対象としているストレージ領域が invisible になる などの事象が発生し ストレージサーバが過負荷 状態になり I/O スループットが著しく低下した GPFS では ネットワーク故障の影響により GPFS のメタデータに不整合が発生した 前者の 事象は ストレージアクセスに対して サーバ数 が少なすぎることが問題であり 後者に関しては ストレージのネットワークを共用しているがため に問題が発生したため サーバ増加と分離された ストレージネットワークの構築を行った 図 7 が 全体構成である TSUBAME1 の経験よりこれま で少数のファイルシステムを複数構築し運用を行 ってきたが 近年 Lustre のソフトウェアの性能 や安定性の向上により大規模環境での運用でも問 題ないと判断したため このような構成変更を行 った これらの改良以降 TSUBAME2 のストレ ージは安定的に稼働している QDR IB (4x) 4 SFA12k #1 /hpci0 Gfarm for HPCI GPFS with HSM 600TB Infiniband QDR Network for LNET and Other Services QDR IB (4x) 16 QDR IB (4x) 20 QDR IB (4x) 20 SFA10k #1 /data0 SFA10k #2 /data1 2.4 PB HDD + 4PB Tape Lustre SFA10k #3 SFA10k #4 /work0 /work1 /gscr0 Lustre 3.6 PB SFA10k #5 QDR IB (4x) 16 GPFS#1 GPFS#2 GPFS#3 GPFS#4 HOME System application FC cnfs/clusterd Samba w/ GPFS SFA10k #6 図 7 TSUBAME2 のストレージ構成 (2013 年 9 月現在 ) 10GbE 2 HOME iscsi NFS/CIFS/ iscsi by BlueARC 3 データインテンシブミドルウェアの 整備状況 TSUBAME2 では 大規模データ処理向けのソ フトウェアに関しても整備を進めている ここで は それらのいくつかの事例について紹介する 3.1 並列ワークフロー一般的なスーパーコンピュータでは 他のジョブの影響を受けることなく計算資源を効率良く利用するために バッチジョブスケジューラを介してジョブ実行を行っている TSUBAME2 でも PBS Pro を用いている 一方 科学技術計算では 同種のジョブを パラメータを変えて大量に実行するパラメータサーベイ型のアレイジョブや 依存関係のあるジョブを多数実行するようなワークフロー型のジョブなど 複雑なジョブの実行を要求するものが非常に多い このようなジョブに対応するために TSUBAME2 では GXP make などワークフローツールの整備を進めている GXP make[5] は 東京大学を中心に開発が進められている並列ワークフローシステムである make は プログラムのコンパイル リンクの際にソースファイル間の依存関係を自動的に解決し 目的のファイルを生成することを支援するユーティリティである make と並列分散シェルである GXP[6] の組み合わせにより 依存関係のあるジョブのワークフローとしての実行を可能にしている もともと GXP はグリッド環境のような広域並列環境での利用を指向していたが バッチジョブスケジューラでの利用にも対応し TSUBAME 上の PBS Pro への利用も可能になっている また TSUBAME では 一部 PBS Pro をカスタマイズしたコマンドを使用しているが これらへの対応も行っている また TSUBAME2 では GXP をワークフロー型のジョブだけでなく パラメータサーベイ型のジョブへも対応を進めている 元来 バッチジョブスケジューラである PBS Pro でもパラメータサーベイ型のアレイジョブの実行が可能であるが TSUBAME2 では 大量のアレイジョブを大規模に実行した場合 スケジュールのための時間 オーバーヘッドが著しく増大するという問題が発生した GXP make ではこのようなオーバーヘッドが少ないため これらの事象に対応するために

6 GXP make を基盤に PBS Pro のアレイジョブ実行の際のコマンド群と類似したコマンドを提供している 3.2 MapReduce MapReduce は 近年注目されている 大規模データに対する並列分散処理を行うためのプログラミングモデルであり 分散した key-value のペアデータに対して統一的な操作を並列で適用し, データへのアクセスの局所性を考慮したスケーラブルなデータ処理を実現する データ処理のプロセスを Map,Shuffle,Reduce の 3 つのフェーズに分解し Map フェーズで入力データとなる key-value ペアから中間データとなる key-value ペアを生成し Suffle フェーズで同じ key に対して value のリストを生成し Reduce で中間データを Shuffle することにより得られた key と value のリストから最終出力となる key-value のペアデータを生成するというものである 典型的な例では ウェブのデータ解析などの処理に適用され 数千台規模の大規模なクラスタ計算機において ノード数に応じたスケーラビリティを得ている また 様々な機械学習アルゴリズムへ MapReduce を適用して有効を示した事例をはじめ 機械学習ライブラリである Aache Mahout やグラフマイニングシステムの PEGASUS などの MapReduce アプリケーションのエコシステムも構築されつつある TSUBAME2 においても ユーザからの大規模データ処理への要望は高く MapReduce 処理の代表的なオープンソース実装である Hadoop[7] を実行したいというものも挙がっている そこで 我々は Hadoop を TSUBAME2 での実行に適するように改良した Tsudoop[8] と呼ばれるツールを開発している TSUBAME2 は バッチジョブスケジューラである PBS Pro が動作しているため Hadoop との連携動作が必要であったり ストレージも Lustre, GPFS 計算ノードのローカルストレージの SSD など 典型的な Hadoop の実行環境とは若干異なる部分があったりし また GPU ア クセラレータの Hadoop からの活用法も明らかで ない Tsudoop は TSUBAME2.0 上のジョブスケジ ューラである PBS Pro や Lustre などの並列フ ァイルシステム ノード上の複数の SSD からなる ローカルストレージなどの既存のシステムと協調 動作して オンデマンドで TSUBAME2.0 に Hadoop 環境を構築し ユーザの MapReduce ア プリケーションを実行する 実行の終了後は 自 動的に Hadoop 環境の破棄を行う 図 8 は Tsudoop の概要図である また GPU アクセラレ ータの活用に関しても GPU アクセラレータ上で Map タスクを動作させ 自動的に CPU と GPU アクセラレータ間で Map タスクのハイブリッド スケジューリングを行う手法の開発などを進めて いる PBS%Pro% 2+acquire+compu:ng+nodes by+using+pbs+pro+ Job+ Tracker node 3+invoke+JobTracker+and+TaskTrackers (op:onally++namenode+and+datanode)+ 4+submit++a+MapReduce+job+to+the+JobTracker++ client+ 1+run+tsudoop4sub+by+user+ 図 8 5+run+MapReduce+tasks+on+the+TaskTracker+nodes+++ Task+ Tracker Job Job Job Job node node node node File%Systems%(HDFS,%Lustre,%etc.) file Task+ Tracker 7kill+JobTracker+and+TaskTrackers, (op:onally+namenode+and+datanode).+ TSUDOOP の構成 4 おわりに 将来に向けて Task+ Tracker 6I/O+to+FSs+(HDFS,+Lustre,+etc.)+++ Task+ Tracker file file file file file 現状の ビッグデータ は データ量が高々 数百ギガバイト ~ ペタバイト級であり その用 途は 顧客の全体的な購買動向を調査 その為 時系列的に伝票のデータマイニングを行う 等 で 数台 ~ 数百台の安価なクラスタやクラウド 上の HDD にファイルとして分散し 処理はリ ニアスキャンや RDB からのインデクシング アルゴリズムの拡張で済む場合が多い その理 由は (1) データが企業内に閉じている サイロ 化 のため データ量 種別とも少ない (2) ビ ッグデータの黎明期で そのようなデータの

7 制限 によりアプリのバラエティが少なく機能要求が低い (3) ビッグデータに供されるハードウェアやシステムソフトウェアの性能が低く (1)-(2) の自己抑制が働く という悪循環が考えられる 実際 Google は 2008 年に ペタバイトソート ( 実際は高々 10 テラ要素 ) をサーバ 4800 台 HDD4 万 8 千器で 6 時間にて達成し 2011 年にはサーバ 8000 台で 33 分に短縮した その資源量は世界のトップ 10 スパコンに匹敵するが ソート速度は高々 55 億要素 / 秒であり ペタバイト級のメモリを持つトップスパコンなら 100 倍 ~500 倍の速度が得られることを予測できる 非定型ビッグデータ処理の下地のグラフ処理も 処理速度の世界ランキングの Graph500 ( は全てスパコンが占め IDC クラウドの影はない この理由は本質的で 真の ビッグデータ処理は 本質的にハード的にメモリ ネットワーク I/O バンド幅を要求し かつそれらを生かすシステムソフトウェアを要求するが Google, Amazon, MS Azure 等の現状のビッグデータに供されるハードウェアやシステムソフトウェアは IDC クラウドの web やビジネスホスティングからの転用であり 超高性能 I/O 性能を達成するのが困難だからである 例えば IDC の典型的なネットワークは各ノードの 1GbE がラック単位 (20-40 ノード ) で縮退した 10GbE に集約され 上位層はさらに縮退される それ故 ( 近年は多少改善されつつも )IDC の 10 万ノード級ネットワークのバイセクションバンド幅は高々数テラビット / 秒 end-to-end のレーテンシはサブミリセカンドが典型である 一方スパコン東工大 TSUBAME2.0 は 1400 ノードにもかかわらず 220 テラビット / 秒のバイセクションバンド幅を持ち レーテンシは僅か 2 マイクロ秒で 高性能システムソフトウェアでその性能が維持されている I/O も IDC クラウドでは仮想化等 の多大なオーバーヘッドで低性能化しており GFS(Google File System) 等のクラウドのファイルシステムでは 容量は数十万台で数百ペタバイト級だが I/O 性能は低い このような IDC クラウドの処理環境でも 現状の小規模レベルの ビッグデータ ならば当面問題ない しかし ビッグデータは先の量的 質的進化とともに急速に変容する事が予測され Intel 等も同様の指摘をしている 特にオープンアクセスの一般化によるデータの公共化と 同時に センサ及びユビキタスネットワークの進化で IoT(Internet of Things) が本格化により ビッグデータは 一見相関がない エクサ~ゼータ~ヨッタバイト / 年にも及ぶ 一見無関係な様々な超大量の継続的な多次元 マルチ解像度のデータストリームから意味のある情報を抽出し 単なる解析だけでなくシミュレーションとリアルタイムでマッチングする 処理に変貌する また 処理形態も MapReduce などを用いたリニアなスキャンやインデキシングでの高速化では不十分で 莫大なデータの O(n log n), O(m n), の 計算やデータ転送コストが高い複雑なアルゴリズムでの処理が必須となる このような変貌は オープンデータが主流になってきた科学研究の世界では先駆けて起こっており 総称的に データ科学 あるいは Data Intensive Computing 等と呼ばれるが それを実現するための現状のビッグデータインフラの不備が多く指摘されている 我々は このような状態を Extreme Big Data(EBD) と呼び 上述のような問題を解決するような研究活動 例えば フラッシュなどをはじめとする不揮発性メモリの活用手法 大規模データ処理へのアクセラレータの活用 などを現在積極的に進めている 成果の一部は 次世代のスーパーコンピュータの設計 構築に活用されることを目指している

8 参考文献 [1] Satoshi Matsuoka, Takayuki Aoki, Toshio Endo, Hitoshi Sato, Shin ichiro Takizawa, Akihiko Nomura, and Kento Sato, TSUBAME2.0: The First Petascale Supercomputer in Japan and the Greatest Production in the World, Comtemporary High Performance Computing From Petascale toward Exascale Chapter 20, pp , [2] Lustre, [3] Frank Schmuck and Roger Haskin, GPFS: A Shared-Disck File System for Large Computing Cluster, Proceedings of the FAST 02 Conference on File and Storage Technologies. [4] Gfarm, [5] Kenjiro Taura, Takuya Matsuzaki, Makoto Miwa, Yoshikazu Kamoshida, Daisaku Yokoyama, Nun Dun, Takeshi Shibata, Choi Sung Jun, Jun Ichi Tsuji, Design and implementation of GXP make A workflow system based on make, Future Generation Computer Systems, Volume 29 Issue 2, [6] GXP, [7] Hadoop, [8] 佐藤仁, 松岡聡, TSUBAME2.0 上での Hadoop の性能評価, 情報処理学会研究報告 2011-HPC-129(16), pp. 1-8, 2011.

Microsoft Word - HOKUSAI_system_overview_ja.docx

Microsoft Word - HOKUSAI_system_overview_ja.docx HOKUSAI システムの概要 1.1 システム構成 HOKUSAI システムは 超並列演算システム (GWMPC BWMPC) アプリケーション演算サーバ群 ( 大容量メモリ演算サーバ GPU 演算サーバ ) と システムの利用入口となるフロントエンドサーバ 用途の異なる 2 つのストレージ ( オンライン ストレージ 階層型ストレージ ) から構成されるシステムです 図 0-1 システム構成図

More information

PowerPoint プレゼンテーション

PowerPoint プレゼンテーション 総務省 ICTスキル総合習得教材 概要版 eラーニング用 [ コース2] データ蓄積 2-5: 多様化が進展するクラウドサービス [ コース1] データ収集 [ コース2] データ蓄積 [ コース3] データ分析 [ コース4] データ利活用 1 2 3 4 5 座学本講座の学習内容 (2-5: 多様化が進展するクラウドサービス ) 講座概要 近年 注目されているクラウドの関連技術を紹介します PCやサーバを構成するパーツを紹介後

More information

HP High Performance Computing(HPC)

HP High Performance Computing(HPC) ACCELERATE HP High Performance Computing HPC HPC HPC HPC HPC 1000 HPHPC HPC HP HPC HPC HPC HP HPCHP HP HPC 1 HPC HP 2 HPC HPC HP ITIDC HP HPC 1HPC HPC No.1 HPC TOP500 2010 11 HP 159 32% HP HPCHP 2010 Q1-Q4

More information

PowerPoint プレゼンテーション

PowerPoint プレゼンテーション atairect Networks 製品 / 事例紹介 第 12 回 PC クラスタシンポジウム SCSK 株式会社 HPC ソリューション部 N のターゲットマーケット HPC/ ライフ サイエンス クラウト コンテンツ / メテ ィア 遺伝子配列 CF/CAE 地震学金融工学大学 & 研究機関 リアルタイム放送ホ スト フ ロタ クション VFX/ アニメーション VO/IPTV クラウト コンテンツ

More information

hpc141_shirahata.pdf

hpc141_shirahata.pdf GPU アクセラレータと不揮発性メモリ を考慮した I/O 性能の予備評価 白幡晃一 1,2 佐藤仁 1,2 松岡聡 1 1: 東京工業大学 2: JST CREST 1 GPU と不揮発性メモリを用いた 大規模データ処理 大規模データ処理 センサーネットワーク 遺伝子情報 SNS など ペタ ヨッタバイト級 高速処理が必要 スーパーコンピュータ上での大規模データ処理 GPU 高性能 高バンド幅 例

More information

PowerPoint プレゼンテーション

PowerPoint プレゼンテーション Oracle GRID Center Flash SSD + 最新ストレージと Oracle Database で実現するデータベース統合の新しい形 2011 年 2 月 23 日日本オラクル Grid Center エンジニア岩本知博 進化し続けるストレージ関連技術 高速ストレージネットワークの多様化 低価格化 10GbE FCoE 8Gb FC ディスクドライブの多様化および大容量 / 低価格化

More information

システムソリューションのご紹介

システムソリューションのご紹介 HP 2 C 製品 :VXPRO/VXSMP サーバ 製品アップデート 製品アップデート VXPRO と VXSMP での製品オプションの追加 8 ポート InfiniBand スイッチ Netlist HyperCloud メモリ VXPRO R2284 GPU サーバ 製品アップデート 8 ポート InfiniBand スイッチ IS5022 8 ポート 40G InfiniBand スイッチ

More information

スライド 1

スライド 1 期間限定販売プログラム vsmp Foundation クラスタを仮想化して運用と管理の容易なシングルシステムを構築様々なリソースを柔軟に統合化 Panasas ActiveStor 研究開発やエンタープライズクラスのワークロードに理想的なハイブリッドスケールアウト NAS アプライアンス 販売プログラム PANASAS ACTIVESTORE 仮想化ソフトウエア無償提供 2 販売プログラムの内容

More information

ERDAS IMAGINE における処理速度の向上 株式会社ベストシステムズ PASCO CORPORATION 2015

ERDAS IMAGINE における処理速度の向上 株式会社ベストシステムズ PASCO CORPORATION 2015 ERDAS IMAGINE における処理速度の向上 株式会社ベストシステムズ 本セッションの目的 本セッションでは ERDAS IMAGINEにおける処理速度向上を目的として機器 (SSD 等 ) 及び並列処理の比較 検討を行った 1.SSD 及び RAMDISK を利用した処理速度の検証 2.Condorによる複数 PCを用いた並列処理 2.1 分散並列処理による高速化試験 (ERDAS IMAGINEのCondorを使用した試験

More information

PowerPoint プレゼンテーション

PowerPoint プレゼンテーション vsmp Foundation スケーラブル SMP システム スケーラブル SMP システム 製品コンセプト 2U サイズの 8 ソケット SMP サーバ コンパクトな筐体に多くのコアとメモリを実装し SMP システムとして利用可能 スイッチなし構成でのシステム構築によりラックスペースを無駄にしない構成 将来的な拡張性を保証 8 ソケット以上への拡張も可能 2 システム構成例 ベースシステム 2U

More information

MATLAB® における並列・分散コンピューティング ~ Parallel Computing Toolbox™ & MATLAB Distributed Computing Server™ ~

MATLAB® における並列・分散コンピューティング ~ Parallel Computing Toolbox™ & MATLAB Distributed Computing Server™ ~ MATLAB における並列 分散コンピューティング ~ Parallel Computing Toolbox & MATLAB Distributed Computing Server ~ MathWorks Japan Application Engineering Group Takashi Yoshida 2016 The MathWorks, Inc. 1 System Configuration

More information

Microsoft Word - nvsi_050110jp_netvault_vtl_on_dothill_sannetII.doc

Microsoft Word - nvsi_050110jp_netvault_vtl_on_dothill_sannetII.doc Article ID: NVSI-050110JP Created: 2005/10/19 Revised: - NetVault 仮想テープ ライブラリのパフォーマンス検証 : dothill SANnetⅡSATA 編 1. 検証の目的 ドットヒルシステムズ株式会社の SANnetll SATA は 安価な SATA ドライブを使用した大容量ストレージで ディスクへのバックアップを行う際の対象デバイスとして最適と言えます

More information

TSUBAME 2.0利用ガイダンス

TSUBAME 2.0利用ガイダンス 新スーパーコンピュータ TSUBAME 2.0 利用ガイダンス 11/10( 水 ) 更新 東京工業大学 学術国際情報センター 1 TSUBAME の歴史 2006 TSUBAME 1.0 85TFlops/1.1PB アジア No.1 みんなのスパコン x86 CPU+ アクセラレータ 2007 TSUBAME 1.1 100TFlops/1.6PB ストレージ アクセラレータ増強 2008 TSUBAME

More information

Microsoft PowerPoint - SWoPP2010_Shirahata

Microsoft PowerPoint - SWoPP2010_Shirahata GPU を考慮した MapReduce の タスクスケジューリング 白幡晃一 1 佐藤仁 1 松岡聡 1 2 3 1 東京工業大学 2 科学技術振興機構 3 国立情報学研究所 大規模データ処理 情報爆発時代における 大規模データ処理 気象 生物学 天文学 物理学など様々な科学技術計算での利用 MapReduce 大規模データ処理のためのプログラミングモデルデ スケーラブルな並列データ処理 GPGPU

More information

九州大学がスーパーコンピュータ「高性能アプリケーションサーバシステム」の本格稼働を開始

九州大学がスーパーコンピュータ「高性能アプリケーションサーバシステム」の本格稼働を開始 2014 年 1 月 31 日 国立大学法人九州大学 株式会社日立製作所 九州大学がスーパーコンピュータ 高性能アプリケーションサーバシステム の本格稼働を開始 日立のテクニカルサーバ HA8000-tc/HT210 などを採用 従来システム比で 約 28 倍の性能を実現し 1TFLOPS あたりの消費電力は約 17 分の 1 に低減 九州大学情報基盤研究開発センター ( センター長 : 青柳睦 /

More information

<4D F736F F F696E74202D204E505F8E9F90A291E E815B CFC82AF B838B B838B C5E B8D5C91A E E4E41532E7

<4D F736F F F696E74202D204E505F8E9F90A291E E815B CFC82AF B838B B838B C5E B8D5C91A E E4E41532E7 次世代エンタープライズ向けスケールアップ & スケールアウト型モジュラー構造 Tiered クラスタ NAS 平成 22 年 4 月 1. トレンド ファイルサービスとして CIFS ファイルシェアリングが主流に Windows Active Directry によるセキュリティ管理下の流れ 低価格大容量スケーラブルな NAS のニーズ ハイパフォーマンススケールアウト NAS 用途の拡大 アプリケーションから見たストレージ

More information

e-サイエンス基盤としての 計算機センターPOP(Point-of-Presence) 連携

e-サイエンス基盤としての 計算機センターPOP(Point-of-Presence) 連携 サブテーマ5 - 実 証 評 価 ユーザ 連 携 - 東 京 工 業 大 学 目 的 と 提 案 目 的 e-science 実 現 のための NIS LLS 間 連 携 可 能 なインフラシステムの 提 供 資 源 連 携 サービス( 他 サブテーマ 成 果 物 ) 研 究 者 と 応 用 計 算 (シミュレー ションなど) 研 究 者 間 の 連 携 支 援 提 案 : RENKEI-PoPによるホスティング

More information

スライド 1

スライド 1 Hadoop とは Hadoop の二本柱 分散ファイルシステム HDFS(Hadoop Distributed File System) 分散プログラミングモデル MapReduce Hadoop の目的 大規模ファイル処理 格納, 加工 ペタバイト規模 複数計算機の協調動作 スケーラブルシステム 数百 ~ 数千台規模 Key-Value store MapReduce HDFS Node Node

More information

スライド 1

スライド 1 High Performance Computing Infrastructure と学認 合田憲人 国立情報学研究所 背景と目的 2 HPCI 京コンピュータと国内のスーパーコンピュータや大規模ストレージを連携して利用するための革新的ハイパフォーマンス コンピューティング インフラ ロードマップ 2011/03 基本仕様策定 ( ネットワーク, 認証, ユーザ管理支援, 共用ストレージ, 先端ソフトウェア運用

More information

ビッグデータ分析を高速化する 分散処理技術を開発 日本電気株式会社

ビッグデータ分析を高速化する 分散処理技術を開発 日本電気株式会社 ビッグデータ分析を高速化する 分散処理技術を開発 日本電気株式会社 概要 NEC は ビッグデータの分析を高速化する分散処理技術を開発しました 本技術により レコメンド 価格予測 需要予測などに必要な機械学習処理を従来の 10 倍以上高速に行い 分析結果の迅速な活用に貢献します ビッグデータの分散処理で一般的なオープンソース Hadoop を利用 これにより レコメンド 価格予測 需要予測などの分析において

More information

<4D F736F F D F B835E82CC8D8291AC8F88979D82F08FAC8C5E82A982C288C089BF82C88D5C90AC82C AC82B782E996A78C8B8D878C5E836E815B C695C097F18F88979D82F091678D8782B982BD8C768E5A8B

<4D F736F F D F B835E82CC8D8291AC8F88979D82F08FAC8C5E82A982C288C089BF82C88D5C90AC82C AC82B782E996A78C8B8D878C5E836E815B C695C097F18F88979D82F091678D8782B982BD8C768E5A8B テーマ名ビッグデータの高速処理を小型かつ安価な構成で達成する密結合型ハードウェアと並列処理を組合せた計算機システム組織名国立大学法人電気通信大学情報システム学研究科吉永務教授技術分野 IT 概要ビッグデータの高速処理を実現するために ストレージ 光通信ネットワーク FPGA SSD 等を密接に結合させたハードウェアと高効率の並列処理を組合せ 小型かつ安価なシステム構成でありながら Hadoop Impala

More information

HPE Moonshot System ~ビッグデータ分析&モバイルワークプレイスを新たなステージへ~

HPE Moonshot System ~ビッグデータ分析&モバイルワークプレイスを新たなステージへ~ Brochure HPE Moonshot System HPE Moonshot System 4.3U 45 HPE Moonshot System Xeon & HPE Moonshot System HPE Moonshot System HPE HPE Moonshot System &IoT & SoC Xeon D-1500 Broadwell-DE HPE ProLiant m510

More information

HPEハイパフォーマンスコンピューティング ソリューション

HPEハイパフォーマンスコンピューティング ソリューション HPE HPC / AI Page 2 No.1 * 24.8% No.1 * HPE HPC / AI HPC AI SGIHPE HPC / AI GPU TOP500 50th edition Nov. 2017 HPE No.1 124 www.top500.org HPE HPC / AI TSUBAME 3.0 2017 7 AI TSUBAME 3.0 HPE SGI 8600 System

More information

MIRACLE System Savior による Red Hat Storage 2.1 on HP ProLiant SL4540 Gen8 バックアップ / リストア検証報告書 ミラクル リナックス株式会社 作成者 : エンタープライズビジネス本部 青山雄一

MIRACLE System Savior による Red Hat Storage 2.1 on HP ProLiant SL4540 Gen8 バックアップ / リストア検証報告書 ミラクル リナックス株式会社 作成者 : エンタープライズビジネス本部 青山雄一 MIRACLE System Savior による Red Hat Storage 2.1 on HP ProLiant SL4540 Gen8 バックアップ / リストア検証報告書 ミラクル リナックス株式会社 作成者 : エンタープライズビジネス本部 青山雄一 文書情報 変更履歴 日付作成者 Revision 変更内容 2014/03/03 青山 1.0.0 初版作成 2 ミラクル リナックス株式会社

More information

V8_教育テキスト.dot

V8_教育テキスト.dot 1.1 Universal Volume Manager 概要 1.1.1 Universal Volume Manager とは Universal Volume Manager は VSP ファミリーに 機種の異なる複数のストレージ ( 外部ストレージ と呼ぶ ) を接続機能です 外部ストレージ接続時 Universal Volume Manager はこの外部ストレージをストレージシステムの内部ストレージ

More information

データセンターの効率的な資源活用のためのデータ収集・照会システムの設計

データセンターの効率的な資源活用のためのデータ収集・照会システムの設計 データセンターの効率的な 資源活用のためのデータ収集 照会システムの設計 株式会社ネットワーク応用通信研究所前田修吾 2014 年 11 月 20 日 本日のテーマ データセンターの効率的な資源活用のためのデータ収集 照会システムの設計 時系列データを効率的に扱うための設計 1 システムの目的 データセンター内の機器のセンサーなどからデータを取集し その情報を元に機器の制御を行うことで 電力消費量を抑制する

More information

Microsoft Word - nvsi_100222jp_oracle_exadata.doc

Microsoft Word - nvsi_100222jp_oracle_exadata.doc Article ID: NVSI-100222JP Created: 2010/10/22 Revised: -- Oracle Exadata v2 バックアップ動作検証 1. 検証目的 Oracle Exadata Version 2 上で稼動する Oracle Database11g R2 Real Application Clusters( 以下 Oracle11g R2 RAC) 環境において

More information

― ANSYS Mechanical ―Distributed ANSYS(領域分割法)ベンチマーク測定結果要約

― ANSYS Mechanical ―Distributed ANSYS(領域分割法)ベンチマーク測定結果要約 ANSYS Mechanical Distributed ANSYS( 領域分割法 ) 2011 年 1 月 17 日 富士通株式会社 ANSYS Mechanical ベンチマーク測定結果 目次 測定条件 1 標準問題モデル 2 総括 3 ベンチマーク測定について 3 留意事項 9 商標について 9 測定条件 測定に使用した環境は下記のとおりです System PRIMERGY BX922 S2

More information

HP ProLiant Gen8とRed Hatで始めるHadoop™ ~Hadoop™スタートアップ支援サービス~

HP ProLiant Gen8とRed Hatで始めるHadoop™ ~Hadoop™スタートアップ支援サービス~ Brochure Gen8 Red Hat Hadoop Hadoop Hadoop Hadoop Hadoop HP Hadoop IT IDC 20122.7ZB 2011 48% 20158ZB 2 IDC 20122.7ZB 2011 48%20158ZB 1 DC Predictions 2012: Competing for 2020 IDC 2011 12 : 1ZB =10 Hadoop

More information

Corp ENT 3C PPT Template Title

Corp ENT 3C PPT Template Title NetApp FAS シリーズ向け ストレージセキュリティのご紹介 ServerProtect for Storage on NetApp トレンドマイクロ株式会社 1 Copyright 2016 Trend Micro Incorporated. All rights reserved. Last Updated 2016/03/28 ServerProtect for Storage on NetApp

More information

スライド 1

スライド 1 NetApp 新製品紹介 - FAS2600 シリーズ - 2017/6/16 インフラマーケティング部ストレージソリューション課 NetApp 担当 目次 目次 1.NetApp FAS 製品ラインナップ p.3 2.NetApp FAS 新製品の特徴 p.4 3. FAS2600 シリーズ製品情報 p.5 3-1. ハードウェア概要 p.6 3-2. 特徴 p.9 3-3. 見積パターン p.11

More information

(Microsoft PowerPoint - Mirapoint\220\273\225i\221\316\224\344\225\\\(6\203V\203\212\201[\203Y_7\203V\203\212\201[\203Y\).ppt)

(Microsoft PowerPoint - Mirapoint\220\273\225i\221\316\224\344\225\\\(6\203V\203\212\201[\203Y_7\203V\203\212\201[\203Y\).ppt) Mirapoint 製品対比表 (6 シリーズ /7 シリーズ ) シーティーシー エスピー株式会社 (C) Copyright 2010 CTCSP Corporation All rights reserved. 1 7-Series ハードウェア 7Series ハードウェアプラットフォーム 新世代 CPU 搭載 : Intel Quad-core Xeon based Nahalem architecture

More information

RICCについて

RICCについて RICC 1 RICC 2 RICC 3 RICC GPU 1039Nodes 8312core) 93.0GFLOPS, 12GB(mem), 500GB (hdd) DDR IB!1 PC100Nodes(800core) 9.3 GPGPU 93.3TFLOPS HPSS (4PB) (550TB) 0.24 512GB 1500GB MDGRAPE33TFLOPS MDGRAPE-3 64

More information

無料セミナー資料:ビッグデータ管理基盤ソフトウェアHadoop入門

無料セミナー資料:ビッグデータ管理基盤ソフトウェアHadoop入門 ビッグデータ管理基盤ソフトウェア Hadoop 入門 NEC ラーニングテクノロジー研修事業部 土井正宏 アジェンダ Hadoopとは? HDFSの概要 Map/Reduceのしくみ Hadoopのエコシステム ( 関連製品 ) Hadoop 0.23について Page 2 NEC Corporation 2010 Hadoop の概要 高スケーラブルな分散管理基盤 グリッドコンピューティング 2つのコア機能

More information

Microsoft PowerPoint - yamagata.ppt

Microsoft PowerPoint - yamagata.ppt グリッド上におけるにおける仮想計算 機を用いたいたジョブジョブ実行環境 構築システムシステムの高速化 山形育平 高宮安仁 中田秀基, 松岡聡, : 東京工業大学 : 産業技術総合研究所 : 国立情報学研究所 1 背景 グリッド技術の普及 複数ユーザがネットワーク接続された計算機資源を共有する機会が増加 ユーザが利用する OS やライブラリが多様化 各計算機にインストールされている必要がある 各計算機間で管理ポリシーが異なる

More information

i Ceph

i Ceph 23 Ceph I/O 20 20115107 i 1 1 2 2 2.1.............................. 2 2.1.1..................... 2 2.1.2.................. 3 2.1.3....................... 3 2.2 Ceph........................ 4 2.2.1.................................

More information

データマネジメントを取り巻く IT の課題 大規模データの実践的活用に向けて レッドハット株式会社 Senior Solution Architect and Cloud Evangelist 中井悦司 2012/04/13 version1.0

データマネジメントを取り巻く IT の課題 大規模データの実践的活用に向けて レッドハット株式会社 Senior Solution Architect and Cloud Evangelist 中井悦司 2012/04/13 version1.0 データマネジメントを取り巻く IT の課題 大規模データの実践的活用に向けて レッドハット株式会社 Senior Solution Architect and Cloud Evangelist 中井悦司 2012/04/13 version1.0 はじめに あなたには何色が見えますか 2 Contents 3 ビジネスにおけるデータの役割 企業データの構造変化とデータマネジメントの課題 これからのビジネスを支える新しいデータ構造

More information

ビッグデータやクラウドのシステム基盤向けに処理性能を強化した「BladeSymphony」および「HA8000シリーズ」の新製品を販売開始

ビッグデータやクラウドのシステム基盤向けに処理性能を強化した「BladeSymphony」および「HA8000シリーズ」の新製品を販売開始 2013 年 9 月 19 日 株式会社日立製作所 ビッグデータやクラウドのシステム基盤向けに処理性能を強化した BladeSymphony および HA8000 シリーズ の新製品を販売開始 運用管理工数の削減を実現するサーバ管理ソフトウェア Hitachi Compute Systems Manager を標準添付 BS520H サーバブレード / PCI 拡張ブレード HA8000/RS220-h

More information

(^^

(^^ 57 GRACE 2012 2 21 munetomo@iic.hokudai.ac.jp 1996 1999 1998 1999 1999 (^^ 1962 2003 1979 11 43TFlops 2,000 40, Mem:128GB, 10GbE x 2 500TBytes Web Web IT SR16000 Model M1 22 Total: 172 TFlops Power 7

More information

スライド 1

スライド 1 1 2 (National Research Grid Initiative) 4 3 flops 4 (Electrical Power Grid) Virtual Organization) Software catalogs Sensor nets Computing Resources Colleagues Data archives 5 グリッド の概念 アプリケーション アプリケーション

More information

HP StorageWorks X9000 Network Storage System

HP StorageWorks X9000 Network Storage System HP StorageWorks X930 性能重視のアプライアンスモデル 1Gb / 10Gb Ethernet / InfiniBand 1.6TB SAS TB SATA /96TB MDL SAS 3.TB SAS 19TB MDL SAS 50GB 15,000rpm SASドライブ 1TB 7,00rpm SATAドライブ TB 7,00rpm MDL SASドライブ 50GB 15,000rpm

More information

TVS-871T_P6_ RS_201508_(JPN)_web

TVS-871T_P6_ RS_201508_(JPN)_web Revolution は Intel の最新高帯域幅接続技術です 驚異的な 20Gbps の伝送速度を誇る は第 1 世代 Thunderbolt の 2 倍超の速さで USB 3 の 4 倍の速さでデータを転送します 1 直接接続ストレージ (DAS) 高性能 I/O スループット 主な応用シナリオ ストレージ技術 1 高度な拡張性 (++) 共有されました IP 設定の要らないプラグアンドプレ

More information

TSUBAME2.0 における GPU の 活用方法 東京工業大学学術国際情報センター丸山直也第 10 回 GPU コンピューティング講習会 2011 年 9 月 28 日

TSUBAME2.0 における GPU の 活用方法 東京工業大学学術国際情報センター丸山直也第 10 回 GPU コンピューティング講習会 2011 年 9 月 28 日 TSUBAME2.0 における GPU の 活用方法 東京工業大学学術国際情報センター丸山直也第 10 回 GPU コンピューティング講習会 2011 年 9 月 28 日 目次 1. TSUBAMEのGPU 環境 2. プログラム作成 3. プログラム実行 4. 性能解析 デバッグ サンプルコードは /work0/gsic/seminars/gpu- 2011-09- 28 からコピー可能です 1.

More information

記憶域スペースダイレクト (S2D) を活用したハイパーコンバージドインフラ技術解説ガイド 概要本ドキュメントは Windows Server 2016 で構築したハイパーコンバージドインフラ (Hyper-Converged Infrastructure:HCI) を技術的な観点から解説したガイド

記憶域スペースダイレクト (S2D) を活用したハイパーコンバージドインフラ技術解説ガイド 概要本ドキュメントは Windows Server 2016 で構築したハイパーコンバージドインフラ (Hyper-Converged Infrastructure:HCI) を技術的な観点から解説したガイド 記憶域スペースダイレクト (S2D) を活用したハイパーコンバージドインフラ技術解説ガイド 概要本ドキュメントは Windows Server 2016 で構築したハイパーコンバージドインフラ (Hyper-Converged Infrastructure:HCI) を技術的な観点から解説したガイドです 主にシステム構成 記憶域スペースダイレクト (Storage Spaces Direct:S2D)

More information

概要 ここでは先程デモを行った OpenStack の中で仮想マシンのデータがどのように管理されているかをご紹介致します OpenStack の中でデータがどのように配置され 管理されているかを知ることは 可用性を検討する上で非常に重要になります 2

概要 ここでは先程デモを行った OpenStack の中で仮想マシンのデータがどのように管理されているかをご紹介致します OpenStack の中でデータがどのように配置され 管理されているかを知ることは 可用性を検討する上で非常に重要になります 2 OSC Nagoya JOSUG 5th Study openstack Open source software to build public and private clouds. Storage System; Overview OpenStack ストレージとデータ管理 2012.06.04 日本 OpenStack ユーザ会 Tomoaki Nakajima/@irix_jp 1 概要

More information

クラウド基盤向けに処理性能や拡張性を強化した「HA8000シリーズ」の2プロセッサーサーバを販売開始

クラウド基盤向けに処理性能や拡張性を強化した「HA8000シリーズ」の2プロセッサーサーバを販売開始 クラウド基盤向けに処理性能や拡張性を強化した HA8000 シリーズ の 2 プロセッサーサーバを販売開始 2014 年 9 月 25 日 株式会社日立製作所 10 年保守対応モデルも用意し 制御 監視システムに求められる長期安定稼働を実現 HA8000/RS220 HA8000/RS210 株式会社日立製作所 ( 執行役社長兼 COO: 東原敏昭 / 以下 日立 ) は このたび PC サーバである日立アドバンストサーバ

More information

2011年11月10日 クラウドサービスのためのSINET 学認説明会 九州地区説明会 九州大学キャンパス クラウドシステムの導入 伊東栄典 情報基盤研究開発センター 1

2011年11月10日 クラウドサービスのためのSINET 学認説明会 九州地区説明会 九州大学キャンパス クラウドシステムの導入 伊東栄典 情報基盤研究開発センター 1 2011年11月10日 クラウドサービスのためのSINET 学認説明会 九州地区説明会 九州大学キャンパス クラウドシステムの導入 伊東栄典 情報基盤研究開発センター ito.eisuke.523@m.kyushu-u.ac.jp 1 用 方 } } } } } 用 (Public Cloud) } Amazon EC2/S3/ElasticMapReduce } (Community Cloud)

More information

Microsoft Word - nvsi_090198_quantum dxi7500_nvb.doc

Microsoft Word - nvsi_090198_quantum dxi7500_nvb.doc Article ID: NVSI-090198JP Created: 2009/09/28 Revised: - Quantum DXi7500 と NetVault Backup による動作検証 1. 概要 Quantum DXi7500 は Dedupe 機能等を備えた Quantum 社の高性能なディスクベースのバックアップ装置です DXi7500 はハードウェア仮想テープ ライブラリ ( 以下

More information

ポストペタスケール高性能計算に資するシステムソフトウェア技術の創出 平成 23 年度採択研究代表者 H27 年度 実績報告書 藤澤克樹 九州大学マス フォア インダストリ研究所 教授 ポストペタスケールシステムにおける超大規模グラフ最適化基盤 1. 研究実施体制 (1) 大規模最適化 グループ( 九

ポストペタスケール高性能計算に資するシステムソフトウェア技術の創出 平成 23 年度採択研究代表者 H27 年度 実績報告書 藤澤克樹 九州大学マス フォア インダストリ研究所 教授 ポストペタスケールシステムにおける超大規模グラフ最適化基盤 1. 研究実施体制 (1) 大規模最適化 グループ( 九 ポストペタスケール高性能計算に資するシステムソフトウェア技術の創出 平成 23 年度採択研究代表者 H27 年度 実績報告書 藤澤克樹 九州大学マス フォア インダストリ研究所 教授 ポストペタスケールシステムにおける超大規模グラフ最適化基盤 1. 研究実施体制 (1) 大規模最適化 グループ( 九州大学 ) 1 研究代表者 : 藤澤克樹 ( 九州大学マス フォア インダストリ研究所 教授 ) 2

More information

PowerPoint プレゼンテーション

PowerPoint プレゼンテーション PC クラスタシンポジウム 日立のテクニカルコンピューティングへの取り組み 2010/12/10 株式会社日立製作所中央研究所清水正明 1 目次 1 2 3 日立テクニカルサーバラインナップ 日立サーバラインナップ GPU コンピューティングへの取り組み 4 SC10 日立展示 2 1-1 日立テクニカルサーバ : History & Future Almost 30 Years of Super

More information

目次 はじめに Introduction Analyzing Big Data Vectorwise and Hadoop Environments Vectorwise Hadoop Connector Perform

目次 はじめに Introduction Analyzing Big Data Vectorwise and Hadoop Environments Vectorwise Hadoop Connector Perform Vectorwise 3.0 Fast Answers from Hadoop Technical white paper - 1 - 目次 はじめに...- 3 - Introduction...- 3 - Analyzing Big Data...- 4 - Vectorwise and Hadoop Environments...- 5 - Vectorwise Hadoop Connector...-

More information

MAGNIA Storage Server Configuration Guide

MAGNIA Storage Server Configuration Guide MAGNIA シリーズ システム構成ガイド Storage Server 概要編 [2012.12] 価格について 本書に記載の価格はすべて税込です 据付調整費 使用済み商品のお引き取り費は含まれておりません もくじ MAGNIA Storage Server 構成ガイド概要編 ページ 概要 2 特長 3 ネットワーク構成例 5 システム構成セレクション 6 1 MAGNIA Storage Server

More information

Microsoft PowerPoint PCクラスタワークショップin京都.ppt

Microsoft PowerPoint PCクラスタワークショップin京都.ppt PC クラスタシステムへの富士通の取り組み 富士通株式会社株式会社富士通研究所久門耕一 29 年度に富士通が提供する ( した ) 大規模クラスタ 今年度はCPUとしてメモリバンド幅がNehalem, QDR- IB( 片方向 4GB/s) などPCクラスタにとって期待できる多くのコモディティコンポーネントが出現 これら魅力ある素材を使ったシステムとして 2つのシステムをご紹介 理化学研究所様 RICC(Riken

More information

目次 LS-DYNA 利用の手引き 1 1. はじめに 利用できるバージョン 概要 1 2. TSUBAME での利用方法 使用可能な LS-DYNA の実行 4 (1) TSUBAMEにログイン 4 (2) バージョンの切り替え 4 (3) インタラ

目次 LS-DYNA 利用の手引き 1 1. はじめに 利用できるバージョン 概要 1 2. TSUBAME での利用方法 使用可能な LS-DYNA の実行 4 (1) TSUBAMEにログイン 4 (2) バージョンの切り替え 4 (3) インタラ LS-DYNA 利用の手引 東京工業大学学術国際情報センター 2016.04 version 1.10 目次 LS-DYNA 利用の手引き 1 1. はじめに 1 1.1 利用できるバージョン 1 1.2 概要 1 2. TSUBAME での利用方法 1 2.1 使用可能な 1 2.2 LS-DYNA の実行 4 (1) TSUBAMEにログイン 4 (2) バージョンの切り替え 4 (3) インタラクティブ実行

More information

目次 1 はじめに 登録商標 商標 注意事項 免債事項 SR-IOV の機能概要 性能検証事例 測定環境 測定結果 各方式による共有 NIC 性能比較 ( ポートあ

目次 1 はじめに 登録商標 商標 注意事項 免債事項 SR-IOV の機能概要 性能検証事例 測定環境 測定結果 各方式による共有 NIC 性能比較 ( ポートあ ホワイトペーパー BladeSymphony Virtage SR-IOV のご紹介 2014 年 7 月発行 株式会社日立製作所 1 / 8 Copyright 2014 Hitachi, Ltd. All rights reserved 目次 1 はじめに... 3 1.1 登録商標 商標... 3 1.2 注意事項... 3 1.3 免債事項... 3 2 SR-IOV の機能概要... 4

More information

038_h01.pdf

038_h01.pdf 04 12Gb/ & PCIe Gen3 RAID P.09 P.16 P.12 P.13 P.10 P.14 P.12 P.12 P.16 P.08 P.09 P.10 P.14 P.16 P.09 12Gb/ & PCIe Gen3 RAID 05 12Gb/秒 & PCIe Gen3 6Gb/秒 & PCIe Gen3 6Gb/秒 & PCIe Gen3 Adaptec 7シリーズRAIDアダプタファミリ

More information

ペタスケールのデータを 処 理 するための 課 題 スパコンのストレージの 設 計 大 規 模 データ 処 理 基 盤 の 整 備 大 規 模 データ 共 有 方 法 スパコンのストレージ

ペタスケールのデータを 処 理 するための 課 題 スパコンのストレージの 設 計 大 規 模 データ 処 理 基 盤 の 整 備 大 規 模 データ 共 有 方 法 スパコンのストレージ TSUBAME2.0の ペタスケールデータ 処 理 基 盤 東 京 工 業 大 学 佐 藤 仁 情 報 爆 発 時 代 人 類 の 扱 う 情 報 量 の 爆 発 的 増 大 2000 年 以 降 は 指 数 的 な 増 加 例. CERNのLHC 実 験 では1 年 に15PBのデータが 生 成 他 の 科 学 技 術 分 野 (バイオインフォマティクス)なども 同 様 解 析 器 などのデバイスの

More information

Microsoft PowerPoint VIOPS.ppt

Microsoft PowerPoint VIOPS.ppt ウェブサービスとはてなと 仮想化技術 はてな田中慎司 stanaka @ hatena.ne.jp 2009/05/29 アジェンダ Web サービスのインフラ 三つの指標 仮想化技術 Xen はてなでの取り組み 仮想化を前提としたハードウェア Xen の運用 仮想化のメリット クラウドと仮想化 はてなのサービス群 自己紹介 ( 株 ) はてな執行役員 担当領域 システムアーキテクチャ スケーラビリティ

More information

日立製作所と日本オラクル、Linux 環境における

日立製作所と日本オラクル、Linux 環境における 2007 年 5 月 28 日 株式会社日立製作所 日本オラクル株式会社 日立製作所と日本オラクル Linux 環境における大規模 WEB システムの拡張性と可用性に関する最適な指針を公開 ~ 他社に先駆け BladeSymphony 8 ノード構成によるスケールアウトおよび Oracle Application Server 10g の可用性を Oracle GRID Center にて実証 ~

More information

富士通PRIMERGYサーバ/ETERNUSストレージとXsigo VP560/VP780の接続検証

富士通PRIMERGYサーバ/ETERNUSストレージとXsigo VP560/VP780の接続検証 富士通 PRIMERGY サーバ /ETERNUS ストレージと Xsigo VP560/VP780 の接続検証 2011 年 10 月 6 日 謝辞 このたび シーゴシステムズ I/O 仮想化コントローラとの接続検証試験にあたり 富士通検証センター ( 東京浜松町 ) 本検証関係者の皆様のご協力により 相互接続の確認を行うことができました 検証およびその準備にあたり ご協力いただきましたことを大変感謝申し上げます

More information

HPE StoreEasy ストレージ ファイルサーバーに最適な5つの理由(第6世代)

HPE StoreEasy ストレージ ファイルサーバーに最適な5つの理由(第6世代) HPE StoreEasy 5 HPE StoreEasy 5? HPE StoreEasyHPE StoreEasy HPE ProLiant NAS OS Windows Storage Server HPE HPE StoreEasy 5 HPE ProLiant Windows CAL - HPE StoreEasy 5 2 サー ーに 5 つ HPE ProLiant ト ー と に サポート

More information

HP StoreVirtual(LeftHand)

HP StoreVirtual(LeftHand) HP StoreVirtual LeftHand A HP StoreVirtual 4000/HP P4000 G2 SAS SERVER B SERVER C SERVER D CMC MDL-SAS ABCD SERVER B 1234 1 4 + RAID A A C C D B B D 1 2 3 2 3 4 RAID RAID RAID 50GB 50GB 200GB A B A D C

More information

Microsoft Word - gori_web原稿:TrusSPSにおけるNAS OSのパフォーマンス評価.docx

Microsoft Word - gori_web原稿:TrusSPSにおけるNAS OSのパフォーマンス評価.docx 本レポート内記載の数値は 当社ラボでの検証結果であり 実稼働環境では異なる場合があります また この数値を保証するものではありません 概要 TrusSPS ( 型番 :SPS-xx00SS12ES/A2US) と以下 NAS OS において パフォーマンス評価を実施し 下記にてレポート作成 NAS OS 1. NexsanStor (Solaris ベース ) NexentaStor-Community-3.0.0-1.iso

More information

1.3 ソフトウェア体系および対応表 (1) istorage ソフトウェアは istorage シリーズのディスクアレイを管理 および ディスクアレイが有する機能を制御するソフトウェア群です このソフトウェア群が提供するストレージ管理 制御機能を利用すると 様々なストレージソリューションを実現でき

1.3 ソフトウェア体系および対応表 (1) istorage ソフトウェアは istorage シリーズのディスクアレイを管理 および ディスクアレイが有する機能を制御するソフトウェア群です このソフトウェア群が提供するストレージ管理 制御機能を利用すると 様々なストレージソリューションを実現でき 1.3 ソフトウェア体系および対応表 (1) ソフトウェアは シリーズのディスクアレイを管理 および ディスクアレイが有する機能を制御するソフトウェア群です このソフトウェア群が提供するストレージ管理 制御機能を利用すると 様々なストレージソリューションを実現できます (1) ストレージ管理 - ストレージ統合管理 デバイス管理 : ストレージの構成や状態を管理するソフトウェア - 性能管理 : ストレージ

More information

はじめに Dell PowerVault DL2000 Powered by Symantec Backup Exec は シンプルで管理しやすいデータ保護機能を提供する 柔軟かつ経済的なバックアップソリューションです 本ホワイトペーパーでは PowerVault DL2000 の バリューシリーズ

はじめに Dell PowerVault DL2000 Powered by Symantec Backup Exec は シンプルで管理しやすいデータ保護機能を提供する 柔軟かつ経済的なバックアップソリューションです 本ホワイトペーパーでは PowerVault DL2000 の バリューシリーズ Dell PowerVault DL2000 のバックアップ性能 デルテクニカルホワイトペーパー Dell PowerVault DL2000 Powered By Symantec 作成 : Muffadal Quettawala Scott Reichmanis はじめに Dell PowerVault DL2000 Powered by Symantec Backup Exec は シンプルで管理しやすいデータ保護機能を提供する

More information

1重谷.PDF

1重谷.PDF RSCC RSCC RSCC BMT 1 6 3 3000 3000 200310 1994 19942 VPP500/32PE 19992 VPP700E/128PE 160PE 20043 2 2 PC Linux 2048 CPU Intel Xeon 3.06GHzDual) 12.5 TFLOPS SX-7 32CPU/256GB 282.5 GFLOPS Linux 3 PC 1999

More information

PowerPoint プレゼンテーション

PowerPoint プレゼンテーション Dell PowerEdge C6320 スケーラブルサーバアプライアンス 仮想化アプライアンスサーバ 最新のプロセッサを搭載したサーバプラットフォーム vsmp Foundation によるサーバ仮想化と統合化の適用 システムはセットアップを完了した状態でご提供 基本構成ではバックプレーン用のスイッチなどが不要 各ノード間を直接接続 冗長性の高いバックプレーン構成 利用するサーバプラットフォームは

More information

Microsoft Word - qtsi_120246jp_rhev.doc

Microsoft Word - qtsi_120246jp_rhev.doc Article ID: QTSI-120246JP Created: 2012/02/27 Revised: - Red Hat Enterprise Virtualization(RHEV) 3.0 環境での NetVault Backup を使用した各ノードのシステム保護 1. 概要 Red Hat Enterprise Virtualization(RHEV) は レッドハット社が提供する仮想化環境管理ソリューションです

More information

タイトル (46 pt. HP Simplified bold/MSPゴシック太字)

タイトル (46 pt. HP Simplified bold/MSPゴシック太字) オンプレミスからパブリッククラウドまで スケーラブルなストレージソリューション 日本ヒューレット パッカード株式会社テクノロジーコンサルティング統括本部コアテクノロジー部大矢俊夫氏 Agenda ストレージに求められているもの ニアライアン ストレージ スケーラブルなストレージソリューション 2 Red Hat Storage とは Red Hat Storage のアーキテクチャ 適用領域 特徴

More information

KEKCC のストレージ 2009 年 4 月 24 日 KEK 共通基盤研究施設計算科学センター 八代茂夫 2009/4/24 1/23

KEKCC のストレージ 2009 年 4 月 24 日 KEK 共通基盤研究施設計算科学センター 八代茂夫 2009/4/24 1/23 KEKCC のストレージ 2009 年 4 月 24 日 KEK 共通基盤研究施設計算科学センター 八代茂夫 2009/4/24 1/23 内容 新共通計算機システム ( データ解析システム KEKCC) の概要 仕様策定時にストレージ関係で検討したこと 2009/4/24 2/23 KEK 共通計算機システム データ解析システム (KEKCC) KEK のプロジェクト (jparc を含む ) のデータの保管および解析ためのシステム

More information

Windows Server 2016 Hyper-V ストレージQoS機能の強化

Windows Server 2016 Hyper-V ストレージQoS機能の強化 Windows Server 2016 Hyper-V ストレージ QoS 機能の強化 1. はじめに Windows Server 2012 R2 の Hyper-V ストレージ QoS(Quality of Service) 機能は 仮想ディスクに対する I/O 帯域制御において Hyper-V ホスト上の仮想マシン ( 以下 VM と略 ) に対してのみ管理が可能でした このため Hyper-V

More information

FIT2015( 第 14 回情報科学技術フォーラム ) RC-003 ファイル格納位置制御による Hadoop MapReduce ジョブの性能の向上 藤島永太山口実靖 工学院大学大学院工学研究科電気 電子工学専攻工学院大学工学部情報通信工学科 1. はじめに近年, 世界中の情報量が爆発的に増加し

FIT2015( 第 14 回情報科学技術フォーラム ) RC-003 ファイル格納位置制御による Hadoop MapReduce ジョブの性能の向上 藤島永太山口実靖 工学院大学大学院工学研究科電気 電子工学専攻工学院大学工学部情報通信工学科 1. はじめに近年, 世界中の情報量が爆発的に増加し RC-3 ファイル格納位置制御による Hadoop MapReduce ジョブの性能の向上 藤島永太山口実靖 工学院大学大学院工学研究科電気 電子工学専攻工学院大学工学部情報通信工学科 1. はじめに近年, 世界中の情報量が爆発的に増加しており, その情報を収集 蓄積 分析して有効に活用することに注目が集まっている. その膨大な情報を扱う方法として, ASF(Apache Software Foundation)

More information

HP High Performance Computing(HPC)

HP High Performance Computing(HPC) HP High Performance Computing HPC HPC HPC HPC HPC 1000 HPHPC HPC HP HPC HPC HPCHP HPC HP HPHPC HPC HP HPC HP IT IDCHP HPC 4 1 HPC HPCNo.1 HPCTOP5002008 6 HP 183 37% HP HPCHP B 1 Other 2Q08 HPC 2 20% 27%

More information

PowerPoint Presentation

PowerPoint Presentation データ爆発時代に最適な備える大規模 高速ストレージご紹介 Data Platform Conference Tokyo2017 Ray Akimoto DataDirect Networks Japan, Inc. 2 169 3 169PB DDN Japan 2016 年販売実績 4 DDN 知っていますか? DPCT 会場内 90% が知らない ( 秋元調べ ) 知っている 知らない 5 DDN

More information

最終版 _IBMストレージ_講演_西村様

最終版 _IBMストレージ_講演_西村様 AKB48 の映像編集を える 速システム基盤 IBM SDS+All Flash Storage アジェンダ 1. 会社紹介 2. 業務紹介 3. 課題 4. 解決 法 5. 導 結果 6. 今後の展望 2 1. 会社紹介 3 会社紹介 社名 株式会社ヴィジュアルノーツ (VISUALNOTES Inc.) 所在地 東京都千代 区外神 6-1-8 思い出ビル 7F 代表者 代表取締役 原 潤 創

More information

Microsoft Word - nvsi_080177jp_trendmicro_bakbone.doc

Microsoft Word - nvsi_080177jp_trendmicro_bakbone.doc Article ID: NVSI-080177JP Created: 2008/06/10 Revised: - 1. 検証目的 トレンドマイクロウイルス対策ソフト ServerProtect for Linux 3.0 とウイルスバスターコーポレートエディション 8.0 を組み合わせた NetVault Backup バックアップ動作検証 各クライアントが様々なファイルを書き込む中で ファイル サーバ自身とそのバックアップ

More information

CELSIUSカタログ(2012年7月版)

CELSIUSカタログ(2012年7月版) CELSIUS PC "MADE IN JAPAN" 2012.7 W520 ハイエンドの過酷な要求に応えるパワフルなデュアルと高信頼を搭載 RAID構成 選択可能 富士通がお勧めする Windows 7. ミニタワーエントリーモデル より速く より強力に 最新の技術をフル投入 スピードとパワー 安定性を提供 RAID構成 選択可能 Windows 7 Professional 32bit版 正規版

More information

【Cosminexus V9】クラウドサービスプラットフォーム Cosminexus

【Cosminexus V9】クラウドサービスプラットフォーム Cosminexus http://www.hitachi.co.jp/soft/ask/ http://www.hitachi.co.jp/cosminexus/ Printed in Japan(H) 2014.2 CA-884R データ管 タ管理 理 ノンストップデータベース データ管 タ管理 理 インメモリデータグリッド HiRDB Version 9 ucosminexus Elastic Application

More information

仮想ファイルプラットフォーム「Hitachi Virtual File Platform」のラインアップを刷新

仮想ファイルプラットフォーム「Hitachi Virtual File Platform」のラインアップを刷新 2012 年 7 月 17 日 株式会社日立製作所 仮想ファイルプラットフォーム Hitachi Virtual File Platform のラインアップを刷新 仮想ファイルプラットフォーム Hitachi Virtual File Platform 600N ( 左 クラスタ ) Hitachi Virtual File Platform 200N ( 右 シングルノード ) 株式会社日立製作所

More information

サーバー製品 Linux動作確認一覧表

サーバー製品 Linux動作確認一覧表 サーバー製品 システム構成図 2012 年 5 月 25 日 ご利用手順 1. 動作確認 本書にて当該ハードウェアと当該ディストリビューションの動作確認 (p.3 p.10) : 動作可能 2. 制限の確認 Kernel 制限 ハードウェア制限の確認 Linux 技術情報 /ProLiant サイト http://h50146.www5.hp.com/products/software/oe/linux/mainstream/

More information

KEK 技術研究会 2010/3/ /03/19 JPARC 実験データの共通計算機システムへの転送 高エネルギー加速器研究機構技術研究会 2010 年 3 月 19 日 KEK 共通基盤研究施設計算科学センター八代茂夫 2010/3/19 1/27 KEK 技術研究会 報告集の修正が入

KEK 技術研究会 2010/3/ /03/19 JPARC 実験データの共通計算機システムへの転送 高エネルギー加速器研究機構技術研究会 2010 年 3 月 19 日 KEK 共通基盤研究施設計算科学センター八代茂夫 2010/3/19 1/27 KEK 技術研究会 報告集の修正が入 JPARC 実験データの共通計算機システムへの転送 高エネルギー加速器研究機構技術研究会 2010 年 3 月 19 日 KEK 共通基盤研究施設計算科学センター八代茂夫 2010/3/19 1/27 KEK 技術研究会 報告集の修正が入っています HPSS サーバ計算機の仕様の修正 使用例 に認証のコマンドを追加 再測定した転送速度 NIC の変更後の測定 Web に報告集 本スライドを掲載済み

More information

12 PowerEdge PowerEdge Xeon E PowerEdge 11 PowerEdge DIMM Xeon E PowerEdge DIMM DIMM 756GB 12 PowerEdge Xeon E5-

12 PowerEdge PowerEdge Xeon E PowerEdge 11 PowerEdge DIMM Xeon E PowerEdge DIMM DIMM 756GB 12 PowerEdge Xeon E5- 12ways-12th Generation PowerEdge Servers improve your IT experience 12 PowerEdge 12 1 6 2 GPU 8 4 PERC RAID I/O Cachecade I/O 5 Dell Express Flash PCIe SSD 6 7 OS 8 85.5% 9 Dell OpenManage PowerCenter

More information

OSSTechプレゼンテーション

OSSTechプレゼンテーション Ver.3 ~ クラウド時代の ID 連携を支援する ~ オープンソース ソリューション テクノロジ株式会社 http://www.osstech.co.jp/ Copyright 2016 Open Source Solution Technology, Corp. 1 クラウド時代の ID 管理 1. 管理対象の分散化 オンプレミスとクラウドサービスの混在 システムごとの ID 管理 2. 3.

More information

<4D F736F F D B B B835E895E97708A4A8E6E82C A98418C6782CC8E6E93AE2E646F63>

<4D F736F F D B B B835E895E97708A4A8E6E82C A98418C6782CC8E6E93AE2E646F63> 京都大学学術情報メディアセンター 新スーパーコンピュータ運用開始と T2K 連携の始動 アピールポイント 61.2 テラフロップスの京大版 T2K オープンスパコン運用開始 東大 筑波大との T2K 連携による計算科学 工学分野におけるネットワーク型研究推進 人材育成 アプリケーション高度化支援の活動を開始概要国立大学法人京都大学 ( 総長 尾池和夫 ) 学術情報メディアセンター ( センター長 美濃導彦

More information

StoreEasy 1x40 RAID構成ガイド

StoreEasy 1x40 RAID構成ガイド StoreEasy 1x40 RAID 資料 日本ヒューレット パッカード株式会社 HP ストレージ事業統括 2014 年 12 月 StoreEasy ディスク概念情報 操作方法 StoreEasy でのストレージプロビジョニングの考え方 物理ディスク プール 仮想ディスク ボリューム 物理ディスクをプール単位でたばね RAID レベルを指定します プールから仮想ディスクを切り出します 仮想ディスクからボリュームを作成し

More information

Microsoft Word - nvsi_090200jp_r1_nvbsvr_mscs.doc

Microsoft Word - nvsi_090200jp_r1_nvbsvr_mscs.doc Article ID: NVSI-090200JP_R1 Created: 2010/2/4 Revised: 2010/9/17 NetVault Backup サーバと Windows Server 2008 / フェールオーバークラスタとの統合 1. 検証目的 Windows Server 2008 では アプリケーションの可用性を高めるフェールオーバークラスタ機能を提供しています 本検証では

More information

HPE Integrity NonStop NS2300 サーバー

HPE Integrity NonStop NS2300 サーバー HPE Integrity NonStop サーバー HPE Integrity NonStop NS2300 サーバー 製品の画像は 実際の製品と異なることがあります 概要 HPE Integrity NonStop NS2300 サーバーは J シリーズ OS を稼働する 番新しいエントリークラスのサーバーです このサーバーは HPE Integrity NonStop 製品ファミリーに新たに加わり

More information

Software-Defined Storage ware Virtual SAN ware Virtual SAN

Software-Defined Storage ware Virtual SAN ware Virtual SAN ware Virtual SAN 6.0 ware v1.0 / 2015 2 ...3 1.1 Software-Defined Storage...3 1.1.1...4 1.1.2...4 1.2 ware Virtual SAN...5 1.3...6 1.4...7 1.5 ware Virtual SAN 6.0...8 1.6...8 1.7...9 1.8...13 1.8.1 vsphere...13

More information

[4] ACP (Advanced Communication Primitives) [1] ACP ACP [2] ACP Tofu UDP [3] HPC InfiniBand InfiniBand ACP 2 ACP, 3 InfiniBand ACP 4 5 ACP 2. ACP ACP

[4] ACP (Advanced Communication Primitives) [1] ACP ACP [2] ACP Tofu UDP [3] HPC InfiniBand InfiniBand ACP 2 ACP, 3 InfiniBand ACP 4 5 ACP 2. ACP ACP InfiniBand ACP 1,5,a) 1,5,b) 2,5 1,5 4,5 3,5 2,5 ACE (Advanced Communication for Exa) ACP (Advanced Communication Primitives) HPC InfiniBand ACP InfiniBand ACP ACP InfiniBand Open MPI 20% InfiniBand Implementation

More information

Microsoft PowerPoint - GPUシンポジウム _d公開版.ppt [互換モード]

Microsoft PowerPoint - GPUシンポジウム _d公開版.ppt [互換モード] 200/0/9 数値流体解析の並列効率とその GPU による高速化の試み 清水建設 ( 株 ) 技術研究所 PHAM VAN PHUC ( ファムバンフック ) 流体計算時間短縮と GPU の活用の試み 現 CPUとの比較によりGPU 活用の可能性 現 CPU の最大利用 ノード内の最大計算資源の利用 すべてCPUコアの利用 適切なアルゴリズムの利用 CPU コア性能の何倍? GPU の利用の試み

More information

製品開発の現場では 各種のセンサーや測定環境を利用したデータ解析が行われ シミュレーションや動作検証等に役立てられています しかし 日々収集されるデータ量は増加し 解析も複雑化しており データ解析の負荷は徐々に重くなっています 例えば自動車の車両計測データを解析する場合 取得したデータをそのまま解析

製品開発の現場では 各種のセンサーや測定環境を利用したデータ解析が行われ シミュレーションや動作検証等に役立てられています しかし 日々収集されるデータ量は増加し 解析も複雑化しており データ解析の負荷は徐々に重くなっています 例えば自動車の車両計測データを解析する場合 取得したデータをそのまま解析 ホワイトペーパー Excel と MATLAB の連携がデータ解析の課題を解決 製品開発の現場では 各種のセンサーや測定環境を利用したデータ解析が行われ シミュレーションや動作検証等に役立てられています しかし 日々収集されるデータ量は増加し 解析も複雑化しており データ解析の負荷は徐々に重くなっています 例えば自動車の車両計測データを解析する場合 取得したデータをそのまま解析に使用することはできず

More information

Microsoft PowerPoint _SINET_cloud

Microsoft PowerPoint _SINET_cloud 塩基配列データベースを中心とした生物学系研究の情報基盤について 国立遺伝学研究所 DDBJセンター助教小笠原理 国立遺伝学研究所 遺伝研スパコン : 目的 1. 国際塩基配列データベース (International Nucleotide Sequence Database : INSD) の構築 2. 大学共同利用機関として 主に生物学医学系研究者への計算機資源の提供 遺伝研スパコン : 構成概略

More information

資料3 今後のHPC技術に関する研究開発の方向性について(日立製作所提供資料)

資料3 今後のHPC技術に関する研究開発の方向性について(日立製作所提供資料) 今後の HPC 技術に関する 研究開発の方向性について 2012 年 5 月 30 日 ( 株 ) 日立製作所情報 通信システム社 IT プラットフォーム事業本部 Hitachi, Hitachi, Ltd. Ltd. Hitachi 2012. 2012. Ltd. 2012. All rights All rights All rights reserved. reserved. reserved.

More information

PowerPoint プレゼンテーション

PowerPoint プレゼンテーション Computer simulations create the future 2015 年度第 1 回 AICS 公開ソフト講習会 K MapReduce ハンズオン 滝澤真一朗松田元彦丸山直也 理化学研究所計算科学研究機構プログラム構成モデル研究チーム 1 RIKEN ADVANCED INSTITUTE FOR COMPUTATIONAL SCIENCE KMR の導入方法を学ぶ 目的 KMRRUN

More information

160311_icm2015-muramatsu-v2.pptx

160311_icm2015-muramatsu-v2.pptx Linux におけるパケット処理機構の 性能評価に基づいた NFV 導 の 検討 村松真, 川島 太, 中 裕貴, 林經正, 松尾啓志 名古屋 業 学 学院 株式会社ボスコ テクノロジーズ ICM 研究会 2016/03/11 研究 的 VM 仮想 NIC バックエンド機構 仮想化環境 仮想スイッチ パケット処理機構 物理環境 性能要因を考察 汎 IA サーバ NFV 環境に適したサーバ構成を検討

More information

表 2 専用アカウント作成に対する負担金表 アカウント数 月額負担金 1 アカウント追加 1,000 円 表 3 定期バックアップに対する負担金表 容量 月額負担金 100GB 1,000 円 300GB 3,000 円 500GB 5,000 円 1000GB 10,000 円 定期バックアップは

表 2 専用アカウント作成に対する負担金表 アカウント数 月額負担金 1 アカウント追加 1,000 円 表 3 定期バックアップに対する負担金表 容量 月額負担金 100GB 1,000 円 300GB 3,000 円 500GB 5,000 円 1000GB 10,000 円 定期バックアップは ファイル共有サービスの運用状況 松岡孝 *1, 田島尚徳 *1, 出口大輔 *2, 森健策 *2 *1 名古屋大学情報連携統括本部情報推進部情報基盤課 *2 名古屋大学情報連携統括本部情報戦略室 matsuoka@media.nagoya-u.ac.jp 概要 : 近年, 教育研究活動に関連する様々なデータを適切に管理することが強く求められている. この問題の解決を目指し, 名古屋大学では教育研究に関わるデータの保存場所を組織的に整備する取り組みを行っている.

More information

HP Z200 Intel i5 CPU 3.33GHz Low Profile 仕様 380 LP Assist 2.2 Instinct v3.0 以降 いいえいいえはいいいえ 4GB および 8GB DDR ECC (2 枚構成の DIMM) ISIS へ接続するにはオンボードの

HP Z200 Intel i5 CPU 3.33GHz Low Profile 仕様 380 LP Assist 2.2 Instinct v3.0 以降 いいえいいえはいいいえ 4GB および 8GB DDR ECC (2 枚構成の DIMM) ISIS へ接続するにはオンボードの Composer 6, Symphony 6, NewsCutter 10, Assist 2.5, Instinct 3.5 認定 PC システム システム PC デスクトップ HP Z800 DUal 6- core 2.66GHz (X5650) 3800 5.0.3/9.0.3 はいいいえはいはいはいはい (3 枚構成の DIMM) HP Z800 Dual Quad core 2.93GHz

More information

CELSIUSカタログ(2012年5月版)

CELSIUSカタログ(2012年5月版) CELSIUS PC "MADE IN JAPAN" 2012.5 New W520 ハイエンドの過酷な要求に応えるパワフルなデュアルと高信頼を搭載 トを搭載 RAID構成 選択可能 New グラフィックス/GPUカード 500GB 1TB 500GB 2 RAID1 Quadro 5000 Quadro 4000 Quadro 2000 Quadro 600 4 Quadro 4000 TeslaTM

More information

B 2 Thin Q=3 0 0 P= N ( )P Q = 2 3 ( )6 N N TSUB- Hub PCI-Express (PCIe) Gen 2 x8 AME1 5) 3 GPU Socket 0 High-performance Linpack 1

B 2 Thin Q=3 0 0 P= N ( )P Q = 2 3 ( )6 N N TSUB- Hub PCI-Express (PCIe) Gen 2 x8 AME1 5) 3 GPU Socket 0 High-performance Linpack 1 TSUBAME 2.0 Linpack 1,,,, Intel NVIDIA GPU 2010 11 TSUBAME 2.0 Linpack 2CPU 3GPU 1400 Dual-Rail QDR InfiniBand TSUBAME 1.0 30 2.4PFlops TSUBAME 1.0 Linpack GPU 1.192PFlops PFlops Top500 4 Achievement of

More information

富士通PCサーバ「PRIMERGY RX2530 M4」における「TeraStation TS5010 / TS3010」シリーズ動作検証報告

富士通PCサーバ「PRIMERGY RX2530 M4」における「TeraStation TS5010 / TS3010」シリーズ動作検証報告 富士通 PC サーバ PRIMERGY RX2530 M4 における TeraStation TS5010 / TS3010 シリーズ動作検証報告 検証日 : 平成 29 年 12 月 11 日 ~12 月 22 日 検証場所 : 株式会社バッファロー本社 1 目次 1. 本動作検証の目的... 3 2. 本動作検証の環境について... 3 2.1 検証環境... 3 2.2 NAS の構成...

More information