( 4 ) GeoFEM ( 5 ) MDTEST ( 6 ) IOR 2 Oakleaf-FX 3 Oakleaf-FX 4 Oakleaf-FX Oakleaf-FX Oakleaf-FX 1 Oakleaf-FX 1 Oakleaf- FX SR11000/J2 HA8000 T
|
|
|
- みずき くぬぎ
- 7 years ago
- Views:
Transcription
1 Oakleaf-FX(Fujitsu PRIMEHPC FX10) 1,a) , Oakleaf-FX (Fujitsu PRIMEHPC FX10) Oakleaf-FX SPARC64IXfx FEFS 1.13PFLOPS Performance Evaluation of Oakleaf-FX (Fujitsu PRIMEHPC FX10) Supercomputer System Satoshi OHSHIMA 1,a) Hideyuki JITSUMOTO 1 Yoshikazu KAMOSHIDA 1 Takahiro KATAGIRI 1 Kenjiro TAURA 1,2 Kengo NAKAJIMA 1 Abstract: We report the performance of Oakleaf-FX (Fujitsu PRIMEHPC FX10) supercomputer system which has begun in April 2012 at Kashiwa campus, Information Technology Center, The University of Tokyo. This system is a large-scale parallel computer with SPARC64IXfx CPU and FEFS file system. The peak performance is 1.13 PFLOPS. Moreover, this system is compatibility of the K computer and expected to contribute a lot to progress of computer/computational science. In this paper, we report some results of performance evaluation on this supercomputer system SR11000/J2 SR11000/J2 SR11000/J2 SMP 2 SR16000 M1 *1 Yayoi 1 Information Technology Center, The University of Tokyo 2 Graduate School of Information Science and Technology, The University of Tokyo a) [email protected] [1][2] PRIMEHPC FX10 *1 Oakleaf-FX [3] [4] 2 Oakleaf-FX 6 ( 1 ) STREAM ( 2 ) HPL ( 3 ) MPIFFT *1 Yayoi =Yayoi Oakleaf-FX =oakleaf c 2012 Information Processing Society of Japan 1
2 ( 4 ) GeoFEM ( 5 ) MDTEST ( 6 ) IOR 2 Oakleaf-FX 3 Oakleaf-FX 4 Oakleaf-FX Oakleaf-FX Oakleaf-FX 1 Oakleaf-FX 1 Oakleaf- FX SR11000/J2 HA8000 T2K SR16000/M1 Oakleaf-FX 4800 Tofu GPU 1.13PFLOPS Linpack 1.40MW 2.0MWh Oakleaf-FX(Fujitsu PRIMEHPC FX10) 1 Oakleaf-FX Oakleaf-FX CPU SPARC64IXfx SPARC64IXfx 16 SPARC64 (SPARC64V9 + HPC-ACE) CPU Oakleaf-FX SPARC64IXfx 1.848GHz 2 SPARC64IXfx CPU SMT 1CPU 236.5GFLOPS(1.848GHz 8IPC 16 ) L1 L1 32KB L2 1CPU 12MB L3 VISIMPACT 1 SPARC64IXfx 1 1 ECC DDR3 32GB Inter Connect Controller, ICC 4 4,800 =76, PFLOPS 150TByte 2.3 Oakleaf-FX 6 / (Tofu *1 ) 3 Oakleaf-FX ICC 10 ICC X (X+,X-) Y (Y+,Y-) Z (Z+,Z-) A B (B+,B-) C X Y Z B A C X,Y,Z 12 Tofu Oakleaf-FX *1 Torus fusion c 2012 Information Processing Society of Japan 2
3 情報処理学会研究報告 図 1 Oakleaf-FX の全体構成 表 1 Oakleaf-FX の性能諸元 PRIMEHPC FX10 SR16000/M1 SR11000/J2 HA8000 (Oakleaf-FX) (Yayoi) 旧システム (T2K 東大版) SPARC64IXfx Power7 Power5+ Opteron GHz 3.83 GHz 2.3 GHz 2.3 GHz 総計算ノード数 コア数/計算ノード 理論演算性能/コア GFLOPS GFLOPS 9.2 GFLOPS 9.2 GFLOPS 理論演算性能/計算ノード GFLOPS GFLOPS GFLOPS GFLOPS 理論演算性能/全計算ノード 1.13 PFLOPS GFLOPS GFLOPS TFLOPS CPU 主記憶容量/計算ノード 32 GByte 200 GByte 128 GByte 32 GByte 使用可能容量 (28 GByte) (170 GByte) (112 GByte) (28 GByte) 主記憶容量/全計算ノード 150 TByte GByte GByte TByte B/F 値 非対応 非対応 SMT 機能 非対応 計算ノード間 6 次元メッシュ/トーラス ネットワーク構成 (Tofu ネットワーク) 計算ノード間転送性能 ストレージ容量 20 GByte 双方向 4 方向同時通信可能 1.1 PByte PByte (+ 3.6 PByte) CPU/主記憶間物理転送 性能/計算ノード 85 GByte/sec 最大 4 スレッド/コア 運用時最大 2 スレッド/コア 階層型完全結合 3 段クロスバー フルバイセクション バンド幅 FatTree A 群 5 GByte/sec 双方向 96 GByte/sec 双方向 12 GByte/sec 双方向 556 TByte 94.2 TByte 1 PByte 512 GByte/sec GByte/sec 42 GByte/sec B 群 2.5 GByte/sec 双方向 ワークは最大で 3 次元のトーラス空間となり 複雑な 6 次 ルファイルシステムと共有ファイルシステムを備えてい 元の形状を強く意識せずとも常に高いネットワーク性能を る ローカルファイルシステムはステージング用に用意さ 得ることができる れたシステムである PRIMERGY RX300 S6 と ETER- NUS DX80 S2 から構成されており 1.1PByte の容量と 2.4 ストレージ Oakleaf-FX は 2 系統のストレージシステム ローカ c 2012 Information Processing Society of Japan 131GByte/sec の性能を備えている 一方の共有ファイル システムは全計算ノードに加えてログインノードからも 3
4 3 Oakleaf-FX Tofu PRIMERGY RX300 S6 ETERNUS DX80 S2 ETERNUS DX410 S2 2.1PByte 136GByte/sec 2 FEFS(Fujitsu Exabyte File System) FEFS Lustre Oakleaf-FX 3.6PByte Lustre STREAM STREAM [6] STREAM MB/s Copy c[j] = a[j] Scale b[j] = scalar*c[j] Add c[j] = a[j]+b[j] Triad a[j] = b[j]+scalar*c[j] 2 STREAM MB/sec Oakleaf-FX Yayoi PRIMEHPC FX10 SR16000/M1 Copy (68.9%) (42.9%) Scale (68.7%) (43.2%) Add (74.3%) (48.9%) Triad (74.3%) (48.7%) 1 OpenMP 16 Fortran -Kopenmp -Kfast -KXFILL -Kprefetch sequential=soft -Kprefetch double line L2 - Kprefetch line L2=64 -Koptmsg -Qt C C (N) 80,000,512 (NTIMES) (10) OMP NUM THREADS PAR- ALLEL 16 Yayoi(SR16000/M1 32 [2] ) 2 Oakleaf-FX Yayoi 25% Yayoi 50% Oakleaf-FX 68% 3.2 HPL HPCC (HPCC 1.4.0)[7] HPL c 2012 Information Processing Society of Japan 4
5 LU - BLAS3 DGEMM C Fortran BLAS BLAS -O3 - Kopenmp,parallel,fast -Nsrc,sta -Koptmsg C -Kopenmp,parallel,ocl,fast -Koptmsg -Qt Fortran CPU MPI 1 16 MPI 1 MPI hpccinf.txt Ns = 56000, NBs = 448, Ps = 1, Qs = TFLOPS, 90.59% Yayoi TFLOPS, 84.65% [2] CPU MPI 1 16 MPI 4800 hpccinf.txt Ns = , NBs = 448, Ps = 30, Qs = PFLOPS, 91.89% TOP500 List 18 [14] kW 3.3 MPIFFT HPCC (HPCC 1.4.0) FFT MPI Alltoall C Fortran FFTW, SSLII SSLII BLAS/LAPACK -Kfast -Kopenmp - Nsrc,sta -Koptmsg C -Kfast -Kopenmp -mlcmain=main -SSL2BLAMP Fortran HPCC -DHPCC FFT 235 -DHPCC MEMALLCTR -DRA SANDIA NOPT (mpifft.o, wrapmpifftw.o, pzfft1d.o -DUSING FFTW ) 8 1 MPI 1 16 MPI 128 hpccinf.txt Ns = , NBs = 80, Ps = 1, Qs = 8 Vector Size Vector size: 3,200,000, GFLOPS, 1.59% Yayoi GFLOPS, 1.92% [2] B/F Oakleaf-FX 3.4 GeoFEM GeoFEM [8] GeoFEM-Cube[9] GeoFEM [10] ( 1 ) Cube PGA ( 2 ) ( 3 ) GFLOPS c 2012 Information Processing Society of Japan 5
6 4 Cube OpenMP FOR- TRAN90 MPI GeoFEM [8] SMP MPI OpenMP Hybrid OpenMP MPI [10] 3 GeoFEM 4 Cube cc-numa HA8000. GeoFEM-Cube GeoFEM-Cube SGS(Symmetric Gauss-Seidel)[10] (Conjugate Gradient CG) SGS/CG GeoFEM (a) CRS(Compressed Row Storage) RCM RCM Cyclic cyclic multicoloring CM CM-RCM 3 Flat MPI Hybrid Hybrid Hybrid a b HB a b a MPI OpenMP b MPI MPI , ,000 1 Hitachi SR11000/J2 Hitachi SR11K/J2 Hitachi SR16000/M1 Hitachi SR16K/M1 Hitachi HA8000 T2K FX10 Flat MPI Oakleaf-FX 6.77% 8.59% SPARC64 VIIIfx Oakleaf-FX SPARC64 IXfx % 25% Oakleaf-FX SR16K/M1 Power7 Byte/Flop SR16K/M1 3.5 MDTEST MDTEST MDTEST Lawrence Livermore National Laboratory (LLNL) Livermore Computing Center I/O [13] MDTEST (b) DJDS(Descending order Jagged Diagonal Storage) 2 GeoFEM-Cube CRS SGS A ILU [10] GeoFEM Multicoloring MC Reverse Cuthill-McKee 1 10, 000 5, MDTEST c 2012 Information Processing Society of Japan 6
7 3 GeoFEM-Cube 1 Flat MPI , ,000 Hitachi SR11000/J2 Hitachi SR11K/J2 Hitachi SR16000/M1 Hitachi SR16K/M1 Hitachi HA8000 T2K Fujitsu PRIMEHPC FX10 Oakleaf-FX Hitachi Hitachi T2K Fujitsu FX10 SR11K/J2 SR16K/M1 Oakleaf-FX IBM IBM AMD SPARC64 SPARC64 Processor Power5+ Power7 Opteron8356 IXfx VIIIfx 2.3 GHz 3.83 GHz 2.3 GHz GHz 2.0 GHz Core #/Node Peak Performance (GFLOPS) STREAM Triad (GB/s) Byte/Flop GeoFEM-Cube (GFLOPS) % to Peak Last Level Cache/core (MB) (Operations per second) 1 I/O MDTEST 1 2 / Oakleaf-FX Yayoi Yayoi 1 8 5,892 / 8,302 / 7,044 / 5,796 / Oakleaf-FX Yayoi 1/4 Yayoi GPFS Lustre FEFS 3.6 IOR IOR IOR MDTEST LLNL Livermore Computing Center I/O 5 MDTEST (1 ) 6 MDTEST (32 ) 4 IOR 1 (MB/sec) 4, , (ior-multi) (MB/sec) 139, , (ior-multi) (MB/sec) N/A 80, (ior-single) IOR c 2012 Information Processing Society of Japan 7
8 ior-multi ior-single POSIX I/O 1 1MiB 4 1 ior-multi GiB 4TiB 4GB/ Tofu 5GB/ ior-multi 1 32TiB IOR 139GB/ 134GB/ 1, GiB ( 32.2 TiB) 1, GiB ( TiB) ior-single 1, GiB ( TiB) 80.7 GB/ FEFS Lustre OST Lustre FEFS 20, 000 OST MiB IOR Yayoi Yayoi 10GB/ Oakleaf-FX 13 Yayoi ior-multi ior-single Oakleaf-FX 4 10GB/ I/O GPFS Lustre 4. Oakleaf-FX(Fujitsu PRIMEHPC FX10) Oakleaf-FX Oakleaf-FX [1] SR16000 SMP Yayoi [2],,,,, : SMP (HI- TACHI SR16000 M1), (HPC-133) (2012). [3] PRIMEHPC FX10 primehpc/. [4] FX10 Oakleaf-FX jp/system/fx10/. [5] HA8000 T2K ha8000/. [6] STREAM BENCHMARK edu/stream/. [7] HPC Challenge Benchmark hpcc/. [8] GeoFEM [9] UT-HPC benchmark ac.jp/ut-hpc-benchmark/. [10] HPC [11] Mattson, T.G., Sanders, B.A., Massingill, B.L.: Patterns for Parallel Programming, Software Patterns Series (SPS), Addison-Wesley (2005). [12] Nakajima, K.: New Strategy for Coarse Grid Solvers in Parallel Multigrid Methods using OpenMP/MPI Hybrid Programming Models, ACM Proceedings of PPoPP/PMAM 2012, New Orleans, LA, USA (2012). [13] Scalable I/O Benchmark Downloads, Lawrence Livermore National Laboratory gov/?set=code&page=sio downloads. [14] TOP500 List - June 2012 (1-100) TOP500 Supercomputing Sites 06/100. c 2012 Information Processing Society of Japan 8
東京大学情報基盤センターFX10スパコンシステム(Oakleaf-FX)活用事例
FX10 Oakleaf-FX Practical use of FX10 Supercomputer System (Oakleaf-FX) of Information Technology Center, The University of Tokyo 坂口吉生 小倉崇浩 あらまし FUJITSU Supercomputer PRIMEHPC FX10 Oakleaf-FX 2012 4 Oakleaf-FX
09中西
PC NEC Linux (1) (2) (1) (2) 1 Linux Linux 2002.11.22) LLNL Linux Intel Xeon 2300 ASCIWhite1/7 / HPC (IDC) 2002 800 2005 2004 HPC 80%Linux) Linux ASCI Purple (ASCI 100TFlops Blue Gene/L 1PFlops (2005)
スーパーコンピュータ「京」の概要
Overview of the K computer System 宮崎博行 草野義博 新庄直樹 庄司文由 横川三津夫 渡邊貞 あらまし HPCI CPUOS LINPACK 10 PFLOPSCPU 8 Abstract RIKEN and Fujitsu have been working together to develop the K computer, with the aim of beginning
GPU n Graphics Processing Unit CG CAD
GPU 2016/06/27 第 20 回 GPU コンピューティング講習会 ( 東京工業大学 ) 1 GPU n Graphics Processing Unit CG CAD www.nvidia.co.jp www.autodesk.co.jp www.pixar.com GPU n GPU ü n NVIDIA CUDA ü NVIDIA GPU ü OS Linux, Windows, Mac
資料3 今後のHPC技術に関する研究開発の方向性について(日立製作所提供資料)
今後の HPC 技術に関する 研究開発の方向性について 2012 年 5 月 30 日 ( 株 ) 日立製作所情報 通信システム社 IT プラットフォーム事業本部 Hitachi, Hitachi, Ltd. Ltd. Hitachi 2012. 2012. Ltd. 2012. All rights All rights All rights reserved. reserved. reserved.
ÊÂÎó·×»»¤È¤Ï/OpenMP¤Î½éÊâ¡Ê£±¡Ë
2015 5 21 OpenMP Hello World Do (omp do) Fortran (omp workshare) CPU Richardson s Forecast Factory 64,000 L.F. Richardson, Weather Prediction by Numerical Process, Cambridge, University Press (1922) Drawing
23 Fig. 2: hwmodulev2 3. Reconfigurable HPC 3.1 hw/sw hw/sw hw/sw FPGA PC FPGA PC FPGA HPC FPGA FPGA hw/sw hw/sw hw- Module FPGA hwmodule hw/sw FPGA h
23 FPGA CUDA Performance Comparison of FPGA Array with CUDA on Poisson Equation ([email protected]), ([email protected]), ([email protected]), ([email protected]),
スパコンに通じる並列プログラミングの基礎
2016.06.06 2016.06.06 1 / 60 2016.06.06 2 / 60 Windows, Mac Unix 0444-J 2016.06.06 3 / 60 Part I Unix GUI CUI: Unix, Windows, Mac OS Part II 0444-J 2016.06.06 4 / 60 ( : ) 6 6 ( ) 6 10 6 16 SX-ACE 6 17
Microsoft PowerPoint - stream.ppt [互換モード]
STREAM 1 Quad Opteron: ccnuma Arch. AMD Quad Opteron 2.3GHz Quad のソケット 4 1 ノード (16コア ) 各ソケットがローカルにメモリを持っている NUMA:Non-Uniform Access ローカルのメモリをアクセスして計算するようなプログラミング, データ配置, 実行時制御 (numactl) が必要 cc: cache-coherent
スパコンに通じる並列プログラミングの基礎
2018.06.04 2018.06.04 1 / 62 2018.06.04 2 / 62 Windows, Mac Unix 0444-J 2018.06.04 3 / 62 Part I Unix GUI CUI: Unix, Windows, Mac OS Part II 2018.06.04 4 / 62 0444-J ( : ) 6 4 ( ) 6 5 * 6 19 SX-ACE * 6
HPC可視化_小野2.pptx
大 小 二 生 高 方 目 大 方 方 方 Rank Site Processors RMax Processor System Model 1 DOE/NNSA/LANL 122400 1026000 PowerXCell 8i BladeCenter QS22 Cluster 2 DOE/NNSA/LLNL 212992 478200 PowerPC 440 BlueGene/L 3 Argonne
Microsoft PowerPoint - RBU-introduction-J.pptx
Reedbush-U の概要 ログイン方法 東京大学情報基盤センタースーパーコンピューティング研究部門 http://www.cc.u-tokyo.ac.jp/ 東大センターのスパコン 2 基の大型システム,6 年サイクル (?) FY 08 09 10 11 12 13 14 15 16 17 18 19 20 21 22 Hitachi SR11K/J2 IBM Power 5+ 18.8TFLOPS,
1 GPU GPGPU GPU CPU 2 GPU 2007 NVIDIA GPGPU CUDA[3] GPGPU CUDA GPGPU CUDA GPGPU GPU GPU GPU Graphics Processing Unit LSI LSI CPU ( ) DRAM GPU LSI GPU
GPGPU (I) GPU GPGPU 1 GPU(Graphics Processing Unit) GPU GPGPU(General-Purpose computing on GPUs) GPU GPGPU GPU ( PC ) PC PC GPU PC PC GPU GPU 2008 TSUBAME NVIDIA GPU(Tesla S1070) TOP500 29 [1] 2009 AMD
[4] ACP (Advanced Communication Primitives) [1] ACP ACP [2] ACP Tofu UDP [3] HPC InfiniBand InfiniBand ACP 2 ACP, 3 InfiniBand ACP 4 5 ACP 2. ACP ACP
InfiniBand ACP 1,5,a) 1,5,b) 2,5 1,5 4,5 3,5 2,5 ACE (Advanced Communication for Exa) ACP (Advanced Communication Primitives) HPC InfiniBand ACP InfiniBand ACP ACP InfiniBand Open MPI 20% InfiniBand Implementation
I I / 47
1 2013.07.18 1 I 2013 3 I 2013.07.18 1 / 47 A Flat MPI B 1 2 C: 2 I 2013.07.18 2 / 47 I 2013.07.18 3 / 47 #PJM -L "rscgrp=small" π-computer small: 12 large: 84 school: 24 84 16 = 1344 small school small
Microsoft PowerPoint - CCS学際共同boku-08b.ppt
マルチコア / マルチソケットノードに おけるメモリ性能のインパクト 研究代表者朴泰祐筑波大学システム情報工学研究科 [email protected] アウトライン 近年の高性能 PC クラスタの傾向と問題 multi-core/multi-socket ノードとメモリ性能 メモリバンド幅に着目した性能測定 multi-link network 性能評価 まとめ 近年の高性能 PC
main.dvi
PC 1 1 [1][2] [3][4] ( ) GPU(Graphics Processing Unit) GPU PC GPU PC ( 2 GPU ) GPU Harris Corner Detector[5] CPU ( ) ( ) CPU GPU 2 3 GPU 4 5 6 7 1 [email protected] 45 2 ( ) CPU ( ) ( ) () 2.1
AMD/ATI Radeon HD 5870 GPU DEGIMA LINPACK HD 5870 GPU DEGIMA LINPACK GFlops/Watt GFlops/Watt Abstract GPU Computing has lately attracted
DEGIMA LINPACK Energy Performance for LINPACK Benchmark on DEGIMA 1 AMD/ATI Radeon HD 5870 GPU DEGIMA LINPACK HD 5870 GPU DEGIMA LINPACK 1.4698 GFlops/Watt 1.9658 GFlops/Watt Abstract GPU Computing has
スパコンに通じる並列プログラミングの基礎
2018.09.10 [email protected] ( ) 2018.09.10 1 / 59 [email protected] ( ) 2018.09.10 2 / 59 Windows, Mac Unix 0444-J [email protected] ( ) 2018.09.10 3 / 59 Part I Unix GUI CUI:
untitled
1 NAREGI 2 (NSF) CyberInfrastructure Teragrid (EU) E-Infrastructure EGEE Enabling Grids for E-science E ) DEISA (Distributed European Infrastructure for Supercomputing applications) EPSRC) UK e-science
IPSJ SIG Technical Report Vol.2011-IOT-12 No /3/ , 6 Construction and Operation of Large Scale Web Contents Distribution Platfo
1 1 2 3 4 5 1 1, 6 Construction and Operation of Large Scale Web Contents Distribution Platform using Cloud Computing 1. ( ) 1 IT Web Yoshihiro Okamoto, 1 Naomi Terada and Tomohisa Akafuji, 1, 2 Yuko Okamoto,
資料2-1 計算科学・データ科学融合へ向けた東大情報基盤センターの取り組み(中村委員 資料)
資料 2-1 計算科学 データ科学融合へ向けた 東大情報基盤センターの取り組み 東京大学情報基盤センター中村宏 東大情報基盤センターのスパコン FY 08 09 10 11 12 13 14 15 16 17 18 19 20 21 22 Hitachi SR11K/J2 IBM Power-5+ 18.8TFLOPS, 16.4TB Hitachi HA8000 (T2K) AMD Opteron
倍々精度RgemmのnVidia C2050上への実装と応用
.. [email protected] http://accc.riken.jp/maho/,,, 2011/2/16 1 - : GPU : SDPA-DD 10 1 - Rgemm : 4 (32 ) nvidia C2050, GPU CPU 150, 24GFlops 25 20 GFLOPS 15 10 QuadAdd Cray, QuadMul Sloppy Kernel QuadAdd Cray,
Microsoft PowerPoint - ★13_日立_清水.ppt
PC クラスタワークショップ in 京都 日立テクニカルコンピューティングクラスタ 2008/7/25 清水正明 日立製作所中央研究所 1 目次 1 2 3 4 日立テクニカルサーバラインナップ SR16000 シリーズ HA8000-tc/RS425 日立自動並列化コンパイラ 2 1 1-1 日立テクニカルサーバの歴史 最大性能 100TF 10TF 30 年間で百万倍以上の向上 (5 年で 10
GPU GPU CPU CPU CPU GPU GPU N N CPU ( ) 1 GPU CPU GPU 2D 3D CPU GPU GPU GPGPU GPGPU 2 nvidia GPU CUDA 3 GPU 3.1 GPU Core 1
GPU 4 2010 8 28 1 GPU CPU CPU CPU GPU GPU N N CPU ( ) 1 GPU CPU GPU 2D 3D CPU GPU GPU GPGPU GPGPU 2 nvidia GPU CUDA 3 GPU 3.1 GPU Core 1 Register & Shared Memory ( ) CPU CPU(Intel Core i7 965) GPU(Tesla
211 年ハイパフォーマンスコンピューティングと計算科学シンポジウム Computing Symposium 211 HPCS /1/18 a a 1 a 2 a 3 a a GPU Graphics Processing Unit GPU CPU GPU GPGPU G
211 年ハイパフォーマンスコンピューティングと計算科学シンポジウム Computing Symposium 211 HPCS211 211/1/18 GPU 4 8 BLAS 4 8 BLAS Basic Linear Algebra Subprograms GPU Graphics Processing Unit 4 8 double 2 4 double-double DD 4 4 8 quad-double
IPSJ SIG Technical Report Vol.2013-ARC-206 No /8/1 Android Dominic Hillenbrand ODROID-X2 GPIO Android OSCAR WFI 500[us] GPIO GP
Android 1 1 1 1 1 Dominic Hillenbrand 1 1 1 ODROID-X2 GPIO Android OSCAR WFI 500[us] GPIO GPIO API GPIO API GPIO MPEG2 Optical Flow MPEG2 1PE 0.97[W] 0.63[W] 2PE 1.88[w] 0.46[W] 3PE 2.79[W] 0.37[W] Optical
1 2 4 5 9 10 12 3 6 11 13 14 0 8 7 15 Iteration 0 Iteration 1 1 Iteration 2 Iteration 3 N N N! N 1 MOPT(Merge Optimization) 3) MOPT 8192 2 16384 5 MOP
10000 SFMOPT / / MOPT(Merge OPTimization) MOPT FMOPT(Fast MOPT) FMOPT SFMOPT(Subgrouping FMOPT) SFMOPT 2 8192 31 The Proposal and Evaluation of SFMOPT, a Task Mapping Method for 10000 Tasks Haruka Asano
Vol.214-HPC-145 No /7/3 C #pragma acc directive-name [clause [[,] clause] ] new-line structured block Fortran!$acc directive-name [clause [[,] c
Vol.214-HPC-145 No.45 214/7/3 OpenACC 1 3,1,2 1,2 GPU CUDA OpenCL OpenACC OpenACC High-level OpenACC CPU Intex Xeon Phi K2X GPU Intel Xeon Phi 27% K2X GPU 24% 1. TSUBAME2.5 CPU GPU CUDA OpenCL CPU OpenMP
Agenda GRAPE-MPの紹介と性能評価 GRAPE-MPの概要 OpenCLによる四倍精度演算 (preliminary) 4倍精度演算用SIM 加速ボード 6 processor elem with 128 bit logic Peak: 1.2Gflops
Agenda GRAPE-MPの紹介と性能評価 GRAPE-MPの概要 OpenCLによる四倍精度演算 (preliminary) 4倍精度演算用SIM 加速ボード 6 processor elem with 128 bit logic Peak: 1.2Gflops ボードの概要 Control processor (FPGA by Altera) GRAPE-MP chip[nextreme
スライド 1
GPU クラスタによる格子 QCD 計算 広大理尾崎裕介 石川健一 1.1 Introduction Graphic Processing Units 1 チップに数百個の演算器 多数の演算器による並列計算 ~TFLOPS ( 単精度 ) CPU 数十 GFLOPS バンド幅 ~100GB/s コストパフォーマンス ~$400 GPU の開発環境 NVIDIA CUDA http://www.nvidia.co.jp/object/cuda_home_new_jp.html
CCS HPCサマーセミナー 並列数値計算アルゴリズム
大規模系での高速フーリエ変換 2 高橋大介 [email protected] 筑波大学計算科学研究センター 2016/6/2 計算科学技術特論 B 1 講義内容 並列三次元 FFT における自動チューニング 二次元分割を用いた並列三次元 FFT アルゴリズム GPU クラスタにおける並列三次元 FFT 2016/6/2 計算科学技術特論 B 2 並列三次元 FFT における 自動チューニング
001.dvi
THE SCIENCE AND ENGINEERING DOSHISHA UNIVERSITY, VOL.XX, NO.Y NOVEMBER 2003 Construction of Tera Flops PC Cluster System and evaluation of performance using Benchmark Tomoyuki HIROYASU * Mitsunori MIKI
第3回戦略シンポジウム緑川公開用
2010 5 15 - - (SDSM) SMS MpC DLM Top500 Top 500 list of Supercomputers (http://www.top500.org) Top 500 list of Supercomputers (http://www.top500.org) 1998 11 SMP Symmetric Multiprocessor CPU CPU CPU CPU
Microsoft PowerPoint PCクラスタワークショップin京都.ppt
PC クラスタシステムへの富士通の取り組み 富士通株式会社株式会社富士通研究所久門耕一 29 年度に富士通が提供する ( した ) 大規模クラスタ 今年度はCPUとしてメモリバンド幅がNehalem, QDR- IB( 片方向 4GB/s) などPCクラスタにとって期待できる多くのコモディティコンポーネントが出現 これら魅力ある素材を使ったシステムとして 2つのシステムをご紹介 理化学研究所様 RICC(Riken
EGunGPU
Super Computing in Accelerator simulations - Electron Gun simulation using GPGPU - K. Ohmi, KEK-Accel Accelerator Physics seminar 2009.11.19 Super computers in KEK HITACHI SR11000 POWER5 16 24GB 16 134GFlops,
最新の並列計算事情とCAE
1 大島聡史 ( 東京大学情報基盤センター助教 / 並列計算分科会主査 ) 最新の並列計算事情と CAE アウトライン 最新の並列計算機事情と CAE 世界一の性能を達成した 京 について マルチコア メニーコア GPU クラスタ 最新の並列計算事情と CAE MPI OpenMP CUDA OpenCL etc. 京 については 仕分けやら予算やら計画やらの面で問題視する意見もあるかと思いますが
6 2. AUTOSAR 2.1 AUTOSAR AUTOSAR ECU OSEK/VDX 3) OSEK/VDX OS AUTOSAR AUTOSAR ECU AUTOSAR 1 AUTOSAR BSW (Basic Software) (Runtime Environment) Applicat
AUTOSAR 1 1, 2 2 2 AUTOSAR AUTOSAR 3 2 2 41% 29% An Extension of AUTOSAR Communication Layers for Multicore Systems Toshiyuki Ichiba, 1 Hiroaki Takada, 1, 2 Shinya Honda 2 and Ryo Kurachi 2 AUTOSAR, a
2012年度HPCサマーセミナー_多田野.pptx
! CCS HPC! I " [email protected]" " 1 " " " " " " " 2 3 " " Ax = b" " " 4 Ax = b" A = a 11 a 12... a 1n a 21 a 22... a 2n...... a n1 a n2... a nn, x = x 1 x 2. x n, b = b 1 b 2. b n " " 5 Gauss LU
040312研究会HPC2500.ppt
2004312 e-mail : [email protected] 1 2 PRIMEPOWER VX/VPP300 VPP700 GP7000 AP3000 VPP5000 PRIMEPOWER 2000 PRIMEPOWER HPC2500 1998 1999 2000 2001 2002 2003 3 VPP5000 PRIMEPOWER ( 1 VU 9.6 GF 16GB 1 VU
MAC root Linux 1 OS Linux 2.6 Linux Security Modules LSM [1] Security-Enhanced Linux SELinux [2] AppArmor[3] OS OS OS LSM LSM Performance Monitor LSMP
LSM OS 700-8530 3 1 1 [email protected] [email protected] 242-8502 1623 14 [email protected] OS Linux 2.6 Linux Security Modules LSM LSM Linux 4 OS OS LSM An Evaluation of Performance
IPSJ SIG Technical Report Vol.2012-CG-148 No /8/29 3DCG 1,a) On rigid body animation taking into account the 3D computer graphics came
3DCG 1,a) 2 2 2 2 3 On rigid body animation taking into account the 3D computer graphics camera viewpoint Abstract: In using computer graphics for making games or motion pictures, physics simulation is
IPSJ SIG Technical Report Vol.2015-HPC-148 No /3/3 I/O 1 2 Gerofi Balazs 2 Guo-Yuan Lien netcdf API 2 File I/O Arbitr
I/O Gerofi Balazs Guo-Yuan Lien netcdf API File I/O Arbitrator (FARB) MPI I/O.6 I/O File I/O Arbitrator Middleware for Real-Time Severe Weather Prediction System Tomoyuki Saito Yutaka Ishikawa Gerofi Balazs
情報処理学会研究報告 IPSJ SIG Technical Report Vol.2013-HPC-139 No /5/29 Gfarm/Pwrake NICT NICT 10TB 100TB CPU I/O HPC I/O NICT Gf
Gfarm/Pwrake NICT 1 1 1 1 2 2 3 4 5 5 5 6 NICT 10TB 100TB CPU I/O HPC I/O NICT Gfarm Gfarm Pwrake A Parallel Processing Technique on the NICT Science Cloud via Gfarm/Pwrake KEN T. MURATA 1 HIDENOBU WATANABE
B 2 Thin Q=3 0 0 P= N ( )P Q = 2 3 ( )6 N N TSUB- Hub PCI-Express (PCIe) Gen 2 x8 AME1 5) 3 GPU Socket 0 High-performance Linpack 1
TSUBAME 2.0 Linpack 1,,,, Intel NVIDIA GPU 2010 11 TSUBAME 2.0 Linpack 2CPU 3GPU 1400 Dual-Rail QDR InfiniBand TSUBAME 1.0 30 2.4PFlops TSUBAME 1.0 Linpack GPU 1.192PFlops PFlops Top500 4 Achievement of
HPEハイパフォーマンスコンピューティング ソリューション
HPE HPC / AI Page 2 No.1 * 24.8% No.1 * HPE HPC / AI HPC AI SGIHPE HPC / AI GPU TOP500 50th edition Nov. 2017 HPE No.1 124 www.top500.org HPE HPC / AI TSUBAME 3.0 2017 7 AI TSUBAME 3.0 HPE SGI 8600 System
openmp1_Yaguchi_version_170530
並列計算とは /OpenMP の初歩 (1) 今 の内容 なぜ並列計算が必要か? スーパーコンピュータの性能動向 1ExaFLOPS 次世代スハ コン 京 1PFLOPS 性能 1TFLOPS 1GFLOPS スカラー機ベクトル機ベクトル並列機並列機 X-MP ncube2 CRAY-1 S-810 SR8000 VPP500 CM-5 ASCI-5 ASCI-4 S3800 T3E-900 SR2201
FabHetero FabHetero FabHetero FabCache FabCache SPEC2000INT IPC FabCache 0.076%
2013 (409812) FabHetero FabHetero FabHetero FabCache FabCache SPEC2000INT 6 1000 IPC FabCache 0.076% Abstract Single-ISA heterogeneous multi-core processors are increasing importance in the processor architecture.
1 3DCG [2] 3DCG CG 3DCG [3] 3DCG 3 3 API 2 3DCG 3 (1) Saito [4] (a) 1920x1080 (b) 1280x720 (c) 640x360 (d) 320x G-Buffer Decaudin[5] G-Buffer D
3DCG 1) ( ) 2) 2) 1) 2) Real-Time Line Drawing Using Image Processing and Deforming Process Together in 3DCG Takeshi Okuya 1) Katsuaki Tanaka 2) Shigekazu Sakai 2) 1) Department of Intermedia Art and Science,
HP High Performance Computing(HPC)
ACCELERATE HP High Performance Computing HPC HPC HPC HPC HPC 1000 HPHPC HPC HP HPC HPC HPC HP HPCHP HP HPC 1 HPC HP 2 HPC HPC HP ITIDC HP HPC 1HPC HPC No.1 HPC TOP500 2010 11 HP 159 32% HP HPCHP 2010 Q1-Q4
HBase Phoenix API Mars GPU MapReduce GPU Hadoop Hadoop Hadoop MapReduce : (1) MapReduce (2)JobTracker 1 Hadoop CPU GPU Fig. 1 The overview of CPU-GPU
GPU MapReduce 1 1 1, 2, 3 MapReduce GPGPU GPU GPU MapReduce CPU GPU GPU CPU GPU CPU GPU Map K-Means CPU 2GPU CPU 1.02-1.93 Improving MapReduce Task Scheduling for CPU-GPU Heterogeneous Environments Koichi
07-二村幸孝・出口大輔.indd
GPU Graphics Processing Units HPC High Performance Computing GPU GPGPU General-Purpose computation on GPU CPU GPU GPU *1 Intel Quad-Core Xeon E5472 3.0 GHz 2 6 MB L2 cache 1600 MHz FSB 80 GFlops 1 nvidia
SC SC10 (International Conference for High Performance Computing, Networking, Storage and Analysis) (HPC) Ernest N.
SC10 2010 11 13 19 SC10 (International Conference for High Performance Computing, Networking, Storage and Analysis) (HPC) 1 2005 8 8 2010 4 Ernest N. Morial Convention Center (ENMCC) Climate Simulation(
2). 3) 4) 1.2 NICTNICT DCRA Dihedral Corner Reflector micro-arraysdcra DCRA DCRA DCRA 3D DCRA PC USB PC PC ON / OFF Velleman K8055 K8055 K8055
1 1 1 2 DCRA 1. 1.1 1) 1 Tactile Interface with Air Jets for Floating Images Aya Higuchi, 1 Nomin, 1 Sandor Markon 1 and Satoshi Maekawa 2 The new optical device DCRA can display floating images in free
FFTSS Library Version 3.0 User's Guide
: 19 10 31 FFTSS 3.0 Copyright (C) 2002-2007 The Scalable Software Infrastructure Project, (CREST),,. http://www.ssisc.org/ Contents 1 4 2 (DFT) 4 3 4 3.1 UNIX............................................
GPGPU
GPGPU 2013 1008 2015 1 23 Abstract In recent years, with the advance of microscope technology, the alive cells have been able to observe. On the other hand, from the standpoint of image processing, the
untitled
A = QΛQ T A n n Λ Q A = XΛX 1 A n n Λ X GPGPU A 3 T Q T AQ = T (Q: ) T u i = λ i u i T {λ i } {u i } QR MR 3 v i = Q u i A {v i } A n = 9000 Quad Core Xeon 2 LAPACK (4/3) n 3 O(n 2 ) O(n 3 ) A {v i }
Input image Initialize variables Loop for period of oscillation Update height map Make shade image Change property of image Output image Change time L
1,a) 1,b) 1/f β Generation Method of Animation from Pictures with Natural Flicker Abstract: Some methods to create animation automatically from one picture have been proposed. There is a method that gives
