Vol.-HPC- No. // 情報処理学会研究報告 integer :: array():[*] integer :: tmp() if (this_image() == ) then array(:)[] = tmp(:) tmp(:) = arrray(:)[] end if! Put co
|
|
- たいち みやまる
- 5 years ago
- Views:
Transcription
1 Vol.-HPC- No. // PGAS NICAM,,a),, PGAS XcalableMP NICAM MPI NICAM XcalableMP coarray XcalableMP coarray RDMA XcalableMP NICAM %. [] Message Passing Interface MPI [] MPI Partitioned Global Address Space PGAS [] PGAS Remote Direct Memory Access RDMA PGAS MPI PGAS XcalableMP XMP [] NICAM Nonhydrostatic ICosahedral Center for Computational Sciences, University of Tsukuba RIKEN Advanced Institute for Computational Science Graduate School of Systems and Information Engineering, University of Tsukuba a) Atmospheric Model [] PGAS NICAM XMP NICAM. Partitioned Global Address Space PGAS XMP PGAS SHMEM[] Global Arrays[] Coarray Fortran CAF [] Titanium[] Unified Parallel C[] Chapel[] X[] CAF Fortran CAF image CAF CAF integer coarray image image coarray Put image image coarray Get c Information Processing Society of Japan
2 Vol.-HPC- No. // 情報処理学会研究報告 integer :: array():[*] integer :: tmp() if (this_image() == ) then array(:)[] = tmp(:) tmp(:) = arrray(:)[] end if! Put communication! Get communication sync all! Synchronization 図 Glevel-, Rlevel-! Define coarray Glevel-, Rlevel- Coarray Fortran における通信の記述方法 図 Glevel- NICAM の領域分割 領域の一部のみ 太枠で囲んでいる [] Glevel- を正二十面体に分割する 次に その正二十面体の三角形 を つずつ合わせて四角形の領域を作成する この領域 が 各プロセスが担当する領域である そして Glevel と 同様に 再帰的に領域を 分割していくことで 多くの領 域を設定することが可能である 最初の分割された領域を Rlevel- と呼び 次に 分割された領域を Rlevel- と呼ぶ 図 NICAM の格子点 [] Rlevel- の場合の領域数は であり Rlevel- の場合の領 域数は である 図 に例を示す Glevel と Rlevel は個 の sync all 文は それより前に行われた片信通信を完了 別に設定することが可能である Rlevel-n の場合の領域数 させ かつバリア同期を行う命令である 本稿では 図 は n の式で計算することができる 並列計算に用い の 行目と 行目に示したような片側通信の記述方法を るプロセス数は Rlevel によって設定された領域数の約数 coarray 記法と呼ぶ である必要がある 例えば Rlevel- の場合の領域数は XMP は 並列アプリケーションで広く用いられている Fortran と C 言語のそれぞれの言語拡張であり XMP が 提供する指示文もしくは coarray 記法を用いて 通信を表 現する また Fortran 版の XMP は CAF の上位互換とな るように設計されているため CAF で記述されたプログ ラムを XMP として動作させることが可能である. NICAM であるため ユーザが利用できるプロセス数は となる. XcalableMP による NICAM の実装. 関連研究 NICAM は地球シミュレータを用いて開発が行われてき たため NICAM のコードはベクトル計算機用に最適化さ れている そのため 京の性能を引き出すための NICAM NICAM は全球雲解像モデルの つであり Fortran と に対する最適化作業が現在進められている [] では 地 MPI ライブラリで記述されている NICAM が行う通信の 球シミュレータで動作していたコードに対してキャッシュ 多くは一対一の隣接通信であるため スケーラビリティが 最適化などを行うことにより 京上における NICAM の性 非常に高いという特徴がある 本章では主に 並列計算に 能効率を 倍以上に高めている また [] では 京の 次 必要な事柄について説明する 元トーラスネットワークに対して 通信のホップ数が少な NICAM では 全球に対して正二十面体格子を用いるこ とで 計算対象の点 水平格子点 を決定する 図 に くなるようなプロセスの割り当て手法の提案が行われて いる NICAM の水平格子点の概念図を示す まず 全球を正 二十面体に分割する この状態を Glevel- と呼ぶ 図. 最適化の方針 左 その三角形のそれぞれの頂点が水平格子点である NICAM の一対一通信を XMP の coarray 記法による片 Glevel- のそれぞれの三角形を 分割した格子を Glevel- 側通信によって記述することで コードの簡易化を図る と呼ぶ 図 右 このように再帰的に三角形を 分割し また XMP の実装において 京の RDMA 機能を用いて片 ていくことで 目的に応じた解像度をユーザが設定するこ 側通信を実行させることにより 高速化も図る 表 に とができる 再帰回数が n の場合の格子を Glevel-n と呼 京が提供している拡張 RDMA インタフェースの一覧を示 ぶ Glevel-n の場合の水平格子点数は n + の式で す [] この RDMA インタフェースは C 言語の関数とし 計算することができる て定義されている C 言語で実装された XMP のランタイ 次に 並列化を行う場合の各プロセスが担当する領域の 設定方法について説明する まず Glevel と同様に 全球 Information Processing Society of Japan ムライブラリから 表 の各関数を呼び出すことによって 京の RDMA 機能を直接用いることができる
3 Vol.-HPC- No. // RDMA [] FJMPI Rdma init RDMA FJMPI Rdma finalize RDMA FJMPI Rdma reg mem FJMPI Rdma dereg mem FJMPI Rdma get remote addr DMA FJMPI Rdma put RDMA WRITE FJMPI Rdma get RDMA READ FJMPI Rdma poll cq RDMA Bandwidth (GByte/s) Performance Ratio. RDMA. MPI Isend/Irecv Transfer Size (Byte) RDMA MPI..... MPI (Original) do i=, recv_num call mpi_irecv(recvbuf(,i), recv_count(i), mpi_double_precision, sourcerank(i), ) do i=, send_num call mpi_isend(sendbuf(,i), send_count(i), mpi_double_precision, destrank(i) ) call mpi_waitall() XcalableMP real() :: recvbuf(maxdatasize_r, romax(halomax)):[*] real() :: sendbuf(maxdatasize_s, somax(halomax)):[*]! Obtain information of destination position -> dest_position() do i=, send_num recvbuf(:send_count(i), dest_position(i))[destrank(i)] = sendbuf(:send_count(i), i) sync all XcalableMP NICAM. RDMA Bandwidth/ MPI_Isend/Irecv Bandwidth Transfer Size (Byte) RDMA MPI. NICAM MPI Isend/Irecv RDMA MPI Isend/Irecv pingpong RDMA MPI Isend/Irecv. RDMA RDMA MPI Isend/Irecv Byte RDMA. XcalableMP NICAM NICAM Fortran Fortran XMP NICAM NICAM Fortran XMP XMP recvbuf sendbuf Coarray XMP CAF sendbuf Coarray RDMA sendbuf Coarray c Information Processing Society of Japan
4 MPI Allgather dest position MPI NICAM Put XMP NICAM NICAM recvbuf sendbuf NICAM recvbuf sendbuf XMP CAF Coarray Coarray recvbuf sendbuf.. coarray XMP NICAM MPI XMP coarray. XMP NICAM NICAM Fortran XMP XMP XMP RDMA NICAM Glevel Rlevel Rlevel NICAM OpenMP Time (s) (.) (.) Rlevel- ( nodes) RDMA RDMA.. (.) (.) Rlevel- ( nodes).. (.) (.) Rlevel- ( nodes) MPI MPI NICAM Glevel XMP NICAM NICAM XMP % % NICAM Rlevel / / Rlevel Rlevel Rlevel- KByte Rlevel- KByte Rlevel- KByte RDMA MPI.. Vol.-HPC- No. // c Information Processing Society of Japan
5 Vol.-HPC- No. // CPU Memory Network Compiler Communication Library SPARC VIIIfx.GHz, Cores/Socket, GFlops DDR SDRAM GB, GB/s/Socket Torus fusion six-dimensional mesh/torus network, GB/s Fujitsu Fortran Compiler Version K-..- Fujitsu MPI Version K-..-. PGAS XMP NICAM MPI XMP coarray RDMA % coarray Fortran XMP Coarray sync all XMP CAF sync images [] NICAM NICAM NICAM [] : b gaiyo.html [] M. Snir, S. Otto, S. Huss-Lederman, D. Walker, and J. Dongarra, MPI-The Complete Reference, Volume : The MPI Core, nd ed. Cambridge, MA, USA: MIT Press,. [] PGAS - Partitioned Global Address Space Languages [] [] Satoh, M., T. Matsuno, H. Tomita, H. Miura, T. Nasuno, S. Iga (), Nonhydrostatic Icosahedral Atmospheric Model (NICAM) for global cloud resolving simulations. Journal of Computational Physics, the special issue on Predicting Weather, Climate and Extreme events,, -, doi:./j.jcp... [] B. Chapman, T. Curtis, S. Pophale, S. Poole, J. Kuehn, C. Koelbel, and L. Smith, Introducing openshmem: Shmem for the pgas community, in Proceedings of the Fourth Conference on Partitioned Global Address Space Programming Model, ser. PGAS. New York, NY, USA: ACM,, pp. : :. [] J. Nieplocha, R. J. Harrison, and R. J. Littlefield, Global arrays: A non-uniform-memory-access programming model for high-performance computers, THE JOURNAL OF SUPERCOMPUTING, vol., pp.,. [] R. W. Numrich and J. Reid, Co-array fortran for parallel programming, SIGPLAN Fortran Forum, vol., no., pp., Aug.. [] K. Yelick, L. Semenzato, G. Pike, C. Miyamoto, B. Liblit, A. Krish- namurthy, P. Hilfinger, S. Graham, D. Gay, P. Colella, and A. Aiken, Titanium: A highperformance Java dialect, in ACM Workshop on Java for High-Performance Network Computing. New York, NY, USA: ACM Press,. [] U. Consortium, UPC Language Specifications, Berkeley National Laboratory, Tech. Rep. LBNL-,. [] B. Chamberlain, D. Callahan, and H. Zima, Parallel programmability and the chapel language, Int. J. High Perform. Comput. Appl., vol., no., pp., Aug.. [] V. Saraswat, B. Bloom, I. Peshansky, O. Tardieu, and D. Grove, X language specification,, languagespec/x-.pdf. [] NICAM workshop/--/yashiro.pdf [] [] Parallelnavi for MP V. Parallelnavi Technical Computing Language MPI c Information Processing Society of Japan
[4] ACP (Advanced Communication Primitives) [1] ACP ACP [2] ACP Tofu UDP [3] HPC InfiniBand InfiniBand ACP 2 ACP, 3 InfiniBand ACP 4 5 ACP 2. ACP ACP
InfiniBand ACP 1,5,a) 1,5,b) 2,5 1,5 4,5 3,5 2,5 ACE (Advanced Communication for Exa) ACP (Advanced Communication Primitives) HPC InfiniBand ACP InfiniBand ACP ACP InfiniBand Open MPI 20% InfiniBand Implementation
More information4th XcalableMP workshop 目的 n XcalableMPのローカルビューモデルであるXMPのCoarray機能を用 いて Fiberミニアプリ集への実装と評価を行う PGAS(Pertitioned Global Address Space)言語であるCoarrayのベ ンチマ
4th XcalableMP workshop 目的 n XcalableMPのローカルビューモデルであるXMPのCoarray機能を用 いて Fiberミニアプリ集への実装と評価を行う PGAS(Pertitioned Global Address Space)言語であるCoarrayのベ ンチマークとして整備することも考慮している n Coarrayによる並列化に関する知見を得る 1 n n l
More informationCPU Levels in the memory hierarchy Level 1 Level 2... Increasing distance from the CPU in access time Level n Size of the memory at each level 1: 2.2
FFT 1 Fourier fast Fourier transform FFT FFT FFT 1 FFT FFT 2 Fourier 2.1 Fourier FFT Fourier discrete Fourier transform DFT DFT n 1 y k = j=0 x j ω jk n, 0 k n 1 (1) x j y k ω n = e 2πi/n i = 1 (1) n DFT
More information: (1), ( ) 1 1.1,, 1 OpenMP [3, 5, 21, 22], MPI [13, 18, 23].., (C Fortran)., OS,. C Fortran,,,,. ( ),,.,,.,,,.,,,.,.,. 1
: (1), ( ) 1 1.1,, 1 OpenMP [3, 5, 21, 22], MPI [13, 18, 23].., (C Fortran)., OS,. C Fortran,,,,. ( ),,.,,.,,,.,,,.,.,. 1 1.2,.,,,,.. CPU,,., (, ). (NUMA ).,.,. Flat MPI,,.,,. GPU, SIMD, [11]. C Fortran,.,
More informationMicrosoft PowerPoint - 演習1:並列化と評価.pptx
講義 2& 演習 1 プログラム並列化と性能評価 神戸大学大学院システム情報学研究科横川三津夫 yokokawa@port.kobe-u.ac.jp 2014/3/5 RIKEN AICS HPC Spring School 2014: プログラム並列化と性能評価 1 2014/3/5 RIKEN AICS HPC Spring School 2014: プログラム並列化と性能評価 2 2 次元温度分布の計算
More information情報処理学会研究報告 IPSJ SIG Technical Report Vol.2013-HPC-139 No /5/29 Gfarm/Pwrake NICT NICT 10TB 100TB CPU I/O HPC I/O NICT Gf
Gfarm/Pwrake NICT 1 1 1 1 2 2 3 4 5 5 5 6 NICT 10TB 100TB CPU I/O HPC I/O NICT Gfarm Gfarm Pwrake A Parallel Processing Technique on the NICT Science Cloud via Gfarm/Pwrake KEN T. MURATA 1 HIDENOBU WATANABE
More informationXcalableMP入門
XcalableMP 1 HPC-Phys@, 2018 8 22 XcalableMP XMP XMP Lattice QCD!2 XMP MPI MPI!3 XMP 1/2 PCXMP MPI Fortran CCoarray C++ MPIMPI XMP OpenMP http://xcalablemp.org!4 XMP 2/2 SPMD (Single Program Multiple Data)
More information研究背景 大規模な演算を行うためには 分散メモリ型システムの利用が必須 Message Passing Interface MPI 並列プログラムの大半はMPIを利用 様々な実装 OpenMPI, MPICH, MVAPICH, MPI.NET プログラミングコストが高いため 生産性が悪い 新しい並
XcalableMPによる NAS Parallel Benchmarksの実装と評価 中尾 昌広 李 珍泌 朴 泰祐 佐藤 三久 筑波大学 計算科学研究センター 筑波大学大学院 システム情報工学研究科 研究背景 大規模な演算を行うためには 分散メモリ型システムの利用が必須 Message Passing Interface MPI 並列プログラムの大半はMPIを利用 様々な実装 OpenMPI,
More informationfiš„v8.dvi
(2001) 49 2 333 343 Java Jasp 1 2 3 4 2001 4 13 2001 9 17 Java Jasp (JAva based Statistical Processor) Jasp Jasp. Java. 1. Jasp CPU 1 106 8569 4 6 7; fuji@ism.ac.jp 2 106 8569 4 6 7; nakanoj@ism.ac.jp
More information1 OpenCL OpenCL 1 OpenCL GPU ( ) 1 OpenCL Compute Units Elements OpenCL OpenCL SPMD (Single-Program, Multiple-Data) SPMD OpenCL work-item work-group N
GPU 1 1 2 1, 3 2, 3 (Graphics Unit: GPU) GPU GPU GPU Evaluation of GPU Computing Based on An Automatic Program Generation Technology Makoto Sugawara, 1 Katsuto Sato, 1 Kazuhiko Komatsu, 2 Hiroyuki Takizawa
More informationIPSJ SIG Technical Report Vol.2015-HPC-148 No /3/3 I/O 1 2 Gerofi Balazs 2 Guo-Yuan Lien netcdf API 2 File I/O Arbitr
I/O Gerofi Balazs Guo-Yuan Lien netcdf API File I/O Arbitrator (FARB) MPI I/O.6 I/O File I/O Arbitrator Middleware for Real-Time Severe Weather Prediction System Tomoyuki Saito Yutaka Ishikawa Gerofi Balazs
More informationMPI usage
MPI (Version 0.99 2006 11 8 ) 1 1 MPI ( Message Passing Interface ) 1 1.1 MPI................................. 1 1.2............................... 2 1.2.1 MPI GATHER.......................... 2 1.2.2
More informationXMPによる並列化実装2
2 3 C Fortran Exercise 1 Exercise 2 Serial init.c init.f90 XMP xmp_init.c xmp_init.f90 Serial laplace.c laplace.f90 XMP xmp_laplace.c xmp_laplace.f90 #include int a[10]; program init integer
More information21 20 20413525 22 2 4 i 1 1 2 4 2.1.................................. 4 2.1.1 LinuxOS....................... 7 2.1.2....................... 10 2.2........................ 15 3 17 3.1.................................
More information,4) 1 P% P%P=2.5 5%!%! (1) = (2) l l Figure 1 A compilation flow of the proposing sampling based architecture simulation
1 1 1 1 SPEC CPU 2000 EQUAKE 1.6 50 500 A Parallelizing Compiler Cooperative Multicore Architecture Simulator with Changeover Mechanism of Simulation Modes GAKUHO TAGUCHI 1 YOUICHI ABE 1 KEIJI KIMURA 1
More informationIPSJ SIG Technical Report Vol.2012-ARC-202 No.13 Vol.2012-HPC-137 No /12/13 Tightly Coupled Accelerators 1,a) 1,b) 1,c) 1,d) GPU HA-PACS
Tightly Coupled Accelerators 1,a) 1,b) 1,c) 1,d) HA-PACS 2012 2 HA-PACS TCA (Tightly Coupled Accelerators) TCA PEACH2 1. (Graphics Processing Unit) HPC GP(General Purpose ) TOP500 [1] CPU PCI Express (PCIe)
More informationnakao
Fortran+Python 4 Fortran, 2018 12 12 !2 Python!3 Python 2018 IEEE spectrum https://spectrum.ieee.org/static/interactive-the-top-programming-languages-2018!4 Python print("hello World!") if x == 10: print
More informationIPSJ SIG Technical Report Vol.2014-DBS-159 No.6 Vol.2014-IFAT-115 No /8/1 1,a) 1 1 1,, 1. ([1]) ([2], [3]) A B 1 ([4]) 1 Graduate School of Info
1,a) 1 1 1,, 1. ([1]) ([2], [3]) A B 1 ([4]) 1 Graduate School of Information Science and Technology, Osaka University a) kawasumi.ryo@ist.osaka-u.ac.jp 1 1 Bucket R*-tree[5] [4] 2 3 4 5 6 2. 2.1 2.2 2.3
More information1 2 3 マルチメディア, 分散, 協調とモバイル (DICOMO2013) シンポジウム 平成 25 年 7 月.,.,,.,. Surrogate Diner,., Surrogate Diner,, 3,, Surrogate Diner. An Interface Agent for Ps
1 2 3 マルチメディア, 分散, 協調とモバイル (DICOMO2013) シンポジウム 平成 25 年 7 月.,.,,.. Surrogate Diner,., Surrogate Diner, 3,, Surrogate Diner. An Interface Agent for Pseudo Co-Dining with a Remote Person TAKUTO SHIOHARA 1
More information1 2 4 5 9 10 12 3 6 11 13 14 0 8 7 15 Iteration 0 Iteration 1 1 Iteration 2 Iteration 3 N N N! N 1 MOPT(Merge Optimization) 3) MOPT 8192 2 16384 5 MOP
10000 SFMOPT / / MOPT(Merge OPTimization) MOPT FMOPT(Fast MOPT) FMOPT SFMOPT(Subgrouping FMOPT) SFMOPT 2 8192 31 The Proposal and Evaluation of SFMOPT, a Task Mapping Method for 10000 Tasks Haruka Asano
More informationコードのチューニング
ハイブリッド並列 八木学 ( 理化学研究所計算科学研究機構 ) 謝辞 松本洋介氏 ( 千葉大学 ) KOBE HPC Spring School 2017 2017 年 3 月 14 日神戸大学計算科学教育センター MPI とは Message Passing Interface 分散メモリのプロセス間の通信規格(API) SPMD(Single Program Multi Data) が基本 -
More informationIPSJ SIG Technical Report Vol.2013-ARC-203 No /2/1 SMYLE OpenCL (NEDO) IT FPGA SMYLEref SMYLE OpenCL SMYLE OpenCL FPGA 1
SMYLE OpenCL 128 1 1 1 1 1 2 2 3 3 3 (NEDO) IT FPGA SMYLEref SMYLE OpenCL SMYLE OpenCL FPGA 128 SMYLEref SMYLE OpenCL SMYLE OpenCL Implementation and Evaluations on 128 Cores Takuji Hieda 1 Noriko Etani
More informationXACCの概要
2 global void kernel(int a[max], int llimit, int ulimit) {... } : int main(int argc, char *argv[]){ MPI_Int(&argc, &argc); MPI_Comm_rank(MPI_COMM_WORLD, &rank); MPI_Comm_size(MPI_COMM_WORLD, &size); dx
More information1 1 CodeDrummer CodeMusician CodeDrummer Fig. 1 Overview of proposal system c
CodeDrummer: 1 2 3 1 CodeDrummer: Sonification Methods of Function Calls in Program Execution Kazuya Sato, 1 Shigeyuki Hirai, 2 Kazutaka Maruyama 3 and Minoru Terada 1 We propose a program sonification
More informationIPSJ SIG Technical Report Vol.2015-HPC-150 No /8/6 I/O Jianwei Liao 1 Gerofi Balazs 1 1 Guo-Yuan Lien Prototyping F
I/O Jianwei Liao 1 Gerofi Balazs 1 1 Guo-Yuan Lien 1 1 1 1 1 30 30 100 30 30 2 Prototyping File I/O Arbitrator Middleware for Real-Time Severe Weather Prediction System Jianwei Liao 1 Gerofi Balazs 1 Yutaka
More informationFujitsu Standard Tool
低レベル通信ライブラリ ACP の PGAS ランタイム向け機能 2014 年 10 月 24 日富士通株式会社 JST CREST 安島雄一郎 Copyright 2014 FUJITSU LIMITED 本発表の構成 概要 インタフェース チャネル ベクタ リスト メモリアロケータ アドレス変換 グローバルメモリ参照 モジュール構成 メモリ消費量と性能評価 利用例 今後の課題 まとめ 1 Copyright
More information新しい並列プログラミング言語である 分散メモリ環境において OpenMPのようにMPI とは異なるシンプルな言語構文と指示文による並列化を目指している ベース言語は Fortran 言語とC 言語となっており 2011 年 6 月に発足したPC クラスタコンソーシアム XcalableMP 規格部会
高性能並列プログラミング言語 XcalableMP の紹介 IntroductionofaPGASparalelprogramminglanguage XcalableMP 一般財団法人高度情報科学技術研究機構原山卓也 井上孝洋 手島正吾国立研究開発法人理化学研究所計算科学研究機構村井均 現在の京を中核とするHPCI におけるスーパーコンピュータやPC クラスタでは CPU に多くの計算コアを搭載している
More information卒業論文
PC OpenMP SCore PC OpenMP PC PC PC Myrinet PC PC 1 OpenMP 2 1 3 3 PC 8 OpenMP 11 15 15 16 16 18 19 19 19 20 20 21 21 23 26 29 30 31 32 33 4 5 6 7 SCore 9 PC 10 OpenMP 14 16 17 10 17 11 19 12 19 13 20 1421
More informationDEIM Forum 2009 B4-6, Str
DEIM Forum 2009 B4-6, 305 8573 1 1 1 152 8550 2 12 1 E-mail: tttakuro@kde.cs.tsukuba.ac.jp, watanabe@de.cs.titech.ac.jp, kitagawa@cs.tsukuba.ac.jp StreamSpinner PC PC StreamSpinner Development of Data
More information2. CABAC CABAC CABAC 1 1 CABAC Figure 1 Overview of CABAC 2 DCT 2 0/ /1 CABAC [3] 3. 2 値化部 コンテキスト計算部 2 値算術符号化部 CABAC CABAC
H.264 CABAC 1 1 1 1 1 2, CABAC(Context-based Adaptive Binary Arithmetic Coding) H.264, CABAC, A Parallelization Technology of H.264 CABAC For Real Time Encoder of Moving Picture YUSUKE YATABE 1 HIRONORI
More information特集 e- サイエンスを実現するグリッド技術 1 サイエンスグリッドの動向 三浦謙一 国立情報学研究所 サイエンスグリッドとは 10 e- Electrical Power Grid 図 -1 Virtual Organization 1 ET 所の 所 (Electric ow
特集 e- サイエンスを実現するグリッド技術 1 サイエンスグリッドの動向 三浦謙一 国立情報学研究所 サイエンスグリッドとは 10 e- Electrical Power Grid 図 -1 Virtual Organization 1 ET SETI@HOME 所の 所 (Electric ower rid) 所 rid ット ー rid の の 所 ( 計算機 ー 機 ) 図 -1 グリッドのコンセプト
More informationHPC143
研究背景 GPUクラスタ 高性能 高いエネルギー効率 低価格 様々なHPCアプリケーションで用いられている TCA (Tightly Coupled Accelerators) 密結合並列演算加速機構 筑波大学HA-PACSクラスタ アクセラレータ GPU 間の直接通信 低レイテンシ 今後のHPCアプリは強スケーリングも重要 TCAとアクセラレータを搭載したシステムに おけるプログラミングモデル 例
More informationIPSJ SIG Technical Report iphone iphone,,., OpenGl ES 2.0 GLSL(OpenGL Shading Language), iphone GPGPU(General-Purpose Computing on Graphics Proc
iphone 1 1 1 iphone,,., OpenGl ES 2.0 GLSL(OpenGL Shading Language), iphone GPGPU(General-Purpose Computing on Graphics Processing Unit)., AR Realtime Natural Feature Tracking Library for iphone Makoto
More information並列計算導入.pptx
並列計算の基礎 MPI を用いた並列計算 並列計算の環境 並列計算 複数の計算ユニット(PU, ore, Pなど を使用して 一つの問題 計算 を行わせる 近年 並列計算を手軽に使用できる環境が急速に整いつつある >通常のP PU(entral Processing Unit)上に計算装置であるoreが 複数含まれている Intel ore i7 シリーズ: 4つの計算装置(ore) 通常のプログラム
More information橡3_2石川.PDF
PC RWC 01/10/31 2 1 SCore 1,024 PC SCore III PC 01/10/31 3 SCore SCore Aug. 1995 Feb. 1996 Oct. 1996 1997-1998 Oct. 1999 Oct. 2000 April. 2001 01/10/31 4 2 SCore University of Bonn, Germany University
More informationIEEE HDD RAID MPI MPU/CPU GPGPU GPU cm I m cm /g I I n/ cm 2 s X n/ cm s cm g/cm
Neutron Visual Sensing Techniques Making Good Use of Computer Science J-PARC CT CT-PET TB IEEE HDD RAID MPI MPU/CPU GPGPU GPU cm I m cm /g I I n/ cm 2 s X n/ cm s cm g/cm cm cm barn cm thn/ cm s n/ cm
More information先進的計算基盤システムシンポジウム DMA Tofu 6 MPI RDMA 6 3 (1 ) RDMA (2 ) 3 MPI MPI 3 MPI 127us, 47GB/s 9,216 MPI Bcast 106GB/s 31 MPI 2 MPI 2 Tofu Eager : 6 7 2
先進的計算基盤システムシンポジウム MPI 82,944 MPI Tofu 6 RDMA MPI MPI 127us, MPI 47GB/s 9,216 MPI Bcast 106GB/s The Design of MPI Communication Facility for K computer Shinji Sumimoto, Takahiro Kawashima, Naoyuki Shida,
More informationVXPRO R1400® ご提案資料
Intel Core i7 プロセッサ 920 Preliminary Performance Report ノード性能評価 ノード性能の評価 NAS Parallel Benchmark Class B OpenMP 版での性能評価 実行スレッド数を 4 で固定 ( デュアルソケットでは各プロセッサに 2 スレッド ) 全て 2.66GHz のコアとなるため コアあたりのピーク性能は同じ 評価システム
More information<30323334333697A796BD8AD991E58A77976C2D8CBE8CEA837083938374838C83628367945B956983665B835E2E706466>
2Graduate School of Language Education and Information Science (LEIS) 3 4Graduate School of Language Education and Information Science (LEIS) 5 6Graduate School of Language Education and Information Science
More informationRun-Based Trieから構成される 決定木の枝刈り法
Run-Based Trie 2 2 25 6 Run-Based Trie Simple Search Run-Based Trie Network A Network B Packet Router Packet Filtering Policy Rule Network A, K Network B Network C, D Action Permit Deny Permit Network
More information2). 3) 4) 1.2 NICTNICT DCRA Dihedral Corner Reflector micro-arraysdcra DCRA DCRA DCRA 3D DCRA PC USB PC PC ON / OFF Velleman K8055 K8055 K8055
1 1 1 2 DCRA 1. 1.1 1) 1 Tactile Interface with Air Jets for Floating Images Aya Higuchi, 1 Nomin, 1 Sandor Markon 1 and Satoshi Maekawa 2 The new optical device DCRA can display floating images in free
More informationMicrosoft Word ●IntelクアッドコアCPUでのベンチマーク_吉岡_ _更新__ doc
2.3. アプリ性能 2.3.1. Intel クアッドコア CPU でのベンチマーク 東京海洋大学吉岡諭 1. はじめにこの数年でマルチコア CPU の普及が進んできた x86 系の CPU でも Intel と AD がデュアルコア クアッドコアの CPU を次々と市場に送り出していて それらが PC クラスタの CPU として採用され HPC に活用されている ここでは Intel クアッドコア
More information2018 IPSJ/SIGSE Software Engineering Symposium (SES2018) 1,a) 1,b) 1,c) Java 2014 Java Java Java Stream Optional 18% Stream 5% Stream JDK6/7
1,a) 1,b) 1,c) Java 214 Java Java Java 1 13 3 Stream Optional 18% Stream 5% Stream JDK6/7 Java Stream Optional 1. [1], [2], [3] [4] 2 1 a) h-tanaka@ist.osaka-u.ac.jp b) shinsuke@ist.osaka-u.ac.jp c) kusumoto@ist.osaka-u.ac.jp
More informationDual Stack Virtual Network Dual Stack Network RS DC Real Network 一般端末 GN NTM 端末 C NTM 端末 B IPv4 Private Network IPv4 Global Network NTM 端末 A NTM 端末 B
root Android IPv4/ 1 1 2 1 NAT Network Address Translation IPv4 NTMobile Network Traversal with Mobility NTMobile Android 4.0 VPN API VpnService root VpnService IPv4 IPv4 VpnService NTMobile root IPv4/
More informationGPU n Graphics Processing Unit CG CAD
GPU 2016/06/27 第 20 回 GPU コンピューティング講習会 ( 東京工業大学 ) 1 GPU n Graphics Processing Unit CG CAD www.nvidia.co.jp www.autodesk.co.jp www.pixar.com GPU n GPU ü n NVIDIA CUDA ü NVIDIA GPU ü OS Linux, Windows, Mac
More informationMicrosoft Word ●MPI性能検証_志田_ _更新__ doc
2.2.2. MPI 性能検証 富士通株式会社 志田直之 ここでは,Open MPI および富士通 MPI を用いて,MPI 性能の評価結果について報告する 1. 性能評価のポイント MPI の性能評価は, 大きく 3 つに分けて評価を行った プロセス数増加に向けた検証 ノード内通信とノード間通信の検証 性能検証 - 連続データ転送 - ストライド転送 2. プロセス数増加に向けた検証 評価に用いたシステムを以下に示す
More informationIPSJ SIG Technical Report 1 1, Nested Transactional Memory Selecting the Optimal Rollback Point Yuji Ito, 1 Ryota Shioya, 1, 2 Masahiro Goshima
1 1, 2 1 1 Nested Transactional Memory Selecting the Optimal Rollback Point Yuji Ito, 1 Ryota Shioya, 1, 2 Masahiro Goshima 1 and Shuichi Sakai 1 Lock-based synchronization is common in parallel programming.
More informationPowerPoint プレゼンテーション
AICS 公開ソフトウェア講習会 15 回 表題通信ライブラリと I/O ライブラリ 場所 AICS R104-2 時間 2016/03/23 ( 水 ) 13:30-17:00 13:30-13:40 全体説明 13:40-14:10 PRDMA 14:10-14:40 MPICH 14:40-15:10 PVAS 15:10-15:30 休憩 15:30-16:00 Carp 16:00-16:30
More informationPC Development of Distributed PC Grid System,,,, Junji Umemoto, Hiroyuki Ebara, Katsumi Onishi, Hiroaki Morikawa, and Bunryu U PC WAN PC PC WAN PC 1 P
PC Development of Distributed PC Grid System,,,, Junji Umemoto, Hiroyuki Ebara, Katsumi Onishi, Hiroaki Morikawa, and Bunryu U PC WAN PC PC WAN PC 1 PC PC PC PC PC Key Words:Grid, PC Cluster, Distributed
More information3.1 Thalmic Lab Myo * Bluetooth PC Myo 8 RMS RMS t RMS(t) i (i = 1, 2,, 8) 8 SVM libsvm *2 ν-svm 1 Myo 2 8 RMS 3.2 Myo (Root
1,a) 2 2 1. 1 College of Information Science, School of Informatics, University of Tsukuba 2 Faculty of Engineering, Information and Systems, University of Tsukuba a) oharada@iplab.cs.tsukuba.ac.jp 2.
More informationOpenMP (1) 1, 12 1 UNIX (FUJITSU GP7000F model 900), 13 1 (COMPAQ GS320) FUJITSU VPP5000/64 1 (a) (b) 1: ( 1(a))
OpenMP (1) 1, 12 1 UNIX (FUJITSU GP7000F model 900), 13 1 (COMPAQ GS320) FUJITSU VPP5000/64 1 (a) (b) 1: ( 1(a)) E-mail: {nanri,amano}@cc.kyushu-u.ac.jp 1 ( ) 1. VPP Fortran[6] HPF[3] VPP Fortran 2. MPI[5]
More informationはじめに 動機 IGModel プロジェクトとは 目次 IGModel プロジェクトの構成 構造 現在の開発状況 IGMBaseLib, IGMTool IGModel-SW( 正二十面体格子全球浅水モデル ) IGModel-SW のテスト計算の結果 ( 一部 ) まとめ, 今後の展望
正二十面体格子大気モデル IGModel プロジェクトの紹介 2011/08/21 GFD セミナー 2011 河合佑太神戸大学地球および惑星大気科学研究室 はじめに 動機 IGModel プロジェクトとは 目次 IGModel プロジェクトの構成 構造 現在の開発状況 IGMBaseLib, IGMTool IGModel-SW( 正二十面体格子全球浅水モデル ) IGModel-SW のテスト計算の結果
More informationOpenMP¤òÍѤ¤¤¿ÊÂÎó·×»»¡Ê£±¡Ë
2012 5 24 scalar Open MP Hello World Do (omp do) (omp workshare) (shared, private) π (reduction) PU PU PU 2 16 OpenMP FORTRAN/C/C++ MPI OpenMP 1997 FORTRAN Ver. 1.0 API 1998 C/C++ Ver. 1.0 API 2000 FORTRAN
More informationhpc141_shirahata.pdf
GPU アクセラレータと不揮発性メモリ を考慮した I/O 性能の予備評価 白幡晃一 1,2 佐藤仁 1,2 松岡聡 1 1: 東京工業大学 2: JST CREST 1 GPU と不揮発性メモリを用いた 大規模データ処理 大規模データ処理 センサーネットワーク 遺伝子情報 SNS など ペタ ヨッタバイト級 高速処理が必要 スーパーコンピュータ上での大規模データ処理 GPU 高性能 高バンド幅 例
More informationFujitsu Standard Tool
XcalableMP ワークショップ COARRAY の便利な使い方 2017 年 10 月 31 日富士通株式会社 ) 次世代 TC 開発本部原口正寿 COARRAY 仕様 Fortran 2008 に組み込まれた分散並列機能 指示文とサービスサブルーチンではなく 文法として組み込まれた [, ] ( 角括弧 ) によるプロセス間通信と 同期のための文 アトミックサブルーチンなど組込み手続 SPMDモデル(Single
More informationIPSJ SIG Technical Report Vol.2014-GN-90 No.16 Vol.2014-CDS-9 No.16 Vol.2014-DCC-6 No /1/24 1,a) 2,b) 2,c) 1,d) QUMARION QUMARION Kinect Kinect
1,a) 2,b) 2,c) 1,d) QUMARION QUMARION Kinect Kinect Using a Human-Shaped Input Device for Remote Pose Instruction Yuki Tayama 1,a) Yoshiaki Ando 2,b) Misaki Hagino 2,c) Ken-ichi Okada 1,d) Abstract: There
More information1.overview
村井均 ( 理研 ) 2 はじめに 規模シミュレーションなどの計算を うためには クラスタのような分散メモリシステムの利 が 般的 並列プログラミングの現状 半は MPI (Message Passing Interface) を利 MPI はプログラミングコストが きい 標 性能と 産性を兼ね備えた並列プログラミング 語の開発 3 並列プログラミング 語 XcalableMP 次世代並列プログラミング
More informationIPSJ SIG Technical Report Vol.2009-DBS-149 No /11/ Bow-tie SCC Inter Keyword Navigation based on Degree-constrained Co-Occurrence Graph
1 2 1 Bow-tie SCC Inter Keyword Navigation based on Degree-constrained Co-Occurrence Graph Satoshi Shimada, 1 Tomohiro Fukuhara 2 and Tetsuji Satoh 1 We had proposed a navigation method that generates
More informationIPSJ SIG Technical Report Vol.2018-SE-200 No /12/ Proposal of test description support environment for request acquisition in web appli
1 1 1 2 Proposal of test description support environment for request acquisition in web application development Nakaji Yoshitake 1 Choi Eunjong 1 Iida Hajimu 1 Yoshida Norihiro 2 1. 1 ( ) 1 Nara Institute
More informationIPSJ SIG Technical Report Vol.2016-ARC-221 No /8/9 GC 1 1 GC GC GC GC DalvikVM GC 12.4% 5.7% 1. Garbage Collection: GC GC Java GC GC GC GC Dalv
GC 1 1 GC GC GC GC DalvikVM GC 12.4% 5.7% 1. Garbage Collection: GC GC Java GC GC GC GC DalvikVM[1] GC 1 Nagoya Institute of Technology GC GC 2. GC GC 2.1 GC 1 c 2016 Information Processing Society of
More informationIPSJ SIG Technical Report Vol.2013-ARC-206 No /8/1 Android Dominic Hillenbrand ODROID-X2 GPIO Android OSCAR WFI 500[us] GPIO GP
Android 1 1 1 1 1 Dominic Hillenbrand 1 1 1 ODROID-X2 GPIO Android OSCAR WFI 500[us] GPIO GPIO API GPIO API GPIO MPEG2 Optical Flow MPEG2 1PE 0.97[W] 0.63[W] 2PE 1.88[w] 0.46[W] 3PE 2.79[W] 0.37[W] Optical
More information120802_MPI.ppt
CPU CPU CPU CPU CPU SMP Symmetric MultiProcessing CPU CPU CPU CPU CPU CPU CPU CPU CPU CPU CPU CPU CP OpenMP MPI MPI CPU CPU CPU CPU CPU CPU CPU CPU CPU CPU MPI MPI+OpenMP CPU CPU CPU CPU CPU CPU CPU CP
More informationOpenMP¤òÍѤ¤¤¿ÊÂÎó·×»»¡Ê£±¡Ë
2011 5 26 scalar Open MP Hello World Do (omp do) (omp workshare) (shared, private) π (reduction) scalar magny-cours, 48 scalar scalar 1 % scp. ssh / authorized keys 133. 30. 112. 246 2 48 % ssh 133.30.112.246
More information1 3DCG [2] 3DCG CG 3DCG [3] 3DCG 3 3 API 2 3DCG 3 (1) Saito [4] (a) 1920x1080 (b) 1280x720 (c) 640x360 (d) 320x G-Buffer Decaudin[5] G-Buffer D
3DCG 1) ( ) 2) 2) 1) 2) Real-Time Line Drawing Using Image Processing and Deforming Process Together in 3DCG Takeshi Okuya 1) Katsuaki Tanaka 2) Shigekazu Sakai 2) 1) Department of Intermedia Art and Science,
More information次世代スーパーコンピュータのシステム構成案について
6 19 4 27 1. 2. 3. 3.1 3.2 A 3.3 B 4. 5. 2007/4/27 4 1 1. 2007/4/27 4 2 NEC NHF2 18 9 19 19 2 28 10PFLOPS2.5PB 30MW 3,200 18 12 12 SimFold, GAMESS, Modylas, RSDFT, NICAM, LatticeQCD, LANS HPL, NPB-FT 19
More information2) 2. DLNA DLNA (Version 1.5) 2 (DMC1) (SSDP) (DMS1, DMS2) (DMR1, DMR2, DMR3) (UDP) DMC1 3 DMS2 DMC1 DMS1 (HTTP) DMS1 DMR2 (RTP) DMR2 3. DLNA 4 DMC1 D
1 1 2 2 DVD LED A Networked Home Appliance Control Method Using Augmented Reality Kenya Sato, 1 Akira Sakamoto, 1 Shinya Mihara 2 and Hideki Shimada 2 Many kinds of networked home appliances connected
More informationHP cafe HP of A A B of C C Map on N th Floor coupon A cafe coupon B Poster A Poster A Poster B Poster B Case 1 Show HP of each company on a user scree
LAN 1 2 3 2 LAN WiFiTag WiFiTag LAN LAN 100% WiFi Tag An Improved Determination Method with Multiple Access Points for Relative Position Estimation Using Wireless LAN Abstract: We have proposed a WiFiTag
More informationMicrosoft PowerPoint - 03_What is OpenMP 4.0 other_Jan18
OpenMP* 4.x における拡張 OpenMP 4.0 と 4.5 の機能拡張 内容 OpenMP* 3.1 から 4.0 への拡張 OpenMP* 4.0 から 4.5 への拡張 2 追加された機能 (3.1 -> 4.0) C/C++ 配列シンタックスの拡張 SIMD と SIMD 対応関数 デバイスオフロード task 構 の依存性 taskgroup 構 cancel 句と cancellation
More informationDO 時間積分 START 反変速度の計算 contravariant_velocity 移流項の計算 advection_adams_bashforth_2nd DO implicit loop( 陰解法 ) 速度勾配, 温度勾配の計算 gradient_cell_center_surface 速
1 1, 2 1, 2 3 2, 3 4 GP LES ASUCA LES NVIDIA CUDA LES 1. Graphics Processing Unit GP General-Purpose SIMT Single Instruction Multiple Threads 1 2 3 4 1),2) LES Large Eddy Simulation 3) ASUCA 4) LES LES
More information040312研究会HPC2500.ppt
2004312 e-mail : m-aoki@jp.fujitsu.com 1 2 PRIMEPOWER VX/VPP300 VPP700 GP7000 AP3000 VPP5000 PRIMEPOWER 2000 PRIMEPOWER HPC2500 1998 1999 2000 2001 2002 2003 3 VPP5000 PRIMEPOWER ( 1 VU 9.6 GF 16GB 1 VU
More informationIPSJ SIG Technical Report Vol.2011-EC-19 No /3/ ,.,., Peg-Scope Viewer,,.,,,,. Utilization of Watching Logs for Support of Multi-
1 3 5 4 1 2 1,.,., Peg-Scope Viewer,,.,,,,. Utilization of Watching Logs for Support of Multi-View Video Contents Kosuke Niwa, 1 Shogo Tokai, 3 Tetsuya Kawamoto, 5 Toshiaki Fujii, 4 Marutani Takafumi,
More informationThe Plasma Boundary of Magnetic Fusion Devices
ASAKURA Nobuyuki, Japan Atomic Energy Research Institute, Naka, Ibaraki 311-0193, Japan e-mail: asakuran@fusion.naka.jaeri.go.jp The Plasma Boundary of Magnetic Fusion Devices Naka Fusion Research Establishment,
More informationpara02-2.dvi
2002 2 2002 4 23 : MPI MPI 1 MPI MPI(Message Passing Interface) MPI UNIX Windows Machintosh OS, MPI 2 1 1 2 2.1 1 1 1 1 1 1 Fig. 1 A B C F Fig. 2 A B F Fig. 1 1 1 Fig. 2 2.2 Fig. 3 1 . Fig. 4 Fig. 3 Fig.
More information13金子敬一.indd
1 1 Journal of Multimedia Aided Education Research, 2004, No. 1, 115122 ED21 1 2 2 WWW 158 34 Decker 3 ED21 ED21 1 ED21 1 CS 1 2 ED213 4 5 ED21 ED21 ED21 ED9900 9 EL21 EE21 EC21 ED9900 JavaApplet JavaApplet
More informationIPSJ SIG Technical Report Vol.2014-ARC-213 No.24 Vol.2014-HPC-147 No /12/10 GPU 1,a) 1,b) 1,c) 1,d) GPU GPU Structure Of Array Array Of
GPU 1,a) 1,b) 1,c) 1,d) GPU 1 GPU Structure Of Array Array Of Structure 1. MPS(Moving Particle Semi-Implicit) [1] SPH(Smoothed Particle Hydrodynamics) [] DEM(Distinct Element Method)[] [] 1 Tokyo Institute
More informationChip Size and Performance Evaluations of Shared Cache for On-chip Multiprocessor Takahiro SASAKI, Tomohiro INOUE, Nobuhiko OMORI, Tetsuo HIRONAKA, Han
Chip Size and Performance Evaluations of Shared Cache for On-chip Multiprocessor Takahiro SASAKI, Tomohiro INOUE, Nobuhiko OMORI, Tetsuo HIRONAKA, Hans J. MATTAUSCH, and Tetsushi KOIDE 1 1 2 0.5 µm CMOS
More information1重谷.PDF
RSCC RSCC RSCC BMT 1 6 3 3000 3000 200310 1994 19942 VPP500/32PE 19992 VPP700E/128PE 160PE 20043 2 2 PC Linux 2048 CPU Intel Xeon 3.06GHzDual) 12.5 TFLOPS SX-7 32CPU/256GB 282.5 GFLOPS Linux 3 PC 1999
More information23 Fig. 2: hwmodulev2 3. Reconfigurable HPC 3.1 hw/sw hw/sw hw/sw FPGA PC FPGA PC FPGA HPC FPGA FPGA hw/sw hw/sw hw- Module FPGA hwmodule hw/sw FPGA h
23 FPGA CUDA Performance Comparison of FPGA Array with CUDA on Poisson Equation (lijiang@sekine-lab.ei.tuat.ac.jp), (kazuki@sekine-lab.ei.tuat.ac.jp), (takahashi@sekine-lab.ei.tuat.ac.jp), (tamukoh@cc.tuat.ac.jp),
More informationOpenMP¤òÍѤ¤¤¿ÊÂÎó·×»»¡Ê£²¡Ë
2013 5 30 (schedule) (omp sections) (omp single, omp master) (barrier, critical, atomic) program pi i m p l i c i t none integer, parameter : : SP = kind ( 1. 0 ) integer, parameter : : DP = selected real
More informationIPSJ SIG Technical Report Vol.2014-HCI-158 No /5/22 1,a) 2 2 3,b) Development of visualization technique expressing rainfall changing conditions
1,a) 2 2 3,b) Development of visualization technique expressing rainfall changing conditions with a still picture Yuuki Hyougo 1,a) Hiroko Suzuki 2 Tadanobu Furukawa 2 Kazuo Misue 3,b) Abstract: In order
More information01_OpenMP_osx.indd
OpenMP* / 1 1... 2 2... 3 3... 5 4... 7 5... 9 5.1... 9 5.2 OpenMP* API... 13 6... 17 7... 19 / 4 1 2 C/C++ OpenMP* 3 Fortran OpenMP* 4 PC 1 1 9.0 Linux* Windows* Xeon Itanium OS 1 2 2 WEB OS OS OS 1 OS
More informationHPC可視化_小野2.pptx
大 小 二 生 高 方 目 大 方 方 方 Rank Site Processors RMax Processor System Model 1 DOE/NNSA/LANL 122400 1026000 PowerXCell 8i BladeCenter QS22 Cluster 2 DOE/NNSA/LLNL 212992 478200 PowerPC 440 BlueGene/L 3 Argonne
More informationHPEハイパフォーマンスコンピューティング ソリューション
HPE HPC / AI Page 2 No.1 * 24.8% No.1 * HPE HPC / AI HPC AI SGIHPE HPC / AI GPU TOP500 50th edition Nov. 2017 HPE No.1 124 www.top500.org HPE HPC / AI TSUBAME 3.0 2017 7 AI TSUBAME 3.0 HPE SGI 8600 System
More information1 GPU GPGPU GPU CPU 2 GPU 2007 NVIDIA GPGPU CUDA[3] GPGPU CUDA GPGPU CUDA GPGPU GPU GPU GPU Graphics Processing Unit LSI LSI CPU ( ) DRAM GPU LSI GPU
GPGPU (I) GPU GPGPU 1 GPU(Graphics Processing Unit) GPU GPGPU(General-Purpose computing on GPUs) GPU GPGPU GPU ( PC ) PC PC GPU PC PC GPU GPU 2008 TSUBAME NVIDIA GPU(Tesla S1070) TOP500 29 [1] 2009 AMD
More information33312004_先端融合開発専攻_観音0314PDF用
Advanced Course for Interdisciplinary Technology Development National Institute of Technology, Gifu College Advanced Course for Interdisciplinary Technology Development 1 5 Curriculum National Institute
More informationuntitled
Power Wall HPL1 10 B/F EXTREMETECH Supercomputing director bets $2,000 that we won t have exascale computing by 2020 One of the biggest problems standing in our way is power. [] http://www.extremetech.com/computing/155941
More informationCell/B.E. BlockLib
Cell/B.E. BlockLib 17 17115080 21 2 10 i Cell/B.E. BlockLib SIMD CELL SIMD Cell Cell BlockLib BlockLib NestStep libspe1 Cell SDK 3.1 libspe2 BlockLib Cell SDK 3.1 NestStep libspe2 BlockLib BlockLib libspe1
More informationPowerPoint プレゼンテーション
LAN 1. LAN,. NAT,., LAN. NTMobile Network Traversal with Mobilty [1]. NTMobile. OS TUN/TAP, LAN. 2. NTMobile NTMobile NAT, IPv4/IPv6,,. NTMobile. DC Direction Coordinator. NTMobile. DC,. NTMobile NTMfw.
More informationGPU GPU CPU CPU CPU GPU GPU N N CPU ( ) 1 GPU CPU GPU 2D 3D CPU GPU GPU GPGPU GPGPU 2 nvidia GPU CUDA 3 GPU 3.1 GPU Core 1
GPU 4 2010 8 28 1 GPU CPU CPU CPU GPU GPU N N CPU ( ) 1 GPU CPU GPU 2D 3D CPU GPU GPU GPGPU GPGPU 2 nvidia GPU CUDA 3 GPU 3.1 GPU Core 1 Register & Shared Memory ( ) CPU CPU(Intel Core i7 965) GPU(Tesla
More informationCopyright 2001 by Junichi Sawase
JAIST Reposi https://dspace.j Title 知識コミュニティを活性化するインフォーマルコミュ ニケーションツールの開発 Author(s) 澤瀬, 順一 Citation Issue Date 2001-03 Type Thesis or Dissertation Text version author URL http://hdl.handle.net/10119/716
More informationGPGPU
GPGPU 2013 1008 2015 1 23 Abstract In recent years, with the advance of microscope technology, the alive cells have been able to observe. On the other hand, from the standpoint of image processing, the
More information低周波成分高周波成分量子化適用データ符号化適用データ 元データ ウェーブレット変換量子化符号化 gzip 1 A [] [1] [2] [3] A[2i]+ A[2i +1] L[i] = 2 [2i] [2i+1] [2n] [2n+1] L [] [1] [i] [n] H [] [1] [i]
1 1 1 1 HPC NICAM 5% 7% 1. HPC HPC [1], [2], [3] 22 MTBF( ) 3 HPC [4], [5] MTBF MTBF [6] gzip 1 NICAM[7] 5% 7% 2. 2.1 I/O N I/O T C N > T + C (1) 2.2 [8] c 214 Information Processing Society of Japan 1
More informationPeerPool IP NAT IP UPnP 2) Bonjour 3) PeerPool CPU 4) 2 UPnP Bonjour PeerPool CPU PeerPool PeerPool PPv2 PPv2 2. PeerPool 2.1 PeerPool PeerPool PoolGW
PPv2: 1 2 3 4 PeerPool PeerPool 3 PPv2(PeerPool version 2) PPv2: A Transparent Network Architecture for Naive Inter-Smart Environment Communication Michinobu Shimatani, 4 Yu Enokibori, 2 ismail Arai 3
More informationIPSJ SIG Technical Report Vol.2015-MUS-106 No.10 Vol.2015-EC-35 No /3/2 BGM 1,4,a) ,4 BGM. BGM. BGM BGM. BGM. BGM. BGM. 1.,. YouTube 201
BGM 1,4,a) 1 2 2 3,4 BGM. BGM. BGM BGM. BGM. BGM. BGM. 1.,. YouTube 2015 1 100.. Web.. BGM.BGM [1]. BGM BGM 1 Waseda University, Shinjuku, Tokyo 169-8555, Japan 2 3 4 JST CREST a) ha-ru-ki@asagi.waseda.jp.
More informationuntitled
The Impact of Digitization on Music Production: From a Perspective of Modularity 51 2 pp. 87-108 2003 12 I 21 3 Information and Communication Technology, ICT 0 1 1 20 1 199820012000 1 MP3 CD 2 3 II CD
More information00hyoshi
Network and Information 2012 SENSHU UNIVERSITY School of Network and Information 2 3 4 6 8 10 12 14 16 18 20 22 24 26 27 28 1 2 3 4 Business Human being Technology Information Communication Technology
More informationmain.dvi
PC 1 1 [1][2] [3][4] ( ) GPU(Graphics Processing Unit) GPU PC GPU PC ( 2 GPU ) GPU Harris Corner Detector[5] CPU ( ) ( ) CPU GPU 2 3 GPU 4 5 6 7 1 toyohiro@isc.kyutech.ac.jp 45 2 ( ) CPU ( ) ( ) () 2.1
More information倍々精度RgemmのnVidia C2050上への実装と応用
.. maho@riken.jp http://accc.riken.jp/maho/,,, 2011/2/16 1 - : GPU : SDPA-DD 10 1 - Rgemm : 4 (32 ) nvidia C2050, GPU CPU 150, 24GFlops 25 20 GFLOPS 15 10 QuadAdd Cray, QuadMul Sloppy Kernel QuadAdd Cray,
More information