π-VizStudio User Manual
|
|
- いとは まきい
- 5 years ago
- Views:
Transcription
1 -VizStudio User Manual
2 -CAVE -VizStudio () -CAVE -VizStudio User Manual -VizStudio -CAVE -VizStudio User Manual -VizStudio -VizStudio Manual -VizStudio -CAVE -VizStudio Admin Manual -CAVE -VizStudio Multiverse Manual VR 3D Movie Manual i
3 MPI (ifort,icc ) -lmpi mpif90 Fortran, mpicc(c), mpicxx(c++) vizfront vizcore Fortran, C, C++ vizfront Fortran $ ifort -O3 -xavx prog.f C $ icc -O3 -xavx prog.c C++ $ icpc -O3 -xavx prog.cpp OpenMP Fortran $ ifort -O3 -xavx -qopenmp prog_omp.f C ii
4 $ icc -O3 -xavx -qopenmp prog_omp.c C++ $ icpc -O3 -xavx -qopenmp prog_omp.cpp MPI Fortran $ mpif90 -O3 -xavx prog_mpi.f C $ mpicc -O3 -xavx prog_mpi.c C++ $ mpicxx -O3 -xavx prog_mpi.cpp MPI + OpenMP ( ) Fortran $ mpif90 -O3 -xavx -qopenmp prog_hyb.f C $ mpicc -O3 -xavx -qopenmp prog_hyb.c C++ $ mpicxx -O3 -xavx -qopenmp prog_hyb.cpp (Fortran,C,C++ ) vizfront qsub run_mpi.sh $ qsub run_mpi.sh 60.vizcore $ qstat iii
5 Job id Name User Time Use S Queue vizcore mpi scuser2 00:19:12 R uv-large $ qdel 60 1: run_serial.sh #!/bin/bash #PBS -N serial #PBS -q uv-test #PBS -o stdout.log #PBS -e stderr.log #PBS -l select=1:ncpus=2 cd ${PBS_O_WORKDIR} dplace -c1./a.out (2 ) OpenMP 12 OpenMP : run_omp.sh 2: run_omp.sh #!/bin/bash #PBS -N openmp #PBS -q uv-large #PBS -o stdout.log #PBS -e stderr.log #PBS -l select=1:ncpus=12 cd ${PBS_O_WORKDIR} export KMP_AFFINITY=disabled export OMP_NUM_THREADS=12 dplace -x2 -c0-11./a.out (12 ) Intel Affinity disabled OpenMP iv
6 MPI 12 MPI : run_mpi.sh 3: run_mpi.sh #!/bin/bash #PBS -N mpi #PBS -q uv-large #PBS -o stdout.log #PBS -e stderr.log #PBS -l select=1:ncpus=12:mpiprocs=12 cd ${PBS_O_WORKDIR} (12 ) mpiexec_mpt -np 12 dplace -s1 -c0-11./a.out 12 MPI MPI + OpenMP MPI 4 12 MPI+OpenMP : run_hybrid.sh 4: run_hybrid.sh #!/bin/bash #PBS -N hybrid #PBS -q uv-large #PBS -o stdout.log #PBS -e stderr.log #PBS -l select=1:ncpus=48:mpiprocs=4 (48 ) cd ${PBS_O_WORKDIR} export KMP_AFFINITY=disabled export OMP_NUM_THREADS=12 Intel Affinity disabled 12 mpiexec_mpt -np 4 omplace -nt ${OMP_NUM_THREADS} -c 0-47./a.out hybrid v
7 i ii Intel Fortran C C dplace / omplace Intel PGI OpenMP MPI MPI + OpenMP vi
8 VizStudio 1.1: -VizStudio vizfront vizcore -CAVE 1
9 1 1.2 vizcore vizfront SGI UV 300 SGI C2112-GP2 CPU Intel Xeon E v2 ( GHz 30MB LLC) *32 Intel Xeon E v3 (8 3.2GHz 20MB LLC) *2 CPU TiB (DDR3 32GiB * 512) 256 GiB(DDR4 32GiB * 8) (home) 86TB (xfs) 86TB (nfs) (data) 342TB (xfs) 342 TB (nfs) (work) 3TB (xfs) - NVIDIA Quadro K6000 * 8GPU NVIDIA Quadro K5200 * 1GPU 10Gbps 10Gbps 1.2 vizcore vizfront OS Red Hat Enterprise Linux 6.6 Red Hat Enterprise Linux 7.4 Intel Parallel Studio XE Cluster Edition, PGI Fortran/C/C++ Server for Linux Intel Parallel Studio XE Cluster Edition MPI SGI MPT (MPI Toolkit) SGI MPT (MPI Toolkit), Intel MPI Intel MKL (Math Kernel Library) Intel MKL (Math Kernel Library) GPU NVIDIA CUDA Toolkit 7.0 NVIDIA CUDA Toolkit 5.5 Altair PBS Professional 13.0 Altair PBS Professional 13.0 NICE DCV NICE DCV EnSight VR - AVS Express MPE - ParaView ParaView ImageMagick ImageMagick FFMpeg FFMpeg POV-Ray POV-Ray 2
10 vizfront -VizStudio vizfront ssh vizfront.eccse.kobe-u.ac.jp ~]$ ssh The authenticity of host vizfront.eccse.kobe-u.ac.jp ( ) can t be established. RSA key fingerprint is 24:fa:25:92:a0:57:18:89:f9:13:56:1c:c7:50:a7:4f. Are you sure you want to continue connecting (yes/no)? yes Warning: Permanently added vizfront.eccse.kobe-u.ac.jp, (RSA) to the list of known hosts. Enter passphrase for key /home/wsuser/.ssh/id_rsa : Last login: Mon Aug 17 05:14: from workstation [scuser@vizfront ~]$ openssh ssh PC ~/.ssh/config 3
11 2 2.1 ssh vizfront vizfront ~]$ cat.ssh/config Host vizfront HostName vizfront.eccse.kobe-u.ac.jp Port 22 User scuser IdentityFile ~/.ssh/id_rsa ~]$ ssh vizfront Enter passphrase for key /home/sgi-remote/.ssh/id_rsa : Last login: Mon Aug 17 09:12: from workstation [scuser@vizfront ~]$ logout exit [scuser@vizfront ~]$ logout Connection to vizfront.eccse.kobe-u.ac.jp closed vizcore vizcore [scuser@vizfront ~]$ qsub -I qsub: waiting for job 13.vizcore to start qsub: job 13.vizcore ready [scuser@vizcore ~]$ logout exit [scuser@vizcore ~]$ exit logout qsub: job 13.vizcore completed 4
12 2 2.2 ~]$ vizfront ~]$ echo $SHELL /bin/bash vizcore ~]$ echo $SHELL /bin/bash vizfront ~]$ echo $LANG ja_jp.utf-8 vizcore ~]$ echo $LANG en_us.utf VizStudio 5
13 : NFS vizcore vizfront quota (soft) quota (hard) /home/${group}/${user} xfs 86TB 800GB 1TB /data/${group}/${user} xfs 342TB 16TB 20TB /work xfs 3TB vizfront vizcore /home /data NFS /home quota /data quota $(GROUP) G 5 $(USER) /home quota [viz@vizcore ~]$ /usr/sbin/xfs_quota -c quota -u viz /home Disk quotas for User viz (50002) Filesystem Blocks Quota Limit Warn/Time Mounted on /dev/xvm [ ] /home /data quota [viz@vizcore ~]$ /usr/sbin/xfs_quota -c quota -g eccse /data Disk quotas for Group eccse (10001) Filesystem Blocks Quota Limit Warn/Time Mounted on /dev/xvm [ ] /data 6
14 /home /data /data/$(group) shared shared /data/$(group)/shared /work SSD : /home /data data /data/$(group)/$(user) /home/group/user/data -> /data/group/user 2.4 PC vizfront PC scp [wsuser@workstation ~]$ scp testfile scuser@vizfront.eccse.kobe-u.ac.jp:~/data 7
15 2 2.4 vizfront PC PC scp ~]$ scp 8
16 3 -VizStudio Intel PGI GNU Intel Math Kernel Library (MKL) MPI SGI MPI Toolkit (MPT) vizfront vizcore intel PGI GNU Intel MKL ( ) SGI(HPE) MPT (MPI ) Intel MPI (MPI ) 3.1 Intel [scuser@vizfront ~]$ command [options] sourcefile [...] command Fortran77, 90, 95, 2003 ifort $ ifort [options] program.f ISO C icc $ icc [options] program.c ISO C++ icpc $ icpc [options] program.cpp [options] 3.7 Intel Intel Intel MKL Math Kernel Library 9
17 3 3.2 Fortran /opt/intel Intel Fortran / C / C++ Intel MKL /opt/intel/composerxe/samples /opt/intel/composerxe/mkl/examples vizfront vizcore Intel SGI MPT 3.2 Fortran Fortran $ ifort -O3 -xavx prog.f $ dplace./a.out OpenMP $ ifort -O3 -xavx -qopenmp -qopt-report -qopt-report-phase=openmp \ -qopt-report-file=stdout prog_omp.f $ export KMP_AFFINITY=disabled (Intel ) $ export OMP_NUM_THREADS=4 ( ) $ dplace -x2./a.out 10
18 3 3.3 C MPI $ mpif90 -O3 -xavx prog_mpi.f $ mpirun -np 4 dplace -s1./a.out MPI + OpenMP $ mpif90 -O3 -xavx -qopenmp -qopt-report -qopt-report-phase=openmp -qopt-report-file=stdout \ prog_hyb.f -lmpi $ export KMP_AFFINITY=disabled Intel $ export OMP_NUM_THREADS=4 $ mpirun -np 4 omplace -nt ${OMP_NUM_THREADS}./a.out 3.3 C C $ icc -O3 -xavx prog.c $ dplace./a.out OpenMP $ icc -O3 -xavx -qopenmp -oqpt-report -qopt-report-phase=openmp -qopt-report-file=stdout \ prog_omp.c $ export KMP_AFFINITY=disabled (Intel ) $ export OMP_NUM_THREADS=4 ( ) 11
19 3 3.4 C++ $ dplace -x2./a.out MPI $ mpicc -O3 -xavx prog_mpi.c $ mpirun -np 4 dplace -s1./a.out MPI + OpenMP $ mpicc -O3 -xavx -qopenmp -qopt-report -qopt-report-phase=openmp \ -qopt-report-file=stdout prog_hyb.c $ export KMP_AFFINITY=disabled Intel $ export OMP_NUM_THREADS=4 $ mpirun -np 4 omplace -nt ${OMP_NUM_THREADS}./a.out 3.4 C C++ $ icpc -O3 -xavx prog.cpp $ dplace./a.out (OpenMP) 12
20 3 3.5 dplace / omplace $ icpc -O3 -xavx -qopenmp -qopt-report -qopt-report-phase=openmp \ -qopt-report-file=stdout prog_omp.cpp $ export KMP_AFFINITY=disabled (Intel ) $ export OMP_NUM_THREADS=4 ( ) $ dplace -x2./a.out MPI $ mpicxx -O3 -xavx prog_mpi.cpp $ mpirun -np 4 dplace -s1./a.out MPI + OpenMP $ mpicxx -O3 -xavx -qopenmp -qopt-report -qopt-report-phase=openmp \ -qopt-report-file=stdout prog_hyb.cpp $ export KMP_AFFINITY=disabled Intel $ export OMP_NUM_THREADS=4 $ mpirun -np 4 omplace -nt ${OMP_NUM_THREADS}./a.out 3.5 dplace / omplace OS CPU dplace omplace omplace MPI + OpenMP CPU OS CPU CPU dplace omplace 13
21 3 3.5 dplace / omplace dplace omplace -c CPU CPU CPU dplace ompleace 1 CPU 2 CPU CPU ndstat vizcore ndstat vizcore vizcore CPU -c dplace omplace CPU 7 $ dplace -c7./a.out OpenMP CPU 0 7 $ dplace -x2 -c0-7./a.out MPI CPU 0 7 $ mpirun -np 8 dplace -s1 -c0-7./a.out MPI + OpenMP MPI 4 OpenMP 4 $ export OMP_NUM_THREADS=4 $ mpirun -np 4 omplace -nt ${OMP_NUM_THREADS} -c0-15./a.out 0 15 MPI 4 OpenMP 4 MPI 0, 4, 8, 12 OpenMP MPI MPI 0 OpenMP 14
22 dplace -c <cpulist> CPU cpulist ( ) 0-3 0,1,2,3 0-7:2 0,2,4,6 0-1,4-5 0,1,4,5 0-3:2,8-9 0,2,8,9 -x2 OpenMP -s1 MPI omplace -nt ${OMP_NUM_THREADS} -c <cpulist> CPU cpulist ( ) 0-N 0,1,2,3 N ( ) 1:st=2 1,3,5,7, () 0,1,1-4 0,1,1,2,3,4 (1 2 ) 0-6:st=2, 1-7:st=2 0,2,4,6,1,3,5, :bs=2+st=4 16,17,20,21,24,25,28, Intel Math Kernel Library MKL Intel Math Kernel Library MKL MKL 15
23 3 3.6 C Fortran Intel MKL BLAS BLACS LAPACK ScaLAPACK PBLAS Sparse Solver Vector Math Library (VML) Vector Statistical Library (VSL) Conventional DFTs and Cluster DFTs FFTW interface MKL MKL $ mpif90 -lmkl_intel_lp64 -lmkl_sequential -lmkl_core test.f Intel $ mpif90 -mkl=sequential test.f BLACS ScaLAPACK MKL $ mpif90 -lmkl_scalapack_lp64 -lmkl_blacs_sgimpt_lp64 -lmkl_intel_lp64 \ -lmkl_sequential -lmkl_core test.f Intel $ mpif90 -lmkl_scalapack_lp64 -lmkl_blacs_sgimpt_lp64 -mkl=sequential test.f MKL MKL 16
24 3 3.6 $ mpif90 -lmkl_intel_lp64 -lmkl_intel_thread -lmkl_core -liomp5 test.f Intel $ mpif90 -mkl=parallel test.f BLACS ScaLAPACK MKL $ mpif90 -lmkl_scalapack_lp64 -lmkl_blacs_sgimpt_lp64 -lmkl_intel_lp64 \ -lmkl_intel_thread -lmkl_core -liomp5 test.f -lmpi Intel $ mpif90 -lmkl_scalapack_lp64 -lmkl_blacs_sgimpt_lp64 -mkl=parallel \ test.f -lmpi $ export KMP_AFFINITY=disabled Intel $ export OMP_NUM_THREADS=4 $ dplace -x2./a.out MKL OpenMP MKL_NUM_THREADS $ export KMP_AFFINITY=disabled Intel $ export OMP_NUM_THREADS=8 OpenMP $ export MKL_NUM_THREADS=4 MKL $ dplace -x2./a.out MKL ( ) OMP_NUM_THREADS 1 MKL OMP_NUM_THREADS OpenMP 17
25 3 3.7 Intel MKL OMP_NUM_THREADS OpenMP OMP_NUM_THREADS MKL_NUM_THREADS OpenMP MKL OpenMP MKL OMP_NESTED yesmkl MPI MPI MKL OMP_NUM_THREADS 1 MKL MPI MKL OMP_NUM_THREADS MKL_NUM_THREADS 3.7 Intel Intel -O2 -msse2 SSE2 SSE SSE2 Xeon -O3 O2 -xavx AVX SSE4.2 SSSE3, SSE3, SSE2, SSE AVX O0 18
26 3 3.7 Intel -O1 -O2 -O3 -O2 -axavx -xavx -fast -ipo -O3 -no-prec-div -static -fp-model fast=2 -xhost -fast -static (SGI MPT ) -Bdynamic vec / -qopt-report=n -qopt-report-phase=vec -qopt-report-file=stdout -no-prec-div IEEE -no-prec-sqrt -qopt-report [n] n=0: n=1: n=2: n=3: -qopt-report-file=name name -qopt-report-routine=name 19
27 3 3.7 Intel name -qopt-report-phase=name name -qopt-report-help cg ipo (ipo) loop openmp OpenMP par pgo (PGO) tcollect vec all Name x -ax IA32 HOST AVX IvyBridge (Intel Xeon E7-8800v2 ) AVX 20
28 3 3.7 Intel SSE4.2 SSE4 SSSE3 SSE3 SSE2 SSE AVX SSE4.2 Nehalem-EP(Intel Xeon SSE4.2 SSE4 SSSE3, SSE3, SSE2, SSE Core SSE4.1 SSE4 SSSE3, SSE3, SSE2, SSE 45nm Core (Intel Xeon SSE3 SSSE3, SSE3, SSE2, SSE Core2 Duo (Intel Xeon ip 1 -ipo ftz -no-ftz -fltconsistency IEEE OpenMP -qopenmp OpenMP -qopt-report=n -qopt-report-phase=omp -qopt-report-file=stdout OpenMP n=0: n=1: 21
29 3 3.7 Intel n=2: MASTER, SINGLE, CRITICAL -qopenmp OpenMP parallel -qopt-report=n -qopt-report-phase=vec -qopt-report-file=stdout n=0: n=1: n=2: n=3: 2 private shared reduction n=4: 3 n=5: -parallel -par-threshold [n] n n=0: n=100: MPI -lmpi mpi SGI MPT -static static -fast -Bdynamic -lmpi SGI MPT mpif90 mpifort mpif90 -show V -help 22
30 3 3.8 PGI 3.8 PGI PGI vizcore PBS vizcore Fortran77, 90, 95, 2003 ISO C ISO C++ pgfortran pgcc pgc++ PGI Fortran / C / C++ /opt/pgi/linux86-64/2015/examples vizcore qsub -I [scuser@vizfront ~]$ qsub -I qsub: waiting for job 17.vizcore to start qsub: job 17.vizcore ready PGI [scuser@vizcore ~]$ module load pgi64/ AutoPar [scuser@vizcore ~]$ cp -r /opt/pgi/linux86-64/2015/examples/autopar. [scuser@vizcore ~]$ cd AutoPar [scuser@vizcore AutoPar]$ make NTHREADS=4 all "Test PASSED" PGI 23
31 3 3.8 PGI vizcore exit AutoPar]$ exit logout qsub: job 17.vizcore completed 24
32 VizStudio PBS Professional PBS Pro vizcore PBS Pro CPU qsub qsub -I qstat qdel 4.2 vizcore uv-pv uv-test uv-large TB 450GB 12.15TB GB 37.5GB 900GB - 1.8TB 150GB 3.6TB 2h 1h 24h - 6h 1h 24h uv-test uv-large uv-pv vizcore ParaView GPU ParaView 25
33 ( : run_serial.sh) 4.1: run_serial.sh #!/bin/bash #PBS -N serial #PBS -q uv-test #PBS -o stdout.log #PBS -e stderr.log #PBS -l select=1:ncpus=2 cd ${PBS_O_WORKDIR} dplace -c1./a.out (2 ) qsub [option] <JOB_SCRIPT> -N -q -o PATH -e PATH -l select=( ) -VizStudio 1 ncpus=(cpu ) mem=( ) walltime=( ) $ qsub run_serial.sh 41.vizcore 26
34 4 4.4 OpenMP 4.4 OpenMP 12 OpenMP : run_omp.sh 4.2: run_omp.sh #!/bin/bash #PBS -N openmp #PBS -q uv-large #PBS -o stdout.log #PBS -e stderr.log #PBS -l select=1:ncpus=12 cd ${PBS_O_WORKDIR} export KMP_AFFINITY=disabled export OMP_NUM_THREADS=12 dplace -x2 -c0-11./a.out (12 ) Intel Affinity disabled OpenMP 4.5 MPI 12 MPI : run_mpi.sh 4.3: run_mpi.sh #!/bin/bash #PBS -N mpi #PBS -q uv-large #PBS -o stdout.log #PBS -e stderr.log #PBS -l select=1:ncpus=12:mpiprocs=12 cd ${PBS_O_WORKDIR} (12 ) mpiexec_mpt -np 12 dplace -s1 -c0-11./a.out 12 MPI 27
35 4 4.6 MPI + OpenMP 4.6 MPI + OpenMP MPI 4 12 MPI+OpenMP : run_hybrid.sh 4.4: run_hybrid.sh #!/bin/bash #PBS -N hybrid #PBS -q uv-large #PBS -o stdout.log #PBS -e stderr.log #PBS -l select=1:ncpus=48:mpiprocs=4 (48 ) cd ${PBS_O_WORKDIR} export KMP_AFFINITY=disabled export OMP_NUM_THREADS=12 Intel Affinity disabled 12 mpiexec_mpt -np 4 omplace -nt ${OMP_NUM_THREADS} -c 0-47./a.out hybrid : run_mem.sh 4.5: run_mem.sh #!/bin/bash #PBS -N largemem #PBS -q uv-large #PBS -o stdout.log #PBS -e stderr.log #PBS -l select=1:ncpus=8:mem=1800gb cd ${PBS_O_WORKDIR} dplace -c7./a.out (8 1800GB) 4.7 qstat 28
36 4 4.8 $ qstat Job id Name User Time Use S Queue vizcore mpi-gentle scuser1 28:28:46 R uv-large 51.vizcore mpi-gentle scuser2 28:24:32 R uv-large 4.8 qdel $ qdel [JOBID [JOBID ]] $ qsub runmpi.sh 60.vizcore $ qstat Job id Name User Time Use S Queue vizcore mpi-gentle scuser2 00:19:12 R uv-large $ qdel 60 $ qstat 29
37 -VizStudio User Manual
Microsoft Word - uv2000manual.docx
大規模可視化システム UV2000 利用マニュアル 名古屋大学情報基盤センター 2014/11/13 版 UV システム利用マニュアル 1 はじめに 本書 大規模可視化システム UV2000 利用者マニュアル は 名古屋大学情報基盤センターの利用マニュアルです ご不明な点やご質問がございましたら 次の連絡先にお問い合わせください 問い合わせ先 名古屋大学情報連携統括本部情報推進部情報基盤共同利用担当
More informationMicrosoft Word - uv2000manual201603.docx
大 規 模 可 視 化 システム UV2000 利 用 マニュアル 2016.3.7 版 名 古 屋 大 学 情 報 基 盤 センター UV システム 利 用 マニュアル 1 はじめに 本 書 大 規 模 可 視 化 システム UV2000 利 用 者 マニュアル は 名 古 屋 大 学 情 報 基 盤 セン ターの 利 用 マニュアルです ご 不 明 な 点 やご 質 問 がございましたら 次 の
More informationMicrosoft Word - appli_OpenMX_install.docx
OpenMX version 3.8.3 インストール手順書 (Linux 64 ビット版 ) 目次 1. アプリケーション概要... 1 2. システム環境... 1 3. アプリケーションのインストール... 1 4. 動作確認の実施... 4 本手順書は OpenMX の入手からインストールまでを説明した資料です 2018/3/7 1. アプリケーション概要 本手順書が対象としているアプリケーションは以下の通りです
More informationインテル(R) Visual Fortran Composer XE
Visual Fortran Composer XE 1. 2. 3. 4. 5. Visual Studio 6. Visual Studio 7. 8. Compaq Visual Fortran 9. Visual Studio 10. 2 https://registrationcenter.intel.com/regcenter/ w_fcompxe_all_jp_2013_sp1.1.139.exe
More informationMicrosoft PowerPoint - uv2000parallel.pptx
SGI UV2000 並列化プログラム利用の手引 2016/12/ 1 SGI Japan SGI Japan HPC Technology Division / HPC Consulting Professional Service Division Agenda 2014 Silicon Graphics International Corp. 2 Agenda 1. システム構成と利用方法 2.
More informationVT SoftWare Users Guide
VT SoftWare Users Guide 26 6 1 CG/CAD VTPC 26 6 1 PGI 1.1 PGI 1.2 PGI for MPICH 1.1.1 1.1.2 1.1.2.1 FORTRAN77 1.1.2.2 FORTRAN9 1.1.3 1.1. 1.1..1 OpenMP 1.1..2 1.1..3 1.2.1 1.2.2 1.2.2.1 FORTRAN77 1.2.2.2
More information2 2.1 Mac OS CPU Mac OS tar zxf zpares_0.9.6.tar.gz cd zpares_0.9.6 Mac Makefile Mekefile.inc cp Makefile.inc/make.inc.gfortran.seq.macosx make
Sakurai-Sugiura z-pares 26 9 5 1 1 2 2 2.1 Mac OS CPU......................................... 2 2.2 Linux MPI............................................ 2 3 3 4 6 4.1 MUMPS....................................
More informationSGI AltixUV1000 並列化プログラミング講習会
SGI Altix UV1000 並列化プログラミング講習会 日本 SGI 株式会社 HPC 技術推進本部 HPCコンサルティング部 1 Contents 1. システム構成と利用方法 2. SGI Altix UV1000 アーキテクチャ 3. 開発環境 4. コンパイルと実行 5. 最適化について 6. コンパイラオプション 7. 数値計算ライブラリ 8. デバッガと時間計測関数 9. ファーストタッチとデータ配置
More informationiphone GPGPU GPU OpenCL Mac OS X Snow LeopardOpenCL iphone OpenCL OpenCL NVIDIA GPU CUDA GPU GPU GPU 15 GPU GPU CPU GPU iii OpenMP MPI CPU OpenCL CUDA OpenCL CPU OpenCL GPU NVIDIA Fermi GPU Fermi GPU GPU
More informationOpenMP¤òÍѤ¤¤¿ÊÂÎó·×»»¡Ê£±¡Ë
2011 5 26 scalar Open MP Hello World Do (omp do) (omp workshare) (shared, private) π (reduction) scalar magny-cours, 48 scalar scalar 1 % scp. ssh / authorized keys 133. 30. 112. 246 2 48 % ssh 133.30.112.246
More informationCPU Levels in the memory hierarchy Level 1 Level 2... Increasing distance from the CPU in access time Level n Size of the memory at each level 1: 2.2
FFT 1 Fourier fast Fourier transform FFT FFT FFT 1 FFT FFT 2 Fourier 2.1 Fourier FFT Fourier discrete Fourier transform DFT DFT n 1 y k = j=0 x j ω jk n, 0 k n 1 (1) x j y k ω n = e 2πi/n i = 1 (1) n DFT
More informationdvi
{ SSH { 3 3 1 telnet ID ( ) ID ( 1) SSH(Secure SHell) (ID ) SSH SSH SSH login : userid password : himitsu login : userid psaaword: himitsu login : userid password : himitsu 1. Host 11 7 UNIX ( sakura)
More informationインテル(R) Visual Fortran Composer XE 2011 Windows版 入門ガイド
Visual Fortran Composer XE 2011 Windows* エクセルソフト株式会社 www.xlsoft.com Rev. 1.0 (2010/12/20) Copyright 1998-2011 XLsoft Corporation. All Rights Reserved. 1 / 36 ... 3... 4... 5... 7 /... 7... 9 /... 9...
More informationインテル(R) C++ Composer XE 2011 Windows版 入門ガイド
C++ Composer XE 2011 Windows* エクセルソフト株式会社 www.xlsoft.com Rev. 1.2 (2011/05/03) Copyright 1998-2011 XLsoft Corporation. All Rights Reserved. 1 / 70 ... 4... 5... 6... 8 /... 8... 10 /... 11... 11 /... 13
More informationSlide 1
OpenMX のコンパイル方法 Truong Vinh Truong Duy (The University of Tokyo) 2014/10/10 OpenMX のダウンロード 1. OpenMX のダウンロード % wget http://www.openmx-square.org/openmx3.7.tar.gz % tar openmx3.7.tar.gz 2. パッチのダウンロード %
More informationインテル(R) Visual Fortran Composer XE 2013 Windows版 入門ガイド
Visual Fortran Composer XE 2013 Windows* エクセルソフト株式会社 www.xlsoft.com Rev. 1.1 (2012/12/10) Copyright 1998-2013 XLsoft Corporation. All Rights Reserved. 1 / 53 ... 3... 4... 4... 5 Visual Studio... 9...
More informationuntitled
A = QΛQ T A n n Λ Q A = XΛX 1 A n n Λ X GPGPU A 3 T Q T AQ = T (Q: ) T u i = λ i u i T {λ i } {u i } QR MR 3 v i = Q u i A {v i } A n = 9000 Quad Core Xeon 2 LAPACK (4/3) n 3 O(n 2 ) O(n 3 ) A {v i }
More informationOpenMP¤òÍѤ¤¤¿ÊÂÎó·×»»¡Ê£±¡Ë
2012 5 24 scalar Open MP Hello World Do (omp do) (omp workshare) (shared, private) π (reduction) PU PU PU 2 16 OpenMP FORTRAN/C/C++ MPI OpenMP 1997 FORTRAN Ver. 1.0 API 1998 C/C++ Ver. 1.0 API 2000 FORTRAN
More informationMicrosoft Word - ユーザ向け利用の手引き_v0.3.doc
京 データポスト処理システム 利用の手引 0.3 版 改版履歴版 更新日付 内容 0.1 2012/4/11 新規作成 0.2 2012/9/6 ログインサーバ名の変更に伴う修正パスワード認証を禁止し 公開鍵認証のみ可能にしたことによる変更本手引きの題目の変更 2 章の名称を変更 京 経由の利用方法 多段接続に関する記述を追加計算ノードでの公開鍵の登録を Fowardagent を行うことで代えられる旨を追加
More informationコードのチューニング
OpenMP による並列化実装 八木学 ( 理化学研究所計算科学研究センター ) KOBE HPC Spring School 2019 2019 年 3 月 14 日 スレッド並列とプロセス並列 スレッド並列 OpenMP 自動並列化 プロセス並列 MPI プロセス プロセス プロセス スレッドスレッドスレッドスレッド メモリ メモリ プロセス間通信 Private Private Private
More informationMicrosoft Word - appli_SMASH_tutorial_2.docx
チュートリアル SMASH version 2.2.0 (Linux 64 ビット版 ) 本チュートリアルでは 量子化学計算ソフトウェア SMASH バージョン 2.2.0 について ソフトウェアの入手 / 実行モジュール作成 / 計算実行 / 可視化処理までを例示します 1. ソフトウェアの入手以下の URL よりダウンロードします https://sourceforge.net/projects/smash-qc/files/smash-2.2.0.tgz/download
More informationv10 IA-32 64¹ IA-64²
v10 IA-32 64¹ IA-64² 1. 2. 3. 4. 5. 6. /Od (-O0) Windows* /O1 /O2 /O3 Linux* Mac OS* -O1 -O2 -O3 /O2 ( O2) /O3 (-O3) IA-64 Core 2 /QxT ( xt) IA-32 64 IA-32 64 Itanium 2 9000 /G2-p9000 ( mtune=itanium2-p9000)
More informationuntitled
A = QΛQ T A n n Λ Q A = XΛX 1 A n n Λ X GPGPU A 3 T Q T AQ = T (Q: ) T u i = λ i u i T {λ i } {u i } QR MR 3 v i = Q u i A {v i } A n = 9000 Quad Core Xeon 2 LAPACK (4/3) n 3 O(n 2 ) O(n 3 ) A {v i }
More informationスパコンに通じる並列プログラミングの基礎
2018.09.10 furihata@cmc.osaka-u.ac.jp ( ) 2018.09.10 1 / 59 furihata@cmc.osaka-u.ac.jp ( ) 2018.09.10 2 / 59 Windows, Mac Unix 0444-J furihata@cmc.osaka-u.ac.jp ( ) 2018.09.10 3 / 59 Part I Unix GUI CUI:
More information目次 1. 目次 2. Cygwinインストール (1) 3. Cygwinインストール (2) 4. 公開鍵の作成 5. 利用支援ポータルへのアクセス 6. パスワード変更 ( 初回の場合 ) 7. パスワード変更成功画面 8. 利用支援ポータルへの再ログイン 9. 言語の変更 10. 公開鍵の登
Reedbush Quick Start Guide 東京大学情報基盤センター 2018 年 9 月 21 日改版 目次 1. 目次 2. Cygwinインストール (1) 3. Cygwinインストール (2) 4. 公開鍵の作成 5. 利用支援ポータルへのアクセス 6. パスワード変更 ( 初回の場合 ) 7. パスワード変更成功画面 8. 利用支援ポータルへの再ログイン 9. 言語の変更 10.
More informationTSUBAME2.0 における GPU の 活用方法 東京工業大学学術国際情報センター丸山直也第 10 回 GPU コンピューティング講習会 2011 年 9 月 28 日
TSUBAME2.0 における GPU の 活用方法 東京工業大学学術国際情報センター丸山直也第 10 回 GPU コンピューティング講習会 2011 年 9 月 28 日 目次 1. TSUBAMEのGPU 環境 2. プログラム作成 3. プログラム実行 4. 性能解析 デバッグ サンプルコードは /work0/gsic/seminars/gpu- 2011-09- 28 からコピー可能です 1.
More informationTHE PARALLEL Issue UNIVERSE James Reinders Parallel Building Blocks: David Sekowski Parallel Studio XE Cluster Studio Sanjay Goil John McHug
THE PARALLEL Issue 5 2010 11 UNIVERSE James Reinders Parallel Building Blocks: David Sekowski Parallel Studio XE Cluster Studio Sanjay Goil John McHugh JAMES REINDERS 3 Parallel Studio XE Cluster Studio
More information1重谷.PDF
RSCC RSCC RSCC BMT 1 6 3 3000 3000 200310 1994 19942 VPP500/32PE 19992 VPP700E/128PE 160PE 20043 2 2 PC Linux 2048 CPU Intel Xeon 3.06GHzDual) 12.5 TFLOPS SX-7 32CPU/256GB 282.5 GFLOPS Linux 3 PC 1999
More informationスパコンに通じる並列プログラミングの基礎
2018.06.04 2018.06.04 1 / 62 2018.06.04 2 / 62 Windows, Mac Unix 0444-J 2018.06.04 3 / 62 Part I Unix GUI CUI: Unix, Windows, Mac OS Part II 2018.06.04 4 / 62 0444-J ( : ) 6 4 ( ) 6 5 * 6 19 SX-ACE * 6
More informationunix.dvi
1 UNIX 1999 4 27 1 UNIX? 2 1.1 Windows/Macintosh? : : : : : : : : : : : : : : : : : : : : : : : : 2 1.2 UNIX OS : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 2 1.3 : : : : : : : : : : : :
More informationHPEハイパフォーマンスコンピューティング ソリューション
HPE HPC / AI Page 2 No.1 * 24.8% No.1 * HPE HPC / AI HPC AI SGIHPE HPC / AI GPU TOP500 50th edition Nov. 2017 HPE No.1 124 www.top500.org HPE HPC / AI TSUBAME 3.0 2017 7 AI TSUBAME 3.0 HPE SGI 8600 System
More informationappli_HPhi_install
2018/3/7 HΦ version 3.0.0 インストール手順書 (Linux 64 ビット版 ) 目次 1. アプリケーション概要...- 1-2. システム環境...- 1-3. 必要なツール ライブラリのインストール...- 1-1 cmake...- 2-2 numpy...- 3-4. アプリケーションのインストール...- 4-5. 動作確認の実施...- 5 - 本手順書は HΦ
More informationユーザーマニュアル開発環境編
ユーザーマニュアル 開発環境編 目次 1 はじめに... 2 2 Intel Composer... 3 2.1 インストールパッケージ... 3 2.2 使用するコマンド... 3 2.3 環境設定... 4 2.4 コンパイラバージョンの変更... 5 2.5 ドキュメント... 6 2.6 サポート期間... 6 2.7 Intel Math Kernel Library... 7 2.8 コンパイルオプション...
More informationMicrosoft PowerPoint - RemoteGuide pptx
1. 遠隔可視化ソフトウェアの準備 2. 遠隔可視化ソフトウェアの起動方法 3. 遠隔可視化ソフトウェアの終了方法 Sep, 2015 Page 2 1. vizserver とは 2. 遠隔可視化ソフトウェアのダウンロード 3. 遠隔可視化ソフトウェアのインストール 4. 遠隔可視化ソフトウェア用 SSH プロキシ設定方法 (putty) 5. 遠隔可視化ソフトウェア用 SSH プロキシ設定方法
More informationTSUBAME利用手引き
TSUBAME3.0 利用の手引き TSUBAME ポータル編 2018/10/30 東京工業大学学術国際情報センター共同利用推進室 Copyright (C) 2010-2018 GSIC All Rights Reserved. TSUBAME ポータル利用の手引き もご参照ください http://www.t3.gsic.titech.ac.jp/docs/tsubame3.0_portal_users_guide.html
More information新スーパーコンピュータ 「ITOシステム」利用講習会
1 新スーパーコンピュータ ITO システム 利用講習会 九州大学情報基盤研究開発センター 2017 年 10 月 ITO システムの構成 2 3 ITO システムの特徴 最新ハードウェア技術 Intel Skylake-SP NVIDIA Pascal + NVLink Mellanox InfiniBand EDR 対話的な利用環境の拡充 合計 164 ノードのフロントエンド ノード当たりメモリ量
More informationHP Workstation 総合カタログ
HP Workstation Z HP 6 Z HP HP Z840 Workstation P.9 HP Z640 Workstation & CPU P.10 HP Z440 Workstation P.11 17.3in WIDE HP ZBook 17 G2 Mobile Workstation P.15 15.6in WIDE HP ZBook 15 G2 Mobile Workstation
More informationMicrosoft Word - HOKUSAI_system_overview_ja.docx
HOKUSAI システムの概要 1.1 システム構成 HOKUSAI システムは 超並列演算システム (GWMPC BWMPC) アプリケーション演算サーバ群 ( 大容量メモリ演算サーバ GPU 演算サーバ ) と システムの利用入口となるフロントエンドサーバ 用途の異なる 2 つのストレージ ( オンライン ストレージ 階層型ストレージ ) から構成されるシステムです 図 0-1 システム構成図
More informationI I / 47
1 2013.07.18 1 I 2013 3 I 2013.07.18 1 / 47 A Flat MPI B 1 2 C: 2 I 2013.07.18 2 / 47 I 2013.07.18 3 / 47 #PJM -L "rscgrp=small" π-computer small: 12 large: 84 school: 24 84 16 = 1344 small school small
More informationサイバーメディアセンター 大規模計算機システムの利用
サイバーメディアセンター 大規模計算機システムの利用 大阪大学情報推進部情報基盤課 本日のプログラム I. システムのご紹介 II. 利用方法の解説 実習 i. システムへの接続 ii. プログラムの作成 コンパイル iii. ジョブスクリプトの作成 iv. ジョブスクリプトの投入 III. 利用を希望する方へ SX-ACE NEC 製のベクトル型スーパーコンピュータ ノード毎 1 クラスタ (512
More informationTSUBAME2.5 利用の手引き TSUBAME2.5 利用ポータル編 2014/12/03 学術国際情報センター 共同利用推進室 Copyright (C) GSIC All Rights Reserved.
TSUBAME2.5 利用の手引き TSUBAME2.5 利用ポータル編 2014/12/03 学術国際情報センター 共同利用推進室 Copyright (C) 2010-2014 GSIC All Rights Reserved. http://tsubame.gsic.titech.ac.jp/ja の 各種利用の手引き から TSUBAME2.5 利用ポータル利用の手引き も参照してください
More informationNorthern Lights Server
FirstStep Guide Northern Lights Server Intel Management Module (Advanced Module / ISM 8.4) 2 www.nlcomputer.com 1 FirstStep Guide 1.1. INTEL MANAGEMENT MODULE 2... 5 1.2.... 9 1.3.... 10 2.1. BMC...11
More informationHP xw9400 Workstation
HP xw9400 Workstation HP xw9400 Workstation AMD Opteron TM PCI Express x16 64 PCI Express x16 2 USB2.0 8 IEEE1394 2 8DIMM HP HP xw9400 Workstation HP CPU HP CPU 240W CPU HP xw9400 HP CPU CPU CPU CPU Sound
More informationスパコンに通じる並列プログラミングの基礎
2016.06.06 2016.06.06 1 / 60 2016.06.06 2 / 60 Windows, Mac Unix 0444-J 2016.06.06 3 / 60 Part I Unix GUI CUI: Unix, Windows, Mac OS Part II 0444-J 2016.06.06 4 / 60 ( : ) 6 6 ( ) 6 10 6 16 SX-ACE 6 17
More informationMicrosoft Word - D JP.docx
Application Service Gateway Thunder/AX Series vthunder ライセンスキー インストール 手順 1 1.... 3 2. vthunder... 3 3. ACOS... 3 4. ID... 5 5.... 8 6.... 8 61... 8 62 GUI... 10 2 1. 概要 2. vthunder へのアクセス 方法 SSHHTTPSvThunder
More information07-二村幸孝・出口大輔.indd
GPU Graphics Processing Units HPC High Performance Computing GPU GPGPU General-Purpose computation on GPU CPU GPU GPU *1 Intel Quad-Core Xeon E5472 3.0 GHz 2 6 MB L2 cache 1600 MHz FSB 80 GFlops 1 nvidia
More information01_OpenMP_osx.indd
OpenMP* / 1 1... 2 2... 3 3... 5 4... 7 5... 9 5.1... 9 5.2 OpenMP* API... 13 6... 17 7... 19 / 4 1 2 C/C++ OpenMP* 3 Fortran OpenMP* 4 PC 1 1 9.0 Linux* Windows* Xeon Itanium OS 1 2 2 WEB OS OS OS 1 OS
More informationSecond-semi.PDF
PC 2000 2 18 2 HPC Agenda PC Linux OS UNIX OS Linux Linux OS HPC 1 1CPU CPU Beowulf PC (PC) PC CPU(Pentium ) Beowulf: NASA Tomas Sterling Donald Becker 2 (PC ) Beowulf PC!! Linux Cluster (1) Level 1:
More information④辻修平_37-48.smd
$ sudo apt-get update $ sudo apt-get upgrade $ sudo rpi-update(banana Pi ) $ sudo apt-get gfortran mpich-3.2.tar.gz 254 dns=8.8.8.8; dns-search= methods= (/etc/hostname) bananapi00 $ configure --prefix=/usr/local/mpich-3.2
More informationGLOBALBASE joshua45 globalbase.org
GLOBALBASE joshua45 globalbase.org 2010-12-01 1 3 1.1............................................ 3 1.2............................ 3 1.3..................................... 3 1.4 sourceforge.jp GB..........................
More informationItanium2ベンチマーク
HPC CPU mhori@ile.osaka-u.ac.jp Special thanks Timur Esirkepov HPC 2004 2 25 1 1. CPU 2. 3. Itanium 2 HPC 2 1 Itanium2 CPU CPU 3 ( ) Intel Itanium2 NEC SX-6 HP Alpha Server ES40 PRIMEPOWER SR8000 Intel
More informationnakayama15icm01_l7filter.pptx
Layer-7 SDN SDN NFV 50 % 3 MVNO 1 2 ICM @ 2015/01/16 2 1 1 2 2 1 2 2 ICM @ 2015/01/16 3 2 Service Dependent Management (SDM) SDM Simple Management of Access-Restriction Translator Gateway (SMART-GW) ICM
More informationtebiki00.dvi
(Linux) [ UNIX ] CMD Workshop ( ) 1 *********************************************************************** * Linux PC-UNIX UNIX * * 99% FreeBSD BSD PC-UNIX * * * ***********************************************************************
More informationHP Workstation 総合カタログ
HP Workstation E5 v2 Z Z SFF E5 v2 2 HP Windows Z 3 Performance Innovation Reliability 3 HPZ HP HP Z820 Workstation P.11 HP Z620 Workstation & CPU P.12 HP Z420 Workstation P.13 17.3in WIDE HP ZBook 17
More informationMATLAB® における並列・分散コンピューティング ~ Parallel Computing Toolbox™ & MATLAB Distributed Computing Server™ ~
MATLAB における並列 分散コンピューティング ~ Parallel Computing Toolbox & MATLAB Distributed Computing Server ~ MathWorks Japan Application Engineering Group Takashi Yoshida 2016 The MathWorks, Inc. 1 System Configuration
More information大規模共有メモリーシステムでのGAMESSの利点
Technical white paper GAMESS GAMESS Gordon Group *1 Gaussian Gaussian1 Xeon E7 8 80 2013 4 GAMESS 1 RHF ROHF UHF GVB MCSCF SCF Energy CDFpEP CDFpEP CDFpEP CD-pEP CDFpEP SCF Gradient CDFpEP CDFpEP CDFpEP
More informationdevelop
SCore SCore 02/03/20 2 1 HA (High Availability) HPC (High Performance Computing) 02/03/20 3 HA (High Availability) Mail/Web/News/File Server HPC (High Performance Computing) Job Dispatching( ) Parallel
More information2011年11月10日 クラウドサービスのためのSINET 学認説明会 九州地区説明会 九州大学キャンパス クラウドシステムの導入 伊東栄典 情報基盤研究開発センター 1
2011年11月10日 クラウドサービスのためのSINET 学認説明会 九州地区説明会 九州大学キャンパス クラウドシステムの導入 伊東栄典 情報基盤研究開発センター ito.eisuke.523@m.kyushu-u.ac.jp 1 用 方 } } } } } 用 (Public Cloud) } Amazon EC2/S3/ElasticMapReduce } (Community Cloud)
More informationMicrosoft Word - w_mkl_build_howto.doc
MKL 10.0 2007/12/18 XLsoft - 2 - 1....- 4-2. MKL...- 4-3....- 5-3-1....- 5-3-1-1. Microsoft Visual C++ 2005...- 5-3-1-2. C/C++...- 9-3-1-3. Fortran...- 11-3-2. Microsoft Visual Studio...- 13-3-2-1. Microsoft
More informationサイバーメディアセンター 大規模計算機システムの利用
サイバーメディアセンター 大規模計算機システムの利用 大阪大学情報推進部情報基盤課 本日のプログラム I. システムのご紹介 II. 利用方法の解説 実習 i. システムへの接続 ii. プログラムの作成 コンパイル iii. ジョブスクリプトの作成 iv. ジョブスクリプトの投入 III. 利用を希望する方へ 2/56 SX-ACE NEC 製のベクトル型スーパーコンピュータ ノード毎 1 クラスタ
More information1. TSUBAME2.0 通常実行まで 1.1. 環境設定 (MPI ライブラリ & コンパイラ ) 最新の Open MPI と Intel コンパイラを使用するため,${HOME}/.bashrc 等で環境変数 ( パス等 ) を設定します. ~ 設定例 ~ export SELECT_MPI
プロファイルツール実行例アプリ ntchem-rimp2 2013 年 9 月 3 日日本電気株式会社 0. はじめに 本ドキュメントでは, アプリ ntchem-rimp2 におけるプロファイルツール連携の作業履歴を記 載します. 目次 1. TSUBAME2.0 通常実行まで... 2 1.1. 環境設定 (MPI ライブラリ & コンパイラ )... 2 1.2. コンパイルとソース修正...
More informationuntitled
LAUNCH SYSTEM V 2.3 VFit VTeach VRange 1 2011 3 AccuVectorX Launch System...4 (Windows XP)...5 (Windows Vista/Windows 7)...6...6...7...7 AccuSport AccuVectorX...8 Windows XP...9 Windows Vista 7. 10 (Windows
More informationビッグデータアナリティクス - 第3回: 分散処理とApache Spark
3 : Apache Spark 2017 10 20 2017 10 20 1 / 32 2011 1.8ZB 2020 35ZB 1ZB = 10 21 = 1,000,000,000,000 GB Word Excel XML CSV JSON text... 2017 10 20 2 / 32 CPU SPECfp Pentium G3420 77.6 8,946 Xeon Gold 6128
More informationRAID RAID 0 RAID 1 RAID 5 RAID * ( -1) * ( /2) * RAID A. SATA SSD B. BIOS SATA ( 1) C. RAID BIOS RAID D. RAID/AHCI 2 SATA SSD ( 1) ( ( 3) 2
RAID SATA... 2 RAID/AHCI... 16 Intel Optane... 19 Intel Virtual RAID on CPU Intel VROC... 21 RAID RAID 0 RAID 1 RAID 5 RAID 10 2 2 3 4 * ( -1) * ( /2) * RAID A. SATA SSD B. BIOS SATA ( 1) C. RAID BIOS
More informationMicrosoft Word - nvsi_090196_r1_vaultdr_offline_rhel_dualpath.doc
Article ID: NVSI-090196JP_R1 Created: 2009/08/17 Revised: 2010/07/9 Multipath 構成の RHEL5.3 での VaultDR Offline 追加復旧手順 1. 概要 Multipath 構成の Red Hat Enterprise Linux 5.3 は OS 内部に LUN 固有の ID を含んでいる場合があります その場合
More informationOpenACCによる並列化
実習 OpenACC による ICCG ソルバーの並列化 1 ログイン Reedbush へのログイン $ ssh reedbush.cc.u-tokyo.ac.jp l txxxxx Module のロード $ module load pgi/17.3 cuda ログインするたびに必要です! ワークディレクトリに移動 $ cdw ターゲットプログラム /srcx OpenACC 用のディレクトリの作成
More informationVNSTProductDes3.0-1_jp.pdf
Visual Nexus Secure Transport 2005/10/18 Visual Nexus http:// www.visualnexus.com/jp/support.htm Visual Nexus Secure Transport 2005/02/25 1 2005/10/18 Ver3.0-1 2005 10 18 108-0075 21119 2 Visual Nexus
More informationRAID RAID 0 RAID 1 RAID 5 RAID * ( -1) * ( /2) * RAID A. SATA B. BIOS SATA ( 1) C. RAID BIOS RAID D. SATA RAID/AHCI 2 SATA M.2 SSD ( 2) ( (
RAID RAID 0 RAID 1 RAID 5 RAID 10 2 2 3 4 * ( -1) * ( /2) * RAID A. SATA B. BIOS SATA ( 1) C. RAID BIOS RAID D. SATA RAID/AHCI 2 SATA M.2 SSD ( 2) ( ( 3) 2 ) Windows USB 1 SATA A. SATA SATA Intel SATA
More informationAdd-onアプリケーション開発 - 環境構築マニュアル -
- - 1.0 M2M 2018 11 20 i 1 1 1.1............................................... 1 1.2................................................. 1 1.3................................................ 2 2 3 2.1 OFF.......................................
More information21 20 20413525 22 2 4 i 1 1 2 4 2.1.................................. 4 2.1.1 LinuxOS....................... 7 2.1.2....................... 10 2.2........................ 15 3 17 3.1.................................
More information2012 M
2012 M0109218 2012 : M0109218 36 1 1 1.1............................. 1 1.2................................. 5 2 6 2.1................... 6 2.2................ 8 2.3............ 12 3 15 3.1...................
More information1 OpenCL OpenCL 1 OpenCL GPU ( ) 1 OpenCL Compute Units Elements OpenCL OpenCL SPMD (Single-Program, Multiple-Data) SPMD OpenCL work-item work-group N
GPU 1 1 2 1, 3 2, 3 (Graphics Unit: GPU) GPU GPU GPU Evaluation of GPU Computing Based on An Automatic Program Generation Technology Makoto Sugawara, 1 Katsuto Sato, 1 Kazuhiko Komatsu, 2 Hiroyuki Takizawa
More informationa0postercls? Gerlinde Kettl, Matthias Weiser T E Xmacro wwwctanorg/tex-archive/macros/latex/contrib/a0poster LAT E X
a0postercls, http://wwwmathkobe-uacjp/a0poster ( ) ( ): orange (Debian/GNU Linux, Etch) ssh -X orange pdf :, - pdf ( ) orange / tex a0postercls? Gerlinde Kettl, Matthias Weiser T E Xmacro wwwctanorg/tex-archive/macros/latex/contrib/a0poster
More informationReedbush 利用の手引き 2 ノートパソコンの設定 : 公開鍵の生成 登録 ネットワーク環境に接続してから行ってください
Reedbush 利用の手引き 1 お試しアカウント付き 並列プログラミング講習会 Reedbush 利用の手引き 東京大学情報基盤センター Reedbush 利用の手引き 2 ノートパソコンの設定 : 公開鍵の生成 登録 ネットワーク環境に接続してから行ってください Reedbush 利用の手引き 3 鍵の作成 1. ターミナルを起動する 2. 以下を入力する $ ssh- keygen t rsa
More informationDPD Software Development Products Overview
2 2007 Intel Corporation. Core 2 Core 2 Duo 2006/07/27 Core 2 precise VTune Core 2 Quad 2006/11/14 VTune Core 2 ( ) 1 David Levinthal 3 2007 Intel Corporation. PC Core 2 Extreme QX6800 2.93GHz, 1066MHz
More informationVXPRO R1400® ご提案資料
Intel Core i7 プロセッサ 920 Preliminary Performance Report ノード性能評価 ノード性能の評価 NAS Parallel Benchmark Class B OpenMP 版での性能評価 実行スレッド数を 4 で固定 ( デュアルソケットでは各プロセッサに 2 スレッド ) 全て 2.66GHz のコアとなるため コアあたりのピーク性能は同じ 評価システム
More informationContents Windows* /Linux* C++/Fortran... 3 Microsoft* embedded Visual C++* C Microsoft* Windows* CE.NET Platform Builder C IP
Windows*/Linux* VTune TM Contents... 1... 2 Windows* /Linux* C++/Fortran... 3 Microsoft* embedded Visual C++* C++... 9 Microsoft* Windows* CE.NET Platform Builder C++... 11 IPP... 13 PCA IPP... 15 GPP...
More informationMicrosoft Word - TORQUE利用の手引きver1.1.doc
TORQUE Ver.1.1 2011 8 8 HPC- 1/30 1... 4 2 TORQUE... 5 3 TORQUE... 5 4 TORQUE... 5 4.1 Job Server... 5 4.2 Job Scheduler... 5 4.3 Job Executor... 6 5 TORQUE... 6... 6 6... 7 6.1... 7 6.2 qsub... 8 7...
More informationマルチコアPCクラスタ環境におけるBDD法のハイブリッド並列実装
2010 GPGPU 2010 9 29 MPI/Pthread (DDM) DDM CPU CPU CPU CPU FEM GPU FEM CPU Mult - NUMA Multprocessng Cell GPU Accelerator, GPU CPU Heterogeneous computng L3 cache L3 cache CPU CPU + GPU GPU L3 cache 4
More informationTSUBAME2.5 利用講習会 平成 26 年度版 (Rev ) 東京工業大学学術国際情報センター共同利用推進室 Copyright (C) GSIC All Rights Reserved.
TSUBAME2.5 利用講習会 平成 26 年度版 (Rev.20141203) 東京工業大学学術国際情報センター共同利用推進室 Copyright (C) 2010-2014 GSIC All Rights Reserved. CONTENTS 概要 ( 仕様 ) 情報源 (FAQ URL) 利用法 ( ログイン ) 仮パスワード変更と公開鍵の設定 ファイルシステム ( ディレクトリ ) 利用可能アプリケーション
More informationTSUBAME利用講習会
TSUBAME2.5 利用講習会 平成 29 年度版 (Rev.20170817) 東京工業大学学術国際情報センター共同利用推進室 Copyright (C) 2010-2017 GSIC All Rights Reserved. CONTENTS 概要 ( 仕様 ) 情報源 (FAQ URL) 利用法 ( ログイン ) 仮パスワード変更と公開鍵の設定 ファイルシステム ( ディレクトリ ) 利用可能アプリケーション
More informationBMC Configuration ユーザーズガイド
BMC Configuration 1 2 3 4 5 Rev.1.01 NEC Corporation 2011 1 BMC Configuration... 1... 2... 3... 4... 5 1... 6 1.1 BMC Configuration... 6 2... 7 2.1... 7 2.2... 8 3... 9 3.1 BMC Configuration (Windows)...
More informationRed Hat Enterprise Linux AS (v.3 for IPF) Update 3
2005-09-01 Red Hat Enterprise Linux AS (v.3 for Itanium) PRIMERGY Linux Linux PRIMERGY Global Array Manager-Client Global Array Manager-Client Linux (SupportDesk Product ) All Rights Reserved, Copyright
More informationWeb Web Web Web i
28 Research of password manager using pattern lock and user certificate 1170369 2017 2 28 Web Web Web Web i Abstract Research of password manager using pattern lock and user certificate Takuya Mimoto In
More informationTSUBAME3.0利用説明会
TSUBAME3.0 利用講習会 www.t3.gsic.titech.ac.jp 平成 29 年度版 (Rev.20180223) 東京工業大学学術国際情報センター共同利用推進室 Copyright (C) 2018 GSIC All Rights Reserved. TSUBAME3.0 利用講習会 1 CONTENTS 歴史 概要 ハードウェア ソフトウェア仕様 利用法 ( ログイン ) 利用可能アプリケーション~module~
More informationi
14 i ii iii iv v vi 14 13 86 13 12 28 14 16 14 15 31 (1) 13 12 28 20 (2) (3) 2 (4) (5) 14 14 50 48 3 11 11 22 14 15 10 14 20 21 20 (1) 14 (2) 14 4 (3) (4) (5) 12 12 (6) 14 15 5 6 7 8 9 10 7
More informationuntitled
HP OpenSource MySQL Server 5.0 Red Hat Enterprise Linux 4 ver 1.5 MySQL Red Hat Enterprise Linux 4 Super Smack Super Smac MySQL Super Smack RHEL4 1 2 MySQL SuperSmack SuperSmack 3 SuperSmack MySQL 4 MySQL
More informationsystem02.dvi
2003 2 2003 4 24 13:15-14:45 : IP DNS SSH SCP 1 HTTP 2 FTP TelnetGopher HTTP HTTP 2 IP 2.1 IP PC1 1 IPv4 IP 8 4 32 192.168.6.18 42 (2 32 ) IP IP LAN LAN LAN ABC 3 (Table 1) 2.2 LAN Table 1 10.0.0.010.255.255.255
More information本機をお使いの方へ
MA46H/S Windows 98 / NT 4.0 Windows 98 / NT 4.0 MA46H/S BIOS 1999 10 808-877675-132-A 3 AT 6. 1. BIOS P.7 1. Windows 98 Windows Windows 98 Microsoft Windows 98 Windows NT 4.0 Microsoft Windows NT Workstation
More informationRed Hat Enterprise Linux ES (v. 3)
2005-02-01 Red Hat Enterprise Linux ES (v. 3) PRIMERGY Linux Linux PRIMERGY Linux (SupportDesk Product ) All Rights Reserved, Copyright (C) 2004 1 1. 1.1 Linux ) SCSI ID=1, 2, 3 /dev/sda, /dev/sdb, /dev/sdc
More informationatama.dvi
1 1 1 2 1.1..................................... 2 1.2 WWW....................................... 3 1.3......................................... 3 1.4................................... 3 1.5..............................
More informationクララパンフレット2011冬1P-P40
2011 CLARA ONLINE SERVICE BROCHURE W I N T E R http://www.clara.jp/ http://support.clara.jp/ TEL E-mail 0120-380-966 0120-380-994 E-mail E-mail sales@clara.ad.jp support@clara.ne.jp TEL FAX 03-6704-0778
More informationLAN LAN LAN LAN LAN LAN,, i
22 A secure wireless communication system using virtualization technologies 1115139 2011 3 4 LAN LAN LAN LAN LAN LAN,, i Abstract A secure wireless communication system using virtualization technologies
More informationLS-DYNA 利用の手引 第 1 版 東京工業大学学術国際情報センター 2017 年 9 月 25 日
LS-DYNA 利用の手引 第 1 版 東京工業大学学術国際情報センター 2017 年 9 月 25 日 目次 1. はじめに 1 1.1. 利用できるバージョン 1 1.2. 概要 1 1.3. マニュアル 1 2. TSUBAME3 での利用方法 2 2.1. LS-DYNA の実行 2 2.1.1. TSUBAME3 にログイン 2 2.1.2. バージョンの切り替え 2 2.1.3. インタラクティブノードでの
More informationPowerGres on Linuxマニュアル
PowerGres R on Linux Linux Linus Torvalds TM R 1 2 2 PowerGres on Linux 2 2.1 PowerGres on Linux.................................... 2 2.2.............................................. 2 2.3..............................................
More informationIT 1. IT 2. 2.1. IT 2.2. SKYSEA Client View Government License Light Edition Sky 1500 28 2 15 12 3. 4. 28 3 25 1 5. 5.1. (1) 28 4 1 (2) (3) (4) ISO27001 P (5) ISO/IEC20000 (6) USB 1 (7) OS (8) 1 CPU 4
More information名称未設定
Parallels Desktop 4 for Mac ( 4.0.3846 ) Read Me : 1. Parallels Desktop 2. 3. 4. 5. 6. Parallels Desktop 7. Parallels Desktop 4 for Mac 8. Parallels Desktop 9. Parallels Desktop 10. 11. 12. 1. Parallels
More informationuntitled
ALTIRIS DEPLOYMENT SOLUTION 6.9 Quick Startup Guide Rev. 1.2 2008 7 11 1.... 2 DEPLOYMENT SERVER... 2 DEPLOYMENT CONSOLE... 2 DEPLOYMENT DATABASE... 2 DEPLOYMENT SHARE... 3 PXE SERVER... 3 DEPLOYMENT AGENT...
More information