スライド 1
|
|
|
- きみつぐ しのしま
- 7 years ago
- Views:
Transcription
1 Introduction to Intel DPDK Oct 24 th, 2014 IGEL Co.,Ltd. Tetsuya Mukawa 武川哲也
2 はじめに Q: Intel DPDK( 以下 DPDK) って? A: 高スループット / 低レイテンシのネットワークを実現する仕組みです Q: DPDK の目的は? A: 高価な NW 機器と同等の機能 性能を Linux/BSD 上のソフトウェアで実現することです Q: DPDK は サーバ用途の技術では? A: 今のところ その通りです Q: なぜ CELF で? A: 高速化手法が面白いので紹介します Q: あなたは誰? A: 組込みエンジニアです たまに CELF に参加しています 2
3 3
4 DPDK の衝撃 1 ~ 高速転送 ~ 公称 Over 160Mpps(fps) 64byte( ショート ) パケットで 約 80Gbps 1024byte パケットで 約 1300Gbps 通信事業にとっては ショートパケットのパフォーマンスが重要らしい ( 聞いた話 ) 現在手に入る NIC の最速は 40Gbps(?) というわけで 160Mpps は 信じられないくらい速い 信じられないので 調べてみました ( 後述 ) 4
5 DPDK の衝撃 2 ~ 安価 ~ BSDライセンス Linux/BSD 上で動作 x86だけでなく ARMやPower 上でも動作 ATOM も 専用機器に比べて非常に安価なサーバ上で 専用機器と同等の性能 機能を持つネットワーク機器を作成することが可能に ネットワーク業界に大きなインパクト 5
6 6
7 DPDK の生まれた背景 ~ 想像です ~ 通信事業者 最近では Linaro IBM ARM ポーティングは Linaro 主導 NW 専用機器は高すぎる Intel 自社の CPU や NIC を売りたい ソフトウェア会社 寡占だった NW 専用機器にビジネスチャンス DPDK 初期では 6WIND Wind River Power ポーティングは IBM 主導 7
8 DPDK の歴史 年月バーション拡張された機能 2012 年 11 月 DPDK 年 6 月 DPDK 年 8 月 DPDK 年 9 月 DPDK 年 10 月 DPDK 年 1 月 DPDK 年 6 月 DPDK 年 11 月? DPDK VM との通信拡張 数種の仮想デバイスサポート 機能の詳細については後述 アプリ制作に便利なライブラリの追加 比較的 新しいソフトウェア 最近になって アプリ用のライブラリが充実してきている 8
9 コミュニティ DPDK-1.4? DPDK-1.6 Intel の対応 6WIND の対応 利用者の反応 Intel の対応 Intel の公式サイトにて ソースコードのみ公開 git は非公開 dpdk.org を立ち上げ 独自に ML と git を提供 Intel のソースから作成した git tree dpdk.org に patch を投稿 Intel の DPDK-1.5 より dpdk.org の DPDK-1.5 の方が高機能に dpdk.org を公式な git と認定 Intel 自身も dpdk.org に投稿 メンテナは Intel ではなく 6WIND コミュニティでは Intel と共に 6WIND にも存在感 9
10 10
11 概要 ~ 既存フレームワークによる転送の限界 ~ 例えば Linux では 1Mpps 以下 1500byte 程度のパケットでも 実測 10Gbps を下回るらしい 既存デバドラによる転送はなぜ遅いか? 割り込みによるオーバーヘッド コンテキストスイッチのオーバーヘッド TLBミス (CPU Coreの ) キャッシュミス 11
12 概要 ~DPDK のアーキテクチャ ( 超基本 )~ uio/vfio を使ったユーザースペースデバイスドライバとライブラリ ( 主に )Intel の NIC 対象 ユーザ空間から独自のリソース管理 コア メモリ 独自のメモリ管理の仕組みを構築 サーバ対象のソフトウェアなのに uio/vfio と組込みみたい 12
13 概要 ~ ブロック図 ~ DPDK Application DPDK EAL ポーリングで動作するアプリケーション ポーリング動作するデバイスドライバ (PMD) コアを占有 コンテキストスイッチさせない = ポーリング etc... ポート管理 user level device driver コア管理 バッファ管理キュー管理メモリ管理 キャッシュラインまで意識したバッファの管理 ロックレスなキュー 独自のメモリ管理機構を構築 uio / vfio CPU affinity OS hugetlbfs 物理メモリを直接ユーザランドに mmap させる NIC CPU memory カーネル空間 13 ユーザ空間
14 概要 ~ 実際の操作例 1~ 準備 (DPDK はコンパイルしていること前提 ) hugepage を mount Boot オプションを以下のように変更 GRUB_CMDLINE_LINUX_DEFAULT="quiet splash default_hugepagesz=1g hugepagesz=1g hugepages=10 norandmaps=0 fstab に以下のように設定 nodev /mnt/huge hugetlbfs pagesize=1gb 0 0 おまじないを唱える $ sudo modprobe uio $ sudo insmod./build/kmod/igb_uio.ko./dpdk にて DPDK をコンパイルしたと想定 14
15 概要 ~ 実際の操作例 2~ サンプルアプリケーション (testpmd) の実行まで DPDK の uio ドライバ配下に NIC を配置 まずは 現状確認 Network devices using DPDK-compatible driver ============================================ <none> 現在は e1000e ドライバ配下 Network devices using kernel driver =================================== 0000:02:00.0 '82572EI Gigabit Ethernet Controller (Copper)' if=p4p1 drv=e1000e unused= 0000:06:00.0 'RTL8111/8168/8411 PCI Express Gigabit Ethernet Controller' if=eth0 drv=r8169 unused= *Active* Other network devices ===================== <none> 15
16 概要 ~ 実際の操作例 3~ サンプルアプリケーション (testpmd) の実行まで DPDK の uio ドライバ配下に NIC を配置 DPDK の uio ドライバ (igb_uio) に bind $ sudo./dpdk/tools/dpdk_nic_bind.py -b igb_uio 0000:02:
17 概要 ~ 実際の操作例 4~ サンプルアプリケーション (testpmd) の実行まで 現在は DPDK 配下 DPDK の uio ドライバ配下に NIC を配置 igb_uio に bind されているか確認 Network devices using DPDK-compatible driver ============================================ 0000:02:00.0 '82572EI Gigabit Ethernet Controller (Copper)' if=p4p1 drv=e1000e unused= Network devices using kernel driver =================================== 0000:06:00.0 'RTL8111/8168/8411 PCI Express Gigabit Ethernet Controller' if=eth0 drv=r8169 unused= *Active* Other network devices ===================== <none> 17
18 概要 ~ 実際の操作例 5~ サンプルアプリケーション (testpmd) の実行まで testpmd を実行 $ sudo./dpdk/build/app/testpmd c f n 1 vdev eth_pcap0,iface=eth1 -- -i ( 略 ) testpmd> オプションの意味 -c このアプリケーションを動作させるコアマスク指定 f は Core0~Core3 にて DPDK のスレッドが実行されることを示す -n CPU ソケットごとのメモリチャンネルの数 vdev 仮想デバイスの追加指定 この場合 ibpcap で eth1 にアクセスする仮想デバイスをアタッチしている -- これ以前は DPDK 共通のオプション これ以後は アプリケーション固有のオプション -i インタラクティブモードで起動 あとは start コマンドにて 0000:02:00.0 と eth1 間の双方向データ転送開始 testpmd 02.0 eth1 18
19 概要 ~ まとめ 1~ uio/vfioを使ったユーザースペースデバイスドライバとライブラリ ( 主に )Intel の NIC 対象 ユーザ空間から独自のリソース管理 コア メモリ 独自のメモリ管理の仕組みを構築 どうやって? 本当に速いの? 19
20 概要 ~ まとめ 2~ uio / vfio を使っても速い理由 コアを占有してポーリング動作 どうやって 独自のリソース管理をするか コアを占有するために 既存の Affinity 用の API を利用 コアを占有なので 管理といって良いかは微妙だが hugetlbfs を利用して 物理メモリを直接マッピング hugepage(1m や 1G) なので TLB ミスも大幅減 獲得したメモリ上に 独自のメモリ管理機構を構築 詳細は後述 20
21 概要 ~ まとめ 3~ 速さの秘密は ポーリング キャッシュに載りやすい コンテキストスイッチなし ポーリング動作 割り込み駆動の必要なし 効率よくポーリングさせる仕組みを DPDK は提供 ロックしない キャッシュミスを減らす 実は アプリ実装時にも意識する必要要がある 21
22 22
23 詳細 ~ アプリの作り方 ~ Run to completion モデル RX Port パケット処理用ポーリングスレッド (recv send を繰り返す ) TX Port 1 スレッドが受信から送信まで行うモデル 単純な処理ならこれで十分 レイテンシも抑えられる なお 各ポートにアクセスできるのは 1 スレッドまで 複数スレッドを使った並列化は不可能 この制約は PMD の仕様による 23
24 詳細 ~ アプリの作り方 ~ Pipeline モデル RX Port 受信専用スレッド ロックレスなキュー 転送専用転送専用転送専用スレッドスレッド転送専用スレッド転送専用スレッド転送専用スレッドスレッド ロックレスなキュー 送信専用スレッド TX Port 幾つかのスレッドをつなげてパケット転送を行うモデル 転送専用スレッド で複雑なパケット操作を行う 当然 各スレッドごとにコアを1つ占有する ( -`) 複雑な処理を複数コアに分けて並列度をあげる 転送順を乱してはいけない場合は 何か考える必要あり 複雑なアプリはだいたいこの方式の派生モデルで実装 (?) 事前に処理能力を想定しておく必要あり 24 伝統的な組込みっぽい
25 25
26 詳細 ~ 高速動作の仕組み ~ ロックしない仕組み 1 Pipeline モデル等に使われるロックレスなキュー もともと Linux/BSD で使用されてきたキューの軽量版 スレッドがコアを占有することを前提にさらに高速化 DPDK では Ring と呼ばれる 例えば バッファのアドレスをキューイングする Single/Multi Producer Single/Multi Consumer に対応 キューに対して複数スレッドから同時にアクセス可能 ただし Multi 環境では 完了するまでロックしないがBusy waitすることがある Producer/Consumer 共 Producer Consumer に シングルでもマルチ Ring Producer Consumer スレッドでも良い! 26
27 詳細 ~ 高速動作の仕組み ~ ロックしない仕組み 1 (contd.) Ring を使用する際の制約 multi producers にて ある Ring に対して enqueue するスレッドは 同一の Ring に対して multi producers で enqueue する別スレッドに preempt されてはならない multi consumers にて ある Ring に対して dequeue するスレッドは 同一の Ring に対して multi consumers で dequeue する別スレッドに preempt されてはならない DPDK では 1 スレッドでコアを占有するため Ring の操作中に preempt されることがない 27
28 詳細 ~ 高速動作の仕組み ~ ロックしない仕組み 2 ロックしない仕組みではないが 各 PMD( デバイスドライバ ) は 同一ポートに対して複数スレッドがアクセスしてくることはないという前提で実装 ポートにアクセス可能なスレッドが一つの理由 28
29 詳細 ~ 高速動作の仕組み ~ キャッシュの活用 (TLB) TLB ミスの発生回数を低減させる仕組み hugetlbfs を利用 DPDK から物理メモリを map するためにも利用 2MB や 1GB の pagesize を利用 黙っていると DPDK のアプリケーションは 利用可能な全ての hugetlbfs 用のメモリを map しようとします ( -`) オプションで使用メモリを指定可能 29
30 詳細 ~ 高速動作の仕組み ~ キャッシュの活用 (Data) DPDK 独自のメモリ管理 CPU キャッシュを効率的に使えるように キャッシュのアライメント DDR3 や DIMM のチャンネル数 ランク数を意識してメモリを割り当てる仕組み ちなみに NUMA 構成も考慮 (DPDK Programers guide より ) 30
31 詳細 ~ 高速動作の仕組み ~ コア単位のデータ構造 コア別のバッファ リサイクルキューを持つ DPDK は マルチプロセス マルチスレッド対応 複数のタスクから共有されるデータは hugetlbfs 上に構築された独自のメモリ機構の上に置かれる が なるべく 一つのデータにアクセスしたくない パケットバッファについては 巧妙な仕組みで最適化
32 詳細 ~ 高速動作の仕組み ~ コア単位のデータ構造 (contd.) パケット用バッファには 巧妙な仕掛けがある このバッファは もちろん キャッシュラインを考慮して獲得されたもの バッファの集合 (mempool) を用意し mempool の使用状況を Ring で管理 複数スレッド ( コア ) から Ring にアクセスし ロックせずに高速にバッファを取得解放可能 スレッド スレッド スレッド バッファ解放 バッファ獲得 バッファ解放 Ring mempool 未使用バッファ 未使用バッファ 未使用バッファ未使用バッファ未使用バッファ 未使用バッファ 複数タスクからアクセスすると Ring は Busy wait することがあるんじゃ??? この図は 実は正しくないです 次ページが正しい図
33 詳細 ~ 高速動作の仕組み ~ コア単位のデータ構造 (contd.) 複数タスクが同一 Ring にアクセスする場合 ロックはしないが Busy wait することがある このオーバーヘッドも低減したい スレッドごとに バッファのリサイクルキュー ( 実際は配列 ) 持つ 使い終わっても直ぐに返しにはいかない バッファ獲得要求に対し Ring に返さずに取っておいたバッファを割り当てる スレッド リサイクルキュー未使用バッファ バッファ解放 mempool 未使用バッファ 劇的な高速化! スレッド スレッド リサイクルキュー未使用バッファ リサイクルキュー未使用バッファ バッファ獲得 バッファ解放 Ring 未使用バッファ 未使用バッファ未使用バッファ未使用バッファ 未使用バッファ キャッシュするバッファ数は設定可能
34 詳細 ~ 高速動作の仕組み 1~ SSE の利用 DPDK における SSE 利用の一例 DPDK は 独自の memcpy API を提供 rte_memcpy DPDK スレッド上で DPDK のメモリ機構上のメモリをコピーする速度を比較 バッファサイズ 平均 rte_memcpy (sec/byte) 平均 memcpy (sec/byte) E E E E E E E E E E E E E E E E E E E E E E E E E E E E E E-11 34
35 詳細 ~ 高速動作の仕組み 2~ SSE 拡張の利用 5E E-10 4E E-10 3E byte 以下の転送が劇的に速い 2.5E-10 2E-10 rte_memcpy memcpy 1.5E-10 1E-10 5E
36 詳細 ~ 高速動作の仕組み ~ 高速化手法のもたらす制約 1 スレッドで 1 コアを占有する制約 Ring は スレッドがコアを占有していることが前提の実装 前述のように Ring は DPDK の根幹に食い込んでいるので Ring を使えないのは致命的 同一ポートにアクセス可能なのは 1 スレッドという制約 PMD の実装による制約
37 37
38 詳細 ~PMD の書き方 ~ Null PMD /dev/null ライクな PMD を書いてみた 幾らでもパケットを受信できる 幾らでもパケットを送信できる 仮想デバイスに対する PMD 非常に単純な構造なので ひな型になるはず Intel 以外の NIC でも PMD を書けば DPDK は動作するので 興味がある人は書いてみてください 38
39 39
40 詳細 ~ 限界性能測定 1~ Null PMD を利用して DPDK の限界性能を簡易測定 testpmd は 2 つのポート間の単純な転送を繰り返す 2 つのスレッドを持つ port0 port1 の転送を行うスレッド port1 port0 への転送を行うスレッド Null PMD は ( 非常に小さいコストで ) いくらでもパケットを送受信できるので 限界性能が簡易測定できる 転送時に 1 コピー 本当はゼロコピー環境が転送の限界性能に近いはずだが 今回は測定時間がなかったので 以前に測定した 1 コピー転送の結果 testpmd port0 Null PMD port1 Null PMD 40
41 詳細 ~ 限界性能測定 2~ 測定環境 CPU hugetlbfs 割当 Intel(R) Xeon(R) CPU E GHz 40GB (pagesize=1gb) 測定結果 ~コアあたりの転送性能 ~ ( かなり ざっくり ) 64byte 52Mpps / 26Gbps 1500byte 16.72Mpps / Gbps 1 コピーでこの速度なら ゼロコピーで 160Mpps に届くのかも? もしくは 複数コア / ポートを使って 160Mfps という意味なのかも? 1 コピーでこの性能なため 複雑なパケット処理を行うと この値以下になりそう 41
42 42
43 ホスト -VM 間通信 ホスト上の DPDK アプリと VM 上の DPDK アプリが高速に通信する仕組みについて なぜ 必要なのか? ネットワーク業界でよく言われる SDN-NFV という構成を実現する際に必要になる SDN-NFV とは? ホスト上では OpenFlow に対応したソフトウェアスイッチ (SSW) を動作させ 実際のパケット処理は VM で行うという構成 Linux と QEMU 環境の場合について説明 43
44 ホスト -VM 間通信 ~e1000 & pcap 経由 ~ user space on host Guest DPDK App2 user space on VM DPDK App1 e1000 PMD uio kernel space on VM pcap PMD e1000 tap client QEMU tap driver kernel space on host 44
45 ホスト -VM 間通信 ~e1000 & pcap 経由 ~ App1 からの送信 QEMU tap client User DPDK App1 pcap PMD コピー Kernel コピー tap driver 注意黒線をまたぐとコンテキストスイッチ発生 Host Guest e1000 コピー 割り込み コピー パケットバッファ レジスタアクセス レジスタアクセス KVM 割り込み DPDK App2 e1000 PMD 割り込み uio 参考
46 ホスト -VM 間通信 ~virtio-net & pcap 経由 ~ user space on host Guest DPDK App2 user space on VM DPDK App1 virtio-net PMD uio kernel space on VM pcap PMD virtio-net tap client QEMU tap driver kernel space on host 46
47 ホスト -VM 間通信 ~virtio-net & pcap 経由 ~ App1 からの送信 QEMU tap client User DPDK App1 pcap PMD コピー Kernel コピー tap driver 注意黒線をまたぐとコンテキストスイッチ発生 Host virtio-net コピー 割り込み KVM Guest コピー パケットバッファ 割り込み 実デバイスをシミュレートしていない virtio-net は そもそも 送受信に際してレジスタアクセスを発生させない DPDK App2 virtio-net PMD 割り込み uio 参考
48 ホスト -VM 間通信 ~virtio-net & vhost & pcap 経由 ~ user space on host Guest DPDK App2 user space on VM DPDK App1 virtio PMD uio kernel space on VM pcap PMD tap driver kernel space on host virtio-net vhost-net tap client QEMU vhost-net は ホストのカーネル内で virtio-net のパケット送受信処理を行う仕組み よって 送受信の際に virtio-net は関わらなくなる 48
49 ホスト -VM 間通信 ~virtio-net & vhost & pcap 経由 ~ App1 からの送信 QEMU User DPDK App1 pcap PMD Kernel コピー tap driver コピー 注意黒線をまたぐとコンテキストスイッチ発生 tap client Host vhost-net 割り込み KVM Guest コピー パケットバッファ 割り込み DPDK App2 virtio-net PMD 割り込み uio 参考
50 ホスト -VM 間通信 ~virtio-net & cuse & vhost backend 経由 ~ user space on host DPDK App1 vhost backend eventfd kernel module kernel space on host DPDK App2 virtio PMD uio virtio-net CUSE Guest user space on VM CUSE を使って vhost-net の実装を DPDK App1 の中で行ってしまう! この場合 DPDK App1からゲ kernel ストの物理メモリにアクセスで space on VM きる必要がある ( ゲストの物理メモリをhugetlbfs 上から取得す QEMU る必要がある 読み書きの権限も必要 ) また 通知のために DPDK の提供する特別なカーネルモジュールが必要 Intel 考案! 50
51 ホスト -VM 間通信 ~virtio-net & cuse & vhost backend 経由 ~ App1 からの送信 User Kernel 注意黒線をまたぐとコンテキストスイッチ発生 Host QEMU DPDK App1 vhost backend コピー 割り込み event 通知 kernel module 割り込み KVM Guest パケットバッファ 割り込み App1 と App2 が共にポーリングしているので 通知は必要なし! DPDK App2 virtio-net PMD 割り込み uio 参考
52 ホスト -VM 間通信 ~virtio-net & vhost-user backend 経由 ~ user space on host DPDK App1 vhostuser backend DPDK App2 virtio PMD virtio-net eventfd Guest user space on VM QEMU-2.1 以上では vhost-net のバックエンドを ユーザ空間にインプリさせるための仕組みが実装されている (vhost-user) kernel space on VM よって CUSEを使う必要はなくなる QEMU なお この仕組みでも ゲストの物理メモリは hugetlbfsから取得する必要がある なお イベント通知には 通常の eventfd を使用する ( 特別なカーネルモジュールは必要ない ) kernel space on host 52
53 ホスト -VM 間通信 ~virtio-net & vhost-user backend 経由 ~ App1 からの送信 User Kernel 注意黒線をまたぐとコンテキストスイッチ発生 QEMU DPDK App1 Host vhost -user backend コピー 割り込み eventfd 割り込み KVM Guest パケットバッファ 割り込み App1 と App2 が共にポーリングしているので 通知は必要なし! DPDK App2 virtio-net PMD 割り込み uio 参考
54 ホスト -VM 間通信 ~ その他 ~ 他にも いろいろありますが ここでは割愛 IVSHMEM + Ring MEMNIC PMD NEC 製 高速な転送を実現するものは 何らかの共有メモリを実現して そのうえでパケット交換するものです 54
55 55
56 DPDK アプリ例 ~open source のみ ~ アプリ名 ライセンス概要 lagopus BSD OpenFlow-1.3 対応のソフトウェアスイッチ dpdk-ovs BSD DPDK 対応した Open vswitch Packetgen BSD パケットジェネレータ dpdk-rumptcpip BSD ipaugenblick rumpkernel の DPDK 対応 GPL/BSD Linux TCP/IP スタックの DPDK ポーティング dpdk-odp BSD BSDのTCP/IPスタックをDPDKにポーティング ( ソースコードをいつまでも公開しないので 使 わない方が無難?) 56
57 まとめ 既存のフレームワークでは 高速転送を実現できない DPDKは ユーザランドから CPU メモリ NICを扱う仕組み NICは uio/vfio 経由 CPUは Affinity 管理 メモリは hugetlbfs 経由 ポーリングを効率的に行うことで高速化を達成 実際に DPDKを使用したアプリや製品が出始めている DPDK のコミュニティ Site: ML: 57
160311_icm2015-muramatsu-v2.pptx
Linux におけるパケット処理機構の 性能評価に基づいた NFV 導 の 検討 村松真, 川島 太, 中 裕貴, 林經正, 松尾啓志 名古屋 業 学 学院 株式会社ボスコ テクノロジーズ ICM 研究会 2016/03/11 研究 的 VM 仮想 NIC バックエンド機構 仮想化環境 仮想スイッチ パケット処理機構 物理環境 性能要因を考察 汎 IA サーバ NFV 環境に適したサーバ構成を検討
スライド 1
仮想化環境でのパケット転送 - 性能測定結果 & 考察 - 海老澤健太郎 @ パラレルス株式会社 2011/12/01 Internet Week 2011 性能測定 構成 DUT (Device Under Test) - Dell PowerEdge R410 CPU x 2 : Xeon L5520 @ 2.27GHz QEMU VM e1000 VM virtio-net VM vhost-net
Lagopus SDN/OpenFlow switch: yet another SDN/OF switch agent and high-performance software switch
汎用 x86 サーバを用いた高速なソフトウエアパケット処理技術 中島佳宏 This research is a part of the project for Research and Development of Network Virtualization Technology supported by the Ministry of Internal Affairs and Communications.
[公開OK][空閑さん資料]kuga-ovs-fpga.pptx
FPGA を使って Open vswitch の データプレーンを作る 慶應義塾 大学空閑洋平, 松 谷健史 SDN Japan 2012/12/7 Open vswitch を使った DIY 設計スイッチの発表です 5000 円前後の FPGA を想定 1000BASE- T マルチポート NIC Offloading 機能 CPU+SW 部と転送 HW 部の分離離
ストリームを用いたコンカレントカーネルプログラミングと最適化 エヌビディアジャパン CUDAエンジニア森野慎也 GTC Japan 2014
ストリームを用いたコンカレントカーネルプログラミングと最適化 エヌビディアジャパン CUDAエンジニア森野慎也 GTC Japan 2014 コンカレントな処理の実行 システム内部の複数の処理を 平行に実行する CPU GPU メモリ転送 カーネル実行 複数のカーネル間 ストリーム GPU 上の処理キュー カーネル実行 メモリ転送の並列性 実行順序 DEFAULT STREAM Stream : GPU
TFTP serverの実装
TFTP サーバーの実装 デジタルビジョンソリューション 佐藤史明 1 1 プレゼンのテーマ組み込みソフトのファイル転送を容易に 2 3 4 5 基礎知識 TFTP とは 実践 1 実際に作ってみよう 実践 2 組み込みソフトでの実装案 最後におさらい 2 プレゼンのテーマ 組み込みソフトのファイル転送を容易に テーマ選択の理由 現在従事しているプロジェクトで お客様からファームウェアなどのファイル転送を独自方式からTFTPに変更したいと要望があった
netmapによる 実践パケット処理プログラミング
netmap による 実践パケット処理プログラミング [email protected] Copyright 2016 Internet Initiative Japan, Inc. 1 netmap とは? a framework for fast packet I/O ピサ大学の Luigi Rizzo 教授が設計した API 送受信パケット用のバッファを予め確保 userland/kernel でその領域を
bitvisor_summit.pptx
BitVisor 内蔵の lwip で Alkanet ログの送信を試みる 命館 学システムソフトウェア研究室 下雄也, 明 修平, 瀧本栄, 利公 1 はじめに (1/4) 近年, マルウェアが増加しており, マルウェアの脅威が問題となっている マルウェアの脅威に対抗するためには, 多数のマルウェアを迅速に解析する必要がある システムコールトレーサ Alkanet Windows 上で動作するマルウェアを対象とし,
Monthly Research / セキュアハードウェアの登場とその分析
Monthly Research セキュアハードウェアの登場とその分析 株式会社フォティーンフォティ技術研究所 http://www.fourteenforty.jp Ver2.00.02 1 セキュアハードウェア ハードウェアレベルでのセキュリティ拡張や それを実装したハードウェアが提案されている 通常のマイクロプロセッサを拡張することで柔軟性を確保する試みもある 今回は主に ARM TrustZone
スライド 1
パケット転送を支える技術 海老澤健太郎 @ パラレルス株式会社 Twitter: @ebiken Internet Week 2011 サーバーの物理構造 DIMM MEM CPU0 CPU1 DIMM MEM QPI IOH (Chipset) PCI Express (PCIe) PCIe PCIe device device (NIC) (NIC) Internet Week 2011 2 パケットの流れ
Microsoft Word - Dolphin Expressによる10Gbpソケット通信.docx
Dolphin Express による 10Gbps ソケット通信 Dolphin Express は 標準的な低価格のサーバを用いて 強力なクラスタリングシステムが構築できる ハードウェアとソフトウェアによる通信用アーキテクチャです 本資料では Dolphin Express 製品の概要と 実際にどの程度の性能が出るのか市販 PC での実験結果をご紹介します Dolphin Express 製品体系
Microsoft Word - nvsi_050110jp_netvault_vtl_on_dothill_sannetII.doc
Article ID: NVSI-050110JP Created: 2005/10/19 Revised: - NetVault 仮想テープ ライブラリのパフォーマンス検証 : dothill SANnetⅡSATA 編 1. 検証の目的 ドットヒルシステムズ株式会社の SANnetll SATA は 安価な SATA ドライブを使用した大容量ストレージで ディスクへのバックアップを行う際の対象デバイスとして最適と言えます
PowerPoint プレゼンテーション
vsmp Foundation スケーラブル SMP システム スケーラブル SMP システム 製品コンセプト 2U サイズの 8 ソケット SMP サーバ コンパクトな筐体に多くのコアとメモリを実装し SMP システムとして利用可能 スイッチなし構成でのシステム構築によりラックスペースを無駄にしない構成 将来的な拡張性を保証 8 ソケット以上への拡張も可能 2 システム構成例 ベースシステム 2U
BitVisor Updates in 2016
BitVisor 2016 年の主な変更点 榮樂英樹 株式会社イーゲル 2016-11-30 BitVisor Summit 5 1 BitVisor 2016 年の主な変更点 Intel GbE MSI + virtio-net MSI-X 対応 性能改善 Thread, Nested Paging バグ修正 mm_lock レースコンディション UEFI スタックアラインメント ATA コマンド
PowerPoint プレゼンテーション
TCG-JRF セミナー講演資料 PCでの活用事例 : PC 実装に必要な対応項目 ソリューション例 2010 年 11 月 4 日 ( 株 ) 富士通研究所ヒューマンセントリックシステム研究所 アジェンダ Opal HDD 採用のモチベーション Opal HDDの特徴 PC 搭載 Opal HDDの初期設定 Shadow Area 開発における注意点 Opal HDDの具体的なアクセス方法 Opal
PowerPoint プレゼンテーション
ソフトウェアパケット処理とハードウェアパケット処理 ~ アーキテクチャ ~ JANOG 37 @ 名古屋 海老澤健太郎 [email protected] Twitter: @ebiken Janog 37 ソフトウェア & ハードウェアパケット処理 Kentaro Ebisawa 2016/01/22 1 自己紹介 : 海老澤健太郎 (Kentaro Ebisawa) ネットワーク系 海外 NW
PowerPoint プレゼンテーション
Oracle GRID Center Flash SSD + 最新ストレージと Oracle Database で実現するデータベース統合の新しい形 2011 年 2 月 23 日日本オラクル Grid Center エンジニア岩本知博 進化し続けるストレージ関連技術 高速ストレージネットワークの多様化 低価格化 10GbE FCoE 8Gb FC ディスクドライブの多様化および大容量 / 低価格化
Pervasive PSQL v11 のベンチマーク パフォーマンスの結果
Pervasive PSQL v11 のベンチマークパフォーマンスの結果 Pervasive PSQL ホワイトペーパー 2010 年 9 月 目次 実施の概要... 3 新しいハードウェアアーキテクチャがアプリケーションに及ぼす影響... 3 Pervasive PSQL v11 の設計... 4 構成... 5 メモリキャッシュ... 6 ベンチマークテスト... 6 アトミックテスト... 7
目次 背景 IEEE802.3azとは Linuxカーネルの対応状況 測定方法 測定結果 まとめ 1
Evaluation of IEEE802.3az on Linux Ethernet Driver 2011.12.9 富士通コンピュータテクノロジーズ松本博郎 理番号 1134ka1 目次 背景 IEEE802.3azとは Linuxカーネルの対応状況 測定方法 測定結果 まとめ 1 背景 組込み機器では消費電力の低減が要件として取り上げられる バッテリー駆動時間の延長であったり 24 時間電源
PowerPoint プレゼンテーション
VTN Manager の内部実装 2014-10-29 NEC ソフトウェア構成 VTN はAD-SAL Applicationとして実装 今後 MD-SALに移行予定 管理対象スイッチはOpenFlowスイッチのみ OpenFlow 1.0/1.3に対応 VTN Manager Switch Manager Topology Manager Routing Forwarding Rules Manager
第一章 LPC2478 ボードの概要...3 第二章 uclinux の初体験 SD カードのテスト USB メモリのテスト USB Devices のテスト network のテスト...6 第三章 uclinux のコンパイル...
株式会社日新テクニカ株式会社日新テクニカ株式会社日新テクニカ 1 ARM ARM ARM ARM7/TDMI 7/TDMI 7/TDMI 7/TDMI LPC LPC LPC LPC247 247 247 2478-uC uc uc uclinux inux inux inux マニュアルマニュアルマニュアルマニュアル株式会社日新テクニカ株式会社日新テクニカ株式会社日新テクニカ株式会社日新テクニカ
Software-Defined Tester(SDT) を用いた高精度遅延測定による SDN/NFV 品質向上 富士通アドバンストテクノロジ株式会社システム技術統括部大久保克彦 0 Copyright 2017 FUJITSU AD
Software-Defined Tester(SDT) を用いた高精度遅延測定による SDN/NFV 品質向上 富士通アドバンストテクノロジ株式会社システム技術統括部大久保克彦 [email protected] 0 背景 リアルタイム性が必要な分野への適用 5G( 低遅延 ) による新たなサービス展開 ゲーム VoIP 動画医療金融車載 遅延がサービス品質に直結 End-to-End
PRIMERGY TX100 S3 未サポートOS動作検証確認情報
ソフトウェア名称 SAS アレイコントローラカード MegaRAID SAS 9260-8i 動作確認結果 オンボード SATA アレイコントローラ ( ソフトウェア RAID) CentOS 6.0(x86) ( 注 6) ( 注 5) CentOS 6.0(x86_64) ( 注 6) ( 注 5) CentOS 5.7(x86) ( 注 6) ( 注 5)
ERDAS IMAGINE における処理速度の向上 株式会社ベストシステムズ PASCO CORPORATION 2015
ERDAS IMAGINE における処理速度の向上 株式会社ベストシステムズ 本セッションの目的 本セッションでは ERDAS IMAGINEにおける処理速度向上を目的として機器 (SSD 等 ) 及び並列処理の比較 検討を行った 1.SSD 及び RAMDISK を利用した処理速度の検証 2.Condorによる複数 PCを用いた並列処理 2.1 分散並列処理による高速化試験 (ERDAS IMAGINEのCondorを使用した試験
(Microsoft PowerPoint - E6x5C SDXC Demo Seminar [\214\335\212\267\203\202\201[\203h])
Atom プロセッサ E6x5C の紹介と FPGA IP Core 活 例の紹介 アイウェーブ ジャパン株式会社 神奈川県横浜市中区住吉町 3 丁目 29 番住吉関内ビル8 階 B Tel: 045-227-7626 Fax: 045-227-7646 Mail: [email protected] Web: www.iwavejapan.co.jp 2011/5/30 1 iwave Japan,
PRIMERGY TX100 S3 未サポートOS動作検証確認情報
ソフトウェア名称 SAS アレイコントローラカード MegaRAID SAS 9260-8i 動作確認結果 オンボード SATA アレイコントローラ ( ソフトウェア RAID) CentOS 6.1(x86) ( 注 6) ( 注 7) CentOS 6.1(x86_64) ( 注 6) ( 注 7) CentOS 6.0(x86) ( 注 6) ( 注 5) CentOS
Evalution of Linux Container(LXC) on Embedded Linux 株式会社富士通コンピュータテクノロジーズ町田裕樹 1201ka01 Copyright 2013 FUJITSU COMPUTER TECHLONOGIES LIMITED
Evalution of Linux Container(LXC) on Embedded Linux 2013.3.8 株式会社富士通コンピュータテクノロジーズ町田裕樹 1201ka01 目次 Linux Container(LXC) の概要 Linux Container(LXC) コンテナ型仮想化 ユーザランド LXC を評価 評価環境 準備 アプリケーションコンテナ システムコンテナ 1 Linux
PRIMERGY TX1310 M1 未サポートOS動作検証確認情報
PRIMERGY TX1310 M1 未サポート OS 動作検証確認情報 ソフトウェア名称 オンボード SATA コントローラ ( ソフトウェア RAID) 動作確認結果 オンボード SATA コントローラ (ahci) CentOS 7.2(x86_64) [ 詳細 ]( 注 5) ( 注 6) CentOS 7.1(x86_64) [ 詳細 ]( 注 5) ( 注 6) CentOS 7.0(x86_64)
Microsoft PowerPoint - OS07.pptx
この資料は 情報工学レクチャーシリーズ松尾啓志著 ( 森北出版株式会社 ) を用いて授業を行うために 名古屋工業大学松尾啓志 津邑公暁が作成しました 主記憶管理 主記憶管理基礎 パワーポイント 27 で最終版として保存しているため 変更はできませんが 授業でお使いなる場合は松尾 ([email protected]) まで連絡いただければ 編集可能なバージョンをお渡しする事も可能です 復習 OS
Congress Deep Dive
Congress Deep Dive NTT 室井雅仁 2016 NTT Software Innovation Center 自己紹介 室井雅仁 ( むろいまさひと ) 所属 : NTT OpenStack を利用した OSS クラウドのアーキテクトを担当 社内向け OpenStack 環境の運用 コミュニティへフィードバック OpenStack Congress Core Reviewer https://wiki.openstack.org/wiki/congress
X-MON 3.1.0
株式会社エクストランス X-MON 3.1.0 アップデート内容 内容機能追加... 3 LDAP 認証機能... 3 LDAP サーバ管理... 3 ユーザ管理... 8 アップデート内容通知機能... 11 Windows サーバ再起動コマンド... 13 変更箇所... 14 エスカレーション設定改修... 14 不具合の修正... 20 監視プラグイン... 20 複数の監視プラグイン...
PowerPoint プレゼンテーション
NEC モバイルバックエンド基盤入門応用編 ver 7.5.0 2018 年 10 月 1 日 日本電気株式会社 Push 通知 クライアントへの Push 通知 : APNs / FCM Android / ios で使用可能 ユーザがアプリを起動していなくても サービス提供側からスマートフォンやタブレットにメッセージを送る仕組み モバイル機器はプラットフォーム毎に Push 通知の仕組みが提供されています
HP Z200 Intel i5 CPU 3.33GHz Low Profile 仕様 380 LP Assist 2.2 Instinct v3.0 以降 いいえいいえはいいいえ 4GB および 8GB DDR ECC (2 枚構成の DIMM) ISIS へ接続するにはオンボードの
Composer 6, Symphony 6, NewsCutter 10, Assist 2.5, Instinct 3.5 認定 PC システム システム PC デスクトップ HP Z800 DUal 6- core 2.66GHz (X5650) 3800 5.0.3/9.0.3 はいいいえはいはいはいはい (3 枚構成の DIMM) HP Z800 Dual Quad core 2.93GHz
スライド 1
1 システムコールフックを使用した攻撃検出 株式会社フォティーンフォティー技術研究所 http://www.fourteenforty.jp 取締役技術担当金居良治 2 お題目 System Call について System Call Protection System Call Hook 考察 3 System Call とは? ユーザアプリケーションからカーネルのサービスルーチンを呼び出す Disk
PowerPoint-Präsentation
コネクテッド カーに採用される仮想化 OS のデバッグ手法 欧米の車載機器メーカで採用が進むハイパー バイザ OS に対する取り組み 日本ローターバッハ株式会社技術サポート香川貴人 2017 年 7 月 12 日 www.jp.lauterbach.com Hypervisor システムのデバッグ 2 / 38 アジェンダハイパーバイザシステムとデバッグハイパーバイザとはハイパーバイザシステムのデバッグデモ
PRIMERGY TX140 S1 未サポートOS動作検証確認情報
ソフトウェア名称 SAS アレイコントローラカード RAID Ctrl SAS 6G 5/6 512MB (D2616) SAS アレイコントローラカード RAID Ctrl SAS 6G 0/1 (D2607) 動作確認結果 SAS コントローラカード Integrated Mirroring Enhanced SAS オンボード
Microsoft Word - appendix_b_srft.doc
付録 B 高速ファイル転送ソフト SRFT について 1 SRFT とは 本センターに導入されている SR11000 では ファイルシステムとして主に HSFS が使用されています このファイルシステムは最適化されたプログラムが大量のデータを扱うときには高い性能を発揮しますが HSFS の特性を考慮していない一般のプログラムでは本来の性能は得られません ファイル転送に使用する SCP は HSFS
Sylpheed とは オープンソースのメールソフト ライセンスは GPL+LGPL 高速 軽量 高機能 高い操作性 高い信頼性 導入が容易 マルチプラットフォーム Windows, Linux, etc. 多言語対応 ( 約 30 ヶ国語 )
最新版オープンソースメールソフト Sylpheed 3.0 徹底解説 ~ マルチスレッド対応とプラグイン機能による Sylpheed の未来 ~ OpenSource Conference 2010 Tokyo/Spring SRA OSS, Inc. 日本支社山本博之 Sylpheed とは オープンソースのメールソフト ライセンスは GPL+LGPL 高速 軽量 高機能 高い操作性 高い信頼性
template.dvi
XXVI W I D E P R O J E C T 26 26 1 WIDE 2010 1 WIDE WIDE Cloud 2010 2 3 4 5 6 NAT64 7 2 2010 7 2 WIDE 2.1 WIDE WIDE WIDE WIDE 50 2.2 WIDE 13:00 14:45 IaaS 15:00 16:45 WIDE StarBED 17:00 19:00 2.3 193
Microsoft PowerPoint - JANOG19-u10-GigaPcap(NonAnim).ppt
Non-Sampling Flow Inspection を支える技術 ユーテン ネットワークス株式会新籾晶 アジェンダ Non-Sampling Flow Inspection を支える技術 背景のおさらいトラヒック解析の問題点 (Non-Sampling 観点 ) 解決策ハードウェア作っちゃいました!! 本当に Non-Sampling は実現できたのか? 性能比較による検証 まとめ 1 背景
Microsoft PowerPoint - Android+TPMによるセキュアブート_KDDI研_後日配布用
Android(ARM)+TPM による セキュアブート KDDI 研究所竹森敬祐 (Ph.D) Android OS は 通常利用においてシステム領域の完全性が維持されている 組み込み OS としても利用される Android OS のセキュアブートの意義を考察する 1 背景 : root 権限奪取とシステム改造の流れ 攻撃のシナリオ Step1: root 権限奪取アプリをユーザ領域にインストールし
ご使用上の注意
CA92344-645- PRIMERGY M シリーズ向けオンボード CNA( コンバージド ネットワーク アダプタ ) および CNA 拡張ボードご使用上の留意 注意事項 このたびは 弊社の製品をお買い上げいただきまして 誠にありがとうございます 本製品をご使用になる上での注意事項がございますので 本書をよくお読みの上 ご利用願います. ファームウェア / ドライバの適用について 24 年 2
作って覚えるDPDKプログラミング
作って覚える DPDK プログラミング Internet Week 2016 Dec 1, 2016 ( 株 ) インターネットイニシアティブ沖勝 [email protected] Agenda DPDKの概要 さっそく作ってみる どんなふうに動いてるの? DPDKが提供している機能の紹介 DPDKを使った高速化の秘訣 動かすには下準備が必要 いくつかの疑問 DPDKプログラミングのまとめ 2 DPDK
Express5800 シリーズ Windows Server 2019 NIC チーミング (LBFO) 設定手順書 Microsoft Windows Windows Server は 米国 Microsoft Corporation の米国およびその他の国における登録商標です その他 記載され
Express5800 シリーズ Windows Server 2019 NIC チーミング (LBFO) 設定手順書 Microsoft Windows Windows Server は 米国 Microsoft Corporation の米国およびその他の国における登録商標です その他 記載されている会社名 製品名は 各社の登録商標または商標です なお TM R は必ずしも明記しておりません 本書の内容は将来予告なしに変更することがあります
仮想マシンの高速ライブマイグレーション技術 Yabusame: Postcopy Live Migration for Qemu/KVM
準仮想化ページフォルトを用いたポストコピー型ライブマイグレーションの性能向上手法 広渕崇宏 * 山幡為佐久 ** 伊藤智 * * 産業技術総合研究所 ** VA Linux Systems Japan コンピュータシステムシンポジウム 2012 2012 年 12 月 6 日 本スライドは 2012 年 12 月当時のものです その後 実装を改良し包括的な性能評価を行いました 下記の論文をご参照ください
memcached 方式 (No Replication) 認証情報は ログインした tomcat と設定された各 memcached サーバーに認証情報を分割し振り分けて保管する memcached の方系がダウンした場合は ログインしたことのあるサーバーへのアクセスでは tomcat に認証情報
IdPClusteringPerformance Shibboleth-IdP 冗長化パフォーマンス比較試験報告書 2012 年 1 月 17 日国立情報学研究所 Stateless Clustering 方式は SAML2 を想定しているため CryptoTransientID は不使用 使用するとパフォーマンスが悪くなる可能性あり Terracotta による冗長化について EventingMapBasedStorageService
1 Atollic TrueSTUDIO( GR-PEACH TOPPERS/ASP ASP GR-PEACH mbed ( git
TOPPERS 活用アイデア アプリケーション開発 コンテスト 部門 : がじぇるね IoT 部門 作品のタイトル : m ~ 組込みマイコン向け 軽量実行環境 ~ 作成者 : 森智也 ( 京都大学 ) 共同作業者 : 高瀬英希 ( 京都大学 ) 対象者 : ロボットシステム開発者 組込みシステム開発者 使用する開発成果物 : TOPPERS/ASP カーネル https://github.com/ncesnagoya/asp-gr_peach_gcc-mbed.git
PRIMERGY RX200 S8/RX350 S7とETERNUS LT40でのAcronis Backup & Recovery 11.5 Advanced Serverによるイメージバックアップ動作検証
富士通サーバ PRIMERGY RX200 S8 / RX350 S7 富士通テープライブラリ ETERNUS LT40 Acronis Backup & Recovery 11.5 Advanced Server イメージバックアップ動作検証報告 2014 年 4 月 アクロニス ジャパン株式会社 2013 1 目次 1. 検証の概要 1.1 検証の内容 1.2 検証期間 場所 2. 検証環境 3.
Microsoft Word - RefApp7インストールガイド.doc
リファレンスアプリケーション RefApp7 導入ガイド 概要 新しい RefApp7.exe リファレンス制御アプリケーションは Windows7 または Windows Vista の 32bit 版および 64bit 版の両方の環境で動作します RefApp7 を運用する場合には マイクロソフト社提供の WinUSB 汎用デバイス ドライバが必要です このため 従来の制御ソフトウエア RefApp2
Microsoft Word - nvsi_080177jp_trendmicro_bakbone.doc
Article ID: NVSI-080177JP Created: 2008/06/10 Revised: - 1. 検証目的 トレンドマイクロウイルス対策ソフト ServerProtect for Linux 3.0 とウイルスバスターコーポレートエディション 8.0 を組み合わせた NetVault Backup バックアップ動作検証 各クライアントが様々なファイルを書き込む中で ファイル サーバ自身とそのバックアップ
セキュアVMの アーキテクチャ概要
2008 年 11 月 18 日 ( 火 ) セキュア VM ワークショップ ( 公開用修正版 ) 筑波大学講師品川高廣 セキュア VM BitVisor の アーキテクチャ概要 背景と目的 情報漏洩事件の増加 PC USBメモリ等の紛失 盗難 インターネット経由 ウィルスやファイル交換ソフトなど 仮想マシンモニタ (VMM) による安全性向上 暗号化 認証を VMM で強制する ストレージ及びネットワークの暗号化
TRQerS - Introduction
TRQerS 導入概要 横河ディジタルコンピュータ株式会社エンベデッドソリューション事業本部サポート部 (ESC-APN-035-02 Dec,25,2015) 1 システムマクロトレースの特徴 製品構成と導入フロー 2 システムマクロトレースの特徴 システムマクロトレース printf ログ出力の発展形 (printf より高速 文字列 / タグ情報 / タスク遷移 / 関数遷移 ) ハードウェアインターフェース
BMR for NVBU NIC bnx2.ko SVR/CLNT 上での SCSI megaraid_sas.ko 自動認識デバイス Partition 構成 (RHEL6.0 uefi/lvm 構成の場合 ) Partition1 /boot/efi EFI 200MB Partition2 /
Article ID: QTSI-110232JP Created: 2011/07/06 Revised: IBM System x3650 M3 での Bare Metal Recovery for NetVault Backup Server/Client 動作検証 1. 概要 NetVault Backup(NVBU) の Bare Metal Recovery for NetVault Backup
システムソリューションのご紹介
HP 2 C 製品 :VXPRO/VXSMP サーバ 製品アップデート 製品アップデート VXPRO と VXSMP での製品オプションの追加 8 ポート InfiniBand スイッチ Netlist HyperCloud メモリ VXPRO R2284 GPU サーバ 製品アップデート 8 ポート InfiniBand スイッチ IS5022 8 ポート 40G InfiniBand スイッチ
ポート拡張オプション(10GBASE-T×2)
ポート拡張オプション (10GBASE-T 2) 更新日 2017 年 01 月 PY-LA3A2U2 ポート拡張オプション (10GBASE-T 2) PYBLA3A2U2 ポート拡張オプション (10GBASE-T 2) [ カスタムメイド対応 ] 1. 概要本製品は RX2530 M2 / RX2540 M2 / RX2560 M2 / TX2560 M2, RX2530 M1 / RX2540
スライド 1
サーバ / アプリケーション / ネットワーク監視ソフトウェア SIGNAlert は マルチプラットフォーム対応のサーバ / アプリケーション / ネットワーク監視ソフトウェアです TCP/IP で接続された LAN において 複数の監視対象マシンをリアルタイムに監視します SIGNAlert 製品紹介 セゾン情報システムズ HULFT 事業部 2 SIGNAlert とは OS ハードウェア監視
NTMobile LAN NT- Mobile(Network Traversal with Mobility) [1] NTMobile LAN 2. NTMobile NTMobile NTMobile NTM IP DC(Direction Coordinator)
NTMobile 110425321 1. LAN NT- Mobile(Network Traversal with Mobility) [1] NTMobile LAN 2. NTMobile NTMobile NTMobile NTM IP DC(Direction Coordinator) NTM DC NTM DC IP NTM NTM (MN) DC NTM (CN) UDP MN CN
NEC 製PC サーバ『Express5800 R120f-1E』とSanDisk『ioMemory SX /SX 』検証報告書
NEC 製 PC サーバ Express5800 R120f-1E と SanDisk iomemory SX300-1600/SX350-1600 検証報告書 Windows Server 2012 R2 Standard 2015/08/07 文書名称 NEC 製 PC サーバ Express5800 R120f-1E と SanDisk iomemory-sx300-1600/sx350-1600
CommCheckerManual_Ver.1.0_.doc
通信チェックツール (CommChecker) 取扱説明書 (Ver.1.0) 2009 ESPEC Corp. 目次 1. 使用条件 4 2. ダウンロード & インストール 5 3. 環境設定 6 3-1.RS-485 通信 6 3-2.RS-232C 通信 7 3-3.GPIB 通信 8 4. ソフトウェアの使用方法 9 4-1. 起動 9 4-2. 通信設定 10 (1)RS485 通信 10
超勉強会2012 MeeGoの変遷
超勉強会2012 MeeGoの変遷 @furikku_ks09 目次 自己紹介 1 はじめに 2 MeeGo 3 Handset UXの流れ 4 Mer Core 5 Nemo 6 Sailfish OS 7 開発環境について 自己紹介 Twitter ID:@furikku_ks09 MeeGoからの流れで Qtや Waylandも注目 Blog:フレイドフォートonBlog http://blog.livedoor.jp/furikku9310/
提案書
アクセスログ解析ソフト Angelfish インストールについて Windows 版 2018 年 05 月 07 日 ( 月 ) 有限会社インターログ TEL: 042-354-9620 / FAX: 042-354-9621 URL: http://www.interlog.co.jp/ はじめに Angelfish のインストールに手順について説明致します 詳細は US のヘルプサイトを参照してください
