Presentation Title

Similar documents
自動運転・ADASの開発・検証ソリューション

d4-automated-driving-mw

この演習について Autoware 演習 1: データの記録 再生 Autoware 演習 2: センサーキャリブレーション Autoware 演習 3:3 次元地図の作成 Autoware 演習 4: 自己位置推定 Autoware 演習 5: パラメータ調整 Autoware 演習 6: 物体検

MATLAB EXPO 2019 Japan プレゼン資料の検討

PowerPoint Presentation

MATLAB ではじめる画像処理とロボットビジョン ~ 機械学習による物体認識と SLAM~ MathWorks Japan アプリケーションエンジニアリング部信号処理 通信 木川田亘 2015 The MathWorks, 1Inc.

問 1 図 1 の図形を作るプログラムを作成せよ 但し ウィンドウの大きさは と し 座標の関係は図 2 に示すものとする 図 1 作成する図形 原点 (0,0) (280,0) (80,0) (180,0) (260,0) (380,0) (0,160) 図 2 座標関係 問 2

PowerPoint Presentation

Presentation Title

タイトル

Coding theorems for correlated sources with cooperative information

ディープラーニングの組み込み機器実装ソリューション ~GPC/CPU編~

医用画像を題材とした3次元画像解析とディープラーニング

Presentation Title

AI技術の紹介とセンサーデータ解析への応用

2008 年度下期未踏 IT 人材発掘 育成事業採択案件評価書 1. 担当 PM 田中二郎 PM ( 筑波大学大学院システム情報工学研究科教授 ) 2. 採択者氏名チーフクリエータ : 矢口裕明 ( 東京大学大学院情報理工学系研究科創造情報学専攻博士課程三年次学生 ) コクリエータ : なし 3.

製品開発の現場では 各種のセンサーや測定環境を利用したデータ解析が行われ シミュレーションや動作検証等に役立てられています しかし 日々収集されるデータ量は増加し 解析も複雑化しており データ解析の負荷は徐々に重くなっています 例えば自動車の車両計測データを解析する場合 取得したデータをそのまま解析

f2-system-requirement-system-composer-mw

PowerPoint Presentation

情報処理学会研究報告 IPSJ SIG Technical Report 被写界深度に存在する主体物体の自動検出法の提案 萩原健太, 小枝正直 1 本研究では被写界深度に存在する物体の自動検出法の提案を提案する. 本手法を用いることにより,1 枚の静止画像中にある主体物体と非主体物体の分別が可能にな

b4-deeplearning-embedded-c-mw

画像分野におけるディープラーニングの新展開

Processingをはじめよう

いまからはじめる、MATLABによる 画像処理・コンピュータビジョン

Introduction to System Identification

目次 第 1 章 : データの記録 再生とセンサーキャリブレーション 1. データの記録 生成 2. センサーキャリブレーション第 2 章 :3 次元地図の作成と自己位置推定 1. 3 次元地図の作成 2. 自己位置推定第 3 章 : 物体検出と信号検出 1. 物体検出 2. 信号検出 第 4 章

特別寄稿.indd

Slide 1

MATLAB®製品紹介セミナー

いまからはじめる、MATLABによる 画像処理・コンピュータビジョン

地図情報の差分更新・自動図化 概要版

Systems Research for Cyber-Physical Systems

国土技術政策総合研究所 研究資料

Presentation Title

スライド 1

きれいなグラフを作ろう!gnuplot 入門 1. 基本 1.1. プロット :test.plt plot x, sin(x) 1.2. データファイルのプロット 1:data.plt plot "data.dat" 1.3. データファイルのプロット 2:data2.plt plot "data2

Presentation Title

円筒面で利用可能なARマーカ

Microsoft PowerPoint - Generative Components ppt [互換モード]

スライド 1

<4D F736F F F696E74202D B B836A F82C982E682E CC835E E93E089E6919C94468EAF82C98AD682B782E98CA48B F18F6F94C5816A2E >

2

Interoperability Workshop

いまからはじめる、MATLABによる 画像処理・コンピュータビジョン

基礎輪講2週目 Kinectの話

b2-reinforcement-learning-mw

SIP自動走行システム推進委員会

Presentation Title

最小二乗法とロバスト推定

AutoCAD LT2000i

名古屋大学.indd

슬라이드 1

(a) 2 (b) 1 (Controller) 3 3 LIDAR [13]LIDAR GNSS/INS [14] [15] 2 1(a) 1(b) 2. 2 End-to-End LIDAR End-to- End [9] [10] [11]End-to-End 3. End-to-End 1

選定技術の テーマ Ⅰ ウェッジハンプ 舗装面にくさび型の非対称の段差 ( ウェッジハンプ ) を設置し 走行時の衝撃により逆走車両に注意喚起するもの 全景 設置イメージ図 逆走車両に衝撃で注意喚起を行い 順行車両には走行に支障の無い形状としている 段差部分には超高強度繊維補強コンクリートを使用し

ユーザ デバイス プロファイルの ファイル形式

SNC-HM662 EdgeStorage manual J

Microsoft Word - Meta70_Preferences.doc

Visual班

MATLAB® における並列・分散コンピューティング ~ Parallel Computing Toolbox™ & MATLAB Distributed Computing Server™ ~

スライド 1

(Microsoft PowerPoint -

Rの基本操作

Presentation Title

PowerPoint プレゼンテーション

Simulinkモデル開発における工夫事例

法政大学理工学部創生科学科小林一行研究室 Gerox(c) 2014, 北陽電機さんから 3D LIDAR(YVT-X001) を試用する機会をいただいたため そのお礼と して MATLAB を使って 3D LIDAR のデータ取得プログラムを公開す

本章では 衝突被害軽減ブレーキ 車線逸脱警報 装置 等の自動車に備えられている運転支援装置の特性 Ⅻ. 運転支援装置を 備えるトラックの 適切な運転方法 と使い方を理解した運転の重要性について整理しています 指導においては 装置を過信し 事故に至るケースがあることを理解させましょう また 運転支援装

(trip) ( ) 1 1

Emerging Software

コンピュータグラフィックス第8回

Presentation Title

untitled

XAML Do-It-Yourself シリーズ 第 12 回 3D グラフィックス -1-

1222-A Transform Function Order (trsn

Presentation Title

ネットワークカメラ Edge Storage マニュアル ~SD / microsd で映像録画 再生 ~ ご注意このマニュアルは Firmware が Ver1.9.2 のカメラを対象としています Edge Storage 機能 (SD / microsd で映像録画 再生 ) をお使いになる 場

Microsoft Word - SKY操作マニュアル.doc

Android Layout SDK プログラミング マニュアル

( ), ( ) Patrol Mobile Robot To Greet Passing People Takemi KIMURA(Univ. of Tsukuba), and Akihisa OHYA(Univ. of Tsukuba) Abstract This research aims a

Presentation Title

WHITE PAPER RNN

ProVisionaire Control V3.0セットアップガイド

触覚マウスライブラリを使った 触覚付き Web ページの作り方 ver 富士ゼロックス株式会社 -1-

Signal Processing Toolbox

SICE東北支部研究集会資料(2017年)

Managing and Sharing MATLAB Code

ストリームを用いたコンカレントカーネルプログラミングと最適化 エヌビディアジャパン CUDAエンジニア森野慎也 GTC Japan 2014

Gatlin(8) 図 1 ガトリン選手のランニングフォーム Gatlin(7) 解析の特殊な事情このビデオ画像からフレームごとの静止画像を取り出して保存してあるハードディスクから 今回解析するための小画像を切り出し ランニングフォーム解析ソフト runa.exe に取り込んで 座標を読み込み この


設問 println はそこで指定されている内容を出力して改行するものである. 一方,print は内容を出力して改行しないものである. 下記のプログラムそれぞれについて出力結果がどうなるか回答せよ. 下記のプログラム - を実行すると, fms という文字列が 回表示される. プログラム - vo

<4D F736F F D E C815B835E837D836A B5F30312E646F63>

PowerPoint プレゼンテーション

資料 3 社会資本整備審議会道路分科会基本政策部会 先進モビリティ ( 株 ) における 自動運転技術開発の取り組み 先進モビリティ株式会社代表取締役 青木 啓二 Advanced Smart Mobility 1

愛知工業大学研究報告第 47 号平成 24 年 259 走行位置に依存しない背景差分による走行路上の障害物検出 Detection of the Obstacle on the Road by Background Subtraction Independent of Run Position 石川

ロジクール Spotlight プレゼンテーションリモコン - ホワイトペーパー Spotlight ホワイトペーパー デジタルハイライトのメリット vs. レーザー ロジクール (2017 年 12 月 ) 要旨 新しいロジクール Spotlight プレゼンテーションリモコンはデジタルハイライト

PowerPoint プレゼンテーション

ゲートウェイのファイル形式

intra-mart Accel Platform — IM-BloomMaker プログラミングガイド   初版  

CG

SUALAB INTRODUCTION SUALAB Solution SUALAB は 人工知能 ( ディープラーニング ) による画像解析技術を通して 迅速 正確 そして使いやすいマシンビジョン用のディープラーニングソフトウェアライブラリーである SuaKIT を提供します これは 従来のマシン

Transcription:

Automated Driving System Toolbox TM ~ ADAS/ 自動運転の開発 検証プラットフォーム ~ MathWorks Japan アプリケーションエンジニアリング部 乙部雅則 2017 The MathWorks, Inc. 1

ADAS/ 自動運転開発に関して良くある悩み 1011010101010100101001 0101010100100001010101 0010101001010100101010 0101010100101010101001 0101010010100010101010 0010100010100101010101 0100101010101010010101 0100101010010110000101 0100101010101010010010 1010011101010100101010 1 F 2 vehicle センサーデータの 可視化を どう行うか? センサーフュージョン 判断ロジック をいかに開発し 検証するか? 認知部分の開発 検証をいかに 効率よく行うか? 2

Automated Driving System Toolbox コンセプト : 1. センサデータの可視化 2. テストシナリオ生成 3. 自動運転に関連する画像処理やトラッキングアルゴリズム 4. Ground Truth ラベリングツール 各種認識 センサデータの可視化機能 半自動ラベリングツール 道路の定義 アクターと移動の定義 3

Automated Driving System Toolbox コンセプト : 1. センサデータの可視化 2. テストシナリオ生成 3. 自動運転に関連する画像処理やトラッキングアルゴリズム 4. Ground Truth ラベリングツール 各種認識 センサデータの可視化機能 半自動ラベリングツール 道路の定義 アクターと移動の定義 4

ADAS/ 自動運転開発に関して良くある悩み 1011010101010100101001 0101010100100001010101 0010101001010100101010 0101010100101010101001 0101010010100010101010 0010100010100101010101 0100101010101010010101 0100101010010110000101 0100101010101010010010 1010011101010100101010 1 F 2 vehicle センサーデータの 可視化を どう行うか? センサーフュージョン 判断ロジック をいかに開発し 検証するか? 認知部分の開発 検証をいかに 効率よく行うか? 5

ユースケース 1 センサーフュージョンアルゴリズム開発 ~ 多様な入力データを用いた センサーフュージョン開発環境の提供 (1)~ 実レーダーモジュールログデータログデータ実カメラモジュール オブジェクトリスト センサーフュージョンや判断 のアルゴリズム開発 Object list Target 1 Class: car Location: [x y] Velocity Target 2 Class: pedestrian Location: [x y] Target X Lane markers Marker 1 Curve model: A, B, C Marker 2 7

ユースケース 1 センサーフュージョンアルゴリズム開発 提供機能センサーフュージョンとトラッキングフレームワーク トラックの生成 消滅の管理各種トラッキングのフィルタと運動モデル 線形, 拡張 & unscented カルマンフィルタ 速度一定, 加速度一定 回転速度一定可視化機能 検出結果表示とトラッキング向け 2 次元鳥瞰図表示 前方撮影ビデオへの カメラ レーダーモジュール出力の合成サンプルプログラム カメラとレーダーを用いた 前方衝突警告 単眼カメラによる 複数の車両トラッキング 実カメラ レーダーモジュールの出力 ( オブジェクトリスト ) をプロット ビデオへのアノテーション センサーフュージョン デモ 8

センサーデータの可視化 画像座標 車両座標 ( 鳥瞰図 ) 9

画像座標への表示 %% Specify time to inspect currenttime = 6.55; video.currenttime = currenttime; %% Extract video frame frame = video.readframe; %% Plot image coordinates ax1 = axes(... 'Position',[0.02 0 0.55 1]); im = imshow(frame,... 'Parent',ax1); 画像座標への表示 ( 各種画像処理用関数 ): imshow 等 11

鳥瞰図への表示 : 車両座標 ISO 8855 車両座標系 前方 : x 正方向 左 : y 正方向 x y %% Plot in vehicle coordinates ax2 = axes(... 'Position',[0.6 0.12 0.4 0.85]); bep = birdseyeplot(... 'Parent',ax2,... 'Xlimits',[0 45],... 'Ylimits',[-10 10]); legend('off'); 鳥瞰図へのプロット : birdseyeplot 12

センサーの検出範囲の可視化 ( 鳥瞰図 ) %% Create coverage area plotter covplot = coverageareaplotter(bep,... 'FaceColor','blue',... 'EdgeColor','blue'); %% Update coverage area plotter plotcoveragearea(covplot,... [sensorparams(1).x... % Position x sensorparams(1).y],... % Position y sensorparams(1).range,... sensorparams(1).yawangle,... sensorparams(1).fov(1)) % Field of view センサーの検出範囲の表示 : coverageareaplotter 13

認識結果の可視化 ( 車両座標 ) %% Create detection plotter detplot = detectionplotter(bep,... 'MarkerEdgeColor','blue',... 'Marker','^'); %% Update detection plotter n = round(currenttime/0.05); numdets = vision(n).numobjects; pos = zeros(numdets,3); vel = zeros(numdets,3); labels = repmat({''},numdets,1); for k = 1:numDets pos(k,:) = vision(n).object(k).position; vel(k,:) = vision(n).object(k).velocity; labels{k} = num2str(... vision(n).object(k).classification); end 画像認識結果のプロット : detectionplotter detectionplotter は 画像センサー レーダー LiDAR 等の結果のプロットに使用可 plotdetection(detplot,pos,vel,labels); 14

検出結果のプロット ( 画像座標 ) %% Bounding box positions in image coordinates imboxes = zeros(numdets,4); for k = 1:numDets if vision(n).object(k).classification == 5 vehposlr = vision(n).object(k).position(1:2)'; imposlr = vehicletoimage(sensor, vehposlr); boxheight = 1.4 * 1333 / vehposlr(1); boxwidth = 1.8 * 1333 / vehposlr(1); imboxes(k,:)=[imposlr(1) - boxwidth/2,... imposlr(2) - boxheight,... boxwidth, boxheight]; end end %% Draw bounding boxes on image frame frame = insertobjectannotation(frame,... 'Rectangle', imboxes, labels,... 'Color','yellow','LineWidth',2); im.cdata = frame; 境界ボックスのプロット : insertobjectannotation 車両座標から画像座標への変換 : vehicletoimage 15

区画線の可視化 ( 鳥瞰図 ) %% Create lane detection plotter laneplot = laneboundaryplotter(bep,... 'Color','black'); 区画線を鳥瞰図へプロット : laneboundaryplotter %% Update lane detection plotter lb = paraboliclaneboundary([... lane(n).left.curvature,... lane(n).left.headingangle,... lane(n).left.offset]); rb = paraboliclaneboundary([... lane(n).right.curvature,... lane(n).right.headingangle,... lane(n).right.offset]); plotlaneboundary(laneplot, [lb rb]) 16

区画線の可視化 ( 画像座標 ) %% Draw in image coordinates frame = insertlaneboundary(frame,... [lb rb], sensor, (1:100),... 'LineWidth',5); im.cdata = frame; 区画線を画像へプロット : insertlaneboundary 17

LiDAR 信号処理 LiDAR: Light Detection And Ranging レーザーによる高精度な距離測定 [ 3 次元点群処理用の各種関数 ] - 3 次元表示機能 - ノイズ除去 - 点群データの間引き - 幾何学形状 ( 面等 ) へのフィッティング - 垂線の計算 - 複数点群の位置あわせ - 複数点群のマージ MATLAB を用いることでデータの可視化や解析 アルゴリズム開発の効率化 赤 : 障害物 緑 : 路面 デモ 27

複数オブジェクトのトラキング 複数オブジェクトトラッカー 検出 Track Manager Tracking Filter トラック Time Measurement Measurement Noise 検出結果のトラックへの割当て 新しいトラックの生成 現有トラックの更新 古いトラックの削除 トラックの状態の予測 更新 カルマンフィルター : 線形 拡張 unscented Time State State Covariance Track ID Age Is Confirmed Is Coasted 28

ユースケース 1 センサーフュージョンアルゴリズム開発 ~ 多様な入力データを用いた センサーフュージョン開発環境の提供 (1)~ 実レーダーモジュールログデータログデータ実カメラモジュール オブジェクトリスト センサーフュージョンや判断 のアルゴリズム開発 Object list Target 1 Class: car Location: [x y] Velocity Target 2 Class: pedestrian Location: [x y] Target X Lane markers Marker 1 Curve model: A, B, C Marker 2 37

ユースケース 2 センサーフュージョンアルゴリズム開発 ~ 多様な入力データを用いた センサーフュージョン開発環境の提供 (2) ~ シナリオ生成 レーダーモデル カメラモデル オブジェクトリスト センサーフュージョンや判断 のアルゴリズム開発 Object list Target 1 Class: car Location: [x y] Velocity Target 2 Class: pedestrian Location: [x y] Target X Lane markers Marker 1 Curve model: A, B, C Marker 2 デモ 38

道路の定義 %% Create a new scenario s = drivingscenario('sampletime', 0.05); %% Create road road(s, [ 0 0;... % Centers [x,y] (m) 45 0],... 5); % Width (m) road(s, [35 20;... 35-10],... 5); 道路端の座標 道幅を指定 : road %% Plot scenario p1 = uipanel('position',[0.5 0 0.5 1]); a1 = axes('parent',p1); plot(s,'parent',a1,... 'Centerline','on','Waypoints','on') a1.xlim = [0 45]; a1.ylim = [-6 20]; 41

道路の定義 s = drivingscenario; % Highways road(s, [-300-8 0; 300-8 0], 15); % north road(s, [-300 8 0; 300 8 0], 15); % south road(s, [-8-300 8; -8 300 8], 15); % east road(s, [ 8-300 8; 8 300 8], 15); % west % Inner ramps rampne = [0-18 0; 20-18 0; 120-120 4; 18-20 8; 18 0 8]; rampnw = [ 1-1 1].* rampne(end:-1:1,:); rampsw = [-1-1 1].* rampne; rampse = [ 1-1 1].* rampsw(end:-1:1,:); innerramps = [rampne(1:end-1,:) rampnw(1:end-1,:) rampsw(1:end-1,:) rampse]; road(s, innerramps, 5.4); % Outer ramps roadcenters = [13.5-300 8; 15-260 8; 125-125 4; 260-15 0; 300-13.5 0]; road(s, [ 1 1 1].* roadcenters, 5.4); road(s, [ 1-1 1].* roadcenters, 5.4); road(s, [-1-1 1].* roadcenters, 5.4); road(s, [-1 1 1].* roadcenters, 5.4); 3 次元構造も可能 42

自車の定義 %% Add ego vehicle egocar = vehicle(s); waypoints = [ 2-1.25;... % [x y] (m) 28-1.25;... 30-1.25;... 36.25 4;... 36.25 6;... 36.25 14]; speed = 13.89; % (m/s) = 50 km/hr path(egocar, waypoints, speed); 自車の軌跡 スピードの指定 : path 43

自車の定義 %% Add ego vehicle egocar = vehicle(s); waypoints = [ 2-1.25;... % [x y] (m) 28-1.25;... 30-1.25;... 36.25 4;... 36.25 6;... 36.25 14]; speed = 13.89; % (m/s) = 50 km/hr path(egocar, waypoints, speed); %% Play scenario while advance(s) end pause(s.sampletime); 自車の軌跡 スピードの指定 : path 44

対向車と歩行者の指定 %% Add Target vehicle targetvehicle = vehicle(s); path(targetvehicle,... [44 1; -4 1],... % Waypoints (m) [5 ; 14]); % Speeds (m/s) %% Add child pedestrian actor child = actor(s,'length',0.24,... 'Width',0.45,... 'Height',1.7,... 'Position',[40-5 0],... 'Yaw',180); path(child,... [30 15; 40 15],... % Waypoints (m) 1.39); % Speed (m/s) = 5 km/hr 歩行者 (actor) の大きさと軌跡を指定 対向車の軌跡と速度の指定 ( 加速 ) 45

後方から車両に追従する視点の追加 %% Add chase view (left) p2 = uipanel('position',[0 0 0.5 1]); a2 = axes('parent',p2); chaseplot(egocar,... 'Parent',a2,... 'Centerline','on',... 'ViewHeight',3.5,... % (m) 'ViewLocation',[-8 0]); % [x y] (m) 自車両に追従する視点を追加 : chaseplot 46

後方から車両に追従する視点の追加 %% Add chase view (left) p2 = uipanel('position',[0 0 0.5 1]); a2 = axes('parent',p2); chaseplot(egocar,... 'Parent',a2,... 'Centerline','on',... 'ViewHeight',3.5,... % (m) 'ViewLocation',[-8 0]); % [x y] (m) 車両に追従する視点を追加 : chaseplot %% Play scenario restart(s) while advance(s) pause(s.sampletime); end 47

センサーの特性 : カメラモジュール ( 画像センサー ) の場合 距離の効果 距離推定の精度は 物体までの距離が離れるに従い劣化 横方向の角度の精度は 検出範囲内で一定 隠れの効果 部分的を含む隠れに認識が弱い 道路勾配効果 水平線より高く見える場合 検出精度の劣化 勾配が異なることで 距離推定精度の劣化 センサーモデルには パラメータで 認識可能距離 精度やノイズ含め様々な特性を持たせることが出来ます 48

画像センサーの定義 %% Create vision detection generator sensor = visiondetectiongenerator(... 'SensorLocation', [0.75*egoCar.Wheelbase 0],... 'Height', 1.1,... 'Pitch', 1,... 'Intrinsics', cameraintrinsics(... 800,... % Focal length [320 240],... % Principal point [480 640],... % Image size 'RadialDistortion',[0 0],... 'TangentialDistortion',[0 0]),... 'UpdateInterval', s.sampletime,... 'BoundingBoxAccuracy', 5,... 'MaxRange', 150,... 'ActorProfiles', actorprofiles(s)); カメラの設置パラメータ cameraintrinsics により検出範囲を規定 レーダーのモデルの定義の場合 : radardetectiongenerator 49

センサー出力の表示用に 鳥瞰図を生成 %% Add sensor birds eye plot (top left) p3 = uipanel('position',[0 0.5 0.5 0.5]); a3 = axes('parent',p3); bep = birdseyeplot('parent',a3,... 'Xlimits', [0 20],... 'Ylimits', [-10 10]); legend(a3,'off'); センサー出力の表示 : birdseyeplot % Create plotters covplot = coverageareaplotter(bep,... 'FaceColor','blue',... 'EdgeColor','blue'); plotcoveragearea(covplot,... sensor.sensorlocation,sensor.maxrange,... sensor.yaw,sensor.fieldofview(1)) detplot = detectionplotter(bep,... 'MarkerEdgeColor','blue',... 'Marker','^'); truthplot = outlineplotter(bep); 50

センサーモデルと共にシミュレーション restart(s) while advance(s) % Get detections in ego vehicle coordinates det = sensor(targetposes(egocar),... s.simulationtime); % Update plotters if isempty(det) cleardata(detplot) else % Unpack measurements to position/velocity pos = cellfun(@(d)d.measurement(1:2),... det,'uniformoutput',false); vel = cellfun(@(d)d.measurement(4:5),... det,'uniformoutput',false); plotdetection(detplot,... cell2mat(pos')', cell2mat(vel')'); end [p, y, l, w, oo, c] = targetoutlines(egocar); plotoutline(truthplot,p,y,l,w,... 'OriginOffset', oo, 'Color', c); end 51

ADAS/ 自動運転開発に関して良くある悩み 1011010101010100101001 0101010100100001010101 0010101001010100101010 0101010100101010101001 0101010010100010101010 0010100010100101010101 0100101010101010010101 0100101010010110000101 0100101010101010010010 1010011101010100101010 1 F 2 vehicle センサーデータの 可視化を どう行うか? センサーフュージョン 判断ロジック をいかに開発し 検証するか? 認知部分の開発 検証をいかに 効率よく行うか? 53

ユースケース 3 単眼カメラによる認識アルゴリズムモデル 提供機能アルゴリズム RANSACによる区画線フィッティング 車検出器 ( 深層学習 ACF) 座標系の変換 車両座標系 < > 画像座標系の変換 単眼画像による 物体までの距離推定可視化機能 区画線 鳥瞰図 ビデオデータに対するカメラモジュール動作のシミュレーション ( ビデオデータから オブジェクトリストの生成 ) デモ 54

ユースケース 3a カメラモジュールのプロトタイピング カメラモジュールの内部アルゴリズムの理解 プロトタイピング カメラモジュールのシミュレーションモデル 実カメラ 動画データ 鳥瞰図への変換 区画線のペイント部分の検出 区画線を曲線へフィッティング 自動車 歩行者 自転車等の認識 標識 信号の判断 検出 認識結果 55

ユースケース 3b アルゴリズムをラベリングの自動化に適用 ユースケース 4 56

深層学習 (Deep Learning for Automated Driving ) 深層学習フレームワーク R-CNN Fast R-CNN Faster R-CNN 回帰 学習済みの深層学習ネットワーク 車検出器 Caffe モデルの取込み 学習済みのネットワークの取込み AlexNet VGG-16 Network VGG-19 Network 回帰 複数 GPU での学習高速化 Neural Network Toolbox, Parallel Computing Toolbox TM compute capability 3.0 以上の CUDA GPU が必要 57

認識器 ビデオ認識器認識結果 機械学習 深層学習 Aggregate Channel Feature Cascade R-CNN (Regions with Convolutional Neural Networks) Fast R-CNN Faster R-CNN trainacfobjectdetector traincascadeobjectdetector trainrcnnobjectdetector trainfastrcnnobjectdetector trainfasterrcnnobjectdetector 64

認識器の評価 ビデオ 認識器 認識結果 検証 Ground Truth ラベリングツール Ground truth 65

カスタマイズ可能な半自動 Ground Truth ラベリングツール 動画ファイル連番静止画ファイルカスタム関数による読込み 画像やデータの表示に関しても API によりカスタマイズ可能 半自動ラベリング機能 (3 つの半自動アルゴリズム ) - 先頭フレームに手動でつけた ROI を 後続フレームで自動ラベリング ( 画像特徴量を使ったトラッキング ) - 手動で付けた ROI の間のフレームで ROI 位置を直線近似 - 車検出器で自動ラベリング - カスタムアルゴリズムを使い自動ラベリングするための API ファイルもしくは MATLAB へ結果の出力 ROI ラベルの定義 ( 矩形もしくはポリライン ) シーンラベルの定義 (1 フレームずつもしくは区間 ) ビデオコントロール デモ 66

カスタマイズ : Ground Truth Labeler App 独自のファイル読込み関数 : groundtruthdatasource 73

カスタマイズ : Ground Truth Labeler App 独自の自動ラベリングアルゴリズム driving.automation.automationalgorithm 74

カスタマイズ :Ground Truth Labeler App 他の表示関数やデータとの同期表示 driving.connector.connector 75

多くのサンプルプログラムを同梱 ADAS/ 自動運転開発に関連する機能をサンプルとして提供 スターティングポイントとして 更に機能を拡張 カスタマイズして必要な機能を実装 78

Automated Driving System Toolbox 1011010101010100101001 0101010100100001010101 0010101001010100101010 0101010100101010101001 0101010010100010101010 0010100010100101010101 0100101010101010010101 0100101010010110000101 0100101010101010010010 1010011101010100101010 1 F 2 vehicle センサーデータの 可視化 センサーフュージョン 判断ロジックの開発 認識の開発 検証 センサーデータのプロット 検知領域の表示 トラッキングアルゴリズム C コード生成 様々な認識用のアルゴリズム 画像座標と 車両座標 ( 鳥瞰図 ) の相互変換 シナリオ生成機能 深層学習 Ground Truth ラベリングツール 79