IS3-18 第21回画像センシングシンポジウム 横浜 2015年6月 2つの人物検出の組み合わせと複数特徴量の利用による人物追跡 川下 雄大 増山 岳人 梅田 和昇 中央大学大学院 中央大学 Abstract 本

Similar documents
3 2 2 (1) (2) (3) (4) 4 4 AdaBoost 2. [11] Onishi&Yoda [8] Iwashita&Stoica [5] 4 [3] 3. 3 (1) (2) (3)

色の類似性に基づいた形状特徴量CS-HOGの提案

IS1-09 第 回画像センシングシンポジウム, 横浜,14 年 6 月 2 Hough Forest Hough Forest[6] Random Forest( [5]) Random Forest Hough Forest Hough Forest 2.1 Hough Forest 1 2.2

IPSJ SIG Technical Report Vol.2009-CVIM-167 No /6/10 Real AdaBoost HOG 1 1 1, 2 1 Real AdaBoost HOG HOG Real AdaBoost HOG A Method for Reducing

( ), ( ) Patrol Mobile Robot To Greet Passing People Takemi KIMURA(Univ. of Tsukuba), and Akihisa OHYA(Univ. of Tsukuba) Abstract This research aims a


(MIRU2008) HOG Histograms of Oriented Gradients (HOG)

(a) (b) 2 2 (Bosch, IR Illuminator 850 nm, UFLED30-8BD) ( 7[m] 6[m]) 3 (PointGrey Research Inc.Grasshopper2 M/C) Hz (a) (b

Duplicate Near Duplicate Intact Partial Copy Original Image Near Partial Copy Near Partial Copy with a background (a) (b) 2 1 [6] SIFT SIFT SIF

IPSJ SIG Technical Report Vol.2010-CVIM-170 No /1/ Visual Recognition of Wire Harnesses for Automated Wiring Masaki Yoneda, 1 Ta

1 Kinect for Windows M = [X Y Z] T M = [X Y Z ] T f (u,v) w 3.2 [11] [7] u = f X +u Z 0 δ u (X,Y,Z ) (5) v = f Y Z +v 0 δ v (X,Y,Z ) (6) w = Z +

2007/8 Vol. J90 D No. 8 Stauffer [7] 2 2 I 1 I 2 2 (I 1(x),I 2(x)) 2 [13] I 2 = CI 1 (C >0) (I 1,I 2) (I 1,I 2) Field Monitoring Server

[1] SBS [2] SBS Random Forests[3] Random Forests ii

,,.,.,,.,.,.,.,,.,..,,,, i

) 1 2 2[m] % H W T (x, y) I D(x, y) d d = 1 [T (p, q) I D(x + p, y + q)] HW 2 (1) p q t 3 (X t,y t,z t) x t [ ] T x t

光学

[12] [5, 6, 7] [5, 6] [7] 1 [8] 1 1 [9] 1 [10, 11] [10] [11] 1 [13, 14] [13] [14] [13, 14] [10, 11, 13, 14] 1 [12]

IPSJ SIG Technical Report Vol.2013-CVIM-188 No /9/2 1,a) D. Marr D. Marr 1. (feature-based) (area-based) (Dense Stereo Vision) van der Ma

GID Haar-like Mean-Shift Multi-Viewpoint Human Tracking Based on Face Detection Using Haar-like Features and Mean-Shift Yu Ito (Shizuoka Univers

カメラレディ原稿

HOG HOG LBP LBP 4) LBP LBP Wang LBP HOG LBP 5) LBP LBP 1 r n 1 n, 1

IPSJ SIG Technical Report Vol.2015-MUS-107 No /5/23 HARK-Binaural Raspberry Pi 2 1,a) ( ) HARK 2 HARK-Binaural A/D Raspberry Pi 2 1.

Silhouette on Image Object Silhouette on Images Object 1 Fig. 1 Visual cone Fig. 2 2 Volume intersection method Fig. 3 3 Background subtraction Fig. 4

A Graduation Thesis of College of Engineering, Chubu University Pose Estimation by Regression Analysis with Depth Information Yoshiki Agata

SICE東北支部研究集会資料(2013年)

す 局所領域 ωk において 線形変換に用いる係数 (ak 画素の係数 (ak bk ) を算出し 入力画像の信号成分を bk ) は次式のコスト関数 E を最小化するように最適化 有さない画素に対して 式 (2) より画素値を算出する される これにより 低解像度な画像から補間によるアップサ E(

Convolutional Neural Network A Graduation Thesis of College of Engineering, Chubu University Investigation of feature extraction by Convolution

3 Abstract CAD 3-D ( ) 4 Spin Image Correspondence Grouping 46.1% 17.4% 97.6% ICP [0.6mm/point] 1 CAD [1][2]

本文6(599) (Page 601)

2 Fig D human model. 1 Fig. 1 The flow of proposed method )9)10) 2.2 3)4)7) 5)11)12)13)14) TOF 1 3 TOF 3 2 c 2011 Information

untitled

4. C i k = 2 k-means C 1 i, C 2 i 5. C i x i p [ f(θ i ; x) = (2π) p 2 Vi 1 2 exp (x µ ] i) t V 1 i (x µ i ) 2 BIC BIC = 2 log L( ˆθ i ; x i C i ) + q

IS2-06 第21回画像センシングシンポジウム 横浜 2015年6月 画像をスーパーピクセルに変換する手法として SLIC[5] を用いる Achanta らによって提案された SLIC 2.2 グラフマッチング は K-means をベースにした手法で 単純な K-means に いる SPIN

図 1 提案手法による生成型学習の流れ Fig. 1 Generative learning procedure in the proposed method. 図 2 3 次元人体モデル Fig. 2 3D human model. 図 3 パラメータに対応した人体モデル Fig. 3 Adapt

図 2: 高周波成分を用いた超解像 解像度度画像とそれらを低解像度化して得られる 低解像度画像との差により低解像度の高周波成分 を得る 高解像度と低解像度の高周波成分から位 置関係を保ったままパッチ領域をそれぞれ切り出 し 高解像度パッチ画像と低解像度パッチ画像の ペアとしてデータベースに登録する

円筒面で利用可能なARマーカ

Microsoft PowerPoint CRCフォーラム「動的背景差分(中島)」Web公開用.ppt

Sobel Canny i

Computer Security Symposium October ,a) 1,b) Microsoft Kinect Kinect, Takafumi Mori 1,a) Hiroaki Kikuchi 1,b) [1] 1 Meiji U

スライド 1

DEIM Forum 2019 A7-1 Flexible Distance-based Hashing mori

VRSJ-SIG-MR_okada_79dce8c8.pdf

IPSJ SIG Technical Report Vol.2013-CG-153 No.14 Vol.2013-CVIM-189 No /11/29 1,a) 1,b) 1,c) 1,d) ROI(Region of Interest) Research for Automatic

(3.6 ) (4.6 ) 2. [3], [6], [12] [7] [2], [5], [11] [14] [9] [8] [10] (1) Voodoo 3 : 3 Voodoo[1] 3 ( 3D ) (2) : Voodoo 3D (3) : 3D (Welc

スライド 1

2.2 6).,.,.,. Yang, 7).,,.,,. 2.3 SIFT SIFT (Scale-Invariant Feature Transform) 8).,. SIFT,,. SIFT, Mean-Shift 9)., SIFT,., SIFT,. 3.,.,,,,,.,,,., 1,

IPSJ-CVIM

特別寄稿.indd

IPSJ SIG Technical Report Vol.2015-UBI-47 No.23 Vol.2015-ASD-2 No /7/ , HOG Parameter Estimation from Videos in Monocular Camera for Eva

xx/xx Vol. Jxx A No. xx 1 Fig. 1 PAL(Panoramic Annular Lens) PAL(Panoramic Annular Lens) PAL (2) PAL PAL 2 PAL 3 2 PAL 1 PAL 3 PAL PAL 2. 1 PAL

2. Apple iphoto 1 Google Picasa 2 Calendar for Everything [1] PLUM [2] LifelogViewer 3 1 Apple iphoto, 2 Goo

IPSJ SIG Technical Report GPS LAN GPS LAN GPS LAN Location Identification by sphere image and hybrid sensing Takayuki Katahira, 1 Yoshio Iwai 1

LBP 2 LBP 2. 2 Local Binary Pattern Local Binary pattern(lbp) [6] R

平成 28 年 6 月 3 日 報道機関各位 東京工業大学広報センター長 岡田 清 カラー画像と近赤外線画像を同時に撮影可能なイメージングシステムを開発 - 次世代画像センシングに向けオリンパスと共同開発 - 要点 可視光と近赤外光を同時に撮像可能な撮像素子の開発 撮像データをリアルタイムで処理する

IPSJ SIG Technical Report Vol.2012-CG-149 No.13 Vol.2012-CVIM-184 No /12/4 3 1,a) ( ) DB 3D DB 2D,,,, PnP(Perspective n-point), Ransa

顔画像を用いた個人認証システムの性能検討に関する研究

THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS TECHNICAL REPORT OF IEICE. TRECVID2012 Instance Search {sak

Robot Platform Project(RPP) "Spur" "YP-Spur" rev. 4 [ ] Robot Platform Project(RPP) WATANABE Atsushi 1.,,., Fig. 1.,,,,,.,,,..,,..,,..,,,,. "

WISS 2018 [2 4] [5,6] Query-by-Dancing Query-by- Dancing Cao [1] OpenPose 2 Ghias [7] Query by humming Chen [8] Query by rhythm Jang [9] Query-by-tapp

(fnirs: Functional Near-Infrared Spectroscopy) [3] fnirs (oxyhb) Bulling [4] Kunze [5] [6] 2. 2 [7] [8] fnirs 3. 1 fnirs fnirs fnirs 1

% 2 3 [1] Semantic Texton Forests STFs [1] ( ) STFs STFs ColorSelf-Simlarity CSS [2] ii

<4D F736F F D204E4F2E325F8A46967B5F89E6919C93648E718A7789EF8CA48B8689EF8CB48D652E646F63>

田向研究室PPTテンプレート

100326_セミナー資料_物体認識.pptx

バイノーラルマイクを用いたライフログ映像のショット識別 Life-log Video Shot Discrimination using Binaural Microphone 山野貴一郎 伊藤克亘 法政大学大学院情報科学研究科 法政大学情報科学部 Kiichiro YAMANO Katunobu


Google Goggles [1] Google Goggles Android iphone web Google Goggles Lee [2] Lee iphone () [3] [4] [5] [6] [7] [8] [9] [10] :

3: 2: 2. 2 Semi-supervised learning Semi-supervised learning [5,6] Semi-supervised learning Self-training [13] [14] Self-training Self-training Semi-s

SICE東北支部研究集会資料(2012年)

icde_5a_3

IPSJ SIG Technical Report Vol.2014-MBL-70 No.49 Vol.2014-UBI-41 No /3/15 2,a) 2,b) 2,c) 2,d),e) WiFi WiFi WiFi 1. SNS GPS Twitter Facebook Twit

Gaze Head Eye (a) deg (b) 45 deg (c) 9 deg 1: - 1(b) - [5], [6] [7] Stahl [8], [9] Fang [1], [11] Itti [12] Itti [13] [7] Fang [1],

0 21 カラー反射率 slope aspect 図 2.9: 復元結果例 2.4 画像生成技術としての計算フォトグラフィ 3 次元情報を復元することにより, 画像生成 ( レンダリング ) に応用することが可能である. 近年, コンピュータにより, カメラで直接得られない画像を生成する技術分野が生

IPSJ SIG Technical Report Vol.2015-CVIM-196 No /3/6 1,a) 1,b) 1,c) U,,,, The Camera Position Alignment on a Gimbal Head for Fixed Viewpoint Swi

1 Fig. 1 Extraction of motion,.,,, 4,,, 3., 1, 2. 2.,. CHLAC,. 2.1,. (256 ).,., CHLAC. CHLAC, HLAC. 2.3 (HLAC ) r,.,. HLAC. N. 2 HLAC Fig. 2

,,,,,,,,,,,,,,,,,,, 976%, i

1(a) (b),(c) - [5], [6] Itti [12] [13] gaze eyeball head 2: [time] [7] Stahl [8], [9] Fang [1], [11] 3 -

27 AR

14 2 5

Fig Measurement data combination. 2 Fig. 2. Ray vector. Fig (12) 1 2 R 1 r t 1 3 p 1,i i 2 3 Fig.2 R 2 t 2 p 2,i [u, v] T (1)(2) r R 1 R 2

IPSJ SIG Technical Report Vol.2015-CVIM-195 No /1/23 RGB-D RGB 3 1,a) RGB-D RGB-D 3. RGB CG RGB DTAM[1] MonoFusi

21 e-learning Development of Real-time Learner Detection System for e-learning

2). 3) 4) 1.2 NICTNICT DCRA Dihedral Corner Reflector micro-arraysdcra DCRA DCRA DCRA 3D DCRA PC USB PC PC ON / OFF Velleman K8055 K8055 K8055

IPSJ SIG Technical Report iphone iphone,,., OpenGl ES 2.0 GLSL(OpenGL Shading Language), iphone GPGPU(General-Purpose Computing on Graphics Proc

[2][3] [4] [5] 2.2 [6] SVM [7] [8] c 2013 Information Processing Society of Japan 2

(4) ω t(x) = 1 ω min Ω ( (I C (y))) min 0 < ω < C A C = 1 (5) ω (5) t transmission map tmap 1 4(a) t 4(a) t tmap RGB 2 (a) RGB (A), (B), (C)

IPSJ SIG Technical Report Vol.2016-CVIM-201 No /3/3 Brick Partitioning 1,a) Winner Update Algorithm(WUA) Multilevel Successive Elimination

(a) Picking up of six components (b) Picking up of three simultaneously. components simultaneously. Fig. 2 An example of the simultaneous pickup. 6 /

258 5) GPS 1 GPS 6) GPS DP 7) 8) 10) GPS GPS ) GPS Global Positioning System

THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS TECHNICAL REPORT OF IEICE. UWB UWB

Raspberry Pi BF BF BF Raspberry Pi PC USB HDMI OS SD SD OS Raspberry Pi Model B MicroUSB MicroSD OS SD GPIO HDMI USB LAN Raspberry Pi MicroUSB MicroSD

SICE東北支部研究集会資料(2015年)

Symbiotic System ト を 動物 る 人間 情報システム 応 ( ) 人間 共生 情報システム と 体の 長 体の と 体 覚 動 体 と とダイナミクスを持つ 人間と情報システムのインタ ース. コン ータに の動作をさ るために, のつ, するコ ン を, される.. イコン イン


& Vol.5 No (Oct. 2015) TV 1,2,a) , Augmented TV TV AR Augmented Reality 3DCG TV Estimation of TV Screen Position and Ro

Fig. 3 3 Types considered when detecting pattern violations 9)12) 8)9) 2 5 methodx close C Java C Java 3 Java 1 JDT Core 7) ) S P S

Systems Research for Cyber-Physical Systems

5D1 SY0004/14/ SICE 1, 2 Dynamically Consistent Motion Design of Humanoid Robots even at the Limit of Kinematics Kenya TANAKA 1 and Tomo


生活設計レジメ

Transcription:

2つの人物検出の組み合わせと複数特徴量の利用による人物追跡 川下 雄大 増山 岳人 梅田 和昇 中央大学大学院 中央大学 E-mail: kawashita@sensor.mech.chuo-u.ac.jp Abstract 本稿では ステレオカメラを用いた人物検出 追跡 手法を提案する 人物検出では つの人物検出手法よ り得た結果を組み合せ さらに前景領域と視差前景領 域を用いて検出結果の妥当性を検証することで 検出 性能を向上させる 人物追跡では 対応付け処理の際 (a) Background subtraction に位置 進行方向 色の評価値を組み合わせることで 図1 (b) Shadow detection 前景検出 ロバスト性を向上させる さらに 色情報の評価値算 本論文では 画像情報と距離情報を同時に取得でき 出の際には人物領域を分割し 各ブロックの識別能力 と関係性を考慮することで ロバストな追跡を実現す かつ屋外でも比較的ロバストなステレオカメラを用い る 提案手法の有効性検証のため 実環境において人物 た人物追跡システムを提案する 人物検出では つの 追跡実験を行った 結果より 位置 進行方向 色 ブ 人物検出結果の統合 検証を行うことで 正確な検出 ロック分割した場合 の特徴量を用いることで その を行う 人物追跡では 人物とトラッカの対応付け処理 他の特徴量の組み合わせと比べて追跡成功率が上昇す の際に 距離情報 進行方向 色情報を用いる [3] さ ることが確認できた らに 人物領域をブロック毎に分割し 各ブロックに おける識別能力と色情報の関係性を考慮することでロ バストな追跡を実現する 1 序論 画像処理において人物検出 追跡技術は 非常に重要 な技術のひとつである 例えば マーケティングや防 人物検出手法.1 差分ステレオ 犯 安全管理等の様々な分野への応用が期待されてい 画像中の前景領域と距離情報を取得する手法として る さらに 近年では自動車の運転支援システム技術 差分ステレオ [4] を用いる 差分ステレオは マッチン にも応用されている しかし カメラ映像内の人物を グを行う前に左右カメラで背景差分を行うことで 処 検出 追跡する際 障害物や人同士によるオクルージョ 理する領域を限定し ステレオマッチングの誤対応や ンという問題がある この問題に対して 次元情報し 処理時間の削減を行う 背景差分によって検出された前 か得られない単眼カメラではなく 3 次元情報を取得で 景領域を図 1(a) に示す 図中の青の領域が前景領域を きるステレオカメラやレーザレンジファインダ等を用 示す しかし 図 1(a) の状態では 影の領域も含まれ いることで オクルージョンに対するロバスト性を高 ている そのため人物を正確に検出するためには 影領 めている研究が多く報告されている また 近年では 域を除去する必要がある 影領域は 前景と背景の近 低価格で距離精度が良い Microsoft Kinect を用いた研 傍画素値の相違度と色相の相違度より判定を行う 今 究 [1] が多く報告されているが 計測距離の短さ 屋外 回用いた影検出手法の詳細は文献 [5] にて述べられてい 環境での使用の難しさが問題となる その他に 同一 る 影検出の結果を図 1(b) に示す また 図中の緑の の環境を複数カメラによって計測する 真上から俯瞰 領域が影領域を表す 最終的に検出された前景領域を するようにカメラを設置するなどの方法により オク ラベリングすることで 人物の検出を行う ルージョンを減らし ロバスト性を高める方法も報告 されている [] しかし これらの方法では 設置コス トの増加 設置環境の限定といった問題があり 実用化 は難しい. Joint HOG による人物検出 Joint HOG 特徴 [7] とは 複数の HOG 特徴の共起を 表現して組合わせた特徴量である Real AdaBoost[8] により識別に有効な組合わせを選択し Joint HOG 特 - 1

第 1 回画像センシングシンポジウム, 横浜,015 年 6 月 k w S S (a) Case 1. (b) Case. Real AdaBoost Joint HOG.1. [9] 3 3.1 3. 1.. (a) 1. (b). 1.. W u u,v W u W u = k (u w ) (1) S = u=w 1 v=h 1 u=0 u=w 1 u=0 v=0 W u M uv v=h 1 v=0 W u (G uv + D uv ) () M uv G uv D uv 1 0 h 4 Particle Filter PF)[10] PF PF i. Initialization ii. Prediction iii. Weighting W i (3) W i = 1 ( ) exp d i πσ σ (3) d X, Y σ i iv. Data association 3 4.1 v. Resampling -

図3 進行方向算出例 追跡が続くにつれ パーティクルは人物の重心位置近 傍に収束し 安定した人物の追跡が可能となる 4.1 図4 Data association 色の評価値算出の流れ a. 位置情報による評価値の算出 位置情報による評価値は 世界座標系の X, Y 平面に おけるトラッカの現在位置と人物の現在位置のユーク リッド距離より求める 評価値 Dd は 次式で求めら れる Dd = (Xp Xh ) + (Yp Yh ) (4) (Xp, Yp ) はトラッカの位置 (Xh, Yh ) は各フレームで 検出された人物の位置を表している b. 進行方向による評価値の算出 進行方向による評価値は 以下の値の角度差より求 図5 Ws 算出例 める まず 前処理の追跡対象の判別に有効なブロックの 1. トラッカの位置情報より求めた進行方向. 各フレームで検出された人物の進行方向 1. の進行方向は トラッカの過去の位置情報より求め られる (図 3 赤色の矢印) しかし. に関しては こ 重み付け方法について述べる 図 5 のように過去の追 の処理を行う時点で人物の過去の位置が不明であるた の類似度の計算には Bhattacyaryya 係数を用いた 例 め 直接的に算出することはできない そこで 各フ えばブロック間で類似度が高い場合 その色情報は追 レームの人物と一定距離内にあるトラッカの過去の位 跡対象に定常的に現れる特徴であり 判別に有用だと 置情報から進行方向を算出する 図 3 の緑色の矢印は 考えられる その逆であれば 背景や安定しない色を Human A と赤トラッカが対応付いていたと想定して求 含んでいるため 追跡対象の判別に有用でないと考え めた進行方向を表している 青色の矢印は Human B られる そこで 各ブロックの類似度を全ブロックの と赤トラッカが対応付いていた想定して求めた進行方 類似度の平均で割ることで 重み Wsi を求める ここ 向を表している α と α は それぞれ 1. と. の角度 で i は ブロックの番号である 図 5 に算出例を示す 差を表している 進行方向による評価値 Da を 以下の 次に 比較を行う際の評価値の重み付けについて述 式より求める { Da = 跡結果をブロック毎に分割し 同一ブロック間で色相 ヒストグラムの類似度の計算を行う ヒストグラム間 べる 例えば図 5 の人物を探索する際 モデルデータ の定常性の高いブロック (, 3, 5, 7) と類似度の高いブ kα 1 (α < αthr ) k (otherwise) (5) ロックがマッチする数が多ければ多いほど 図 5 の人物 と似た特徴を持つと考えられる そこで モデルデー c. 色情報による評価値の算出 提案手法では 図 4 上図のように人物領域全体から 色ヒストグラムを取得するのではなく 下図のように タと人物で類似度を計算したとき 類似度の高いブロッ 人物領域を分割し ブロック毎に色ヒストグラムを取 ロック間の関係性による重み Wc は 次式より求める クと定常性の高いブロックとがマッチした数に応じて 重みを加える 一致したブロックの数を c とすると ブ 得し モデルデータを作成する さらに 前処理とし Wc = c て 過去の追跡結果を用いて追跡対象の判別に有効な (6) ブロックに重みを与える それに加え 重みを考慮し 各ブロックでの色の類似度を Li ブロックの総数を n て評価値を求めることで ロバストな対応付けを実現 とすると 色情報による評価値 Dc を以下の式より求 する - 3

第 1 回画像センシングシンポジウム, 横浜,015 年 6 月 n D c = L i W si W c (7) i=1 d. D D = α D d + D a + 1 α D c (8) α 0.5 5 Bumblebee Point Grey Research Frame rate: 0fps, resolution: 30 40 PC CPU Intel Core i-7-4770 3.4GHz 1GB RAM 500 10 ID 5.1 1500 1, Fig.6 T.P. Rate True Positive Rate F.P. Rate False Positive Rate F.N. Rate False Negative Rate 6 Joint HOG 5. 5.1 1500 ID ID, Fig.7 D c:f ull 19fps F rame = 30 F rame = 63 6 Joint HOG [1] S. Gao, et al., Depth Structure Association for RGB-D Multi-Target Tracking, In Proc. IEEE International Conference on Pattern Recognition (ICPR), pp.4154-4157, 014. [] T. Tseng, et al., Real-Time People Detection and Tracking for Indoor Surveillance Using Multiple Top-View Depth Cameras, In Proc. IEEE International Conference on intelligent Robots and Systems (IROS), USA, pp.4077-408, 013. [3] T. Kawashita, et al., Tracking of Multiple Humans Using Subtraction Stereo and Particle Filter, IEEE International Workshop on Advanced Robotics and its Social Impacts (ARSO), 014. [4],,, Vol.76, No.1, pp.13-18, 010. [5] A. Moro, et al., Auto-adaptive threshold and shadow detection approaches for pedestrians detection, In Proc. AWSVCI, pp. 9-1, 009. [6] N. Dalal and B. Triggs, Histograms of oriented gradients for human detection, In Proc. IEEE Conference on Computer Vision and Pattern Recognition (CVPR), CA, USA, pp. 886-893, 005. - 4

表1 Method 人物検出実験結果 T.P. Rate[%] F.N. Rate[%] F.P. Rate[%] Subtraction 78.0.0 9.8 Joint HOG Proposed 76.4 83. 3.6 16.8 1.9 0.9 表 Features Dd Dd + Da Dd + Dc:F ull 人物追跡実験結果 人数 [人] 追跡成功数 [人] 追跡成功率 [%] 7 43 48 56 59.7 66.7 77.8 58 67 80.6 93.1 Dd + Da + Dc:F ull [3] Dd + Da + Dc 図6 図7 101 frame における人物検出結果 複数人が交差しすれちがう状況においての人物追跡結果 [7] T. Mita, et al., Discriminative Feature Cooccurrence Selection for Object Detection, IEEE Trans. Pattern Analysis and Machine Intelligence, [9] 柴田 雅聡 他, 距離画像セグメンテーションに基 づくリアルタイム人物検出, 日本ロボット学会誌, Vol. 3, No. 6, pp. 558-565, 014. Vol. 30, No. 7, pp. 157-169, 008. [8] R. E. Schapire and Y. Singer, Improved Boosting [10] N. Gordon, et al., Bayesian state estimation for tracking and guidance using the bootstrap fil- Algorithm Using Confidence-rated Predictions, Machine Learning, No. 37, pp. 97-336, 1999. ter, Journal of Guidance, Control, and Dynamics, Vol.18, No.6, pp.1434-1443, 1995. - 5