untitled

Similar documents
色の類似性に基づいた形状特徴量CS-HOGの提案

IS1-09 第 回画像センシングシンポジウム, 横浜,14 年 6 月 2 Hough Forest Hough Forest[6] Random Forest( [5]) Random Forest Hough Forest Hough Forest 2.1 Hough Forest 1 2.2

IPSJ SIG Technical Report Vol.2009-CVIM-167 No /6/10 Real AdaBoost HOG 1 1 1, 2 1 Real AdaBoost HOG HOG Real AdaBoost HOG A Method for Reducing

(MIRU2008) HOG Histograms of Oriented Gradients (HOG)


3 2 2 (1) (2) (3) (4) 4 4 AdaBoost 2. [11] Onishi&Yoda [8] Iwashita&Stoica [5] 4 [3] 3. 3 (1) (2) (3)

HOG HOG LBP LBP 4) LBP LBP Wang LBP HOG LBP 5) LBP LBP 1 r n 1 n, 1

Duplicate Near Duplicate Intact Partial Copy Original Image Near Partial Copy Near Partial Copy with a background (a) (b) 2 1 [6] SIFT SIFT SIF

本文6(599) (Page 601)

aca-mk23.dvi

IPSJ SIG Technical Report Vol.2010-CVIM-170 No /1/ Visual Recognition of Wire Harnesses for Automated Wiring Masaki Yoneda, 1 Ta

A Graduation Thesis of College of Engineering, Chubu University Pose Estimation by Regression Analysis with Depth Information Yoshiki Agata

,,.,.,,.,.,.,.,,.,..,,,, i

Convolutional Neural Network A Graduation Thesis of College of Engineering, Chubu University Investigation of feature extraction by Convolution

[12] [5, 6, 7] [5, 6] [7] 1 [8] 1 1 [9] 1 [10, 11] [10] [11] 1 [13, 14] [13] [14] [13, 14] [10, 11, 13, 14] 1 [12]

100326_セミナー資料_物体認識.pptx

[1] SBS [2] SBS Random Forests[3] Random Forests ii

1 (PCA) 3 2 P.Viola 2) Viola AdaBoost 1 Viola OpenCV 3) Web OpenCV T.L.Berg PCA kpca LDA k-means 4) Berg 95% Berg Web k-means k-means

,,,,,,,,,,,,,,,,,,, 976%, i

No. 3 Oct The person to the left of the stool carried the traffic-cone towards the trash-can. α α β α α β α α β α Track2 Track3 Track1 Track0 1

IPSJ SIG Technical Report Vol.2015-UBI-47 No.23 Vol.2015-ASD-2 No /7/ , HOG Parameter Estimation from Videos in Monocular Camera for Eva

IS3-18 第21回画像センシングシンポジウム 横浜 2015年6月 2つの人物検出の組み合わせと複数特徴量の利用による人物追跡 川下 雄大 増山 岳人 梅田 和昇 中央大学大学院 中央大学 Abstract 本

(a) 1 (b) 3. Gilbert Pernicka[2] Treibitz Schechner[3] Narasimhan [4] Kim [5] Nayar [6] [7][8][9] 2. X X X [10] [11] L L t L s L = L t + L s

図 1 提案手法による生成型学習の流れ Fig. 1 Generative learning procedure in the proposed method. 図 2 3 次元人体モデル Fig. 2 3D human model. 図 3 パラメータに対応した人体モデル Fig. 3 Adapt

<4D F736F F D204E4F2E325F8A46967B5F89E6919C93648E718A7789EF8CA48B8689EF8CB48D652E646F63>

す 局所領域 ωk において 線形変換に用いる係数 (ak 画素の係数 (ak bk ) を算出し 入力画像の信号成分を bk ) は次式のコスト関数 E を最小化するように最適化 有さない画素に対して 式 (2) より画素値を算出する される これにより 低解像度な画像から補間によるアップサ E(

(4) ω t(x) = 1 ω min Ω ( (I C (y))) min 0 < ω < C A C = 1 (5) ω (5) t transmission map tmap 1 4(a) t 4(a) t tmap RGB 2 (a) RGB (A), (B), (C)

IPSJ SIG Technical Report iphone iphone,,., OpenGl ES 2.0 GLSL(OpenGL Shading Language), iphone GPGPU(General-Purpose Computing on Graphics Proc

Research on decision making in multi-player games with imperfect information

syuu_2_10_3.dvi

BDH Cao BDH BDH Cao Cao Cao BDH ()*$ +,-+.)*$!%&'$!"#$ 2. 1 Weng [4] Metric Learning Weng DB DB Yang [5] John [6] Sparse Coding sparse coding DB [7] K

paper.dvi

SICE東北支部研究集会資料(2013年)

1 AdaBoost [8], [10] 2001 Viola Jones [8], [10] [11], [12] (a) (b) 2

Sobel Canny i

情報処理学会研究報告 い認識率を示す事が出来なかったと報告している 視覚特徴量としては SIFT や SURF のような局所的な 領域から特徴量を抽出する方法がある [4] [5] これらの 特徴量とフローベクトルを使いダイナミックなシーンの分 類を行う手法が提案されている しかし これらの画像特

gengo.dvi

35_3_9.dvi

Google Goggles [1] Google Goggles Android iphone web Google Goggles Lee [2] Lee iphone () [3] [4] [5] [6] [7] [8] [9] [10] :

kut-paper-template.dvi

1 2 (1) Ω (2) (1) 4 AdaBoost Shapelet [5] (2) AdaBoost Joint Haar-like [6] low-level 2 Real AdaBoost 1(b) Joint Joint [7] 2.1 Joint 2 Joint 2 Joint 2

(a) (b) 2 2 (Bosch, IR Illuminator 850 nm, UFLED30-8BD) ( 7[m] 6[m]) 3 (PointGrey Research Inc.Grasshopper2 M/C) Hz (a) (b

Systems Research for Cyber-Physical Systems

WISS 2018 [2 4] [5,6] Query-by-Dancing Query-by- Dancing Cao [1] OpenPose 2 Ghias [7] Query by humming Chen [8] Query by rhythm Jang [9] Query-by-tapp

johnny-paper2nd.dvi

IPSJ SIG Technical Report Vol.2016-CE-133 No /2/ ,.,,,.,,.,,,.,,,,,., HOG Evaluation System of the Exactness Bow using a Monocular Camer


IS2-06 第21回画像センシングシンポジウム 横浜 2015年6月 画像をスーパーピクセルに変換する手法として SLIC[5] を用いる Achanta らによって提案された SLIC 2.2 グラフマッチング は K-means をベースにした手法で 単純な K-means に いる SPIN

光学

スライド 1

Vol.55 No (Jan. 2014) saccess 6 saccess 7 saccess 2. [3] p.33 * B (A) (B) (C) (D) (E) (F) *1 [3], [4] Web PDF a m

LBP 2 LBP 2. 2 Local Binary Pattern Local Binary pattern(lbp) [6] R

tnbp59-20_Web:P1/ky108679509610002943

258 5) GPS 1 GPS 6) GPS DP 7) 8) 10) GPS GPS ) GPS Global Positioning System

第101回 日本美容外科学会誌/nbgkp‐01(大扉)

27巻3号/FUJSYU03‐107(プログラム)

パーキンソン病治療ガイドライン2002

本文27/A(CD-ROM

GID Haar-like Mean-Shift Multi-Viewpoint Human Tracking Based on Face Detection Using Haar-like Features and Mean-Shift Yu Ito (Shizuoka Univers

bag-of-words bag-of-keypoints Web bagof-keypoints Nearest Neighbor SVM Nearest Neighbor SIFT Nearest Neighbor bag-of-keypoints Nearest Neighbor SVM 84

3 Abstract CAD 3-D ( ) 4 Spin Image Correspondence Grouping 46.1% 17.4% 97.6% ICP [0.6mm/point] 1 CAD [1][2]

24 SPAM Performance Comparison of Machine Learning Algorithms for SPAM Discrimination

THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS TECHNICAL REPORT OF IEICE. UWB UWB

IPSJ SIG Technical Report 1,a) 1,b) 1,c) 1,d) 2,e) 2,f) 2,g) 1. [1] [2] 2 [3] Osaka Prefecture University 1 1, Gakuencho, Naka, Sakai,

IPSJ SIG Technical Report Vol.2014-DBS-159 No.6 Vol.2014-IFAT-115 No /8/1 1,a) 1 1 1,, 1. ([1]) ([2], [3]) A B 1 ([4]) 1 Graduate School of Info

2007/8 Vol. J90 D No. 8 Stauffer [7] 2 2 I 1 I 2 2 (I 1(x),I 2(x)) 2 [13] I 2 = CI 1 (C >0) (I 1,I 2) (I 1,I 2) Field Monitoring Server

[2] 2. [3 5] 3D [6 8] Morishima [9] N n 24 24FPS k k = 1, 2,..., N i i = 1, 2,..., n Algorithm 1 N io user-specified number of inbetween omis

2.2 6).,.,.,. Yang, 7).,,.,,. 2.3 SIFT SIFT (Scale-Invariant Feature Transform) 8).,. SIFT,,. SIFT, Mean-Shift 9)., SIFT,., SIFT,. 3.,.,,,,,.,,,., 1,

The 18th Game Programming Workshop ,a) 1,b) 1,c) 2,d) 1,e) 1,f) Adapting One-Player Mahjong Players to Four-Player Mahjong

Silhouette on Image Object Silhouette on Images Object 1 Fig. 1 Visual cone Fig. 2 2 Volume intersection method Fig. 3 3 Background subtraction Fig. 4

Haiku Generation Based on Motif Images Using Deep Learning Koki Yoneda 1 Soichiro Yokoyama 2 Tomohisa Yamashita 2 Hidenori Kawamura Scho

Optical Flow t t + δt 1 Motion Field 3 3 1) 2) 3) Lucas-Kanade 4) 1 t (x, y) I(x, y, t)

& Vol.5 No (Oct. 2015) TV 1,2,a) , Augmented TV TV AR Augmented Reality 3DCG TV Estimation of TV Screen Position and Ro

SURF,,., 55%,.,., SURF(Speeded Up Robust Features), 4 (,,, ), SURF.,, 84%, 96%, 28%, 32%.,,,. SURF, i

untitled

●70974_100_AC009160_KAPヘ<3099>ーシス自動車約款(11.10).indb

27 AR

x : = : x x

Run-Based Trieから構成される 決定木の枝刈り法

The Empirical Study on New Product Concept of the Dish Washer Abstract

REALV5_A4…p_Ł\1_4A_OCF

untitled

「都市から地方への人材誘致・移住促進に関する調査」

<91498EE88CA D815B2E786C73>

〔 大 会 役 員 〕

橡本体資料+参考条文.PDF

Lecture on

(fnirs: Functional Near-Infrared Spectroscopy) [3] fnirs (oxyhb) Bulling [4] Kunze [5] [6] 2. 2 [7] [8] fnirs 3. 1 fnirs fnirs fnirs 1

1 3DCG [2] 3DCG CG 3DCG [3] 3DCG 3 3 API 2 3DCG 3 (1) Saito [4] (a) 1920x1080 (b) 1280x720 (c) 640x360 (d) 320x G-Buffer Decaudin[5] G-Buffer D

修士論文

tnbp59-17_Web:プO1/ky079888509610003201


DEIM Forum 2019 A7-1 Flexible Distance-based Hashing mori


2. 30 Visual Words TF-IDF Lowe [4] Scale-Invarient Feature Transform (SIFT) Bay [1] Speeded Up Robust Features (SURF) SIFT 128 SURF 64 Visual Words Ni

1 Table 1: Identification by color of voxel Voxel Mode of expression Nothing Other 1 Orange 2 Blue 3 Yellow 4 SSL Humanoid SSL-Vision 3 3 [, 21] 8 325

2 Fig D human model. 1 Fig. 1 The flow of proposed method )9)10) 2.2 3)4)7) 5)11)12)13)14) TOF 1 3 TOF 3 2 c 2011 Information

28 Horizontal angle correction using straight line detection in an equirectangular image

IPSJ SIG Technical Report Vol.2012-CG-149 No.13 Vol.2012-CVIM-184 No /12/4 3 1,a) ( ) DB 3D DB 2D,,,, PnP(Perspective n-point), Ransa


Transcription:

IS2-26 第 19 回 画 像 センシングシンポジウム, 横 浜,2013 年 6 月 SVM E-mail: yuhi@vision.cs.chubu.ac.jp Abstract SVM SVM SVM SVM HOG B-HOG HOG SVM 6.1% 17 1 Intelligent Transport System(ITS: ) 2005 Dalal HOG SVM[1] [2] HOG SVM [3][4] [5] HOG [6] GPU[7] GPU fast HOG[8] CPU 95 AdaBoost[9] [10] SVM SVM SVM SVM HOG B-HOG [11] B-HOG HOG 1/8 HOG 2 B-HOG B-HOG 2 Algorithm 1 IS2-26-1

第19回画像センシングシンポジウム 横浜 2013年6月 図1 ラスタスキャンベースの物体検出 Algorithm 1 ラスタスキャンによる物体検出 Require: 入力画像 I 1. 画像 I に対して検出ウィンドウをラスタスキャン for k = 1 to K do //K : 検出ウィンドウの総数 2. 検出ウィンドウ I(k) から特徴ベクトル xk を抽出 3. 識別器 F (xk ) の出力値を算出 4. 閾値 th により対象のラベル y に判定 yk = 1 1 if F (xk ) > th otherwise 図2 end for //ラスタスキャン終了 return y1, y2,..., yk HOG 特徴量 θ(x, y) = tan 1 を示す 物体検出を実現するには図 1 に示すように 入 力画像 I に対して検出ウィンドウを網羅的にラスタス キャンする そして ラスタスキャンして得られた全て Ly (x, y) Lx (x, y) Lx (x, y) = L(x + 1, y) L(x 1, y) Ly (x, y) = L(x, y + 1) L(x, y 1) (2) (3) の検出ウィンドウに対して特徴ベクトルを抽出し 事前 算出した勾配方向 θ は 0 360 の値で算出されるが に統計的学習手法により構築した識別器を用いて ク 180 より大きくなる方向は 180 引いて 0 180 と ラス yk を検出対象の場合 1 非検出対象の場合-1 とし する これにより 検出対象と背景領域の輝度の明暗 て判別する 関係に依存しない勾配方向を得ることができる 次に 人を検出対象としたラスタスキャンベースの物体検 算出した勾配強度 m と勾配方向 θ を用いて 式 (4) に 出手法には 2005 年に Dalal らが提案した HOG 特徴 よりセル c (M M ピクセル) における勾配方向ヒス 量と線形 SVM による手法 [2] が多く用いられている トグラム V c = {vc (1), vc (2),..., vc (N )} を作成する HOG 特徴量を小規模なハードウェアで実装するために vc (n) = M M m(x, y)δ[f (θ(x, y)), n] (4) HOG 特徴量を 2 値化した B-HOG 特徴量 [11] が提案 されている 本章では HOG 特徴量 B-HOG 特徴量 線形 SVM[1] により構築した識別器とその問題点つい ここで n = 1, 2,..., N はヒストグラムのビンの番号 て述べる f (θ) は勾配方向 θ を N 方向に量子化した値 δ[ ] はク 2.1 x y ロネッカーのデルタ関数を表しており 二つの要素が HOG 特徴量 等しい場合は 1 それ以外は 0 を出力する関数である Histograms of Oriented Gradients(HOG) 特徴量 [2] このように セル c 毎にヒストグラム化することによ は図 2 に示すように 検出ウィンドウからセルと呼ば り 局所領域内の微小な幾何学的変化に対して頑健な れる局所領域毎に作成した勾配方向ヒストグラムを特 特徴量となる 最後に 式 (5) を用いて各セル c で作成 徴量とする また 複数のセルで構成されるブロック した勾配方向ヒストグラム V c を 複数のセルで構成 領域毎に特徴量を正規化することで 照明変化や幾何 されるブロック領域 (R R セル) ごとに正規化する 学的変化の影響を受けにくい特徴量となる vc (n) vc (n) = q vc (k)2 + 算出手順は はじめに検出ウィンドウ中の各ピクセ ルの輝度値 L(x, y) の勾配強度 m と勾配方向 θ を式 (1) 式 (3) より算出する m(x, y) = Lx (x, y)2 + Ly (x, y)2 ( = 1) (5) k=1 (1) ここで q はブロック領域内の勾配方向の数 (R R N ) は分母が 0 になることを防ぐための定数である ブロッ IS2-26-2

x sv x SVM F (x) x (D ) w = J j=1 y jα j x sv j (8) 3 B-HOG 1 V c V c = {v c(1),v c(2),..., v c(q)} 64 128 {(64/M ) (R 1)} {(128/M ) (R 1)} M =8 R =2 N =8 105 HOG 2 2 8 105 = 3, 360 x 2.2 B-HOG B-HOG [11] 3 HOG 2 HOG V c (6) th bhog 2 P c = {p c(1),p c(2),..., p c(q)} p c(n) = { 1 if v c(n) >th bhog 0 otherwise (6) th bhog HOG B-HOG M =8 R =2 N =8 3,360 HOG 1/8 B-HOG HOG 2 2.3 SVM Support Vector Machine(SVM)[1] SVM SVM (7) F (x) F (x) = J j=1 y j α j < x sv j, x > (7) J α y < x sv, x > F (x) = w T x (8) D = w i x i (9) x k F (x k ) y k 2.4 VGA (640 480 ) I l w l h l s l m K K = (640 l w l s 1) (480 l h l s 1) l 2 m (10) (l w,l h ) = (64, 128) l s =1.0 2.0 l m =4 2 F (x k ) GPU HOG [8] SVM SVM SVM 3 SVM SVM HOG B-HOG IS2-26-3

3.1 SVM SVM F (x) (8) x w Hare [12] SVM SVM w β b { 1, 1} D Algorithm 2 w Algorithm 2 w 4 N b w Require: w N b 1. : SVM w r r = w 2. w β b for i =1toN b do //N b : 2.1 r {-1,1} 2 b i b i = sign(r) 2.2 r b i β i = < r, bi > b i 2 2.3 r r r β i b i end for return {β i} N b {bi}n b SVM F (x) w β b F (x) f(x) = N b β ib T i x b b + {0, 1} D b + (b = b + b + ) (11) SVM < b + i, x > x f(x) = = = N b N b N b β i b T i x β i (< b + i, x > < b + i, x >) β i (2 < b + i, x > x ) (11) x B-HOG x {0, 1} D < b + i, x > x 5 SVM SSE4.2 CPU POPCNT 3.2 N b SVM N b 4 w β b N b w N b SVM N b N b 5 N b SVM 5 SVM N b N b SVM IS2-26-4

5 2 SVM 2 y th SVM N b N b th 3.3 N b N b Algorithm 3 Algorithm 3 Require: I 1. I for k =1toK do //K : 2. I(k) x k 3. f(x k ) 0 4. for i =1toN b do //N b : 4.1 SVM : β i(2 < b + i, x k > x k ) f(x k )+=β i(2 POPCNT(b + i & x k ) POPCNT(x k )) 4.2 if f(x k ) >th pos or f(x k ) <th neg then break // end if end for //N b 5. th y { 1 if f(xk ) >th y k = 1 otherwise end for // return y 1,y 2,..., y K th pos th neg y =1 y = 1 ( ±1.0) th pos <f(x) <th neg 6 SVM N b SVM 6 SVM SVM 3.4 3.1 HOG B-HOG B-HOG HOG 2 B-HOG 2 B-HOG P c1 P c2 (12) (14) (AND) (OR) (XOR) P and c 1,c 2 = P c1 & P c2 (12) P or c 1,c 2 = P c1 P c2 (13) P xor c 1,c 2 = P c1 ˆ P c2 (14) R =2 6 P operator = {P c1,c 2, P c1,c 3, P c1,c 4, P c2,c 3, P c2,c 4, P c3,c 4 } AND 2 1 OR 2 1 2 0 XOR 2 1 2 IS2-26-5

7 B-HOG 0 7 B-HOG M =8 R =2 N =8 3,360 B-HOG 5,040 8,400 B-HOG 8,400 x 4 4.1 INRIA Person Dataset[2] 2,416 13,161 1,126 453 1,306,029 64 128 INRIA Person Dataset 433 8 DET 4.2 HOG + SVM B-HOG + SVM ( ) B-HOG SVM B-HOG AND OR XOR Detection Error Trade-off(DET) DET OS:Windows Server 2008 Enterprise x64 CPU:Intel Xeon CPU X7542 @ 2.67GHz RAM:256GB PC SVM SVM Light[13] M =8 R =2 N =8 SVM N b =16 4.3 DET 8 DET SVM B-HOG HOG (AND) (OR) B-HOG HOG (XOR) 0.1% HOG + SVM 6.1% XOR B-HOG 9 B-HOG IS2-26-6

9 1 [%] [ms] [%] [ms] SVM 94.16 0.034 (N b =16) 94.08 0.013 (N b =2) 91.07 0.002 94.08 0.002 XOR AND OR 27 AND OR 19 XOR 0 AND OR 1 4.4 10 1 XOR 1 N b =16 SVM SVM 3 SVM 17 7.78 1.46 N b =2 VGA (640 480 ) (l w,l h ) = (64, 128) l s =1.0 2.0 l m =4 SVM 674.2[ms](1.48[fps]) 39.66[ms](25.21[fps]) 11 10 (a) (b) (c) (d) (N b = 16) 9 1 ( ) ( ) 11 N b SVM SVM IS2-26-7

2 [Byte] [%] [ms] [Byte] [%] [ms] HOG 3360 3360 88.69 1.554 B-HOG 3360 420 84.89 1.561 (XOR) 8400 1050 94.08 1.576 3360 420 86.57 50.989 Random Projection 8400 1050 87.63 128.059 23520 2940 88.69 360.219 1/3 GPU fast HOG[8] 12 Random Projection 4.5 Random Projection[14] 12 Random Projection HOG Random Projection HOG 23,520 2 (XOR) 6.1% 8,400 (XOR) 1.576[ms] HOG 1.554[ms] 5 2 1. SVM 2. B-HOG 1. SVM 17 2. B-HOG [1] C.Cortes and V.Vladimir, Support-Vector Networks, Machine Learning, vol.20, no.3, pp.273 297, 1995. [2] N. Dalal, and B. Triggs, Histograms of Oriented Gradients for Human Detection, Computer Vision and Pattern Recognition, vol.1, pp.886 893, 2005. [3] X.Wang, T. X. Han and S. yan, An HOG-LBP human detector with partial occlusion handling, International Conference on Computer Vision, pp.32 39, 2009. [4] C.Wojek, S. Walk, S. Roth and B. Schiele, Monocular 3D scene understanding with explicit occlusion reasoning, Computer Vision and Pattern Recognition, pp.1993 2000, 2011. [5] P.F.Felzenszwalb, R.B. Girshick, D.McAllester, and D.Ramanan, Object Detection with Discriminatively Trained Part Based Models, Pattern Analysis and Machine Intelligence, vol.32, no.9, pp.1627 1654, 2010. [6] Q.Zhu, S.Avidan, M.Yeh and K.Cheng, Fast Human Detection Using a Cascade of Histograms of Oriented Gradients, Computer Vision and Pattern Recognition, pp.1491 1498, 2006. [7] V.Prisacariu and I.Reid, Fast Human Detection with Cascaded Ensembles on the GPU, Intelligent Vehicles Symposium, pp.325 332, 2010. [8] V.Prisacariu and I.Reid, fasthog - a real-time GPU implementation of HOG, Departmentof Engineering Science, no.2310/9, 2009. [9] Y. Freund, and R. E. Schapire, Experiments with a new boosting algorithm, International Conference on Machine Learning, pp.148 156, 1996. [10] P. Viola and M. Jones, Rapid object detection using a boosted cascade of simple features, Computer Vision and Pattern Recognition, vol.1, pp.511 518, 2001. [11],,,, Relational HOG, D, vol.j94-d, no.8, pp.1172 1182, 2011. [12] S. Hare, A. Saffari and P. H. S. Torr, Efficient online structured output learning for keypoint-based object tracking, Computer Vision and Pattern Recognition, pp.1894 1901, 2012. [13] T. Joachims, SVM light, http://svmlight.joachims.org [14] M.X.Goemans, Improved approximation algorithms for maximum cut and satisfiability problems using semidefinite programming, Journal of the ACM, vol.42, pp.1115 1145, 1995. IS2-26-8