IPSJ-CVIM

Similar documents
3 2 2 (1) (2) (3) (4) 4 4 AdaBoost 2. [11] Onishi&Yoda [8] Iwashita&Stoica [5] 4 [3] 3. 3 (1) (2) (3)

(a) (b) 2 2 (Bosch, IR Illuminator 850 nm, UFLED30-8BD) ( 7[m] 6[m]) 3 (PointGrey Research Inc.Grasshopper2 M/C) Hz (a) (b

1 Fig. 1 Extraction of motion,.,,, 4,,, 3., 1, 2. 2.,. CHLAC,. 2.1,. (256 ).,., CHLAC. CHLAC, HLAC. 2.3 (HLAC ) r,.,. HLAC. N. 2 HLAC Fig. 2

(MIRU2008) HOG Histograms of Oriented Gradients (HOG)

IPSJ SIG Technical Report Vol.2009-CVIM-167 No /6/10 Real AdaBoost HOG 1 1 1, 2 1 Real AdaBoost HOG HOG Real AdaBoost HOG A Method for Reducing

IPSJ SIG Technical Report Vol.2010-CVIM-170 No /1/ Visual Recognition of Wire Harnesses for Automated Wiring Masaki Yoneda, 1 Ta

IS1-09 第 回画像センシングシンポジウム, 横浜,14 年 6 月 2 Hough Forest Hough Forest[6] Random Forest( [5]) Random Forest Hough Forest Hough Forest 2.1 Hough Forest 1 2.2

IPSJ SIG Technical Report 1,a) 1,b) 1,c) 1,d) 2,e) 2,f) 2,g) 1. [1] [2] 2 [3] Osaka Prefecture University 1 1, Gakuencho, Naka, Sakai,

,,.,.,,.,.,.,.,,.,..,,,, i

(a) 1 (b) 3. Gilbert Pernicka[2] Treibitz Schechner[3] Narasimhan [4] Kim [5] Nayar [6] [7][8][9] 2. X X X [10] [11] L L t L s L = L t + L s

色の類似性に基づいた形状特徴量CS-HOGの提案

[12] [5, 6, 7] [5, 6] [7] 1 [8] 1 1 [9] 1 [10, 11] [10] [11] 1 [13, 14] [13] [14] [13, 14] [10, 11, 13, 14] 1 [12]

LBP 2 LBP 2. 2 Local Binary Pattern Local Binary pattern(lbp) [6] R

1 Kinect for Windows M = [X Y Z] T M = [X Y Z ] T f (u,v) w 3.2 [11] [7] u = f X +u Z 0 δ u (X,Y,Z ) (5) v = f Y Z +v 0 δ v (X,Y,Z ) (6) w = Z +

GID Haar-like Mean-Shift Multi-Viewpoint Human Tracking Based on Face Detection Using Haar-like Features and Mean-Shift Yu Ito (Shizuoka Univers

258 5) GPS 1 GPS 6) GPS DP 7) 8) 10) GPS GPS ) GPS Global Positioning System

1 (PCA) 3 2 P.Viola 2) Viola AdaBoost 1 Viola OpenCV 3) Web OpenCV T.L.Berg PCA kpca LDA k-means 4) Berg 95% Berg Web k-means k-means

本文6(599) (Page 601)

1 Table 1: Identification by color of voxel Voxel Mode of expression Nothing Other 1 Orange 2 Blue 3 Yellow 4 SSL Humanoid SSL-Vision 3 3 [, 21] 8 325

IPSJ SIG Technical Report Vol.2015-CVIM-196 No /3/6 1,a) 1,b) 1,c) U,,,, The Camera Position Alignment on a Gimbal Head for Fixed Viewpoint Swi

4. C i k = 2 k-means C 1 i, C 2 i 5. C i x i p [ f(θ i ; x) = (2π) p 2 Vi 1 2 exp (x µ ] i) t V 1 i (x µ i ) 2 BIC BIC = 2 log L( ˆθ i ; x i C i ) + q

IPSJ SIG Technical Report Vol.2012-CG-149 No.13 Vol.2012-CVIM-184 No /12/4 3 1,a) ( ) DB 3D DB 2D,,,, PnP(Perspective n-point), Ransa


28 Horizontal angle correction using straight line detection in an equirectangular image

) 1 2 2[m] % H W T (x, y) I D(x, y) d d = 1 [T (p, q) I D(x + p, y + q)] HW 2 (1) p q t 3 (X t,y t,z t) x t [ ] T x t

IPSJ SIG Technical Report GPS LAN GPS LAN GPS LAN Location Identification by sphere image and hybrid sensing Takayuki Katahira, 1 Yoshio Iwai 1

xx/xx Vol. Jxx A No. xx 1 Fig. 1 PAL(Panoramic Annular Lens) PAL(Panoramic Annular Lens) PAL (2) PAL PAL 2 PAL 3 2 PAL 1 PAL 3 PAL PAL 2. 1 PAL

14 2 5

IPSJ SIG Technical Report iphone iphone,,., OpenGl ES 2.0 GLSL(OpenGL Shading Language), iphone GPGPU(General-Purpose Computing on Graphics Proc

IPSJ SIG Technical Report Vol.2014-MBL-70 No.49 Vol.2014-UBI-41 No /3/15 2,a) 2,b) 2,c) 2,d),e) WiFi WiFi WiFi 1. SNS GPS Twitter Facebook Twit

Convolutional Neural Network A Graduation Thesis of College of Engineering, Chubu University Investigation of feature extraction by Convolution

Duplicate Near Duplicate Intact Partial Copy Original Image Near Partial Copy Near Partial Copy with a background (a) (b) 2 1 [6] SIFT SIFT SIF

2 Fig D human model. 1 Fig. 1 The flow of proposed method )9)10) 2.2 3)4)7) 5)11)12)13)14) TOF 1 3 TOF 3 2 c 2011 Information

28 TCG SURF Card recognition using SURF in TCG play video

& Vol.5 No (Oct. 2015) TV 1,2,a) , Augmented TV TV AR Augmented Reality 3DCG TV Estimation of TV Screen Position and Ro

,,,,,,,,,,,,,,,,,,, 976%, i

1 Web [2] Web [3] [4] [5], [6] [7] [8] S.W. [9] 3. MeetingShelf Web MeetingShelf MeetingShelf (1) (2) (3) (4) (5) Web MeetingShelf

Computer Security Symposium October ,a) 1,b) Microsoft Kinect Kinect, Takafumi Mori 1,a) Hiroaki Kikuchi 1,b) [1] 1 Meiji U

2.2 6).,.,.,. Yang, 7).,,.,,. 2.3 SIFT SIFT (Scale-Invariant Feature Transform) 8).,. SIFT,,. SIFT, Mean-Shift 9)., SIFT,., SIFT,. 3.,.,,,,,.,,,., 1,

[1] SBS [2] SBS Random Forests[3] Random Forests ii

社団法人人工知能学会 Japanese Society for Artificial Intelligence 人工知能学会研究会資料 JSAI Technical Report SIG-Challenge-B30 (5/5) A Method to Estimate Ball s State of

Gaze Head Eye (a) deg (b) 45 deg (c) 9 deg 1: - 1(b) - [5], [6] [7] Stahl [8], [9] Fang [1], [11] Itti [12] Itti [13] [7] Fang [1],

3 Abstract CAD 3-D ( ) 4 Spin Image Correspondence Grouping 46.1% 17.4% 97.6% ICP [0.6mm/point] 1 CAD [1][2]

IPSJ SIG Technical Report Vol.2010-MPS-77 No /3/5 VR SIFT Virtual View Generation in Hallway of Cybercity Buildings from Video Sequen

Optical Flow t t + δt 1 Motion Field 3 3 1) 2) 3) Lucas-Kanade 4) 1 t (x, y) I(x, y, t)

2. CABAC CABAC CABAC 1 1 CABAC Figure 1 Overview of CABAC 2 DCT 2 0/ /1 CABAC [3] 3. 2 値化部 コンテキスト計算部 2 値算術符号化部 CABAC CABAC

( ), ( ) Patrol Mobile Robot To Greet Passing People Takemi KIMURA(Univ. of Tsukuba), and Akihisa OHYA(Univ. of Tsukuba) Abstract This research aims a

IPSJ-CVIM

No. 3 Oct The person to the left of the stool carried the traffic-cone towards the trash-can. α α β α α β α α β α Track2 Track3 Track1 Track0 1

1(a) (b),(c) - [5], [6] Itti [12] [13] gaze eyeball head 2: [time] [7] Stahl [8], [9] Fang [1], [11] 3 -

DEIM Forum 2010 A Web Abstract Classification Method for Revie

IPSJ SIG Technical Report Vol.2014-HCI-158 No /5/22 1,a) 2 2 3,b) Development of visualization technique expressing rainfall changing conditions

Vol1-CVIM-172 No.7 21/5/ Shan 1) 2 2)3) Yuan 4) Ancuti 5) Agrawal 6) 2.4 Ben-Ezra 7)8) Raskar 9) Image domain Blur image l PSF b / = F(

Fig. 3 Flow diagram of image processing. Black rectangle in the photo indicates the processing area (128 x 32 pixels).

Sobel Canny i

IPSJ SIG Technical Report Vol.2013-CVIM-188 No /9/2 1,a) D. Marr D. Marr 1. (feature-based) (area-based) (Dense Stereo Vision) van der Ma

17 Proposal of an Algorithm of Image Extraction and Research on Improvement of a Man-machine Interface of Food Intake Measuring System

2007/8 Vol. J90 D No. 8 Stauffer [7] 2 2 I 1 I 2 2 (I 1(x),I 2(x)) 2 [13] I 2 = CI 1 (C >0) (I 1,I 2) (I 1,I 2) Field Monitoring Server

Q [4] 2. [3] [5] ϵ- Q Q CO CO [4] Q Q [1] i = X ln n i + C (1) n i i n n i i i n i = n X i i C exploration exploitation [4] Q Q Q ϵ 1 ϵ 3. [3] [5] [4]

a) Extraction of Similarities and Differences in Human Behavior Using Singular Value Decomposition Kenichi MISHIMA, Sayaka KANATA, Hiroaki NAKANISHI a

IPSJ SIG Technical Report An Evaluation Method for the Degree of Strain of an Action Scene Mao Kuroda, 1 Takeshi Takai 1 and Takashi Matsuyama 1

IPSJ SIG Technical Report Vol.2009-BIO-17 No /5/26 DNA 1 1 DNA DNA DNA DNA Correcting read errors on DNA sequences determined by Pyrosequencing

IPSJ SIG Technical Report Vol.2015-MUS-107 No /5/23 HARK-Binaural Raspberry Pi 2 1,a) ( ) HARK 2 HARK-Binaural A/D Raspberry Pi 2 1.

Silhouette on Image Object Silhouette on Images Object 1 Fig. 1 Visual cone Fig. 2 2 Volume intersection method Fig. 3 3 Background subtraction Fig. 4

Input image Initialize variables Loop for period of oscillation Update height map Make shade image Change property of image Output image Change time L

IPSJ SIG Technical Report Vol.2012-CG-148 No /8/29 3DCG 1,a) On rigid body animation taking into account the 3D computer graphics came

[2] OCR [3], [4] [5] [6] [4], [7] [8], [9] 1 [10] Fig. 1 Current arrangement and size of ruby. 2 Fig. 2 Typography combined with printing

Studies of Foot Form for Footwear Design (Part 9) : Characteristics of the Foot Form of Young and Elder Women Based on their Sizes of Ball Joint Girth

HOG HOG LBP LBP 4) LBP LBP Wang LBP HOG LBP 5) LBP LBP 1 r n 1 n, 1

Spin Image [3] 3D Shape Context [4] Spin Image 2 3D Shape Context Shape Index[5] Local Surface Patch[6] DAI [7], [8] [9], [10] Reference Frame SHO[11]

光学

塗装深み感の要因解析

VRSJ-SIG-MR_okada_79dce8c8.pdf

(3.6 ) (4.6 ) 2. [3], [6], [12] [7] [2], [5], [11] [14] [9] [8] [10] (1) Voodoo 3 : 3 Voodoo[1] 3 ( 3D ) (2) : Voodoo 3D (3) : 3D (Welc

情報処理学会研究報告 IPSJ SIG Technical Report Vol.2013-CVIM-186 No /3/15 EMD 1,a) SIFT. SIFT Bag-of-keypoints. SIFT SIFT.. Earth Mover s Distance

情報処理学会研究報告 IPSJ SIG Technical Report Vol.2011-MBL-57 No.27 Vol.2011-UBI-29 No /3/ A Consideration of Features for Fatigue Es

1., 1 COOKPAD 2, Web.,,,,,,.,, [1]., 5.,, [2].,,.,.,, 5, [3].,,,.,, [4], 33,.,,.,,.. 2.,, 3.., 4., 5., ,. 1.,,., 2.,. 1,,

日本感性工学会論文誌

IPSJ SIG Technical Report Vol.2015-UBI-47 No.23 Vol.2015-ASD-2 No /7/ , HOG Parameter Estimation from Videos in Monocular Camera for Eva

す 局所領域 ωk において 線形変換に用いる係数 (ak 画素の係数 (ak bk ) を算出し 入力画像の信号成分を bk ) は次式のコスト関数 E を最小化するように最適化 有さない画素に対して 式 (2) より画素値を算出する される これにより 低解像度な画像から補間によるアップサ E(

IS3-18 第21回画像センシングシンポジウム 横浜 2015年6月 2つの人物検出の組み合わせと複数特徴量の利用による人物追跡 川下 雄大 増山 岳人 梅田 和昇 中央大学大学院 中央大学 Abstract 本

1: A/B/C/D Fig. 1 Modeling Based on Difference in Agitation Method artisoc[7] A D 2017 Information Processing

A Graduation Thesis of College of Engineering, Chubu University Pose Estimation by Regression Analysis with Depth Information Yoshiki Agata

2) 3) LAN 4) 2 5) 6) 7) K MIC NJR4261JB0916 8) 24.11GHz V 5V 3kHz 4 (1) (8) (1)(5) (2)(3)(4)(6)(7) (1) (2) (3) (4)

図 2: 高周波成分を用いた超解像 解像度度画像とそれらを低解像度化して得られる 低解像度画像との差により低解像度の高周波成分 を得る 高解像度と低解像度の高周波成分から位 置関係を保ったままパッチ領域をそれぞれ切り出 し 高解像度パッチ画像と低解像度パッチ画像の ペアとしてデータベースに登録する

kut-paper-template.dvi

第62巻 第1号 平成24年4月/石こうを用いた木材ペレット

24 Depth scaling of binocular stereopsis by observer s own movements

IPSJ SIG Technical Report Vol.2010-CVIM-171 No /3/19 1. Web 1 1 Web Web Web Multiple Kernel Learning(MKL) Web ( ) % MKL 68.8% Extractin

Visit Japan Campaign OD OD 18 UNWTO 19 OD JNTO ODUNWTO 1 1

ID 3) 9 4) 5) ID 2 ID 2 ID 2 Bluetooth ID 2 SRCid1 DSTid2 2 id1 id2 ID SRC DST SRC 2 2 ID 2 2 QR 6) 8) 6) QR QR QR QR

Vol.55 No (Jan. 2014) saccess 6 saccess 7 saccess 2. [3] p.33 * B (A) (B) (C) (D) (E) (F) *1 [3], [4] Web PDF a m

IPSJ SIG Technical Report Vol.2011-EC-19 No /3/ ,.,., Peg-Scope Viewer,,.,,,,. Utilization of Watching Logs for Support of Multi-

21 e-learning Development of Real-time Learner Detection System for e-learning

0801391,繊維学会ファイバ12月号/報文-01-西川

A pp CALL College Life CD-ROM Development of CD-ROM English Teaching Materials, College Life Series, for Improving English Communica

A Study on Throw Simulation for Baseball Pitching Machine with Rollers and Its Optimization Shinobu SAKAI*5, Yuichiro KITAGAWA, Ryo KANAI and Juhachi

paper.dvi

Fig. 2 Signal plane divided into cell of DWT Fig. 1 Schematic diagram for the monitoring system

TF-IDF TDF-IDF TDF-IDF Extracting Impression of Sightseeing Spots from Blogs for Supporting Selection of Spots to Visit in Travel Sat

Transcription:

STHOG 1 1 1 STHOG STHOG Pedestrian Matching across Cameras using STHOG Features Ryo Kawai, 1 Yasushi Makihara 1 and Yasushi Yagi 1 In this paper, we propose a method of pedestrian matching across CCTV cameras for the purpose of cross-camera tracking of pedestrians. Spatio-Temporal Histograms of Oriented Gradient (STHOG) is adopted as pedestrian s feature, because the STHOG is segmentation-free feature and also robust to hue and brightness difference across cameras. First, a STHOG sequence is extracted from an image sequence captured by each camera. Then, a distance between two STHOG sequences is calculated based on phase synchronization and a pedestrian with the minimum distance among the galleries is identified. In experiments, we used image sequences captured by CCTV cameras in an elementary school and a university, respectively. We compared the proposed method with the previous segmentation-free method and confirmed the effectiveness of the proposed method. 1. 2011 1 10 STHOG 1 Osaka University 1 c 2011 Information Processing Society of Japan

2 3 STHOG 4 5 2. 2.1 1) 7) 3 8) 3 2.2 9) 13) Sarkar 14) 2.3 Kobayashi Otsu 15) CHLAC (Cubic Higher-order Local Auto-Correlation) 2 HLAC 3 Cai 16) Covariance Descriptor Covariance Descriptor R,G,B 3 Covariance Descriptor 2 STHOG STHOG 3. 3.1 STHOG AdaBoost 17) Wang Yagi 18) 20) 2 c 2011 Information Processing Society of Japan

3.2 3.2.1 c 1 i 1 c 2 i 2 STHOG STHOG c i j a c i,j J c i A c i = {a c i,0,, a c i,j c i 1 } p 1 a c i,j a c i,j+p 1 p A c i,j D(A c 1 i1,j 1, A c 2 i2,j 2 ) = p 1 t=0 a c 1 i1,j 1 +t ac 2 i2,j 2 +t (1) p k = J c 1 i 1 /p A c 1 i1,0, Ac 1 i1,p,, A c 1 i 1,(k 1)p Ac 1 i1,lp(0 l < k) m(a c 1 i1,lp, Ac 2 i2 ) = min D(A c 1 0 s J c i1,lp, Ac 2 i2,s ) (2) 2 p i 2 A c 1 i1,lp m(a c 1 i1, A c 2 i2 ) = min 0 l<k m(ac 1 i1,lp, Ac 2 i2 ) (3) m(a c 1 i1, A c 2 i2 ) 3.2.2 STHOG STHOG (Spatio-Temporal Histograms of Oriented Gradient) 17) I(x, y) = I 2 x + I 2 y ϕ(x, y) = tan 1 (I y/i x) HOG 21) ϕ θ STHOG [ ] I I = [I x, I y, I t ] T = x, I y, I T (4) t I ϕ θ (5) (7) I(x, y, t) = Ix 2 + Iy 2 + It 2 (5) ( ) θ(x, y, t) = tan 1 I t I (6) 2 x + Iy 2 ( ) ϕ(x, y, t) = tan 1 Iy (7) I x ϕ θ I 10 10 3 2 2 1 5 7 1 100 140 3 100 : 140 STHOG 100 140 0 θ < 180 0 ϕ < 90 9 (2 2 1) (5 7 1) 140 9 2 140 2520 3 c 2011 Information Processing Society of Japan

情報処理学会研究報告 表 1 小学校の防犯カメラの仕様 Table 1 Specification of CCTVs in the elementary school. 機種 フレームレート 解像度 AXIS 社製ネットワークカメラ AXIS 223M 9fps 1600 1200 ピクセル (a) Left (b) Right1 (c) Right2 図 2 小学校の防犯カメラ映像の例 Fig. 2 Example of images captured by CCTVs in the elementary school. Approx. 6m 表 2 大学構内のカメラの仕様 Table 2 Specification of cameras in the university. 図 1 小学校の防犯カメラの配置 Fig. 1 Arrangement of CCTVs in the elementary school. 機種 フレームレート 解像度 4. 実 Point Grey Research 社製 IEEE1394 カメラ Flea2 30fps 640 480 ピクセル 験 30m 4.1 データセット 30 deg. 4.1.1 小学校の防犯カメラ映像 4m 兵庫県芦屋市立精道小学校 以下 単に小学校と呼ぶ に設置された 3 台の防犯カメラに C より撮影された 児童の登校の様子の画像を利用する 3 台のカメラの仕様は表 1 に示す通 B A D Approx. 40m りである ただし 解像度に関して STHOG 特徴の取得は 960 720 ピクセルにリサイ 図 3 大学構内のカメラの配置 Fig. 3 Arrangement of cameras in the university. ズしてから行うものとする カメラは約 10m の高さに図 1 のように設置されており 赤で 網掛けした領域を児童が歩行する メラの仕様は表 2 に示す通りであり 被験者は図 3 における赤色の線上をそれぞれ往復す 図 2 にデータセットの例を示す 実験では Left と Right1 Right1 と Right2 について カメラ間での人物照合を行う Left と Right1 は 図 1 に示した通り撮影視点が若干異なる る カメラ A,B とカメラ C,D の間に十分な距離をとっているのは 大きく異なる背景条件 が カメラ間の色合いはほぼ一致している 一方で Right1 と Right2 は撮影視点はほぼ同 下でのデータを収集するためである また 明るさや色合い等はカメラ間で統一せず 自動 一だが カメラ間の色合いが異なる これらに映った 30 人の STHOG 特徴系列を比較の対 ゲイン制御によって撮影した 4 台のカメラで往復の歩容を撮影し 1 人当たり合計 8 通りの歩容画像が得られる その 象とした 4.1.2 大学構内の映像 画像に対してシーケンス番号を表 3 のように定義する ここで カメラの記号と歩行方向 大阪大学産業科学研究所内の道路 以下 大学構内と呼ぶ において 2m の高さに図 3 は図 3 において定義したものと同一である この内 本論文では カメラに対する歩行方向がほぼ同じであるが 背景が異なるシーケ のように設置した 4 台のカメラを用いて 27 人の被験者の歩容映像を撮影した 4 台のカ 4 c 2011 Information Processing Society of Japan

情報処理学会研究報告 表 3 シーケンス番号の定義 Table 3 Definition of sequence number. カメラ 歩行方向 番号 A A B B C C D D 左向き 0 1 2 3 4 5 6 7 右向き 左向き 右向き 左向き 右向き 左向き 右向き (a) カメラ B シーケンス 2 (b) カメラ D シーケンス 6 図 4 大学構内の映像の例 Fig. 4 Example of images captured by cameras in the university. ンス 2 とシーケンス 6 についての照合の性能を評価する 図 4 にそれぞれのカメラからの (b) ノルムの比較 STHOG 特徴 画像の例を示す (a) CMC 曲線 4.2 比 較 手 法 図 5 小学校の防犯カメラ Left と Right1 に対する照合結果 Fig. 5 Matching result using CCTVs (Left and Right1) in the elementary school. 4.2.1 色 特 徴 本研究においては 防犯カメラ間の移動を追跡することを課題としているが あるカメラ の視界から消えて他のカメラに映るまでの短時間のうちに服装は変わらないという仮定の STHOG 特徴の有用性の考察は CMC(Cumulative Match Characteristic) 曲線を用い もと 服の色を初めとした色の特徴を特徴量として人物を照合することを考える る CMC 曲線とは 1 対 N 認証において プローブがどのギャラリーと類似しているか 画像から色相 彩度 明度を求め 以下の二つのヒストグラムを STHOG 特徴と同様に について 照合結果に基づき順位付けをした際 各順位までに正解が入っている割合を示し セル毎に作成し 特徴量とする たものである 中でも CMC 曲線におけるランクが 1 位の時の識別率 すなわち特徴が最 色相を階級として ピクセル毎の彩度を該当する階級に投票したヒストグラム も類似していると算出した人が実際にその本人である確率 以下 単に認証率と呼ぶ に特 明度を階級として 単純なピクセル数を投票したヒストグラム に着目し 考察を進める なお CMC 曲線には L2 ノルムを用いた場合の結果を示す この特徴量は STHOG 特徴と同じくフレーム毎に算出されるため 照合方法は STHOG 最適なノルムの考察は STHOG 特徴に関して CMC における上位の認証率を L2, L1, 特徴の方法に準ずる なお STHOG 特徴の二つのヒストグラムと合わせ 四つのヒスト L0.5, L0.4, L0.3, L0.2, L0.1 の各ノルムで比較したグラフを基に行う グラムを用いた照合も行った 4.3.1 小学校の防犯カメラ映像 4.2.2 CHLAC 特徴 図 5, 図 6 に小学校の防犯カメラ映像による照合結果を示す 図 5(b) 図 6(b) のノルム 2.3 節で述べた CHLAC 特徴を比較対象に用いる まず フレーム間差分を計算し 閾値 別の比較での凡例の数字は CMC 曲線におけるランクを示す 以降の結果についても同様 8 で 2 値化した後 隣接画素 フレームから 3 次までの高次局所自己相関を計算し 合計 である 251 次元の特徴ベクトルを抽出する CHLAC の比較には正規化自己相関を用いた まず STHOG 特徴単独の場合を見てみると ほぼ同じ方向の Right1 と Right2 では 認 4.3 性 能 評 価 証率は 100% となっており ノルムを変更しても性能の低下は見られない 図 6 しかし 照合の結果と考察を述べる 本論文では 2 項目に関して考察する まず STHOG 特徴 Left と Right1 のように方向が変わると 認証率は 80% となることから 観測方向の違い 自体の有用性の考察 そして 照合における最適なノルムの考察である が認識性能にも大きく影響することが分かる 図 5 なお ノルムを変更すると L0.4 か 5 c 2011 Information Processing Society of Japan

(a) CMC (b) STHOG (a) CMC (b) STHOG 6 Right1 Right2 7 Fig. 6 Matching result using CCTVs (Right1 and Right2) in the elementary school. Fig. 7 Matching result using cameras in the university. L0.2 93% 2 100% Left Right1 93% Right1 Right2 53% STHOG Left Right1 93% Right1 Right2 67% CMC STHOG CHLAC Left Right1 13% Right1 Right2 30% 2 Left Right1 4.3.2 7 STHOG 26% L1 52% L0.5 L0.4 L0.5 L0.3 18% 22% CHLAC 18% STHOG 0 STHOG 8(a) 6 c 2011 Information Processing Society of Japan

(a) (b) (c) 8 Fig. 8 Improved result using cameras in the university. STHOG 8(b) 1 26% 67% L2 L0.4 8(c) STHOG 12 12 27 15 12 9 9 Spatial gradient ϕ 4 9 12 Fig. 9 Comparing result of subject 12. (Left: probe, Right: gallery) 5. STHOG 2 STHOG CHLAC STHOG CHLAC L0.5 L0.3 7 c 2011 Information Processing Society of Japan

4.3.2 STHOG Covariance Descriptor 22 1) Kass, M., Witkin, A. and Terzopoulos, D.: Snakes: Active Contour Models, International Journal of Computer Vision, Vol.1, No.4, pp.321 331 (1988). 2) Vol.40, No.3, pp.1127 1137 (1999). 3) Turk, M. and Pentland, A.: Eigenfaces for recognition, J. Cognitive Neuroscience, Vol.3, No.1, pp.71 86 (1991). 4) Moghaddam, B. and Pentland, A.: Probabilistic Visual Learning for Object Representation, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.19, No.7, pp.696 710 (1997). 5) D-II Vol.84, No.3, pp.500 508 (2001). 6) Viola, P. and Jones, M.: Robust Real-Time Face Detection, International Journal of Computer Vision, Vol.57, No.2, pp.137 154 (2004). 7) Mita, T., Kaneko, T. and Hori, O.: Joint Haar-like Features for Face Detection, Tenth IEEE International Conference on Computer Vision (ICCV 05), Vol.2, pp. 1619 1626 (2005). 8) Bronstein, A., Bronstein, M. and Kimmel, R.: Three-Dimensional Face Recognition, International Journal of Computer Vision, Vol.64, No.1, pp.5 30 (2005). 9) Vol.49, No.2(CVIM22), pp.76 85 (2007). 10) Cuntoor, N., Kale, A. and Chellappa, R.: Combining Multiple Evidences for Gait Recognition, Proceedings of IEEE International Conference on Acoustics, Speech, and SignalProcessing, Vol.3, pp.33 36 (2003). 11) Han, J. and Bhanu, B.: Individual Recognition Using Gait Energy Image, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.28, No.2, pp.316 322 (2006). 12) Murase, H. and Sakai, R.: Moving Object Recognition in Eigenspace Representation: GaitAnalysis and Lip Reading, Pattern Recognition Letters, Vol. 17, pp. 155 162 (1996). 13) Nixon, M. and Carter, J.: Automatic Recognition by Gait, Proceedings of the IEEE, Vol.94, No.11, pp.2013 2024 (2006). 14) Sarkar, S., Phillips, J., Liu, Z., Vega, I., Grother, P. and Bowyer, K.: The HumanID Gait Challenge Problem: Data Sets, Performance, and Analysis, IEEE Transactions of Pattern Analysis and Machine Intelligence, Vol.27, No.2, pp.162 177 (2005). 15) Kobayashi, T. and Otsu, N.: Action and Simultaneous Multiple-Person Identification Using Cubic Higher-order Local Auto-Correlation, International Conference on Pattern Recognition, pp.741 744 (2004). 16) Cai, Y., Takala, V. and Pietikainen, M.: Matching Groups of People by Covariance Descriptor, Proceedings of the 2010 20th International Conference on Pattern Recognition, Istanbul (2010). 17) Hua, C., Makihara, Y. and Yagi, Y.: Pedestrian Detection by Combining the Spatio and Temporal Features, Meeting on Image Recognition and Understanding (2010). 18) Wang, J. and Yagi, Y.: Adaptive Mean-Shift Tracking with Auxiliary Particles, IEEE Transactions on Systems, Man and Cybernetics -Part B, Vol.39(6), pp.1578 1589 (2009). 19) Wang, J. and Yagi, Y.: Visual tracking and segmentation using appearance and spatial information of patches, Proceedings of 2008 IEEE International Conference on Robotics and Automation, Anchorage, Alaska, USA (2010). 20) Wang, J. and Yagi, Y.: Tracking and segmentation using Min-Cut with consecutive shape priors, Paladyn. Journal of Behavioral Robotics, Versita, co-published with Springer-Verlag GmbH, Vol.1, No.1, pp.73 86 (2010). 21) Dalal, N. and Triggs, B.: Histograms of Oriented Gradients for Human Detection, IEEE Conference on Computer Vision and Pattern Recognition, Vol.1, pp.886 893 (2005). 8 c 2011 Information Processing Society of Japan