2 4 2 3 4 3 [12] 2 3 4 5 1 1 [5, 6, 7] [5, 6] [7] 1 [8] 1 1 [9] 1 [10, 11] [10] [11] 1 [13, 14] [13] [14] [13, 14] [10, 11, 13, 14] 1 [12]



Similar documents
2003/3 Vol. J86 D II No Fig. 1 An exterior view of eye scanner. CCD [7] CCD PC USB PC PC USB RS-232C PC

3 2 2 (1) (2) (3) (4) 4 4 AdaBoost 2. [11] Onishi&Yoda [8] Iwashita&Stoica [5] 4 [3] 3. 3 (1) (2) (3)

,,,,,,,,,,,,,,,,,,, 976%, i

1 (PCA) 3 2 P.Viola 2) Viola AdaBoost 1 Viola OpenCV 3) Web OpenCV T.L.Berg PCA kpca LDA k-means 4) Berg 95% Berg Web k-means k-means

(a) (b) 2 2 (Bosch, IR Illuminator 850 nm, UFLED30-8BD) ( 7[m] 6[m]) 3 (PointGrey Research Inc.Grasshopper2 M/C) Hz (a) (b

(MIRU2008) HOG Histograms of Oriented Gradients (HOG)

図 2: 高周波成分を用いた超解像 解像度度画像とそれらを低解像度化して得られる 低解像度画像との差により低解像度の高周波成分 を得る 高解像度と低解像度の高周波成分から位 置関係を保ったままパッチ領域をそれぞれ切り出 し 高解像度パッチ画像と低解像度パッチ画像の ペアとしてデータベースに登録する

本文6(599) (Page 601)

,,.,.,,.,.,.,.,,.,..,,,, i

2007/8 Vol. J90 D No. 8 Stauffer [7] 2 2 I 1 I 2 2 (I 1(x),I 2(x)) 2 [13] I 2 = CI 1 (C >0) (I 1,I 2) (I 1,I 2) Field Monitoring Server

IPSJ SIG Technical Report iphone iphone,,., OpenGl ES 2.0 GLSL(OpenGL Shading Language), iphone GPGPU(General-Purpose Computing on Graphics Proc

色の類似性に基づいた形状特徴量CS-HOGの提案

28 Horizontal angle correction using straight line detection in an equirectangular image

す 局所領域 ωk において 線形変換に用いる係数 (ak 画素の係数 (ak bk ) を算出し 入力画像の信号成分を bk ) は次式のコスト関数 E を最小化するように最適化 有さない画素に対して 式 (2) より画素値を算出する される これにより 低解像度な画像から補間によるアップサ E(

xx/xx Vol. Jxx A No. xx 1 Fig. 1 PAL(Panoramic Annular Lens) PAL(Panoramic Annular Lens) PAL (2) PAL PAL 2 PAL 3 2 PAL 1 PAL 3 PAL PAL 2. 1 PAL

Accuracy Improvement by Compound Discriminant Functions for Resembling Character Recognition Takashi NAKAJIMA, Tetsushi WAKABAYASHI, Fumitaka KIMURA,

& Vol.5 No (Oct. 2015) TV 1,2,a) , Augmented TV TV AR Augmented Reality 3DCG TV Estimation of TV Screen Position and Ro

Ÿ_Ł¶-“sŒ{’¨−î

IPSJ SIG Technical Report Vol.2009-CVIM-167 No /6/10 Real AdaBoost HOG 1 1 1, 2 1 Real AdaBoost HOG HOG Real AdaBoost HOG A Method for Reducing

(3.6 ) (4.6 ) 2. [3], [6], [12] [7] [2], [5], [11] [14] [9] [8] [10] (1) Voodoo 3 : 3 Voodoo[1] 3 ( 3D ) (2) : Voodoo 3D (3) : 3D (Welc

IPSJ SIG Technical Report Vol.2012-CG-149 No.13 Vol.2012-CVIM-184 No /12/4 3 1,a) ( ) DB 3D DB 2D,,,, PnP(Perspective n-point), Ransa

[1] SBS [2] SBS Random Forests[3] Random Forests ii

WISS 2018 [2 4] [5,6] Query-by-Dancing Query-by- Dancing Cao [1] OpenPose 2 Ghias [7] Query by humming Chen [8] Query by rhythm Jang [9] Query-by-tapp

1 Kinect for Windows M = [X Y Z] T M = [X Y Z ] T f (u,v) w 3.2 [11] [7] u = f X +u Z 0 δ u (X,Y,Z ) (5) v = f Y Z +v 0 δ v (X,Y,Z ) (6) w = Z +

IPSJ SIG Technical Report GPS LAN GPS LAN GPS LAN Location Identification by sphere image and hybrid sensing Takayuki Katahira, 1 Yoshio Iwai 1

(fnirs: Functional Near-Infrared Spectroscopy) [3] fnirs (oxyhb) Bulling [4] Kunze [5] [6] 2. 2 [7] [8] fnirs 3. 1 fnirs fnirs fnirs 1


1 Fig. 1 Extraction of motion,.,,, 4,,, 3., 1, 2. 2.,. CHLAC,. 2.1,. (256 ).,., CHLAC. CHLAC, HLAC. 2.3 (HLAC ) r,.,. HLAC. N. 2 HLAC Fig. 2

( ), ( ) Patrol Mobile Robot To Greet Passing People Takemi KIMURA(Univ. of Tsukuba), and Akihisa OHYA(Univ. of Tsukuba) Abstract This research aims a

dsample.dvi

GID Haar-like Mean-Shift Multi-Viewpoint Human Tracking Based on Face Detection Using Haar-like Features and Mean-Shift Yu Ito (Shizuoka Univers

顔画像を用いた個人認証システムの性能検討に関する研究

Optical Flow t t + δt 1 Motion Field 3 3 1) 2) 3) Lucas-Kanade 4) 1 t (x, y) I(x, y, t)

バイノーラルマイクを用いたライフログ映像のショット識別 Life-log Video Shot Discrimination using Binaural Microphone 山野貴一郎 伊藤克亘 法政大学大学院情報科学研究科 法政大学情報科学部 Kiichiro YAMANO Katunobu

No. 3 Oct The person to the left of the stool carried the traffic-cone towards the trash-can. α α β α α β α α β α Track2 Track3 Track1 Track0 1

IPSJ SIG Technical Report Vol.2010-CVIM-170 No /1/ Visual Recognition of Wire Harnesses for Automated Wiring Masaki Yoneda, 1 Ta

BDH Cao BDH BDH Cao Cao Cao BDH ()*$ +,-+.)*$!%&'$!"#$ 2. 1 Weng [4] Metric Learning Weng DB DB Yang [5] John [6] Sparse Coding sparse coding DB [7] K

untitled

2006 Indexed Fuzzy Vault 3ADM1117 3ADM3225

Web Basic Web SAS-2 Web SAS-2 i

(4) ω t(x) = 1 ω min Ω ( (I C (y))) min 0 < ω < C A C = 1 (5) ω (5) t transmission map tmap 1 4(a) t 4(a) t tmap RGB 2 (a) RGB (A), (B), (C)


IS1-09 第 回画像センシングシンポジウム, 横浜,14 年 6 月 2 Hough Forest Hough Forest[6] Random Forest( [5]) Random Forest Hough Forest Hough Forest 2.1 Hough Forest 1 2.2

第 1 回バイオメトリクス研究会 ( 早稲田大学 ) THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS Proceedings of Biometrics Workshop,169

27巻3号/FUJSYU03‐107(プログラム)

第101回 日本美容外科学会誌/nbgkp‐01(大扉)

パーキンソン病治療ガイドライン2002

本文27/A(CD-ROM

tnbp59-20_Web:P1/ky108679509610002943

Duplicate Near Duplicate Intact Partial Copy Original Image Near Partial Copy Near Partial Copy with a background (a) (b) 2 1 [6] SIFT SIFT SIF

本文/020:デジタルデータ P78‐97

I

IPSJ SIG Technical Report Vol.2015-CVIM-196 No /3/6 1,a) 1,b) 1,c) U,,,, The Camera Position Alignment on a Gimbal Head for Fixed Viewpoint Swi

258 5) GPS 1 GPS 6) GPS DP 7) 8) 10) GPS GPS ) GPS Global Positioning System

C-œI‡Ä‡¢

光学

1 (1) (2)

- 2 -


PR映画-1

II III I ~ 2 ~

中堅中小企業向け秘密保持マニュアル



2. Apple iphoto 1 Google Picasa 2 Calendar for Everything [1] PLUM [2] LifelogViewer 3 1 Apple iphoto, 2 Goo

IPSJ-CVIM

SSII原稿v5.doc

Vol1-CVIM-172 No.7 21/5/ Shan 1) 2 2)3) Yuan 4) Ancuti 5) Agrawal 6) 2.4 Ben-Ezra 7)8) Raskar 9) Image domain Blur image l PSF b / = F(

1(a) (b),(c) - [5], [6] Itti [12] [13] gaze eyeball head 2: [time] [7] Stahl [8], [9] Fang [1], [11] 3 -

Vol. 48 No. SIG 1(CVIM 17) Feb Visconti Visconti ITS Image Recognition LSI Visconti and Its Applications to Safety and Security Hiroaki Nakai, J

yoo_graduation_thesis.dvi


1., 1 COOKPAD 2, Web.,,,,,,.,, [1]., 5.,, [2].,,.,.,, 5, [3].,,,.,, [4], 33,.,,.,,.. 2.,, 3.., 4., 5., ,. 1.,,., 2.,. 1,,

表紙4_1/山道 小川内 小川内 芦塚

IPSJ SIG Technical Report Vol.2014-GN-90 No.16 Vol.2014-CDS-9 No.16 Vol.2014-DCC-6 No /1/24 1,a) 2,b) 2,c) 1,d) QUMARION QUMARION Kinect Kinect

AD c /(19)

Grund.dvi


Convolutional Neural Network A Graduation Thesis of College of Engineering, Chubu University Investigation of feature extraction by Convolution


スライド 1

VRSJ-SIG-MR_okada_79dce8c8.pdf

3 Abstract CAD 3-D ( ) 4 Spin Image Correspondence Grouping 46.1% 17.4% 97.6% ICP [0.6mm/point] 1 CAD [1][2]

1 Table 1: Identification by color of voxel Voxel Mode of expression Nothing Other 1 Orange 2 Blue 3 Yellow 4 SSL Humanoid SSL-Vision 3 3 [, 21] 8 325

光学

provider_020524_2.PDF

Computer Security Symposium October 2018 DTW 1 2 Microsoft Kinect 3 DTW EER EER 5 45 Kinect DTW 1. [1] Muaaz [5] DTW [2][3] [2] 2 10

[2][3] [4] [5] 2.2 [6] SVM [7] [8] c 2013 Information Processing Society of Japan 2

[2] OCR [3], [4] [5] [6] [4], [7] [8], [9] 1 [10] Fig. 1 Current arrangement and size of ruby. 2 Fig. 2 Typography combined with printing

Abstract This paper concerns with a method of dynamic image cognition. Our image cognition method has two distinguished features. One is that the imag

光学

(a) 1 (b) 3. Gilbert Pernicka[2] Treibitz Schechner[3] Narasimhan [4] Kim [5] Nayar [6] [7][8][9] 2. X X X [10] [11] L L t L s L = L t + L s

IPSJ SIG Technical Report Vol.2015-MUS-106 No.10 Vol.2015-EC-35 No /3/2 BGM 1,4,a) ,4 BGM. BGM. BGM BGM. BGM. BGM. BGM. 1.,. YouTube 201

11) 13) 11),12) 13) Y c Z c Image plane Y m iy O m Z m Marker coordinate system T, d X m f O c X c Camera coordinate system 1 Coordinates and problem

(a) (b) (c) Canny (d) 1 ( x α, y α ) 3 (x α, y α ) (a) A 2 + B 2 + C 2 + D 2 + E 2 + F 2 = 1 (3) u ξ α u (A, B, C, D, E, F ) (4) ξ α (x 2 α, 2x α y α,

,4) 1 P% P%P=2.5 5%!%! (1) = (2) l l Figure 1 A compilation flow of the proposing sampling based architecture simulation

Computer Security Symposium October ,a) 1,b) Microsoft Kinect Kinect, Takafumi Mori 1,a) Hiroaki Kikuchi 1,b) [1] 1 Meiji U

HASC2012corpus HASC Challenge 2010,2011 HASC2011corpus( 116, 4898), HASC2012corpus( 136, 7668) HASC2012corpus HASC2012corpus

WISS PowerPoint [3] [16] Mehrabian [10] 7% 93% [10] [19][18] Hindus [7] Lyons [9] [8] [14] TalkMan [4] [5] [6] 3 [19][18] [19] [19] 1 F0 [11] 7

Haiku Generation Based on Motif Images Using Deep Learning Koki Yoneda 1 Soichiro Yokoyama 2 Tomohisa Yamashita 2 Hidenori Kawamura Scho

Transcription:

Walking Person Recognition by Matching Video Fragments Masashi Nishiyama, Mayumi Yuasa, Tomokazu Wakasugi, Tomoyuki Shibata, Osamu Yamaguchi ( ), Corporate Research and Development Center, TOSHIBA Corporation E-mail: masashi.nishiyama@toshiba.co.jp Abstract 349 1 [1] [2] FacePass[3] 1(a) FacePassenger[4] 1(a) 1(b) 1 2 3

2 4 2 3 4 3 [12] 2 3 4 5 1 1 [5, 6, 7] [5, 6] [7] 1 [8] 1 1 [9] 1 [10, 11] [10] [11] 1 [13, 14] [13] [14] [13, 14] [10, 11, 13, 14] 1 [12]

図6 カメラ内における断片的な動画像の生成 的な追跡処理を用いる 3 次元的な追跡を精度よく行う 図7 相互部分空間法による断片的な動画像同士 ために厳密なカメラキャリブレーションが要求される の比較 図5 段階的な対応付けの流れ 手法では 複数の歩行者の顔の様々な見え方を登録す るために 検出と追跡のタスクをそれぞれのカメラに 動的に割り当て顔画像の集合を生成する 各カメラか ら得られる人物毎の顔画像を対応付けるために 3 次元 また 運用中に何らかの原因でカメラの位置がずれる と追跡処理が破綻し識別性能が低下する ベルを判定する 同じラベルをもつ x を断片的な動画 3 段階的な対応付け 像 X に加える 一定の時間 T 1 以上新たな顔画像が追 複数カメラを用いて複数の歩行者を 動画像を用い た識別手法で個人識別するために カメラキャリブレー ション行うことなく顔画像を段階的に対応付け 人物 毎の動画像を生成する方法について述べる 加されなかった断片的な動画像 X は通過した人物と判 定し カメラ間の断片的な動画像の対応付けへ進む X のラベルを関数 M2 で判定し 同じラベルをもつ断片 的な動画像 X, X 0 を統合する 一定の時間 T 2 を経過し た断片的な動画像は対応付けが終了したと判断し 統 3.1 段階的な対応付けの枠組み 合された動画像 X とする この X を用いて個人識別を 最初に各カメラにおいて顔画像を対応付けし断片的 な動画像を生成する 断片的な動画像を式 (1) で定義 する 行う 3.2 断片的な動画像を生成するためのラベル付け 各カメラで獲得された顔画像 x は 関数 M1 により Xl {xi M1 (xi ) = l, i = 1,..., N } (1) 図 6 のように 同じカメラにおいて蓄積された断片的 な動画像と対応付けられる 対応付ける際には 断片 ここで x は 1 枚の顔画像 M1 は顔画像に対してラベ ルを返す関数 l は断片的な動画像に付けられたラベル 的な動画像に属する最新の顔画像 x X と x との間で 式 (3) の類似度 S を算出する N は獲得された顔画像の枚数を表す 関数 M1 につい S= ては 3.2 節で述べる 次に カメラ間で断片的な動画像 を対応付けし 個人識別で用いる統合された動画像 X Ssimple 1 + α(t t ) (3) ここで Ssimple は x, x 間の単純類似度 α は定数 t, t は を生成する X は式 (2) で定義される x, x が獲得された時間を表す 単純類似度は Ssimple = Xk {Xj M2 (Xj ) = k, j = 1,..., M } (2) ここで M2 は断片的な動画像に対してラベルを返す関 数 k は統合された動画像に付けられたラベル M は 獲得された断片的な動画像の個数を表す 関数 M2 に ついては 3.3 節で述べる 図 5 に 三台のカメラの下 で 二人の人物が歩行したときに段階的に対応付けさ れる流れを示す 実システム上では 顔画像は時間の経過と共に順に 獲得される 各カメラにおいて断片的な動画像を生成 するために 顔画像 x が獲得される毎に関数 M1 でラ cos2 θ で定義される θ は 顔画像をラスタースキャン することで変換されたベクトル同士のなす角度を表す 関数 M1 は 閾値 S1 を越え最も高い類似度が算出さ れた断片的な動画像のラベルを返す また 算出され た全ての類似度が S1 未満の場合 新たな人物が表れた と判定し 新たなラベルを返す 対応付ける断片的な 動画像が 1 個も蓄積されていない場合も新たなラベル を返す

8 3.3 M 2 S 7 (OMSM Orthogonal Mutual Subspace Method)[15] OMSM OMSM M 2 S2 S2 3.4 OMSM X [16] O P, Q P Q S θ (4) S = cos 2 θ (4) θ = 0 cos 2 θ R Ra = λa (5) R = (r mn ) (m, n = 1... D P ) (6) D Q r mn = (ψ m, φ l )(φ l, ψ n ) (7) l=1 ψ m, φ l P,Q m, l (ψ m, φ l ) ψ m φ l D P, D Q P, Q D P D Q 4 4.1 9 10 (a) (b) (c) (d) (e) (f) x 8 (i) (ii)3 [17] (iii) [18] 4.2 x 3 9 14 Joint Haar-like AdaBoost [19] [20] [21] 4.3 [20]

(i) without occlusion (ii) with occlusion 11 12 10(a) (b) 10(f) [20] 2 η (8) 13 η = η + β(p 1 P 2 ) (8) η P 1 P 2 1 2 β 2 (c) 2 (d) (e) 4.4 [20] 5 5.1 1 1 11(i),(ii) 3 (i) 3 (ii) 1024 768 pixels 7.5 1 7 14 12 64 64 [17] [18] 1024 (i) 76 (ii) 59 S1 (i) A 19 B 5 C 4 (ii) A 7 B 8 C 11 (ii) 5.2

2 1 Camera CMR(%) EER(%) C1 81.4 16.0 C2 92.6 7.2 C3 91.7 7.4 All 97.7 2.0 14 1 (i) (ii)349 2 7 (%) Camera (i) (ii) C1 14.8 12.0 C2 20.4 5.2 C3 19.3 5.4 All 54.5 1.6 349 3 (C1, C2, C3) 13 2 768 1024 pixels 15 1 4 14 1(i) 5.1 All C1, C2, C3 7 1024 7 7 0 1(ii) 349 2 7 C2, C3 C1 2 1. (CMR:Correct Match Rate) 2. (EER:Equal Error Rate) FAR( ) FRR( ) FAR F AR = (9) FRR F RR = (10) (1 ) 1 1 2 C1, C2, C3 All C2, C3 C1 1(ii) 7 All

98 CMR(%) 97 96 95 94 93 (i) without matching fragmented sequences (ii) with matching fragmented sequences (ii) ideal 92 91 15 10 90 89 10 20 30 40 50 60 70 80 90 100 Number of individuals M False Matching Rate(%) 9 8 7 6 5 4 3 2 1 0 10 20 30 40 50 60 70 80 90 100 Number of individuals M 17 EER(%) 8 7 6 5 4 (i) without matching fragmented sequences (ii) with matching fragmented sequences (ii) ideal 16 3 2 10 20 30 40 50 60 70 80 90 100 Number of individuals M C1, C2, C3 ( ) M M 1 15 349 M 1 10 M 2 2 S2 0 M 16 2 All 349 M CMR 17 EER 18 (i) 2 C1, C2, C3 (ii) 18 (iii) 2 All 16 CMR EER EER (i) (ii) 7 (iii) (ii) 10 (i) CMR EER 6 349

5 89.9% 94.2% 8.3% 4.2% [1],, D-II Vol. J80-D-II, No. 8, pp. 2031-2046, 1997 [2],,,, D-II Vol. J88-D-II, No. 8, pp. 1339-1348, 2005. [3],,,,,, FacePass, Vol. 56, No.7, pp.1111-1117, 2002 [4],,,,,,, FacePassenger, FIT2005 I-010 pp.27-28, 2005. [5],,,, M. Jones, J. Thornton,, 10, pp. 541-546, 2004. [6] Z. Yang, H. AI, B. Wu, S. Lao, and L. Cai, Face Pose Estimation and its Application in Video Shot Selection, International Conference on Pattern Recognition 2004, pp. 322-325, 2004. [7] R. Chellappa, V. Kruger, and S. Zhou, Probabilistic Recognition of Human Faces from Video, The IEEE International Conference on Image Processing, Vol. I, pp. 41-44, 2002. [8] K. S. Huang, and M. M. Trivedi, Streaming Face Recognition using Multicamera Video Arrays, International Conference on Pattern Recognition 2002, pp. 213-216, 2002. [9],,,,, :, Vol. 43, No. SIG 4(CVIM 4), pp.95-104, 2002. [10],,,,,, D-II, Vol.J84-D-II, No.8, pp.1772-1780, 2001. [11],,,, 8, pp. 319-324, 2002. [12],,,,, D-II, Vol.J84- D-II, No.3, pp.500-508, 2001. [13] J. G. Wang, R. Venkateswarlu, and E. T. Lim, Face tracking and recognition from stereo sequence, 4th International Conference on Audio- and Video-based Biometric Person Authentication, pp. 145-153, 2003. [14],,,,,,, PRMU2005-268, pp. 61-68, 2006. [15],,,, 2005-CVIM-151 (3), pp. 17-24, 2005. [16] E. Oja, Subspace Methods of Pattern Recognition, Research Studies Press, England, 1983 [17] T. Kozakaya, and O. Yamaguchi, Face Recognition by Projection-based 3D Normalization and Shading Subspace Orthogonalization, 7th International Conference Automatic Face and Gesture Recognition, 2006. [18] M. Nishiyama, and O. Yamaguchi, Face Recognition Using the Classified Appearance-based Quotient Image, 7th International Conference Automatic Face and Gesture Recognition, 2006. [19] T. Mita, T. Kaneko, and O. Hori, Joint Haar-like Features for Face Detection, Tenth IEEE International Conference on Computer Vision 2005, pp.1619-1626, 2005. [20],,, (D-II), Vol. J80-D-II, No. 8, pp. 2170-2177, Aug. 1997. [21],,,, 6 (SI2005), pp.1103-1104, 2005.