[12] [7] [2], [6], [8], [10]. [12] [7] 2.2 Itti [5] Itti optical flow [1], [4] [18] 2.3 [11], [16]

Similar documents
IPSJ SIG Technical Report K 1 1, 2 1, 2 1, 2 Vol.2011-CVIM-176 No /3/18 Eye-mark recorders, devices that capture a user s gaze and view, have r

3 2 2 (1) (2) (3) (4) 4 4 AdaBoost 2. [11] Onishi&Yoda [8] Iwashita&Stoica [5] 4 [3] 3. 3 (1) (2) (3)

xx/xx Vol. Jxx A No. xx 1 Fig. 1 PAL(Panoramic Annular Lens) PAL(Panoramic Annular Lens) PAL (2) PAL PAL 2 PAL 3 2 PAL 1 PAL 3 PAL PAL 2. 1 PAL

Gaze Head Eye (a) deg (b) 45 deg (c) 9 deg 1: - 1(b) - [5], [6] [7] Stahl [8], [9] Fang [1], [11] Itti [12] Itti [13] [7] Fang [1],

1(a) (b),(c) - [5], [6] Itti [12] [13] gaze eyeball head 2: [time] [7] Stahl [8], [9] Fang [1], [11] 3 -

& Vol.5 No (Oct. 2015) TV 1,2,a) , Augmented TV TV AR Augmented Reality 3DCG TV Estimation of TV Screen Position and Ro

1 Kinect for Windows M = [X Y Z] T M = [X Y Z ] T f (u,v) w 3.2 [11] [7] u = f X +u Z 0 δ u (X,Y,Z ) (5) v = f Y Z +v 0 δ v (X,Y,Z ) (6) w = Z +

(MIRU2008) HOG Histograms of Oriented Gradients (HOG)

28 Horizontal angle correction using straight line detection in an equirectangular image

(a) 1 (b) 3. Gilbert Pernicka[2] Treibitz Schechner[3] Narasimhan [4] Kim [5] Nayar [6] [7][8][9] 2. X X X [10] [11] L L t L s L = L t + L s

IPSJ SIG Technical Report GPS LAN GPS LAN GPS LAN Location Identification by sphere image and hybrid sensing Takayuki Katahira, 1 Yoshio Iwai 1

IPSJ SIG Technical Report iphone iphone,,., OpenGl ES 2.0 GLSL(OpenGL Shading Language), iphone GPGPU(General-Purpose Computing on Graphics Proc

IPSJ SIG Technical Report Vol.2012-CG-149 No.13 Vol.2012-CVIM-184 No /12/4 3 1,a) ( ) DB 3D DB 2D,,,, PnP(Perspective n-point), Ransa

IPSJ SIG Technical Report Vol.2014-CG-155 No /6/28 1,a) 1,2,3 1 3,4 CG An Interpolation Method of Different Flow Fields using Polar Inter

す 局所領域 ωk において 線形変換に用いる係数 (ak 画素の係数 (ak bk ) を算出し 入力画像の信号成分を bk ) は次式のコスト関数 E を最小化するように最適化 有さない画素に対して 式 (2) より画素値を算出する される これにより 低解像度な画像から補間によるアップサ E(

(a) (b) 2 2 (Bosch, IR Illuminator 850 nm, UFLED30-8BD) ( 7[m] 6[m]) 3 (PointGrey Research Inc.Grasshopper2 M/C) Hz (a) (b

( ), ( ) Patrol Mobile Robot To Greet Passing People Takemi KIMURA(Univ. of Tsukuba), and Akihisa OHYA(Univ. of Tsukuba) Abstract This research aims a

Fig Measurement data combination. 2 Fig. 2. Ray vector. Fig (12) 1 2 R 1 r t 1 3 p 1,i i 2 3 Fig.2 R 2 t 2 p 2,i [u, v] T (1)(2) r R 1 R 2

IPSJ SIG Technical Report Vol.2015-CVIM-196 No /3/6 1,a) 1,b) 1,c) U,,,, The Camera Position Alignment on a Gimbal Head for Fixed Viewpoint Swi

IPSJ SIG Technical Report 1,a) 1,b) 1,c) 1,d) 2,e) 2,f) 2,g) 1. [1] [2] 2 [3] Osaka Prefecture University 1 1, Gakuencho, Naka, Sakai,

258 5) GPS 1 GPS 6) GPS DP 7) 8) 10) GPS GPS ) GPS Global Positioning System

2). 3) 4) 1.2 NICTNICT DCRA Dihedral Corner Reflector micro-arraysdcra DCRA DCRA DCRA 3D DCRA PC USB PC PC ON / OFF Velleman K8055 K8055 K8055

(fnirs: Functional Near-Infrared Spectroscopy) [3] fnirs (oxyhb) Bulling [4] Kunze [5] [6] 2. 2 [7] [8] fnirs 3. 1 fnirs fnirs fnirs 1

IPSJ SIG Technical Report Vol.2009-CVIM-167 No /6/10 Real AdaBoost HOG 1 1 1, 2 1 Real AdaBoost HOG HOG Real AdaBoost HOG A Method for Reducing

27 AR

特別寄稿.indd

IPSJ SIG Technical Report Vol.2013-CVIM-188 No /9/2 1,a) D. Marr D. Marr 1. (feature-based) (area-based) (Dense Stereo Vision) van der Ma

(3.6 ) (4.6 ) 2. [3], [6], [12] [7] [2], [5], [11] [14] [9] [8] [10] (1) Voodoo 3 : 3 Voodoo[1] 3 ( 3D ) (2) : Voodoo 3D (3) : 3D (Welc

1 Fig. 1 Extraction of motion,.,,, 4,,, 3., 1, 2. 2.,. CHLAC,. 2.1,. (256 ).,., CHLAC. CHLAC, HLAC. 2.3 (HLAC ) r,.,. HLAC. N. 2 HLAC Fig. 2

Input image Initialize variables Loop for period of oscillation Update height map Make shade image Change property of image Output image Change time L

2. Eades 1) Kamada-Kawai 7) Fruchterman 2) 6) ACE 8) HDE 9) Kruskal MDS 13) 11) Kruskal AGI Active Graph Interface 3) Kruskal 5) Kruskal 4) 3. Kruskal

Silhouette on Image Object Silhouette on Images Object 1 Fig. 1 Visual cone Fig. 2 2 Volume intersection method Fig. 3 3 Background subtraction Fig. 4

DEIM Forum 2012 E Web Extracting Modification of Objec

IPSJ SIG Technical Report Vol.2015-MUS-107 No /5/23 HARK-Binaural Raspberry Pi 2 1,a) ( ) HARK 2 HARK-Binaural A/D Raspberry Pi 2 1.

光学

2. CABAC CABAC CABAC 1 1 CABAC Figure 1 Overview of CABAC 2 DCT 2 0/ /1 CABAC [3] 3. 2 値化部 コンテキスト計算部 2 値算術符号化部 CABAC CABAC

IPSJ SIG Technical Report Vol.2010-CVIM-170 No /1/ Visual Recognition of Wire Harnesses for Automated Wiring Masaki Yoneda, 1 Ta

5 インチ PDP カメラ (a) (b) 1 Fig. 1 Information display. (a) f=25mm (b) f=16mm 2 UXGA Fig. 2 Examples of captured image. [3] [4] 1 [5] [7] 1 3pixel 5 1 7pi

0 21 カラー反射率 slope aspect 図 2.9: 復元結果例 2.4 画像生成技術としての計算フォトグラフィ 3 次元情報を復元することにより, 画像生成 ( レンダリング ) に応用することが可能である. 近年, コンピュータにより, カメラで直接得られない画像を生成する技術分野が生

SICE東北支部研究集会資料(2012年)

4. C i k = 2 k-means C 1 i, C 2 i 5. C i x i p [ f(θ i ; x) = (2π) p 2 Vi 1 2 exp (x µ ] i) t V 1 i (x µ i ) 2 BIC BIC = 2 log L( ˆθ i ; x i C i ) + q

Vol1-CVIM-172 No.7 21/5/ Shan 1) 2 2)3) Yuan 4) Ancuti 5) Agrawal 6) 2.4 Ben-Ezra 7)8) Raskar 9) Image domain Blur image l PSF b / = F(

VRSJ-SIG-MR_okada_79dce8c8.pdf

IPSJ SIG Technical Report Vol.2017-MUS-116 No /8/24 MachineDancing: 1,a) 1,b) 3 MachineDancing MachineDancing MachineDancing 1 MachineDan

Optical Flow t t + δt 1 Motion Field 3 3 1) 2) 3) Lucas-Kanade 4) 1 t (x, y) I(x, y, t)

1 Table 1: Identification by color of voxel Voxel Mode of expression Nothing Other 1 Orange 2 Blue 3 Yellow 4 SSL Humanoid SSL-Vision 3 3 [, 21] 8 325

Vol. 44 No. SIG 9(CVIM 7) ) 2) 1) 1 2) 3 7) 1) 2) 3 3) 4) 5) (a) (d) (g) (b) (e) (h) No Convergence? End (f) (c) Yes * ** * ** 1

2 Fig D human model. 1 Fig. 1 The flow of proposed method )9)10) 2.2 3)4)7) 5)11)12)13)14) TOF 1 3 TOF 3 2 c 2011 Information

IPSJ SIG Technical Report Vol.2012-HCI-149 No /7/20 1 1,2 1 (HMD: Head Mounted Display) HMD HMD,,,, An Information Presentation Method for Weara

29 AR

proc.dvi

22_05.dvi

IPSJ SIG Technical Report Vol.2011-CVIM-177 No /5/19 Inside-out 1 1 Inside-Out Inside-Out Inside-Out 73 A Method of Estimating Gaze Point from

2007/8 Vol. J90 D No. 8 Stauffer [7] 2 2 I 1 I 2 2 (I 1(x),I 2(x)) 2 [13] I 2 = CI 1 (C >0) (I 1,I 2) (I 1,I 2) Field Monitoring Server

11) 13) 11),12) 13) Y c Z c Image plane Y m iy O m Z m Marker coordinate system T, d X m f O c X c Camera coordinate system 1 Coordinates and problem

2003/3 Vol. J86 D II No Fig. 1 An exterior view of eye scanner. CCD [7] CCD PC USB PC PC USB RS-232C PC

IPSJ SIG Technical Report Vol.2009-DPS-141 No.20 Vol.2009-GN-73 No.20 Vol.2009-EIP-46 No /11/27 1. MIERUKEN 1 2 MIERUKEN MIERUKEN MIERUKEN: Spe

mthesis.dvi

[6] DoN DoN DDoN(Donuts DoN) DoN 4(2) DoN DDoN 3.2 RDoN(Ring DoN) 4(1) DoN 4(3) DoN RDoN 2 DoN 2.2 DoN PCA DoN DoN 2 DoN PCA 0 DoN 3. DoN

情報処理学会研究報告 IPSJ SIG Technical Report Vol.2014-GN-90 No.6 Vol.2014-CDS-9 No.6 Vol.2014-DCC-6 No /1/23 Bullet Time 1,a) 1 Bullet Time Bullet Time

SSII原稿v5.doc

21 Pitman-Yor Pitman- Yor [7] n -gram W w n-gram G Pitman-Yor P Y (d, θ, G 0 ) (1) G P Y (d, θ, G 0 ) (1) Pitman-Yor d, θ, G 0 d 0 d 1 θ Pitman-Yor G

本文6(599) (Page 601)

図 2: 高周波成分を用いた超解像 解像度度画像とそれらを低解像度化して得られる 低解像度画像との差により低解像度の高周波成分 を得る 高解像度と低解像度の高周波成分から位 置関係を保ったままパッチ領域をそれぞれ切り出 し 高解像度パッチ画像と低解像度パッチ画像の ペアとしてデータベースに登録する

Coding theorems for correlated sources with cooperative information

SICE東北支部研究集会資料(2004年)

[1] SBS [2] SBS Random Forests[3] Random Forests ii

IPSJ SIG Technical Report Vol.2014-DPS-158 No.27 Vol.2014-CSEC-64 No /3/6 1,a) 2,b) 3,c) 1,d) 3 Cappelli Bazen Cappelli Bazen Cappelli 1.,,.,.,

3 Abstract CAD 3-D ( ) 4 Spin Image Correspondence Grouping 46.1% 17.4% 97.6% ICP [0.6mm/point] 1 CAD [1][2]

THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS TECHNICAL REPORT OF IEICE. TRECVID2012 Instance Search {sak

IPSJ SIG Technical Report Vol.2010-MPS-77 No /3/5 VR SIFT Virtual View Generation in Hallway of Cybercity Buildings from Video Sequen


社団法人人工知能学会 Japanese Society for Artificial Intelligence 人工知能学会研究会資料 JSAI Technical Report SIG-Challenge-B30 (5/5) A Method to Estimate Ball s State of

PSF SN 2 DFD PSF SN PSF PSF PSF 2 2 PSF 2 PSF PSF 2 3 PSF 4 DFD PSF PSF 3) DFD Levin 4) PSF DFD KL KL PSF DFD 2 Zhou 5) 2 DFD DFD DFD DFD Zhou 2

Honda 3) Fujii 4) 5) Agrawala 6) Osaragi 7) Grabler 8) Web Web c 2010 Information Processing Society of Japan

( 1) 3. Hilliges 1 Fig. 1 Overview image of the system 3) PhotoTOC 5) 1993 DigitalDesk 7) DigitalDesk Koike 2) Microsoft J.Kim 4). 2 c 2010

IPSJ SIG Technical Report Vol.2009-DBS-149 No /11/ Bow-tie SCC Inter Keyword Navigation based on Degree-constrained Co-Occurrence Graph

HMD VR VR HMD VR HMD VR Eye-Gaze Interface on HMD for Virtual Reality Hiromu MIYASHITA Masaki HAYASHI Kenichi OKADA Faculty of Science and Technology,

IPSJ SIG Technical Report Vol.2016-CG-165 No.16 Vol.2016-DCC-14 No.16 Vol.2016-CVIM-204 No /11/10 1 Marco Visentini Scarzanella (AR) (M

main.dvi

Vol.55 No (Jan. 2014) saccess 6 saccess 7 saccess 2. [3] p.33 * B (A) (B) (C) (D) (E) (F) *1 [3], [4] Web PDF a m

IPSJ SIG Technical Report Vol.2009-CVIM-167 No /6/ Gaze Reactive Display Simultaneously Presenting Defocus Blur and Motion Parallax Ta

IPSJ-CVIM

TC1-31st Fuzzy System Symposium (Chofu, September -, 15) cremental Neural Networ (SOINN) [5] Enhanced SOINN (ESOINN) [] ESOINN GNG Deng Evolving Self-

カメラレディ原稿

1 1 CodeDrummer CodeMusician CodeDrummer Fig. 1 Overview of proposal system c

paper.dvi

DPA,, ShareLog 3) 4) 2.2 Strino Strino STRain-based user Interface with tacticle of elastic Natural ObjectsStrino 1 Strino ) PC Log-Log (2007 6)

[2] OCR [3], [4] [5] [6] [4], [7] [8], [9] 1 [10] Fig. 1 Current arrangement and size of ruby. 2 Fig. 2 Typography combined with printing

2.2 6).,.,.,. Yang, 7).,,.,,. 2.3 SIFT SIFT (Scale-Invariant Feature Transform) 8).,. SIFT,,. SIFT, Mean-Shift 9)., SIFT,., SIFT,. 3.,.,,,,,.,,,., 1,

01-04-原口健-401

2 Hermite-Gaussian モード 2-1 Hermite-Gaussian モード 自由空間を伝搬するレーザ光は次のような Hermite-gaussian Modes を持つ光波として扱う ことができる ここで U lm (x, y, z) U l (x, z)u m (y, z) e

No. 3 Oct The person to the left of the stool carried the traffic-cone towards the trash-can. α α β α α β α α β α Track2 Track3 Track1 Track0 1


2 T. SICE Vol.41 No.12 December Figure PC (HMD) (Figure 2) HMD 9.8[m/s 2 ] 0 (Figure 3-(a)) RS-232C NTSC HMD DSC PC Converter Controlle

「hoge」

IHI Robust Path Planning against Position Error for UGVs in Rough Terrain Yuki DOI, Yonghoon JI, Yusuke TAMURA(University of Tokyo), Yuki IKEDA, Atsus

(bundle adjustment) 8),9) ),6),7) GPS 8),9) GPS GPS 8) GPS GPS GPS GPS Anai 9) GPS GPS GPS GPS GPS GPS GPS Maier ) GPS GPS Anai 9) GPS GPS M GPS M inf


Lyra X Y X Y ivis Designer Lyra ivisdesigner Lyra ivisdesigner 2 ( 1 ) ( 2 ) ( 3 ) ( 4 ) ( 5 ) (1) (2) (3) (4) (5) Iv Studio [8] 3 (5) (4) (1) (

Transcription:

1 1,2 1,2 1,2 1. [3] [13] 190 130 [19] 1 2. 2 1

[12] [7] 2 3 4 5 6 2. 2.1 [2], [6], [8], [10]. [12] [7] 2.2 Itti [5] Itti optical flow [1], [4] [18] 2.3 [11], [16] 3. 2 2

情報処理学会研究報告 3.1 住谷らのアイカメラ 3.1.1 全方位カメラ Hyper Omni Vision 住谷らの提案したアイカメラ [12] は基本的な発想を全 Sideview Inner focal point 方位カメラ Hyper Omni Vision[15] から得ている 全方位 カメラとは円錐や曲面 双曲面のミラーを用いて 360 の Small camera Half-silvered Hyperbollic mirror 映像を 1 台のカメラで記録するシステムであり Hyper Omni Vision は双曲面ミラーを用いた全方位カメラであ Topview る Hyper Omni Vision は単一視点であり 双曲面ミラー Inner focal point Outer focal point の反射により歪んだ画像を通常の透視投影画像に実時間で 変換可能という特徴がある [14] 双曲面ミラーの内焦点は Om (0, 0, +c) 外焦点は Oc (0, 0, c) である この座標系で はミラーの形状は次式で表すことができる [15] 図 1 双曲面ハーフミラーを用いたアイカメラの基本構成 [12] Fig. 1 Basic component of eye mark recorder with hyperbolodial half mirror[12] X2 + Y 2 Z2 2 = 1(Z > 0) 2 a b c = a2 + b2 (1) (2) 式中の a, b, c はミラーのパラメタである 双曲面ミラー では内焦点 Om に向かう光はすべて外焦点 Oc へ反射され るため カメラを外焦点 Oc に設置すると内焦点 Om を視 点とする光軸周り 360 の画像が取得できる 本座標系に 図 2 おける空間中の任意の三次元座標 P(X, Y, Z) に対応するカ メラ座標系上の二次元座標 u(x, y) は次式で表すことがで きる ただし f はカメラの焦点距離である 入力画像の例 Fig. 2 Example of input image 視線推定が可能 目の動きを記録できるので 視線推定を行うことが b2 c2 x=x f (b2 + c2 )Z 2bc X 2 + Y 2 + Z 2 b2 c2 y =Y f (b2 + c2 )Z 2bc X 2 + Y 2 + Z 2 (3) 可能 構造がシンプル (4) 1 台のカメラのみで利用者の視野と目の動きを記録で きるため 他のカメラや同期機構が不要 3.1.2 広視野アイカメラの基本コンセプト 住谷らの提案したアイカメラの基本的なアイディアは 3.2 森らの視線推定手法 Hyper Omni Vision の光学系に対し ミラーをハーフミ 森らは 住谷らのアイカメラの利点を活用したアピアラ ラーに変えることおよびミラーの内焦点に利用者の眼球を ンスベースでの視線推定手法を提案した [7] アピアラン 配置することである 図 1 前述のように 双曲面ハー スベースの視線推定とは眼球画像の特徴量と視線方向の関 フミラーの内焦点に向かうすべての光は外焦点に反射さ 係を学習させ 推定に用いる手法である れる よって 小型のカメラを外焦点に設置することで 学習データの注視点とアイホール画像の特徴量の対応関 内焦点を視点とした広視野な映像が取得可能となる これ 係を用いて視線方向の推定を行う アイホール画像とは入 に加え 利用者の目を内焦点におくことで 彼らの視界と 力画像 カメラ画像 中のアイホール周辺の矩形領域の画 同一の映像をカメラで取得可能である また 視線推定に 像である 入力画像の例を図 2 に示す 入力画像は中央の 用いる眼球画像を取得するためにハーフミラーに穴 アイ アイホール領域 その周辺の利用者の視野領域 一次反射 ホール が設けられている 住谷らの提案したアイカメラ ミラー領域などいくつかの領域がある アイホール画像の の主な利点を以下にまとめる 例を図 4 に示す 広視野 住谷らのアイカメラではカメラのレンズと利用者視点の 凸面ミラーを用いることで利用者自身の視角とほぼ同 間に視差が存在しないため 利用者の注視距離に関係なく じ広視野な映像を取得可能 同じ視線ベクトル上にある点はカメラ画像上の同じ位置に 無視差 映る これによりカメラと眼球 注視対象の位置関係を考 双曲面の特性により利用者とまったく同一の視点から 慮する必要なく 視線方向の推定を入力画像上の注視点推 映像を取得可能 定と等価にみなすことができる 2015 Information Processing Society of Japan 3

Learning Phase Estimation Phase Supervised Data Captured Image Binarization Noise Reduction Binarization Noise Reduction 4 Fig. 4 Eye hole image from camera Eigenvalue Decomposition Projection to Eigenspace Learning Partial Regression Coefficients Estimating Gaze Point 5 Fig. 5 Binarized and denoised eye hole image 3 [7] Fig. 3 Flowchart of Estimation[7] 2 3 3.2.1 [9] 4,5 4 5 3.2.2 I i D D = [ T I 1 Ī I 2 Ī Ī] I N (5) Ī N I = DT D I λ 0,, λ N (λ 0 > λ 1 > > λ N ) v 1 v 2 v n n (N > n) s I n A 3.2.3 s = A T (I Ī) (6) A = [v 1 v 2 v n ] (7) B [ ] u 01 u 02... u 0n U = u 11 u 12... u 1n [ ] b 01 b 02... b 0n B = b 11 b 12... b 1n [ ] 1 1... 1 S = s 1 s 2... s N (8) (9) (10) u = [u 0i, u 1i ] T U S B F. F = (U Û)2 = (U BS) 2 (11) 4

情報処理学会研究報告 ここで U は注視点の推定値である 疑似逆行列を用いて B は以下のように表すことができる B = U S T [SS T ] 1 (12) 視線推定の際には注視点 u は入力画像 I を用いて次式で算 出される. u = b0 + B 0 AT (I I) (13) ここで bi = [b0i b1i ]T, B 0 = [b1 bn ] である 図 6 アイカメラ試作システム Fig. 6 Prototype system of eye camera 4. 顕著度マップを用いた視線推定結果の補正 手法 4.1 視線推定結果の有効な補正手法を得るための課題 住谷らのアイカメラ [12] と森らの視線推定手法 [7] を組 表 1 試作システムのハードウェア構成 Table 1 Hardware Components of prototyping system 双曲面ハーフミラー み合わせた視線推定を行うと 学習フェーズと推定フェー ズにおける装着位置に変動があるとき 推定誤差が大きく なる 誤差が大きくなる原因と アイカメラの要求仕様に 計算機 カメラ 透明メタアクリル AL+SiO コーティング, 反射率 70% CPU Intel(R)Core(TM)i7-3770 Memory 8.0GB シキノハイテック 52db 1280 1024@30fps ついて述べる 4.1.1 装着位置の変動にともなうアイホール画像の変化 眼球とカメラの位置関係が変動することにより アイ ホール画像が変化し 視線推定精度が悪化することが森 ら [7] により示されている 4.1.2 視線推定方法における広視野性の維持 森ら [7] によるアピアランスベースでの視線推定手法は しい注視点候補を取得することができる これにより 広 視野性を保持しつつ推定結果の補正を行うことができる 4.2.3 ホモグラフィ変換による視線推定結果の補正 視線推定結果と顕著性マップの組を複数取得することに より 視線推定の結果から 顕著性マップにて検出した視 線位置へのホモグラフィを計算することができる このホ 視線方向に対してロバストであることが示されている 広 モグラフィ変換を視線推定結果に適用することで 視線推 視野アイカメラにおける視線推定では アピアランスベー 定結果の補正を行うことができる スでの視線推定における広視野性を保持している必要が ある 4.3 試作システムの実装 4.2 アプローチ ベースとなった住谷ら 森らのアイカメラおよび視線推定 本研究の提案手法に沿って 試作システムを実装した 4.1 節での課題と要求仕様を満たすためには 眼球とアイ カメラの位置関係の変動に影響しない手法により 視線位 手法から変更した部分を中心に実装の概要を説明する 4.3.1 アイカメラとハードウェア構成 置候補を取得し それをアピアランスベースにおける視線 試作したアイカメラは 双曲面ハーフミラー ヘルメッ 推定結果と対応付けることで 補正を行うアプローチを取 ト 小型カメラ 計算機により成る 図 6 また 本稿で ることができる 本稿では 眼球とアイカメラの位置関係 の試作システムでは アイカメラの出力を USB2.0 アイ の変動に影響しない視線位置候補の取得に顕著性マップを ソクロナス転送によりそのまま計算機への入力とした 双 用い 得られた視線位置候補と視線推定結果の対応付けか 曲面ハーフミラー カメラ 計算機について 表 1 に示し ら ホモグラフィ変換を用いることで補正を実現している た機器を用いた 4.2.1 顕著性マップを用いた視線位置候補の検出 4.3.2 視線推定手法 視界の画像から顕著性マップを計算することにより ア 森らの視線推定手法をベースとした提案手法による視線 イホール画像とは独立に視線位置候補を得る 顕著性マッ 推定の工程を図 7 に示す 学習および推定に用いる予定の プに用いる特徴量 ならびに物体検出は 利用するコンテ 眼球画像を取得するたび その画像に対して大津の手法に キストに依存して変更する より二値化閾値を決定し 得られた閾値に従って二値化を 4.2.2 視線推定結果と顕著性マップの関連付け 行い 学習および推定に用いる これにより 常に最適な 従来手法による視線推定結果のうち 視点が停留し か 二値化を行うことができ 環境照度の影響を抑えることが つ顕著性の高い位置付近を示しているものを 顕著性マッ できる ([17]). 二値化以降のノイズ除去 主成分分析 重回 プと関連付けることにより 顕著性マップ上でもっともら 帰分析については森の手法に準ずる 2015 Information Processing Society of Japan 5

Learning Phase Estimation Phase Correction 150cm Input: Supervised Data Input: Captured Image 50cm Threshold Determination Threshold Determination Binarization & Noise Reduction Binarization & Noise Reduction 8 Fig. 8 Gaze point for experiment Fig. 7 Eigenvalue Decomposition Learning Partial Regression Coefficients 7 Projection to Eigenspace Estimating Gaze Point Saliency Map Gaze Point Candidate Obtain Homography Transformation Apply Homography Transformation Corrected gaze point Eye gaze estimation and correction method 4.3.3 4.3.3.1 Itti [5] 4.3.3.2 p(x G, x p ) G(x) D x p G D N (x p, σ 2 ) 4.3.3.3 5. 5.1 60cm 8 50 ( 100, 45 ) 5 500 1 2 8 1 4 5.2 ɛ[degree] ɛ (x, y) (θ, φ) θ = arctan (y y c) (x x c ) (14) f β = arctan (x xc ) 2 + (y y c ) 2 (15) φ = arctan (b2 + c 2 ) sin (β) 2bc (b 2 c 2 ) cos (β) (16) f (x c, y c ) V cos θ cos φ V = sin θ cos φ (17) sin φ V ˆV ɛ V ˆV ˆV V ɛ = arccos ˆV V 5.3 5.3.1 (18) 1 6

2 Table 2 3 Table 3 (deg) Estimation error when eye-hole image shifted vertically(deg) 4 9.70 20.0 3 7.38 13.5 2 5.72 10.0 1 3.94 4.09 0 2.65 3.19 1 2.40 5.06 2 3.43 9.00 3 5.10 17.6 4 6.90 27.6 (deg) Estimation error when eye-hole image shifted vertically(deg) 4 8.88 35.2 3 6.85 20.1 2 5.18 11.4 1 3.59 7.76 0 2.65 3.19 1 2.57 3.11 2 3.34 5.54 3 4.62 7.73 4 6.33 9.93 4 (deg) Table 4 Estimation error with reattached eye mark 9 Fig. 9 recorder(deg) 250 200 150 100 50 0 26.5 29.4 2.65 3.186 100 150 200 250 300 350 400 450 ( ) Results of estimation and correction with reattached eye mark recorder(left eye) 250 200 150 100 50 0 100 150 200 250 300 350 400 450 1 4 2,3 5.3.2 5.4 5.4.1 10 ( ) Fig. 10 Results of estimation and correction with reattached eye mark recorder(right eye) 4 9 12 9 12 5.4.2 16 4 9% 5.3 5.3.2 7

Fig. 11 Fig. 12 11 12 250 200 150 100 50 0 100 150 200 250 300 350 400 450 ( ) Results of estimation and correction without shifting(left eye) 250 200 150 100 50 0 100 150 200 250 300 350 400 450 ( ) Results of estimation and correction without shifting(right eye) 6. [1] Avraham, T. and Lindenbaum, M.: Esaliency (extended saliency): Meaningful attention using stochastic image modeling, Pattern Analysis and Machine Intelligence, IEEE Transactions on, Vol. 32, No. 4, pp. 693 708 (2010). [2] Baluja, S. and Pomerleau, D.: Non-intrusive gaze tracking using artificial neural networks, Technical report, DTIC Document (1994). [3] Duchowski, A.: Eye tracking methodology: Theory and practice, Vol. 373, Springer (2007). [4] Harel, J., Koch, C. and Perona, P.: Graph-based visual saliency, Advances in neural information processing systems, pp. 545 552 (2006). [5] Itti, L., Koch, C. and Niebur, E.: A model of saliencybased visual attention for rapid scene analysis, IEEE Transactions on pattern analysis and machine intelligence, Vol. 20, No. 11, pp. 1254 1259 (1998). [6] Morency, L.-P., Christoudias, C. M. and Darrell, T.: Recognizing gaze aversion gestures in embodied conversational discourse, Proceedings of the 8th international conference on Multimodal interfaces, ACM, pp. 287 294 (2006). [7] Mori, H., Sumiya, E., Mashita, T., Kiyokawa, K. and Takemura, H.: A Wide-View Parallax-Free Eye-Mark Recorder with a Hyperboloidal Half-Silvered Mirror and Appearance-Based Gaze Estimation, Visualization and Computer Graphics, IEEE Transactions on, Vol. 17, No. 7, pp. 900 912 (2011). [8] Ono, Y., Okabe, T. and Sato, Y.: Gaze estimation from low resolution images, Advances in Image and Video Technology, Springer, pp. 178 188 (2006). [9] Otsu, N.: A threshold selection method from gray-level histograms, Automatica, Vol. 11, No. 285-296, pp. 23 27 (1975). [10] Schiele, B. and Waibel, A.: Gaze tracking based on facecolor, Proceedings of the International Workshop on Automatic Face-and Gesture-Recognition, Citeseer, pp. 344 349 (1995). [11] Sugano, Y., Matsushita, Y. and Sato, Y.: Calibrationfree gaze sensing using saliency maps, Computer Vision and Pattern Recognition (CVPR), 2010 IEEE Conference on, IEEE, pp. 2667 2674 (2010). [12] Sumiya, E., Mashita, T., Kiyokawa, K. and Takemura, H.: A wide-view parallax-free eye-mark recorder with a hyperboloidal half-silvered mirror, Proceedings of the 16th ACM Symposium on Virtual Reality Software and Technology, ACM, pp. 19 22 (2009). [13] (1992). [14] Yamazawa, K., Takemura, H. and Yokoya, N.: Telepresence system with an omnidirectional HD camera, Proc. 5th Asian Conf. on Computer Vision (ACCV2002), Vol. 2, pp. 533 538 (2002). [15] Yamazawa, K., Yagi, Y. and Yachida, M.: Omnidirectional imaging with hyperboloidal projection, Intelligent Robots and Systems 93, IROS 93. Proceedings of the 1993 IEEE/RSJ International Conference on, Vol. 2, IEEE, pp. 1029 1034 (1993). [16] MCMC-based particle filter (MIRU2009) (2009). [17] HDR (2013). [18] D Vol. 93, No. 8, pp. 1523 1532 (2010). [19] (2003). 8