_ _2013_八木_YR

Similar documents
Gaze Head Eye (a) deg (b) 45 deg (c) 9 deg 1: - 1(b) - [5], [6] [7] Stahl [8], [9] Fang [1], [11] Itti [12] Itti [13] [7] Fang [1],

1(a) (b),(c) - [5], [6] Itti [12] [13] gaze eyeball head 2: [time] [7] Stahl [8], [9] Fang [1], [11] 3 -

3 2 2 (1) (2) (3) (4) 4 4 AdaBoost 2. [11] Onishi&Yoda [8] Iwashita&Stoica [5] 4 [3] 3. 3 (1) (2) (3)

(a) (b) 2 2 (Bosch, IR Illuminator 850 nm, UFLED30-8BD) ( 7[m] 6[m]) 3 (PointGrey Research Inc.Grasshopper2 M/C) Hz (a) (b

Computer Security Symposium October ,a) 1,b) Microsoft Kinect Kinect, Takafumi Mori 1,a) Hiroaki Kikuchi 1,b) [1] 1 Meiji U

IPSJ SIG Technical Report 1,a) 1,b) 1,c) 1,d) 2,e) 2,f) 2,g) 1. [1] [2] 2 [3] Osaka Prefecture University 1 1, Gakuencho, Naka, Sakai,

本文6(599) (Page 601)

(MIRU2008) HOG Histograms of Oriented Gradients (HOG)

(a) 1 (b) 3. Gilbert Pernicka[2] Treibitz Schechner[3] Narasimhan [4] Kim [5] Nayar [6] [7][8][9] 2. X X X [10] [11] L L t L s L = L t + L s

[1] SBS [2] SBS Random Forests[3] Random Forests ii

IPSJ SIG Technical Report Vol.2012-CG-149 No.13 Vol.2012-CVIM-184 No /12/4 3 1,a) ( ) DB 3D DB 2D,,,, PnP(Perspective n-point), Ransa

1 Fig. 1 Extraction of motion,.,,, 4,,, 3., 1, 2. 2.,. CHLAC,. 2.1,. (256 ).,., CHLAC. CHLAC, HLAC. 2.3 (HLAC ) r,.,. HLAC. N. 2 HLAC Fig. 2

28 Horizontal angle correction using straight line detection in an equirectangular image

1 Kinect for Windows M = [X Y Z] T M = [X Y Z ] T f (u,v) w 3.2 [11] [7] u = f X +u Z 0 δ u (X,Y,Z ) (5) v = f Y Z +v 0 δ v (X,Y,Z ) (6) w = Z +

図 2: 高周波成分を用いた超解像 解像度度画像とそれらを低解像度化して得られる 低解像度画像との差により低解像度の高周波成分 を得る 高解像度と低解像度の高周波成分から位 置関係を保ったままパッチ領域をそれぞれ切り出 し 高解像度パッチ画像と低解像度パッチ画像の ペアとしてデータベースに登録する

& Vol.5 No (Oct. 2015) TV 1,2,a) , Augmented TV TV AR Augmented Reality 3DCG TV Estimation of TV Screen Position and Ro

,,.,.,,.,.,.,.,,.,..,,,, i

情報処理学会研究報告 IPSJ SIG Technical Report Vol.2011-MBL-57 No.27 Vol.2011-UBI-29 No /3/ A Consideration of Features for Fatigue Es

IPSJ SIG Technical Report Vol.2017-MUS-116 No /8/24 MachineDancing: 1,a) 1,b) 3 MachineDancing MachineDancing MachineDancing 1 MachineDan

B HNS 7)8) HNS ( ( ) 7)8) (SOA) HNS HNS 4) HNS ( ) ( ) 1 TV power, channel, volume power true( ON) false( OFF) boolean channel volume int

IPSJ SIG Technical Report Vol.2012-CG-148 No /8/29 3DCG 1,a) On rigid body animation taking into account the 3D computer graphics came

[12] [5, 6, 7] [5, 6] [7] 1 [8] 1 1 [9] 1 [10, 11] [10] [11] 1 [13, 14] [13] [14] [13, 14] [10, 11, 13, 14] 1 [12]

IPSJ SIG Technical Report Vol.2010-CVIM-170 No /1/ Visual Recognition of Wire Harnesses for Automated Wiring Masaki Yoneda, 1 Ta

4. C i k = 2 k-means C 1 i, C 2 i 5. C i x i p [ f(θ i ; x) = (2π) p 2 Vi 1 2 exp (x µ ] i) t V 1 i (x µ i ) 2 BIC BIC = 2 log L( ˆθ i ; x i C i ) + q


Symbiotic System ト を 動物 る 人間 情報システム 応 ( ) 人間 共生 情報システム と 体の 長 体の と 体 覚 動 体 と とダイナミクスを持つ 人間と情報システムのインタ ース. コン ータに の動作をさ るために, のつ, するコ ン を, される.. イコン イン

IPSJ SIG Technical Report GPS LAN GPS LAN GPS LAN Location Identification by sphere image and hybrid sensing Takayuki Katahira, 1 Yoshio Iwai 1

2) 3) LAN 4) 2 5) 6) 7) K MIC NJR4261JB0916 8) 24.11GHz V 5V 3kHz 4 (1) (8) (1)(5) (2)(3)(4)(6)(7) (1) (2) (3) (4)

Honda 3) Fujii 4) 5) Agrawala 6) Osaragi 7) Grabler 8) Web Web c 2010 Information Processing Society of Japan

顔画像を用いた個人認証システムの性能検討に関する研究

Convolutional Neural Network A Graduation Thesis of College of Engineering, Chubu University Investigation of feature extraction by Convolution

ï\éÜA4*

2003/3 Vol. J86 D II No Fig. 1 An exterior view of eye scanner. CCD [7] CCD PC USB PC PC USB RS-232C PC


258 5) GPS 1 GPS 6) GPS DP 7) 8) 10) GPS GPS ) GPS Global Positioning System

IPSJ SIG Technical Report Vol.2015-CVIM-196 No /3/6 1,a) 1,b) 1,c) U,,,, The Camera Position Alignment on a Gimbal Head for Fixed Viewpoint Swi

IPSJ SIG Technical Report Vol.2010-GN-74 No /1/ , 3 Disaster Training Supporting System Based on Electronic Triage HIROAKI KOJIMA, 1 KU

HASC2012corpus HASC Challenge 2010,2011 HASC2011corpus( 116, 4898), HASC2012corpus( 136, 7668) HASC2012corpus HASC2012corpus

WISS 2018 [2 4] [5,6] Query-by-Dancing Query-by- Dancing Cao [1] OpenPose 2 Ghias [7] Query by humming Chen [8] Query by rhythm Jang [9] Query-by-tapp

DEIM Forum 2012 E Web Extracting Modification of Objec

2007/8 Vol. J90 D No. 8 Stauffer [7] 2 2 I 1 I 2 2 (I 1(x),I 2(x)) 2 [13] I 2 = CI 1 (C >0) (I 1,I 2) (I 1,I 2) Field Monitoring Server

DPA,, ShareLog 3) 4) 2.2 Strino Strino STRain-based user Interface with tacticle of elastic Natural ObjectsStrino 1 Strino ) PC Log-Log (2007 6)

14 2 5

Web Social Networking Service Virtual Private Network 84

橡上野先生訂正2

Duplicate Near Duplicate Intact Partial Copy Original Image Near Partial Copy Near Partial Copy with a background (a) (b) 2 1 [6] SIFT SIFT SIF

Fig Measurement data combination. 2 Fig. 2. Ray vector. Fig (12) 1 2 R 1 r t 1 3 p 1,i i 2 3 Fig.2 R 2 t 2 p 2,i [u, v] T (1)(2) r R 1 R 2

untitled

[6] DoN DoN DDoN(Donuts DoN) DoN 4(2) DoN DDoN 3.2 RDoN(Ring DoN) 4(1) DoN 4(3) DoN RDoN 2 DoN 2.2 DoN PCA DoN DoN 2 DoN PCA 0 DoN 3. DoN

IPSJ SIG Technical Report Vol.2011-MUS-91 No /7/ , 3 1 Design and Implementation on a System for Learning Songs by Presenting Musical St

2). 3) 4) 1.2 NICTNICT DCRA Dihedral Corner Reflector micro-arraysdcra DCRA DCRA DCRA 3D DCRA PC USB PC PC ON / OFF Velleman K8055 K8055 K8055

IPSJ SIG Technical Report Vol.2011-EC-19 No /3/ ,.,., Peg-Scope Viewer,,.,,,,. Utilization of Watching Logs for Support of Multi-

1 (PCA) 3 2 P.Viola 2) Viola AdaBoost 1 Viola OpenCV 3) Web OpenCV T.L.Berg PCA kpca LDA k-means 4) Berg 95% Berg Web k-means k-means

IPSJ SIG Technical Report iphone iphone,,., OpenGl ES 2.0 GLSL(OpenGL Shading Language), iphone GPGPU(General-Purpose Computing on Graphics Proc

36 581/2 2012

Computer Security Symposium October 2013 Android OS kub

IPSJ SIG Technical Report Vol.2014-GN-90 No.16 Vol.2014-CDS-9 No.16 Vol.2014-DCC-6 No /1/24 1,a) 2,b) 2,c) 1,d) QUMARION QUMARION Kinect Kinect

(a) (b) 1 JavaScript Web Web Web CGI Web Web JavaScript Web mixi facebook SNS Web URL ID Web 1 JavaScript Web 1(a) 1(b) JavaScript & Web Web Web Webji

Vol1-CVIM-172 No.7 21/5/ Shan 1) 2 2)3) Yuan 4) Ancuti 5) Agrawal 6) 2.4 Ben-Ezra 7)8) Raskar 9) Image domain Blur image l PSF b / = F(

ICT a) Caption Presentation Method with Speech Expression Utilizing Speech Bubble Shapes for Video Content Yuko KONYA a) and Itiro SIIO 1. Graduate Sc

生体認証システムにおける情報漏洩対策技術の研究動向

2reN-A14.dvi

ipod touch 1 2 Apple ipod touch ipod touch 3 ( ) ipod touch ( 1 ) Apple ( 2 ) Web 1),2) 3. ipod touch 1 2 ipod touch x y z i


IS1-09 第 回画像センシングシンポジウム, 横浜,14 年 6 月 2 Hough Forest Hough Forest[6] Random Forest( [5]) Random Forest Hough Forest Hough Forest 2.1 Hough Forest 1 2.2

main.dvi

Fig. 3 Flow diagram of image processing. Black rectangle in the photo indicates the processing area (128 x 32 pixels).


2 Fig D human model. 1 Fig. 1 The flow of proposed method )9)10) 2.2 3)4)7) 5)11)12)13)14) TOF 1 3 TOF 3 2 c 2011 Information

(fnirs: Functional Near-Infrared Spectroscopy) [3] fnirs (oxyhb) Bulling [4] Kunze [5] [6] 2. 2 [7] [8] fnirs 3. 1 fnirs fnirs fnirs 1

1

(3.6 ) (4.6 ) 2. [3], [6], [12] [7] [2], [5], [11] [14] [9] [8] [10] (1) Voodoo 3 : 3 Voodoo[1] 3 ( 3D ) (2) : Voodoo 3D (3) : 3D (Welc

5b_08.dvi

日本感性工学会論文誌

(EC2014) YOUPLAY 1,a) 2,3 1 1,4,b) 1 YOUPLAY YOUPLAY YOUPLAY YOUPLAY Vol.0 (03/20 24, 2013) YOUPLAY Vol.1 (11/16 24, 2013) 2 HEP HALL

6_27.dvi

Vol. 23 No. 4 Oct Kitchen of the Future 1 Kitchen of the Future 1 1 Kitchen of the Future LCD [7], [8] (Kitchen of the Future ) WWW [7], [3

,,,,,,,,,,,,,,,,,,, 976%, i

Fig. 2 Signal plane divided into cell of DWT Fig. 1 Schematic diagram for the monitoring system

IPSJ SIG Technical Report Vol.2014-MBL-70 No.49 Vol.2014-UBI-41 No /3/15 2,a) 2,b) 2,c) 2,d),e) WiFi WiFi WiFi 1. SNS GPS Twitter Facebook Twit

塗装深み感の要因解析

IPSJ SIG Technical Report Secret Tap Secret Tap Secret Flick 1 An Examination of Icon-based User Authentication Method Using Flick Input for

IPSJ SIG Technical Report 1, Instrument Separation in Reverberant Environments Using Crystal Microphone Arrays Nobutaka ITO, 1, 2 Yu KITANO, 1

位相限定相関法と そのバイオメトリクス認証への応用

(a) (b) (c) Canny (d) 1 ( x α, y α ) 3 (x α, y α ) (a) A 2 + B 2 + C 2 + D 2 + E 2 + F 2 = 1 (3) u ξ α u (A, B, C, D, E, F ) (4) ξ α (x 2 α, 2x α y α,

THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS TECHNICAL REPORT OF IEICE.

Core1 FabScalar VerilogHDL Cache Cache FabScalar 1 CoreConnect[2] Wishbone[3] AMBA[4] AMBA 1 AMBA ARM L2 AMBA2.0 AMBA2.0 FabScalar AHB APB AHB AMBA2.0

20 Method for Recognizing Expression Considering Fuzzy Based on Optical Flow

Lyra X Y X Y ivis Designer Lyra ivisdesigner Lyra ivisdesigner 2 ( 1 ) ( 2 ) ( 3 ) ( 4 ) ( 5 ) (1) (2) (3) (4) (5) Iv Studio [8] 3 (5) (4) (1) (

No. 3 Oct The person to the left of the stool carried the traffic-cone towards the trash-can. α α β α α β α α β α Track2 Track3 Track1 Track0 1

情報処理学会研究報告 IPSJ SIG Technical Report Vol.2013-CVIM-186 No /3/15 EMD 1,a) SIFT. SIFT Bag-of-keypoints. SIFT SIFT.. Earth Mover s Distance

光学


[2] OCR [3], [4] [5] [6] [4], [7] [8], [9] 1 [10] Fig. 1 Current arrangement and size of ruby. 2 Fig. 2 Typography combined with printing

知能と情報, Vol.30, No.5, pp

光学

21 Key Exchange method for portable terminal with direct input by user

IPSJ SIG Technical Report Vol.2013-CVIM-187 No /5/30 1,a) 1,b), 1,,,,,,, (DNN),,,, 2 (CNN),, 1.,,,,,,,,,,,,,,,,,, [1], [6], [7], [12], [13]., [

パナソニック技報

5D1 SY0004/14/ SICE 1, 2 Dynamically Consistent Motion Design of Humanoid Robots even at the Limit of Kinematics Kenya TANAKA 1 and Tomo

Transcription:

共生社会に向けた人間調和型情報技術の構築 平成 [ 採択年度 ] 年度採択研究代表者 H25 年度 実績報告 八木康史 大阪大学産業科学研究所 教授 歩容意図行動モデルに基づいた人物行動解析と心を写す情報環境の構築 1. 研究実施体制 (1) 八木グループ 1 研究代表者 : 八木康史 ( 大阪大学産業科学研究所 教授 ) P1 行動情報のセンシング P1-2-5 視点変化に対応した歩容認証 P1-2-6 非定常歩容個人 性別 年代識別 P2-2-2 視線 - 頭部 - 歩容 - 行動軌跡 P2-3 集団における歩容意図行動コーパス P3 歩容意図行動のモデル化 P3-2-1 視線 - 頭部姿勢 - 歩容からの個人モデル P3-2-2 歩容 - 行動軌跡からの個人モデル P3-2-3 ハイブリッド型個人モデル P3-3 集団における歩容意図行動モデル P4 心を写す情報環境の構築 P4-1-1 行動分析のための要因の可視化 P4-1-2 即時フィードバック (2) 波部グループ 1 主たる共同研究者 : 波部斉 ( 近畿大学理工学部 講師 ) 1

P2-3 集団における歩容意図行動コーパス P3 歩容意図行動のモデル化 P3-1 歩容意図を表す語句検討 (3) 塩入グループ ( 研究機関別 ) 1 主たる共同研究者 : 塩入諭 ( 東北大学電気通信研究所 教授 ) P2-2-1 歩行時の注意 - 視線 - 頭部運動 - 歩容 P4 心を写す情報環境の構築 P4-1-2 即時フィードバック 2

2. 研究実施の概要 我々は 人が歩く様子 ( 以下 歩容 ) を観察するだけでも その人の感情や意志 意図 健康状態を察することができる 本研究課題では 歩容と意図の関係を明らかにすることで 歩容から意図や心身状態 人間関係を読み取る技術を構築することを目的としている また その派生技術として 指定された歩行動作 ( 場に埋め込まれた意図に従う歩行 ) をどの程度達成できるかを評価することで高齢者の要介護度を推定する技術についても研究を行う 八木グループは 本研究課題の研究代表機関として全体を統括しつつ 個々の研究項目についても技術開発や分析の中心的な役割を担った 本研究課題はその性質上 まず実際の歩行者データを大量に収集し その中から一貫して現れる特徴を探索するというアプローチをとることになる そのため 実施期間の前半すなわち昨年度までは 意味のあるデータを収集するための環境設計 計測技術 分析技術などに注力してきた 本年度は これらの蓄積を踏まえつつ 次年度から実施する 心を写す情報環境の構築 に向むけて応用場面を選択 具体化し 各場面に必要となる環境設計や計測 分析技術について主に研究を行った 具体的には 商業利用 安心安全 高齢者支援 の 3 つを本研究課題の応用場面として取り上げ 各場面に応じた情報提示やそれを実現するために必要となる技術を具体化した データ収集にあたっては 商業利用 については CREST 神田チーム 高齢者支援 については高齢者施設みささぎ会との折衝が必要となったが これらについても八木グループが中心的に行った 波部グループは 本研究課題の中でも特に集団に着目した研究を担当している 興味 関心 目的や社会的な属性を共有している集団を発見し その状態や集団の中での役割を推定する技術の実現に取り組んでいる 本年度は,CREST 神田チームの協力により得られた大規模商業施設のデータを用いたコーパスの作成を行うとともに それを用いて個人属性 ( 性別 ) 推定 個人間の相互作用を表す動作 ( 指示など ) を検出し それによって集団を検出する研究を実施した 塩入グループは 人間視覚研究の観点から本研究課題を捉え これまでに非歩行時の眼球方向と 頭部方向 胸部方向の関係についてモデル化してきた 本年度は 八木グループと密接に連携し 同モデルを歩行時に拡張した また 日常環境においては歩きながら何か興味があるものを見る際 チラッと見るだけではなくじっと見続けることも多いことに着目し 対象をじっと見続ける場合における頭部と眼球方向の関係についても調査した その結果 長時間対象を見る場合に 頭部が対象の方向により近づき 対象をより頭部正面で捉えようとする傾向を確認した さらに 心を写す情報環境の構築 に向けて 即時フィードバック手法の確立の第一歩として 視覚探索 ( ものさがし ) 実験において 頭部を向けてはいけない領域 ( 禁止領域 ) を設けた課題を行った その結果 禁止領域がない場合に比べて 禁止領域に頭部が向かないようになった さらに 禁止領域がある方向への頭部運動速度が低下するという違いも見られた 3

3. 成果発表等 (3-1) 原著論文発表 論文詳細情報 ( 国際 ) 1 D. Muramatsu, Y. Makihara and Y. Yagi, Gait Recognition by Fusing Direct Cross-view Matching Scores for Criminal Investigation, IPSJ Trans. on Computer Vision and Applications, Vol. 5, pp. 35-39, July 2013 (DOI: 10.2197/ipsjtcva.5.35) 2 H. Nakajima, I. Mitsugami and Y. Yagi, Depth-Based Gait Feature representation, IPSJ Transactions on Computer Vision and Applications (CVA), Vol. 5, pp. 94-98, July 2013 (DOI: 10.2197/ipsjtcva.5.94) 3 Yoshiyuki Kashiwase, Kazumichi Matsumiya, Ichiro Kuriki and Satoshi Shioiri, Temporal Dynamics of Visual Attention Measured with Event-Related Potentials, PLoS ONE, Vol. 8, No. 8, e70922, Aug. 2013 (DOI: 10.1371/journal.pone.0070922) 4 Satoshi Shioiri, Takanori Yamazaki, Kazumichi Matsumiya and Ichiro Kuriki, Rotation-independent representations for haptic movements, Scientific Reports, Vol. 3, No. 2595, pp. 1-7, Sept. 2013 (DOI: 10.1038/srep02595) 5 Ryoichi Nakashima and Satoshi Shioiri, Why Do We Move Our Head to Look at an Object in Our Peripheral Region? Lateral Viewing Interferes with Attentive Search, PLoS ONE, Vol. 9, No. 3, e92284, March 2014 (DOI: 10.1371/journal.pone.0092284) proceedings( 査読審査の入るものに限る ) 6 Y. Makihara, D. Muramatsu, H. Iwama and Y. Yagi, On Combining Gait Features, Proc. of the 10th IEEE Conf. on Automatic Face and Gesture Recognition (FG 2013), Paper ID: 355, pp. 1-8, April 2013 (DOI: 10.1109/FG.2013.6553797) 7 D. Muramatsu, H. Iwama, Y. Makihara and Y. Yagi, Multi-view Multi-modal Person Authentication from a Single Walking Image Sequence, Proc. of the 6th IAPR Int. Conf. on Biometrics (ICB 2013), Paper ID: 92, pp. 1-8, June 2013 (DOI: 10.1109/ICB.2013.6612979) 8 D. Muramatsu, Y. Makihara and Y. Yagi, Quality-dependent View Transformation Model for Cross-view Gait Recognition, Proc. of the IEEE 6th Int. Conf. on Biometrics: Theory, Applications and Systems (BTAS 2013), Paper ID: 12, pp. 1-8, Sept. 2013 (DOI: 10.1109/BTAS.2013.6712696) 9 M. Nakazawa, I. Mitsugami, H. Yamazoe and Y. Yagi, Distinguishing Pedestrians Facing to the Front and the Side by Gait Observation, Proc. of the 2nd IAPR Asian 4

Conference on Pattern Recognition (ACPR2013), pp. 486-490, Nov. 2013 (DOI: 10.1109/ACPR.2013.136) 10 T. Okada, H. Yamazoe, I. Mitsugami and Y. Yagi, Preliminary Analysis of Gait Changes that Correspond to Gaze Directions, Proc. of the International Joint Workshop on Advanced Sensing / Visual Attention and Interaction -Toward Creation of Human- -Harmonized Information Technology- (ASVAI2013), pp.788-792, Nov. 2013 (DOI: 10.1109/ACPR.2013.184) 11 H. Habe, K. Kajiwara, I. Mitsugami and Y. Yagi, Group Leadership Estimation Based on Influence of Pointing Actions, Proc. of the International Joint Workshop on Advanced Sensing / Visual Attention and Interaction -Toward Creation of Human- -Harmonized Information Technology- (ASVAI2013), pp. 775-778, Nov. 2013 (10.1109/ACPR.2013.181) 12 A. Hiratani, R. Nakashima, K. Matsumiya, I. Kuriki and S. Shioiri, Considerations of self-motion in motion saliency, Proc. of the International Joint Workshop on Advanced Sensing / Visual Attention and Interaction -Toward Creation of Human-Harmonized Information Technology- (ASVAI2013), pp. 783-787, Nov.2013 (10.1109/ACPR.2013.183) 13 D. Muramatsu, Y. Makihara and Y. Yagi, Are Intermediate Views Beneficial for Gait Recognition using a View Transformation Model?, Proc. of the 20th Korea-Japan Joint Workshop on Frontiers of Computer Vision (FCV 2014), pp. 222-227, Feb. 2014 14 C. Zhou, I. Mitsugami and Y. Yagi, Which Gait Feature Is E ective for Impairment Estimation?, Proc. of the 20th Korea-Japan Joint Workshop on Frontiers of Computer Vision (FCV 2014), pp. 261-264, Nago, Japan, Feb. 2014 15 D. Muramatsu, Y. Makihara and Y. Yagi, View transformation-based Cross View Gait Recognition Using Transformation Consistency Measure, Proc. of the 2nd Int. Workshop on Biometrics and Forensics (IWBF 2014), March 2014 5