2. 関連研究 ジェスチャインタフェースは様々な分野 目的で利用されている. そのためジェスチャに関する研究も様々なアプローチが行われており,Grandhi らは対象に触れて行うジェスチャではなく空間上で行うパントマイムのようなジェスチャの設計方針に関する分類を行い, ジェスチャ設計のガイドラインを

Similar documents
Microsoft PowerPoint - pr_12_template-bs.pptx

HMD VR VR HMD VR HMD VR Eye-Gaze Interface on HMD for Virtual Reality Hiromu MIYASHITA Masaki HAYASHI Kenichi OKADA Faculty of Science and Technology,


2. Shepherd 1) Shepherd 1) PC PC 1 3 Cheng Wii 2) 3 3) Grossman ) ポインティング線ポインティング位置デバイスデバイス Grossman 1 3 3) 2

IPSJ SIG Technical Report Vol.2014-IOT-27 No.14 Vol.2014-SPT-11 No /10/10 1,a) 2 zabbix Consideration of a system to support understanding of f

0 21 カラー反射率 slope aspect 図 2.9: 復元結果例 2.4 画像生成技術としての計算フォトグラフィ 3 次元情報を復元することにより, 画像生成 ( レンダリング ) に応用することが可能である. 近年, コンピュータにより, カメラで直接得られない画像を生成する技術分野が生

Web Web [4] Web Web [5] Web 2 Web 3 4 Web Web 2.1 Web Web Web Web Web 2.2 Web Web Web *1 Web * 2*3 Web 3. [6] [7] [8] 4. Web 4.1 Web Web *1 Ama

スライド 1

カメラレディ原稿

円筒面で利用可能なARマーカ

ビッグデータ分析を高速化する 分散処理技術を開発 日本電気株式会社

Windows7 OS Focus Follows Click, FFC FFC focus follows mouse, FFM Windows Macintosh FFC n n n n ms n n 4.2 2

IPSJ SIG Technical Report Vol.2014-CDS-10 No /5/ Intuitive appliance control method based on high-accurate indoor localization system

IPSJ SIG Technical Report Vol.2015-CVIM-196 No /3/6 1,a) 1,b) 1,c) U,,,, The Camera Position Alignment on a Gimbal Head for Fixed Viewpoint Swi

Microsoft PowerPoint SIGAL.ppt

図 5 一次微分 図 6 コントラスト変化に伴う微分プロファイルの変化 価し, 合否判定を行う. 3. エッジ検出の原理ここでは, 一般的なエッジ検出の処理内容と, それぞれの処理におけるパラメータについて述べる. 3.1 濃度投影検出線と直交する方向に各画素をスキャンし, その濃度平均値を検出線上

IPSJ SIG Technical Report Vol.2015-MUS-106 No.18 Vol.2015-EC-35 No /3/3 1,a) ch [1] 1 Kansai University Graduate School of Inf

Microsoft Word - 卒論レジュメ_最終_.doc

平成 27 年度 ICT とくしま創造戦略 重点戦略の推進に向けた調査 研究事業 アクティブラーニングを支援する ユーザインターフェースシステムの開発 ( 報告書 ) 平成 28 年 1 月 国立高等専門学校機構阿南工業高等専門学校

近未来マルチメディア 2013 最終報告書 HMD + Kinect でゲーム作成 工学システム学類 3 年 木村優太

3 2 2 (1) (2) (3) (4) 4 4 AdaBoost 2. [11] Onishi&Yoda [8] Iwashita&Stoica [5] 4 [3] 3. 3 (1) (2) (3)

040402.ユニットテスト

Microsoft Word - thesis.doc

Microsoft PowerPoint - diip ppt

この演習について Autoware 演習 1: データの記録 再生 Autoware 演習 2: センサーキャリブレーション Autoware 演習 3:3 次元地図の作成 Autoware 演習 4: 自己位置推定 Autoware 演習 5: パラメータ調整 Autoware 演習 6: 物体検

研究報告書レイアウト例(当該年度が最終年度ではない研究班の場合)

Microsoft Word - NumericalComputation.docx

クラス図とシーケンス図の整合性確保 マニュアル

(fnirs: Functional Near-Infrared Spectroscopy) [3] fnirs (oxyhb) Bulling [4] Kunze [5] [6] 2. 2 [7] [8] fnirs 3. 1 fnirs fnirs fnirs 1

Microsoft PowerPoint - OS12.pptx

テスト設計コンテスト

de:code 2019 CM04 Azure Kinect DK 徹底解説 ~ 進化したテクノロジーとその実装 ~ 技術統括室 千葉慎二 Ph.D.

COMPUTING THE LARGEST EMPTY RECTANGLE

1307migitaDicomo.pptx

生命情報学


技術資料 JARI Research Journal OpenFOAM を用いた沿道大気質モデルの開発 Development of a Roadside Air Quality Model with OpenFOAM 木村真 *1 Shin KIMURA 伊藤晃佳 *2 Akiy

コンテンツセントリックネットワーク技術を用いた ストリームデータ配信システムの設計と実装

PowerPoint プレゼンテーション

2) では, 図 2 に示すように, 端末が周囲の AP を認識し, 認識した AP との間に接続関係を確立する機能が必要である. 端末が周囲の AP を認識する方法は, パッシブスキャンとアクティブスキャンの 2 種類がある. パッシブスキャンは,AP が定期的かつ一方的にビーコンを端末へ送信する

Microsoft Word - 博士論文概要.docx

Microsoft PowerPoint - 三次元座標測定 ppt

中継サーバを用いたセキュアな遠隔支援システム

Microsoft PowerPoint - 6.PID制御.pptx

基礎輪講2週目 Kinectの話

最小二乗法とロバスト推定


Microsoft PowerPoint - ●SWIM_ _INET掲載用.pptx

(Microsoft PowerPoint - \203|\203X\203^\201[\224\255\225\\\227p\216\221\227\ ppt)

2008 年度下期未踏 IT 人材発掘 育成事業採択案件評価書 1. 担当 PM 田中二郎 PM ( 筑波大学大学院システム情報工学研究科教授 ) 2. 採択者氏名チーフクリエータ : 矢口裕明 ( 東京大学大学院情報理工学系研究科創造情報学専攻博士課程三年次学生 ) コクリエータ : なし 3.

Kumamoto University Center for Multimedia and Information Technologies Lab. 熊本大学アプリケーション実験 ~ 実環境における無線 LAN 受信電波強度を用いた位置推定手法の検討 ~ InKIAI 宮崎県美郷

目次 1. デジタル押し花の作り方 3 2. デジタル押し花をきれいに仕上げる方法 まとめ 課題にチャレンジ 19 レッスン内容 デジタル押し花 マイクロソフト社のワープロソフト Word 2010( これ以降 Word と記述します ) の図ツールに搭載されている [ 背景

2. Apple iphoto 1 Google Picasa 2 Calendar for Everything [1] PLUM [2] LifelogViewer 3 1 Apple iphoto, 2 Goo

IPSJ SIG Technical Report Vol.2017-HCI-171 No /1/24 1,a) 1,b) 1,c) 2,d) 2,e) 1. Internet of Things IoT IoT 3D IoT 3D IoT IoT IoT 1 Graduate Sch

PowerPoint プレゼンテーション

<4D F736F F F696E74202D208CA48B868FD089EE288FDA82B582A294C5292E B8CDD8AB B83685D>

IPSJ SIG Technical Report Vol.2016-CSEC-75 No /12/1 3DCG CAPTCHA 1,a) (3D) 3DCG CAPTCHA CAPTCHA 3 3D CAPTCHA CAPTCHA 1 CAPTCHA 3 1. Web CA

ギター初心者のための 演奏練習支援システム 日本大学文理学部 情報科学科 B4 宇田川 真唯 1

Gatlin(8) 図 1 ガトリン選手のランニングフォーム Gatlin(7) 解析の特殊な事情このビデオ画像からフレームごとの静止画像を取り出して保存してあるハードディスクから 今回解析するための小画像を切り出し ランニングフォーム解析ソフト runa.exe に取り込んで 座標を読み込み この

PowerPoint プレゼンテーション

自主演習履修の手引き 自主演習とは 履修手引きには 個々の演習の内容は, 学生自らがその目標, 計画を設定する. とあります. 学生自身が学習内容を決める科目です. 自主演習の履修手順 1. 演習内容の企画 どのような演習を行いたいのか企画してください. 演習のテーマを決定してください. 必要に応じ

intra-mart Accel Platform — ViewCreator ユーザ操作ガイド   第6版  

Microsoft PowerPoint - ad11-09.pptx

<907D945D F D C789C195CF8D5888EA97978CF68A4A97702E786C7378>

IPSJ SIG Technical Report Vol.2014-HCI-160 No.8 Vol.2014-UBI-44 No /10/14 1,a) 1,b) 1,c) 1,d) 1. [1] HMD 1 Kyoto Institute of Technology a) kyok

[7] 2 [7] 2.1 Rudlf von Laban Weight Effort Space Effort Time Effort 3 1 Door Plane Shape Wheel Plane Shape Table Plane Shape

(a) (b) 2 2 (Bosch, IR Illuminator 850 nm, UFLED30-8BD) ( 7[m] 6[m]) 3 (PointGrey Research Inc.Grasshopper2 M/C) Hz (a) (b

IPSJ SIG Technical Report 3,a),b),,c) Web Web Web Patrash Patrash Patrash Design and Implementation of 3D interface for Patrash: Personalized Autonomo

THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS IEICE Technical Report IN ( ),

スライド 1

航空機の運動方程式

슬라이드 1


Web UX Web Web Web 1.2 Web GIF Kevin Burg Jamie Beck GIF GIF [2] Flixel Cinemagraph pro *1 Adobe Photoshop *2 GIMP *3 Web *1 Flixel Photos Inc. *2 *3

【資料1-2】脳神経外科手術用ナビゲーションユニット基準案あ

高橋 視覚リハ研究 6(1) 19 候補文字列の表示が小さく選択できないなどがあげられている ( 高橋,2015b) これらは 使用する日本語入力アプリの種類やその機能に問題があると考える 本研究では スマートフォンを利用する重度 LV 者にとって 推奨キーボードよりも使いやすい (VoiceOve

大域照明計算手法開発のためのレンダリングフレームワーク Lightmetrica: 拡張 検証に特化した研究開発のためレンダラ 図 1: Lightmetrica を用いてレンダリングした画像例 シーンは拡散反射面 光沢面を含み 複数の面光 源を用いて ピンホールカメラを用いてレンダリングを行った


Using VectorCAST/C++ with Test Driven Development

untitled

Microsoft Word - 1 color Normalization Document _Agilent version_ .doc

WISS 2018 [2 4] [5,6] Query-by-Dancing Query-by- Dancing Cao [1] OpenPose 2 Ghias [7] Query by humming Chen [8] Query by rhythm Jang [9] Query-by-tapp

intra-mart EX申請システム version.7.2 事前チェック

モデリングとは

Symbiotic System ト を 動物 る 人間 情報システム 応 ( ) 人間 共生 情報システム と 体の 長 体の と 体 覚 動 体 と とダイナミクスを持つ 人間と情報システムのインタ ース. コン ータに の動作をさ るために, のつ, するコ ン を, される.. イコン イン

板バネの元は固定にします x[0] は常に0です : > x[0]:=t->0; (1.2) 初期値の設定をします 以降 for 文処理のため 空集合を生成しておきます : > init:={}: 30 番目 ( 端 ) 以外については 初期高さおよび初速は全て 0 にします 初期高さを x[j]

Microsoft PowerPoint - H24全国大会_発表資料.ppt [互換モード]

IPSJ SIG Technical Report Vol.2009-DBS-149 No /11/ Bow-tie SCC Inter Keyword Navigation based on Degree-constrained Co-Occurrence Graph

スライド 1

テスト設計コンテスト

関数の定義域を制限する 関数のコマンドを入力バーに打つことにより 関数の定義域を制限することが出来ます Function[ < 関数 >, <x の開始値 >, <x の終了値 > ] 例えば f(x) = x 2 2x + 1 ( 1 < x < 4) のグラフを描くには Function[ x^

スライド 1

(C) Copyright CANVASs Co

図1 ネイルレシピ検索システム概要 ントを取得することによって ユーザの持っている服に似合う コーディネートを検索するシステムを構築することを目的とし ている [7] 本研究では ネイルレシピを対象としており 場 所に対応しているかだけでなく ユーザの好みや腕も考慮して いる 津田らは 爪の反射率の

D-Cubis [5] [6] 3D D-Cubis PasQ( ) PasQ PasQ Web HotMedia HotMedia [7] IBM Java 3D Audio 360 Web HotMedia PanoramaStudio Panorama

IPSJ SIG Technical Report Vol.2016-CLE-19 No /5/20 1,a) 2,b) 3,c) Proposal of self-reflection using the video-sharing site NISHIOKU Kazukiyo 1,a

Microsoft Word - Grspes…~…j…}…j…–…A…‰6.0.doc

コンピュータグラフィックス第8回

Microsoft PowerPoint - mp11-06.pptx

ARToolKit プログラムの仕組み 1: ヘッダファイルのインクルード 2: Main 関数 3: Main Loop 関数 4: マウス入力処理関数 5: キーボード入力処理関数 6: 終了処理関数 3: Main Loop 関数 1カメラ画像の取得 2カメラ画像の描画 3マーカの検出と認識

Transcription:

3 次元仮想空間とのインタラクションに適したジェスチャインタフェース ツールの開発 村田龍吾, 冨田勝義,Le Van Nghia, 木村朝子, 大島登志一 本研究では, ユーザを取り囲む仮想空間との 3 次元的なインタラクションにおい て, 複数の身体部位の位置や姿勢の状態によってユーザの全身動作をジェスチャ インタフェースとして利用する. そこで, アプリケーション システムにジェス チャインタフェースの機能を容易に組み込むことを目的として ジェスチャの設 計支援や登録機能を備えたソフトウェアツールを開発する. 本稿ではジェスチャ 認識手法とツールの機能について述べる. Development of a Gestural Interface Tool for Interaction with 3D Virtual Space Ryugo Murata, Katsuyoshi Tomita, Le Van Nghia, Asako Kimura and Toshikazu Ohshima This paper focuses on a gestural user interface which uses full-body motion interacting with 3d virtual space surrounding a user. We assume to use positions and orientations of multiple points on a user's body than just a few acceleration data, for deciding the gestures. For that purpose, we are developing a software tool for aiding implementation of this kind of gesture interface into VR/MR application systems. Essential functions of the tool include assisting for gesture design, capturing and analysing motion data, recognising gestures, and interactive testing. The gesture recognition approach and the functions of the tool are described in this paper. 1. はじめに 近年, 様々なデジタル電子機器の普及などによりその入力方式も多様化してきている. その中でもユーザの身体動作をシステムとの対話操作に用いるジェスチャインタフェースが注目されてきている. 身近な例では, スマートフォンやタブレット型端末のタッチパネルディスプレイによる指先の直接的な操作は, すでに一般的なものとなっている. また, 家庭用ビデオゲームでも, 任天堂社の Wii リモコン,Microsoft 社の Kinect やソニーコンピュータエンタテインメント社の PS Move など, 従来のゲームパッドのようなボタン入力ではなく, ユーザの身体動作を操作に使用するスタイルが主要なインタフェースの一つとして定着しつつある. ジェスチャインタフェースは, 直感的で自然な対話操作が可能であるという特長から前述のように利用が進んでいるが, ジェスチャインタフェースをアプリケーション システムに実際に組み込むには, まずジェスチャを設計し, そのジェスチャを認識するための機構を実装することとなる. その実装過程においては, センサの計測値と動作との対応関係を十分に把握した上で, 実現したいところのジェスチャの同定に適した特徴量の選択と認識アルゴリズムおよび判定条件の設計を行う等, 使用するセンサ 計測手段とジェスチャの種類に依存した経験的な作業を伴うという課題がある. 自由度が高々数軸程度の加速度データなどであれば単純なパターン認識モデルも比較的容易に適用可能ではあるが, 特に VR(Virtual Reality) や MR(Mixed Reality) において, ユーザを取り囲む 3 次元空間全体を操作対象とした, 全身の動作を伴うジェスチャインタフェースの場合には, 上記のような課題はより顕著となる. そこで本研究では, ユーザの複数の部位の位置 姿勢情報を一次情報として利用することを前提としながらも,Wii リモコンなどの加速度センサや Kinect のような距離画像式モーションキャプチャなども包含し得る汎用性の高い枠組みを検討し, ジェスチャインタフェースをシステムに実装する上での前記のような作業を支援するソフトウェアツールの開発を行っている. 本ツールは, 身体動作の計測と記録, 動作の特徴分析の支援, ジェスチャテンプレートの登録, ジェスチャ認識機能などを提供する. アプリケーション側からは, 本ツールでのジェスチャ認識結果を通信するためのモジュールを組み込むことで, その機能を利用することができる. 本稿では, ジェスチャインタフェースをアプリケーションに組み込むワークフローの分析を行い, その作業を支援するツールとして必要な機能について述べ, 本目的のために開発したジェスチャ認識手法とソフトウェアツールについて説明する. Ritsumeikan Unuversity 1 c2012 Information Processing Society of Japan

2. 関連研究 ジェスチャインタフェースは様々な分野 目的で利用されている. そのためジェスチャに関する研究も様々なアプローチが行われており,Grandhi らは対象に触れて行うジェスチャではなく空間上で行うパントマイムのようなジェスチャの設計方針に関する分類を行い, ジェスチャ設計のガイドラインを作成した [1].Ashbrook らが開発したデザインツール MAGIC [2] では日常動作のデータを収集し, そのデータを分析することで普段の生活の中で行われる動作によってジェスチャの誤認識が発生しにくいジェスチャの設計を支援している. また Hartmann らの Exemplar [3] ではセンサを用いたインタラクションにおいて, センサから得られる入力データとアプリケーションを関連付けるためのオーサリングツールを開発し, 設計者がジェスチャ設計において必要となる設計, テスト, 分析の繰り返し作業を迅速に行えるためのアプローチとして, ジェスチャを実演することによって閾値と入力ジェスチャの関係をグラフィカルに表示し, その結果から直感的に適切な閾値の分析や変更を実現し作業の効率化を支援している. これらの従来研究では計測部位は一箇所のみであるが, 本研究では 6 自由度の位置姿勢情報を取得可能なセンサによって同時に複数点を計測する構成において, それらの相対的な位置関係や時間的変化など様々な特徴量から全身を使った多様な動作をジェスチャとして設計 認識可能なツールを開発する. 上記の研究の知見を踏まえた上で, ジェスチャ設計 登録において考慮すべきファクターが増加した場合における作業工程の変化や問題点, 技術的課題を試験的にツールの運用を繰り返すことで洗い出す. 3. ジェスチャ認識 3.1 身体動作の特徴量本研究では複数の身体部位を計測することにより, 計測部位の位置や姿勢の時間的変化からジェスチャを認識する. また本研究で想定するジェスチャはユーザを取り囲む周囲の 3 次元空間に対してインタラクションを行う事を想定しているため, ジェスチャ認識に用いる特徴量は動作者の向きや位置に依存することなく不変であることが望まれる. そこで図 1 に示すように特徴量はあるセンサを基準とした座標系の値に変換することによって不変性を確保する. この変換には計測部位の位置ベクトル P i と姿勢行列 O i をユーザが選択した基準となる計測部位の位置ベクトル P o と姿勢行列 O 0 から式 (1) により相対的な位置ベクトル P i, 姿勢行列 O i に変換することにより行う. ' Oi 0 ' Pi Oo 1 0 1 0O i 1 0 Pi Po 1 (1) しかし, ジェスチャ認識の問題点として誤認識の発生がある. ジェスチャの誤認識を防ぐためには複数の特徴量を用いることによって識別することが考えられる. そこで 1 種類の特徴量では識別が困難となる類似動作を識別可能にするために, 位置 姿勢の時間的変化から取得可能な速度, 加速度, 角速度などを適宜選択して利用する. 3.2 提案するジェスチャ認識モデル本研究におけるツールに対する要求として以下の項目が挙げられる. ジェスチャ設計 登録の容易性 設計者の意図が反映可能な自由度の高い設計の実現 実時間でのジェスチャ認識処理実時間によるジェスチャ認識の実現のために, 連続的に入力される時系列のデータの中から登録されているテンプレートと類似するパターンを識別する手法として, ジェスチャ認識にも利用される連続 DP マッチングを利用する [4]. 連続 DP マッチングでは時間長や速さの異なる 2 つの時系列データに対して類似度を計算することが可能であるためジェスチャ認識に適しているが, ジェスチャの開始 終了時点を検出する必要がある. そこで図 2 に示すように状態機械を併用し, 連続 DP マッチングを状態の中の 1 つに組み込むことによって前後の状態によりジェスチャの開始条件 終了条件を設定し, ジェスチャの実行区間の検出を行う. また各状態に複数の遷移条件を設定することにより, 設計者の理想とするジェスチャインタフェースを実現する. 以上のことからジェスチャは複数の状態から構成され, 各状態に設定された条件を満たすことにより, 条件に応じた先の状態へ遷移を行い, 設定した最後の状態まで遷移を行った際にジェスチャを認識成功と判断する. 本研究で開発するツールでは遷移条件を大きく分けて以下の 2 つの種類を用意し,2 つの遷移条件のどちらか, もしくは 2 つを組み合わせて状態遷移モデルを構築することでジェスチャ設計 登録を行う. (1) 条件判定センサから取得した特徴パラメータの現在のフレームにおける状態 ( 速度の大きさ, 計測部位の距離等 ) が設定した閾値を上回る, もしくは下回るなどの判定により状態遷移を行う遷移条件. 図 1 特徴空間座標系 図 2 認識モデルイメージ図 2 c2012 Information Processing Society of Japan

(2) 類似度判定類似度判定はテンプレートマッチングを用いている状態の遷移条件であり, 連続 DP マッチングにより算出した 2 つのパターン間の類似度が,2 つのジェスチャが類似していると判断するための閾値より高い場合に次の状態へ遷移を行なう条件. 3.3 連続 DP マッチング本ツールで使用する連続 DP マッチングの処理を説明する. 本ツールでは条件判定によりジェスチャの開始時点を検出し, その時点における入力データからジェスチャテンプレートとの連続 DP マッチングを開始する. 連続 DP マッチングでは毎フレーム更新される入力データに対してテンプレートのデータとの類似度を動的計画法により入力フレーム i におけるテンプレートのフレーム j に対する相違度 D(i, を式 (2) を用いて算出する. ただし d(i, は入力フレーム i とテンプレートの参照フレーム j の局所距離とする. 局所距離 d(i, は式 (3) からユークリッド距離を算出する. D( i 1, d( i, 1 D ( i, mind( i, j 1) d( i, 2 (2) D( i 1, j 1) d( i, 3 d 2 2 ( i, ( R jx I ix ) ( R jy I iy ) ( R jz I iz ) (3) この漸化式から得られる図 3 に示すワーピングパスの D(t,T) における値を入力とテンプレートの類似度として利用する. また現在の入力フレームにおけるテンプレートとの最適な対応付けを行うフレーム ( 対応フレーム f ) を式 (4) を用いて現在のフレームにおける類似度の正規化した値 D (t, から求める. ' D( t, f arg min D ( t, t j j ここで得られた D (t, が最小となる j 番目のフレームを対応フレームとして判断し, 図 4 に示すように対応フレームがテンプレートのフレーム数に対して占める割合からジェスチャ入力シーケンスの終了を判断する. また連続 DP マッチングの高速化のため整合窓を設定し, ワーピングパスを対応フレームから W フレーム先までに限定することで極端な対応付けを回避することができ, 図 3 に示す赤色の領域のように最適なパスから外れた不要だと考えられるパスを除外することで計算量を削減している. 4. ジェスチャツール 4.1 概要本ツールはアプリケーション システムにジェスチャインタフェースの機能を容易 2 (4) 図 3 連続 DP による類似度計算 図 4 終了判定 に組み込むことを目的としたツールであり, そのためのジェスチャ設計 登録支援機能とジェスチャ認識機能を備える. ジェスチャ設計 登録支援機能では情報の視覚化, 直感的な入力方法, 設定の自動化といった観点から支援を行い, ジェスチャ認識ではリアルタイム性, ジェスチャ設計の自由度といった点を考慮し,3 章で述べた認識モデルを用いて認識を行う. ツール使用の基本的な流れとしては以下のようになっており, ツールの構成図を図 5 に示す. 4.2 計測機能本ツールではジェスチャを設計 登録するために, ジェスチャインタフェースとして利用したい動作を実際に行い, センサを用いて動作を計測することにより動作のテンプレートを取得する. この動作の計測には動作に適したセンサを用いて行う. 3 c2012 Information Processing Society of Japan

図 5 ツール構成概要図図 6 対象となる計測部位 利用を想定する主な位置姿勢計測手段 (1) 磁気式センサ磁気センサは, 遮蔽に強くマーカが隠れるといった心配をする必要がない. しかし, 磁気を発生させるトランスミッタから離れることにより位置推定精度が低下する. また, 磁気センサは有線である場合が多く, その場合センサを装着することにより身体的な拘束が発生するなどの問題がある. (2) 光学式センサ光学式センサは, 複数のカメラとマーカを用いて 3 次元的な位置姿勢を計測する方式であり, 比較的広範囲の動作計測が可能であるが, マーカが複数のカメラから観測不可能になると計測が出来ず, また, 身体に複数のマーカを装着する必要があるといった欠点もある. (3) Kinect センサ Kinect センサは, 距離画像情報と機械学習による身体姿勢推定によって, 身体にマーカ等を装着する必要なく身体部位の計測が可能という利点があるが, 更新速度が遅く, 遮蔽物や自身の体で計測部位が Kinect から観測不可能になるとトラッキングが破綻するといった精度の面での欠点がある. 計測部位 動作の計測をするに当たって全身の動きをジェスチャに利用するため, 一般的にアニメーションなどでも定義されている部位として図 6 に示す 15 点を計測対象となる身体部位として定義し, 計測の際にはどのセンサと計測部位が対応するかを選択する. このように計測部位をフォーマット化することによりデータベースの統一を図る. 4.3 登録機能本ツールによるジェスチャ認識を行うために, ジェスチャ認識モデルを構成する動作のテンプレート, 状態数, 遷移条件を設定することによりジェスチャを設計し, データベースへジェスチャを登録する. しかし, これらの設定をツールのユーザが手動で行うにはジェスチャ設計の経験が必要となる. そこで動作の分析の支援, 遷移条件の自動設定を可能にすることによりユーザの負担を軽減する. 動作の分析 計測機能で取得した動作データをグラフ化し, 動作計測時に撮影した動作映像と同期して表示することにより視覚的に計測値と動作の対応関係をユーザに分かるようにすることによってユーザの理解を支援する. 図 7 に示すように情報提示ウィンドウではウィンドウを 4 分割し左上に身体動作映像, 特徴ベクトルの x 軸を右上,y 軸を左下,z 軸を右下に表示する. ジェスチャ設計 登録 ジェスチャ設計 登録は以下の流れに沿って行う. (1) ジェスチャテンプレートの抽出分析結果から動作の特徴が表れている区間をグラフ中からマウスのドラッグにより範囲選択を行うことによってジェスチャ実行領域として抽出し, ジェスチャのテンプレートとして用いる. (2) 状態の分割 (1) で抽出した区間内の状態を分割したいフレームをマウスで右クリックすることにより, そのフレームを状態が遷移するフレームとして設定し, ジェスチャを複数の状態に分割することができる. ポーズジェスチャなどの 1 つの状態でジェスチャが構成される場合にはこの作業は必要ない. (3) 遷移条件の設定認識モデルに基づいて, 各状態における遷移条件を計測データの分析結果からどの特徴量 計測部位を用いて行うかを設定する. 設定した図 9 に示すダイアログに表示され, 状態 1 で設定した遷移条件がジェスチャの開始を判定する条件となる. ジェスチャ自動設計 ジェスチャの自動設計を行う際の前提条件として, 設計されるジェスチャは 2 つの状態から構成され, 本ツールでは一次情報として位置を使用することから, 状態 1 の開始条件の判定にはテンプレートの初期フレームにおける位置の情報からポーズを判定し, ポーズの類似度を用いて状態遷移を行う. 状態 2 ではテンプレートの位置情報を用いた連続 DP マッチングによる類似度判定を行うジェスチャが設計される. ジェスチャの自動設計では同一のジェスチャとするテンプレートを複数取得し, 一つのクラスタとしてまとめる. クラスタに所属する M 個のテンプレート間の相違度の総和が最小となるテンプレートを式 (5) を用いてクラスタを代表するテンプレー 4 c2012 Information Processing Society of Japan

図 7 テンプレート抽出図 8 ジェスチャ設計ダイアログ図 9 閾値の自動計算 トとして選出する. 代表テンプレートを用いて同一クラスタ内のテンプレートがすべて認識可能となる値を式 (6) を用いて算出し, 閾値として設定する ( 図 9). これによりジェスチャ設計者は登録したい複数の同様の動作を計測することでジェスチャの登録を行うことが可能となる. M t arg min Dist( T, T ) (5) i j1 i j threshold max Dist( T t, T ) (6) 認識テスト 設計したジェスチャが設計者の意図した通りのインタフェースを実現できているとは限らない. ジェスチャ認識では行った動作に対して表 1 に示すような結果が起こり得るため, 遷移条件等のジェスチャ設計の調整を行うことによってジェスチャとして認識すべき動作を認識し, 認識すべきでないジェスチャを排除する必要がある. そこで認識テストではジェスチャデータベースから複数のジェスチャを選択し, 選択したジェスチャの中から調整を行うジェスチャを選択する. その後, 選択したジェスチャとして認識すべき動作を実行する. その結果認識できなった場合にはそのジェスチャが認識可能となる遷移条件へと自動的に更新し, 実行した動作が認識成功した場合には遷移条件の更新は行わないため動作を入力として繰り返すことにより, 自動的に閾値が調整される. また調整するジェスチャと選択したジェスチャの認識経過を同時に表示することにより, 誤認識が発生する可能性のあるジェスチャや他のジェスチャとの関連性を俯瞰することができる. i 結果出力 Positive Negative 表 1 認識結果テーブル True 実行動作が意図したジェスチャとして認識 (True Positive; TP) ジェスチャではない動作を認識しない (True Negative; TN) False 実行動作が意図しない別のジェスチャとして認識 (False Positive; FP) 実行動作がジェスチャとして認識されない (False Negative; FN) 4.4 認識機能 ジェスチャセット作成 アプリケーション システムで使用が想定されるジェスチャの集合 ( ジェスチャセット ) をデータベースの中のから選択して作成する. またジェスチャを選択する際には各ジェスチャに認識成功時にアプリケーション システムに出力する ID を付与する. この ID はジェスチャ毎に固有である必要はなく, 必要に応じて同じ ID を複数のジェスチャに割り当てることによって異なるジェスチャを一つのグループとしてまとめることが可能になる. これによりアプリケーション システムでは受けっとった ID に対する処理を記述するだけでジェスチャインタフェースを組み込むことができる. 5 c2012 Information Processing Society of Japan

結果出力 本ツールでは提案するジェスチャ認識モデルを用いて実時間での時系列データの中からスポッティング認識を行う. しかしスポッティングの結果複数のジェスチャが現在実行中と判断している場合, どのジェスチャが最適解かを判断する必要があるが, 候補となる全てのジェスチャが終了してから判断するのでは動作終了から結果を返すまでに遅延が発生する. そこで本ツールでは図 10 と図 11 に示す出力結果とするジェスチャを選ぶための選択規則を 2 種類用意した. (1) 早期認識ジェスチャ優先選択スポッティングを行った結果, 複数のジェスチャが現在実行中と判断され, その中のあるジェスチャが終了したと判断した際には最初に認識成功と判断し終了したジェスチャが結果として選択し, 結果として選択されたジェスチャ以外の実行中と判断されているジェスチャは認識を中断する. (2) 類似度優先選択類似度判定をジェスチャ認識に用いている場合には, ジェスチャの終了時に入力動作と実行候補ジェスチャの類似度が求まっているため, あるジェスチャが終了判断した際に他の実行候補ジェスチャの類似度を比較し, 最も類似度が高いジェスチャを結果として出力する. ジェスチャの類似度は D(t, T) を用いて判断するため, ジェスチャが実行の冒頭段階では極端な対応付けや初期化による低い類似度となる. そのため終了したあるジェスチャが終了した時点よりも類似度が高い他のジェスチャが存在した場合には, 入力動作は類似度の高いジェスチャが実行されたと判断し優先する. 5. 運用 ツールの問題点を洗い出すためにツールを用いたジェスチャ設計 認識実験を行った. 実験では被験者をジェスチャテンプレートとする動作群と認識実験を行う動作群に分け, テンプレートには動作を行う人物本人のテンプレートが存在しない条件の下行った. また認識実験を行う動作群では 10 名の被験者を集め, ジェスチャ試行前には行う動作を提示して見せた後に各ジェスチャを 10 回試行した結果から TP, FP, FN の値を算出する. 今回の実験ではジェスチャの設計はツールの開発者が設計した. 5.1 実験 1 実験概要 実験 1 では, ジェスチャインタフェースで頻繁に利用される手を使ったジェスチャを図 12 に示す 4 パターン用意したジェスチャセットに対して認識実験を行った. 実験 1 のジェスチャのテンプレートは 2 名の被験者からテンプレートを作成している. このジェスチャセットではジェスチャ開始 終了位置, 動作軌跡などに複数の共通する動作をジェスチャ間に持たせることによって認識結果に与える影響を分析する. 図 10 早期認識ジェスチャ優先結果 図 11 類似度優先結果 結果 実験 1 の被験者毎の認識精度とジェスチごとの認識精度は図 13 に示す通りである. いずれの被験者も高い精度で認識に成功しており, 被験者自身のテンプレートがないにもかかわらず 100% 認識に成功している被験者も存在する. 全体の認識精度の平均も 90% を超えている. 5.2 実験 2 実験概要 実験 2 では, エンタテイメント性のある動作として, 図 14 に示すチャンバラゲームを想定した際の刀を振る動作を 5 パターン用意したジェスチャセットに対して認識実験を行った. 実験 2 では 3 名の動作から被験者からテンプレートを作成している. 結果 実験 1 の被験者毎の認識精度とジェスチごとの認識精度は図 15 に示す通りである. 結果として上から下に振り下ろす動作の認識精度が一番高く, 動作の軌跡が水平方向に近づくにつれ精度が低下していくという結果が得られた. 一番認識精度が高かった被験者で 92%, 低かった被験者で 60% と大きく差が開いた結果となった. 6 c2012 Information Processing Society of Japan

ジェスチャ 1 ジェスチャ 2 ジェスチャ 3 ジェスチャ 4 右手の軌跡 左手の軌跡 図 12 ハンドジェスチャセット 図 14 チャンバラジェスチャセット (a) 被験者別認識精度 (a) 被験者別認識精度 (b) ジェスチャ別認識精度図 13 実験 1 の結果 (b) ジェスチャ別認識精度図 15 実験 2 の結果 7 c2012 Information Processing Society of Japan

5.3 考察実験 1 と実験 2 の結果から, 本人のテンプレートが存在せず, 少ない数のテンプレート数でも実験 1 のように手のみを動かすような簡単で再現性の高いジェスチャであれば高精度で認識可能であることが確認できた. しかし, 実験 2 のように体全体を動かす必要のある動作の場合にはより動作の個人差が生まれ認識精度が低下する. その一つの要因として特徴量計算における座標変換が考えられる. 今回のツールでは人間の動作に着目するため座標変換を行うことによって,1 方向に対しての動作のテンプレートを取得することで全方位の動作に対応することが可能となっているため, 複数方向のテンプレートを用意する必要がない. しかし, 実験 2 のジェスチャで動作の軌跡が横に近づくにつれ認識精度が低下する傾向から, テンプレートとなる動作を行った人物には見られなかった腰の回転が影響し, 座標変換による動作の個人差による誤差が大きくなっているためだと考えられる. 上から下に振り下ろす動作には腰の回転が発生しない為, 座標変換の影響が少なく左右の動きに比べ, 比較的高精度な結果となったと考えられる. これは動作中に回転が加わる複雑なジェスチャではより顕著になると考えられるため, 本研究で対象とする動作を考慮すると, この問題を解決し, より高精度な認識を実現する必要がある. また今回の実験では少ない数のテンプレートで行ったため, このような結果が得られたが, 高精度な認識を行うためにテンプレートにはどれほどのバリエーションが必要なのかを検討する必要がある. むすび 本研究では, アプリケーション システムにジェスチャインタフェースを容易に組み込むことを目的とし, ユーザを取り囲む 3 次元空間全体を操作対象とした, 全身の動作を伴うジェスチャインタフェースを設計する際の設計支援機能と認識機構を備えた, ジェスチャデザインツールを開発した. まず, ジェスチャの構造について検討を行い, その結果から, 連続 DP マッチングによるテンプレートマッチングと状態機械の併用による状態遷移を用いた認識モデルを提案した. 認識モデルにおける詳細な処理の内容として, 本ツールで使用する認識アルゴリズムを説明した. ジェスチャの設計過程ではセンサを用いて複数点を計測することによって得られる動作の時系列データを視覚化し, ジェスチャを分析するため支援とした. そして分析結果からツールを用いて必要な設定を行うことによりプログラミングを必要とせず動作の実演からジェスチャが設計できることを説明した. その後,2 種類の実験を通してツールを運用し, ジェスチャの認識が行えることを確認した. 今後の展望として, 認識アルゴリズムの改良による認識精度の向上, およびジェスチャ設計 登録の効率化が考えられ, 高速化の方向性として認識を行うために有効で あるとされる計測部位や特徴量の自動選択やテンプレートの自動抽出などの自動化が考えられる. またアプリケーション システムで利用されるジェスチャとしては多種多様な動作であることを想定するため, ツールでは設計可能なジェスチャに自由度を持たせた結果, 設計者に複数の入力を要求する. ジェスチャ設計者の意図通りの動作を行うためには, 設計者の意思の介入は必要となるが, 設計の容易化の観点からはこの問題について解決する必要があるため, 今後多くのツールの試用実験の知見を重ね, そこから得られる評価から実際の運用における新たな課題を洗い出し, 実用性の高いジェスチャツールの実現を目指す. 参考文献 1) Sukeshini A. Grandhi, Gina Joue and Irene Mittelberg: Understanding Naturalness and Intuitiveness in Gesture Production: Insights for Touchless Gestural Interfaces, Proc. CHI, pp. 821-824, 2011. 2) Daniel Ashbrook and Thad Starner: MAGIC: A Motion Gesture Design Tool, Proc. CHI, pp. 2159-2168, 2010. 3) Björn Hartmann, Leith Abdulla, Manas Mittal, and Scott R. Klemmer: Authoring Sensor-based Interactions by Demonstrationwith Direct Manipulation and Pattern Recognition, Proc. CHI, pp. 145-154, 2007. 4) 森明慧, 内田誠一, 倉爪亮, 谷口倫一郎, 長谷川勉, 迫江博昭 : ジェスチャの早期認識 予測ならびにそれらの高精度化のためのネットワークモデルに関する検討, 日本ロボット学会誌, Vol. 24, No. 8, pp. 954-963, 2006. 8 c2012 Information Processing Society of Japan