FACS を用いた人間の感情と表情変化の相関 より良いコミュニケーションのために 遠藤史崇 * ( 指導教員石崎俊 ** ) * 慶応義塾大学総合政策学部 4 年 (2013 年 3 月卒業予定 ) ** 慶応義塾大学環境情報学部 s09161fe@sfc.keio.ac.jp, ishizaki@sfc.keio.ac.jp キーワード : コミュニケーション 認知科学 表情認識 1 はじめに本研究は 人間が様々な感情を持った相手の表情を見たときに どの程度相手の感情を読み取れるのかを明らかにすることで 実際の対人コミュニケーションに役立てることが目的である 実験手法は FACS( ファックス ) という表情分析手法により6つの感情 ( 驚き 恐怖 嫌悪 怒り 幸福 悲しみ ) に分類した顔写真を用いた ( 参考文献 1 表情分析入門: 表情に隠された意味をさぐる 誠信書房 (1987)P.Ekman, W.V.Friesen( 工藤力 ; 訳編 ) より ) 53 枚の顔写真それぞれからどのような感情を感じるかを客観的に判断してもらい その統計や分析 JMPによる分析を行うことで 人の一般的な表情の 認識率 男女 / 表情ごとの差異 を明らかにする なお 実験にあたって用いた米国人の写真はすべて 前述の 参考文献 1 からの出典であり 一般的に生活する上で単一の感情のみで表情を作る場面が少ないため 嫌悪 + 怒り など複数の感情を組み合わせた表情写真も使用した こうして行なった実験により 被験者数は現在男女それぞれ 20 人 計 40 人のデータを採取することができた 研究の結果 認識率は 驚き 75.2% 恐怖 55.3% 嫌悪 47.8% 怒り 70.4% 幸福 98.8% 悲しみ 72.1% と判明した この結果を第一段階とし 第二段階である 単一感情 と 複数感情 の表情により認識率が違う原因の分析 考察を経ることで 一般に人が表情のどの部位を見てそれぞれの感情を判断しているかを明らかにでき 円滑なコミュニケーションに寄与できるものと考えている 2 先行研究について 2.1 FACS( ファックス ) とは FACS( ファックス ) とは Facial Action Coding System の略である カリフォルニア大学医学部精神医学科の Paul Ekman らが開発した表情の記述法である 元々は精神科医や心理治療家が患者の表情を測定し 感情を認知するためのものであったが 日常生活にも応用できることから現在はドラマの題材など身近なものとなっている 参考文献 2 顔面表情認知に関わる視覚情報の心理学的研究 においても コミュニケーションツールとしての表情を 後述の AU を用いて分析を行うことの有用性や方法が論じられている
2.2 分析手法分析の手法としては AU(Action Unit) と呼ばれる 解剖学的に独立し 視覚的に識別可能な表情動作の最小単位 を組み合わせて表情を定量的に記述する 表情の動きを変換ルールに従い 44 種の AU にし それを組み合わせることによって 人間のあらゆる表情が記述可能とされている 以下が 前述の AU 番号を一部抜粋した表である表 1:AU 番号表 ( 一部抜粋 ) ( 参考文献 3 2.2.2 FACS より) 先行研究においては 以上のAU 番号表それぞれの動きの有無や度合いを組み合わせることにより6つの感情それぞれの表情の特徴が定義されている 3 実験の概要 3.1 実験内容本研究においては 参考文献 1 表情分析入門 : 表情に隠された意味をさぐる 誠信書房 (1987)P.Ekman, W.V.Friesen( 工藤力 ; 訳編 ) から 感情ごとにまとめられた写真 53 枚をランダムに配した写真集を見せることに よるアンケートを用いた ( 次ページ図 1) また 同書において被験者の国籍による表情変化の度合いには大小はあるものの 表情からの感情認識については大きな差はないことが明らかになっているため 日本人の被験者に米国人の写真を見せても 結果に大きな変化はないと推測できる 被験者は 19 歳 ~30 歳の男性 20 名と女性 20 名の計 40 名であり 年齢構成 人数ともに男女で統一している なお 被験者は表情分析や認知科学に関する専門知識は持っていない 3.2 実験手順 1 被験者に表情集と回答用紙 1セットを配布 詳細説明の後記入してもらい 回収 2 男女計 40 名の実験が終了したのち の回答については以下のスコアリング方法にのっとってスコア付けを行い Excel にまとめる [ スコアリング方法 ] あらかじめ用意していた 53 枚の表情の感情の正解と照らし合わせ 回答が のみの場合: 正解と一致していた時に 該当する感情に 1 点を加える 回答が と であった場合: のみが正解と一致していた場合は該当する感情に 0.6 点 のみが一致していた場合は該当する感情に 0.4 点を加え 両方一致していた場合には 1 点を与える また それ以外の場合は全て 0 点とする 3 以上の結果より各感情の数値の平均値を導き それをパーセンテージとする なお 記入していただいた 感情を判別したAU 番号の部位 については今後の研究に用いるため 感情毎に集計する
図 1: 実際に行った実験アンケートの冒頭部分抜粋 4. 実験結果 4.1 基本的感情の認識率研究の結果 それぞれ単一の表情の認識率は 驚き 75.2% 恐怖 55.3% 嫌悪 47.8% 怒り 70.4% 幸福 98.8% 悲しみ 72.1% と判明した 4.2 複数の感情の認識率と考察 驚き 恐怖 驚き 幸福 嫌悪 怒り 嫌悪 悲しみ の 4 つの表情の認識率については平均認識率が 50~65% と比較的元の感情と近い数値を出すことができた しかし 幸福 恐怖 幸福 悲しみ 幸福 嫌悪 嫌悪 驚き の表情は認識率が 30~45% 怒り 幸福 怒り 恐怖 恐怖 嫌悪 恐怖 悲しみ の表情には平均認識率が 10% 台 ~30% 台となり 次第に認識率が低下してい った 複数の感情が混ざることで表情の正確な判断が難しくなり 特に 嫌悪 恐怖 怒り といった負の感情は一定の共通した表情変化がある為 これらの組み合わせは判別をより難しくしていると考察できる 5 今後の実験内容今後の課題として考えられる最大の研究は 今回の研究により判明したそれぞれの表情の 認識率のズレ の判明である 例えば 実験結果によると 幸福 単体の認識率がほぼ 100% であるのに対し 幸福 悲しみ においては認識率が半分以下となっている これは 新しい感情が表情に加わることで 人が正確な感情を読み取りにくくなることを意味している 単一感情 の表情と それが混ざった 複数感情 のAU 番号の違いを比較 分析
することで どのAU 番号が感情判別に影響を与えているのか判明できるだろう そのため 分析ソフトJMPを用いてクロス検定と仮説検定により行うこととする 表現であり 心が伴わない表情を取り繕い 偽ることはできない そのため あくまでも自他の気持ちを 表情を通してより良く知り 表現するために 研究結果を使用して頂ければ幸いである 謝辞本研究を進めるにあたり ご指導いただきました慶應義塾大学環境情報学部の石崎俊教授 ORFへの出典を許可してくださった湘南藤沢学会様に厚く御礼申し上げます また実験を快諾してくださった被験者の皆様や石崎研究会 FACS グループのメンバーに深く感謝いたします 誠にありがとうございました 図 2: クロス検定による分析結果の例 ( 参考資料 4.3 男性と女性の驚いた表情に関する分析 より ) 上記の分析図 モザイク図 からは それぞれAU 番号の動きの強さはどのくらいか を 検定 からは 男女 / 国籍等 比較対象間において相関 差異が見られるか を判断することができ 結果として感情毎の表情の特徴を定義できる この方法を用いて 単一感情 / 複数感情 男性 / 女性 間の差異 相関を卒業論文完成までの期間で分析することで 最終研究結果としていきたい おわりに本研究を卒業までに完成させ 人の表情判定基準を明確化させる事で 日常生活のどの場面においても円滑なコミュニケーションの助けになると確信している しかし 表情はあくまでも自身の気持ちの 参考文献 1P.Ekman, W.V.Friesen( 工藤力 ; 訳編 ): 表情分析入門 : 表情に隠された意味をさぐる, 誠信書房 (1987) 2 渡邊伸行 伊丸岡俊秀 近江政雄 : 顔面表情認知に関わる視覚情報の心理学的研究, 電子情報通信学会技術研究報告. HCS, ヒューマンコミュニケーション基礎 108(317), pp.7-8,(2008),( ワークショップ, コミュニケーションをつむぐ身体,HCS ワークショップ ) 3 慶應義塾大学 政策 メディア 福原悦子 : 修士論文 FACS を用いた笑顔の表情分析 : 社交的笑顔と本能的笑顔の違いの抽出 (2007) 4 慶応義塾大学総合政策学部石川智 : 卒業論文 FACS を用いた表情認識に関する研究 (2012) 参考資料慶応義塾大学石崎先生研究 FACS グループ : 研究会論文 驚きの表情研究 (2011)