29 AR 30 2 13 16350901
AR AR AR AR 2
1 3 1.1....................... 3 1.1.1................. 3 1.1.2 AR............. 4 1.2................................. 5 2 6 2.0.1 AR......................... 6 2.0.2...................... 7 2.0.3................... 7 2.0.4....... 8 2.0.5......................... 9 3 12 3.1...................................... 12 3.2.................................... 12 3.2.1................................ 13 3.2.2.............................. 14 3.2.3............................ 14 3.2.4............................ 15 3.2.5............................ 16 3.2.6.............................. 17 1
4 18 4.1................................ 18 4.1.1...................... 18 4.1.2................................ 19 4.1.3 ( )........... 20 4.1.4 ( )............ 21 4.1.5.................................. 22 4.2........................... 23 4.3................................. 24 5 25 5.1...................................... 25 5.2........................... 26 5.3.................................... 27 5.3.1.................................. 28 5.3.2................................ 28 5.4............. 29 5.4.1.................................. 29 5.4.2................................ 30 5.4.3........ 30 5.4.4.................................. 31 6 35 36 2
1 AR AR 1.1 1.1.1 [1, 2] [3] 3
[4] 1.1.2 AR AR [5, 6] 1.1 AR AR ID 1.1: AR 4
AR [5] ID PC 1.2 AR 2 3 AR 4 5 5
2 AR 2.0.1 AR AR ID ARToolkit [7] 2 ID ARToolkit ARTag[8] 6
2.0.2 ランダムドットマーカとは 以上の理由より黒い枠のないマーカが広く研究されている [9] その中で ランダム ドットマーカ [10] という AR マーカが存在する このランダムドットマーカは内山らに よって開発されたマーカの一部隠蔽に対するロバスト性と自由なマーカデザイン性を持 つマーカである 従来のマーカとの違いは四角い枠を必要としない代わりに多数のドッ トを持つことである ARTag のようにマーカの枠内のビットで ID を表現するものとは 違い 事前にランダムにドットを生成して座標を登録しておき 登録されたマーカとの マッチングを行い マーカを判別する 図 2.1 のように 点への一部遮蔽があったとして も マーカを認識している 図 2.1: ランダムドットマーカ 2.0.3 ランダムドットマーカ認識手順 図 2.2 はランダムドットマーカの認識手順を表している まずカメラからの入力画像 の処理を行う 入力画像をグレースケール化し 閾値によって 2 値化処理する 生成さ 7
LLAH[11] 2.2: 2.0.4 2.3 2.3 AR 2.4 8
2.3: 2.0.5 ( 2.5) 9
2.4: HSV HSV 8 ( 2.6) 2 100 5 2.1 120 130 10
図 2.5: カメラからの入力画像 図 2.6: 赤色領域抽出画像 表 2.1: 不要ドットが多い環境での認識実験の結果 ドット数 [個] 処理時間 [ms] 従来手法 赤色抽出手法 従来手法 赤色抽出手法 1 回目 288 129 188 99 2 回目 294 125 212 86 3 回目 291 126 229 196 4 回目 286 128 196 91 5 回目 292 126 309 110 平均 290.2 126.8 226.8 98.2 11
3 3.1 3.1 HSV 2 ID 3.2 12
図 3.1: 卓上立体方式レスポンスアナライザ ような簡単な問題に回答してもらった その後 被験者にアンケートに答えてもらい そ れぞれの方式間で有意差があるかどうかを検証した 3.2.1 実験環境 被験者は九州工業大学の学生 16 名である マーカ認識距離に限界があるため 被験者 16 名を 4 名ずつの 4 グループに分け実験を行った 場所は九州工業大学の 3 つの教室で あり それぞれの教室で外からの光を遮断した 卓上立体方式レスポンスアナライザは 3.1 で述べたように赤色の背景を持った立体で ある 今回実験に用いた形状は正四角錐であり 側面 4 つに異なるマーカが印刷されてい る 側面の正三角形の一辺の長さは 20.0cm である 手持ちシート方式に用いた AR マー カシートは A4 用紙に印刷した 卓上立体方式と同じ条件にするため その AR マーカ部 分は卓上立体方式と同じ面積の正三角形である マーカを認識するために用いたカメラは Microsoft LifeCam Studio で カメラの解像度 13
640 480 3.2.2 1. 1 2. 1 5 3. 1 4 3.2 3.3 3.2: 3.3: 3.2.3 14
( ) ( ) 5 3.2.4 3.4 3.5 U 5% U (U = 76.0, p < 0.05) U 3.1 3.4: 15
3.5: 3.1: U U U Z 76.0 654.19 2.033 0.0420 124.0 494.32 0.180 0.8572 123.5 631.35 0.179 0.8579 84.5 660.90 1.692 0.0906 3.2.5 16
3.2.6 2 1 2 17
4 4.1 3 4.1 2 29.14cm 550.0cm 1. 2. 4.1.1 4.1 3 200 1 1 [12] 2 3 1 18
4.1: 30 4.1.2 640 480 30 ( 1 2 3 ) 6 ID 19
4.1: [cm] 1 0.936 20 2 1.217 10 3 0.735 30 4.1.3 ( ) 4.2 1 2 3 4.2: 4.2 20cm 2 2 20
4.2: ( ) [cm] / 1 300.6 16 / 20 2 369.0 10 / 10 3 229.8 20 / 30 4.1.4 ( ) 4.3 4.3 30 4.3 1 2 3 4.2 30 4.3: 30 21
4.3: (30 ) [cm] / 1 279.1 15 / 20 2 348.7 9 / 10 3 214.7 14 / 30 4.1.5 4.4 4.4 3 250cm 1 30 4.4: 3 250cm 1 22
4.2 300cm 3 3.3 4 1 12 50 5 4.2 4.5 8m 8m 2.75cm 4.5: 23
4.3 AR 3 24
5 5.1 25
2 5.1 5.2 OpenCV cvfindcontours 3 26
5.1: 5.3 27
5.3.1 5.2 ID:1 5 ID:6 10 20 ID:1 50% ID:20 31.4% x y 640 480 5.2: 5.3.2 5.3 5.4 x y ID:15 x y 0.3253 0.3253 28
ID:1 15 ID:15 37.0% 37.0% 5.3: 5.4 5.3 5.1 200 5.4.1 5.3 37% 200 200 29
5.4: x y 5.4.2 200 198 ID 5.4.3 5.5 5.6 5.7 x y 5.3 5.8 5.9 37% 5.10 30
5.5: 5.6: 5.4.4 5.4.3 2 37% 5.10 1) 2) 2) 37% 5.5 4.5 450cm 10 369.0cm 5.11 3 31
5.7: x y 7 5.11 5.5 4.5 530cm 32
5.8: 5.9: 5.10: x y 33
5.11: 34
6 AR AR AR 35
36
[1] Jane E Caldwell. Clickers in the large classroom: Current research and best-practice tips. CBE-Life sciences education, Vol. 6, No. 1, pp. 9 20, 2007. [2],. ( ) :. KEEPED JAPAN. http://www. keepad. com/jp/- casestudies/docs/comparison and Evaluation of Clikers in the Interactive Classroom. pdf,(accessed 2015-12-9), 2012. [3] Alaba Olaoluwakotansibe Agbatogun. Developing learners second language communicative competence through active learning: Clickers or communicative approach? Journal of Educational Technology & Society, Vol. 17, No. 2, 2014. [4],,,,,,,,.., Vol. 28, No. 5, pp. 49 56, 2014. [5] Andrew Cross, Edward Cutrell, and William Thies. Low-cost audience polling using computer vision. In Proceedings of the 25th annual ACM symposium on User interface software and technology, pp. 45 54. ACM, 2012. [6] Motoki Miura and Toyohisa Nakada. Device-free personal response system based on fiducial markers. In Wireless, Mobile and Ubiquitous Technology in Education (WMUTE), 2012 IEEE Seventh International Conference on, pp. 87 91, 2012. [7] Hirokazu Kato and Mark Billinghurst. Marker tracking and hmd calibration for a videobased augmented reality conferencing system. In Augmented Reality, 1999.(IWAR 99) Proceedings. 2nd IEEE and ACM International Workshop on (pp. 85-94). IEEE, 1999. 37
[8] Mark Fiala. Artag, a fiducial marker system using digital techniques. In Computer Vision and Pattern Recognition, 2005. CVPR 2005. IEEE Computer Society Conference on, Vol. 2, pp. 590 596. IEEE, 2005. [9] Adam Herout, Istvan Szentandrasi, Michal Zachariá, Markéta Dubská, and Rudolf Kajan. Five shades of grey for fast and reliable camera pose estimation. In Computer Vision and Pattern Recognition (CVPR), 2013 IEEE Conference on, pp. 1384 1390. IEEE, 2013. [10] Hideaki Uchiyama and Hideo Saito. Random dot markers. In Virtual Reality Conference (VR), 2011 IEEE, pp. 35 38, 2011. [11] Tomohiro Nakai, Koichi Kise, and Masakazu Iwamura. Use of affine invariants in locally likely arrangement hashing for camera-based document image retrieval. In International Workshop on Document Analysis Systems, pp. 541 552. Springer, 2006. [12] Manabu Ito and Motoki Miura. Handiness of device-free response analyzer systems in the classroom. Procedia Computer Science, Vol. 112, pp. 1829 1834, 2017. 38
AR 2017 10 Manabu Ito, Motoki Miura: Handiness of device-free response analyzer systems in classroom, Proceedings of 21th International Conference on Knowledge-Based and Intelligent Information & Engineering Systems (KES2017), Marceille, France, pp. 1829-1834, September 2017. 2017 pp. 405-408 2017 3 Manabu Ito, Motoki Miura: Evaluation of Stationary Colour AR Markers for Camerabased Student Response Analyser, Proceedings of 20th International Conference on Knowledge-Based and Intelligent Information & Engineering Systems (KES2016), Vol. 96, York, UK, pp. 904-911, September 2016. 2016 2016 3 Manabu Ito, Motoki Miura: Portable Vision-based Response Analyzer with Sheet Bending Recognition, Proceedings of GCCE 2015, Osaka, Japan, pp. 143-144, October 2015. 39