(MIRU2012) 2012 8 820-8502 680-4 E-mail: {d kouno,shimada,endo}@pluto.ai.kyutech.ac.jp (1) (2) (3) (4) 4 AdaBoost 1. Kanade [6] CLAFIC [12] EigenFace [10] 1 1 2 1 [7]
3 2 2 (1) (2) (3) (4) 4 4 AdaBoost 2. [11] Onishi&Yoda [8] Iwashita&Stoica [5] 4 [3] 3. 3 (1) (2) (3) 1 3. 1 4 1 http://www.xbox.com/en-us/
720 図 4 人物領域抽出例 730 705 700 690 3. 2 特徴量抽出 この節では人物識別に用いる特徴量について述べる 図 5 人物の立ち位置による の出力結果の違い 本手法では (1) 人物の身長 (2) 人物の面積 (3) 人物 の体型 (4) 深度ヒストグラムの 4 つを特徴量を扱って いる 注 2 本手法における身長特徴は からの距離であり 実際の 人物の身長ではないことに注意 注 3 本論文における人物の体型特徴は頭部や肩の領域の幅 720 100 60 700 110 270 705 図 6 正規化の例 y 3. 2. 1 人物の身長 人物の身長は人物間の区別において最も重要な特徴量 の一つになる 本手法では深度情報を利用することで人 物の身長に関する特徴量を求める カメラから最も近い 位置にある人物の頭部までの距離は人物ごとに異なる そこで それぞれの深度画像においてカメラから最も近 いピクセルまでの距離を抽出する このようにして人物 の頭部までの距離は得ることができるが 立ち位置によ る距離値の差という問題がある 図 5 はその問題の例を 表している. この図において 下の値はそれぞれ から得られた距離を示している この値から分かるよう に人物の立っている位置によって同一人物においても特 徴量に大きく差が出てしまう 注 2 この問題を解決するために人物の立ち位置により出力 値を正規化する 本手法では深度情報を利用することで 概ね正しく人物領域を推定することができる こうして 求められた人物領域の中心位置を基に正規化することで 同一人物内における誤差を減少させることができる 図 6 は正規化の例を表している. このようにして得られた 値を人物の身長特徴とする 3. 2. 2 人物の面積 人物の面積も人物識別において直感的で特有の特徴量 となる そこで本手法では人物領域における面積の値を 利用する この特徴量は 3. 1 節において抽出された人物 領域のピクセル数の総和を算出することにより求める 3. 2. 3 人物の体型 人物の身体の大きさ 注 3 は人物識別において最も効果 的な特徴量の一つになる 本手法では 体型特徴として x 図 7 人物の体型特徴の取得例 x 座標と y 座標における幅の大きさを使用している こ れらの値は人物領域画像の周辺分布から抽出する 人物 領域の x 座標と y 座標において幅が最大となる値を使用 する 図 7 は体型特徴の取得例を表している
255 0 0 255 8 0 255 3. 2. 4 4 0 255 0 255 8 1 0 255 256 9 0 255 255 3. 3 4 AdaBoost [2] AdaBoost 1 9 10 Adaboost 1 2 C4.5 [9] 4 C4.5 1 10 AdaBoost Weka 5 4. 8 640 480 20 160 leave-one-out 4. 1 4 1,,, 3. 2,, 4 Weka J48 5 http://www.cs.waikato.ac.nz/ml/weka/
1 [%] 74.4 40.6 73.8 90.6 + 94.4 + 91.3 + 92.5 + 90.6 + + 90.0 + + 93.1 all 93.1 +, +. all 4. 100[%] 1 (94.4%)., 4 93.1% 4. 2 2 2 A H A H E G 3 74.4% 5 6cm 2 3cm 52.5% 21.9% 40.6% [7] x y Gallagher&Chen [4] [13] 0 255 5.
2 + A B C D E F G H A 20 0 0 0 0 0 0 0 B 1 19 0 0 0 0 0 0 C 0 1 19 0 0 0 0 0 D 0 0 1 18 0 0 1 0 E 0 0 1 0 19 0 0 0 F 0 0 0 0 0 20 0 0 G 0 0 0 0 3 0 17 0 H 0 0 0 0 1 0 0 19 (1) (2) (3) (4) 4 AdaBoost C4.5 (1) (4) 2 94.4% 6 [1] pp. 1369-1379, 2008. [4] A. C. Gallagher and T. Chen. Using Context to Recognize People in Consumer Images, IPSJ Transactions on Computer Vision and Applications, Vol. 1, pp. 115-126, 2009. [5] Y. Iwashita and A. Stoica. Gait Recognition using Shadow Analysis, Proc. of Symposium on Bioinspired, Learning, and Intelligent Systems for Security 2009, pp. 26-31, 2009. [6] T. Kanade. Picture processing by computer complex and recognition of human face, Technical report, Kyoto University, Dept. of Information Science, 1973. [7] R. Nakatani, D. Kouno, K. Shimada and T. Endo. A Person Identification Method Using a Top-view Head Image from an Overhead Camera, Proc. of 2nd International Workshop on Advanced Computational Intelligence and Intelligent Informatics (IWACIII2011), SS4-1, 2011. [8] M. Onishi and I. Yoda. Visualization of Customer Flow in an Office Complex over a Long Period, Proceedings of International Conference on Pattern Recognition (ICPR), pp. 1747-1750, 2010. [9] J. R. Quinlan. C4.5 Programs for Machine Learning, Morgan Kaufmann Publishers, 1993. [10] M. Turk and A. P. Pentland. Eigenfaces for recognition, Journal of Cognitive Neuroscience, Vol. 3, No. 1, pp. 71-86, 1991. [11],,, 129, No. 6, pp.578-584, 2009. [12] S. Watanabe and N. Pakvasa. Subspace method in pattern recognition, Proc. of 1st Int. J. Conf on Pattern Recognition, pp. 2-32, 1973. [13] Vol 23 No 2 pp 13-21 2011 [1] M. Farenzena, L. Bazzani, A. Perina, V. Murino and M. Cristani. Person re-identification by symmetrydriven accumulation of local features Proc. of IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 2360-2367, 2010. [2] Y. Freund and R. E. Schapier. Experiments with a new boosting algorithm, Proc of ICML pp. 148 156, 1996. [3],,, 2008, Vol.J91-D, No. 5, 6