Spin Image [3] 3D Shape Context [4] Spin Image 2 3D Shape Context Shape Index[5] Local Surface Patch[6] DAI [7], [8] [9], [10] Reference Frame SHO[11]

Similar documents
3 Abstract CAD 3-D ( ) 4 Spin Image Correspondence Grouping 46.1% 17.4% 97.6% ICP [0.6mm/point] 1 CAD [1][2]

(MIRU2008) HOG Histograms of Oriented Gradients (HOG)

258 5) GPS 1 GPS 6) GPS DP 7) 8) 10) GPS GPS ) GPS Global Positioning System

IPSJ SIG Technical Report Vol.2012-CG-149 No.13 Vol.2012-CVIM-184 No /12/4 3 1,a) ( ) DB 3D DB 2D,,,, PnP(Perspective n-point), Ransa

Duplicate Near Duplicate Intact Partial Copy Original Image Near Partial Copy Near Partial Copy with a background (a) (b) 2 1 [6] SIFT SIFT SIF

4. C i k = 2 k-means C 1 i, C 2 i 5. C i x i p [ f(θ i ; x) = (2π) p 2 Vi 1 2 exp (x µ ] i) t V 1 i (x µ i ) 2 BIC BIC = 2 log L( ˆθ i ; x i C i ) + q

& Vol.5 No (Oct. 2015) TV 1,2,a) , Augmented TV TV AR Augmented Reality 3DCG TV Estimation of TV Screen Position and Ro

3 2 2 (1) (2) (3) (4) 4 4 AdaBoost 2. [11] Onishi&Yoda [8] Iwashita&Stoica [5] 4 [3] 3. 3 (1) (2) (3)

IPSJ SIG Technical Report Vol.2010-CVIM-170 No /1/ Visual Recognition of Wire Harnesses for Automated Wiring Masaki Yoneda, 1 Ta

[2] OCR [3], [4] [5] [6] [4], [7] [8], [9] 1 [10] Fig. 1 Current arrangement and size of ruby. 2 Fig. 2 Typography combined with printing

1 Kinect for Windows M = [X Y Z] T M = [X Y Z ] T f (u,v) w 3.2 [11] [7] u = f X +u Z 0 δ u (X,Y,Z ) (5) v = f Y Z +v 0 δ v (X,Y,Z ) (6) w = Z +

IPSJ SIG Technical Report Vol.2009-CVIM-167 No /6/10 Real AdaBoost HOG 1 1 1, 2 1 Real AdaBoost HOG HOG Real AdaBoost HOG A Method for Reducing

xx/xx Vol. Jxx A No. xx 1 Fig. 1 PAL(Panoramic Annular Lens) PAL(Panoramic Annular Lens) PAL (2) PAL PAL 2 PAL 3 2 PAL 1 PAL 3 PAL PAL 2. 1 PAL

1 Fig. 1 Extraction of motion,.,,, 4,,, 3., 1, 2. 2.,. CHLAC,. 2.1,. (256 ).,., CHLAC. CHLAC, HLAC. 2.3 (HLAC ) r,.,. HLAC. N. 2 HLAC Fig. 2

[1] SBS [2] SBS Random Forests[3] Random Forests ii

yoo_graduation_thesis.dvi

2). 3) 4) 1.2 NICTNICT DCRA Dihedral Corner Reflector micro-arraysdcra DCRA DCRA DCRA 3D DCRA PC USB PC PC ON / OFF Velleman K8055 K8055 K8055

1 Web [2] Web [3] [4] [5], [6] [7] [8] S.W. [9] 3. MeetingShelf Web MeetingShelf MeetingShelf (1) (2) (3) (4) (5) Web MeetingShelf

IPSJ SIG Technical Report iphone iphone,,., OpenGl ES 2.0 GLSL(OpenGL Shading Language), iphone GPGPU(General-Purpose Computing on Graphics Proc

[6] DoN DoN DDoN(Donuts DoN) DoN 4(2) DoN DDoN 3.2 RDoN(Ring DoN) 4(1) DoN 4(3) DoN RDoN 2 DoN 2.2 DoN PCA DoN DoN 2 DoN PCA 0 DoN 3. DoN

(a) 1 (b) 3. Gilbert Pernicka[2] Treibitz Schechner[3] Narasimhan [4] Kim [5] Nayar [6] [7][8][9] 2. X X X [10] [11] L L t L s L = L t + L s

2007/8 Vol. J90 D No. 8 Stauffer [7] 2 2 I 1 I 2 2 (I 1(x),I 2(x)) 2 [13] I 2 = CI 1 (C >0) (I 1,I 2) (I 1,I 2) Field Monitoring Server

IPSJ SIG Technical Report 1,a) 1,b) 1,c) 1,d) 2,e) 2,f) 2,g) 1. [1] [2] 2 [3] Osaka Prefecture University 1 1, Gakuencho, Naka, Sakai,

VRSJ-SIG-MR_okada_79dce8c8.pdf

IS1-09 第 回画像センシングシンポジウム, 横浜,14 年 6 月 2 Hough Forest Hough Forest[6] Random Forest( [5]) Random Forest Hough Forest Hough Forest 2.1 Hough Forest 1 2.2

2. CABAC CABAC CABAC 1 1 CABAC Figure 1 Overview of CABAC 2 DCT 2 0/ /1 CABAC [3] 3. 2 値化部 コンテキスト計算部 2 値算術符号化部 CABAC CABAC

す 局所領域 ωk において 線形変換に用いる係数 (ak 画素の係数 (ak bk ) を算出し 入力画像の信号成分を bk ) は次式のコスト関数 E を最小化するように最適化 有さない画素に対して 式 (2) より画素値を算出する される これにより 低解像度な画像から補間によるアップサ E(

IPSJ SIG Technical Report Vol.2014-MBL-70 No.49 Vol.2014-UBI-41 No /3/15 2,a) 2,b) 2,c) 2,d),e) WiFi WiFi WiFi 1. SNS GPS Twitter Facebook Twit

IPSJ SIG Technical Report Vol.2015-CVIM-196 No /3/6 1,a) 1,b) 1,c) U,,,, The Camera Position Alignment on a Gimbal Head for Fixed Viewpoint Swi

(a) (b) 2 2 (Bosch, IR Illuminator 850 nm, UFLED30-8BD) ( 7[m] 6[m]) 3 (PointGrey Research Inc.Grasshopper2 M/C) Hz (a) (b

14 2 5

,,.,.,,.,.,.,.,,.,..,,,, i

IPSJ SIG Technical Report Vol.2013-CVIM-188 No /9/2 1,a) D. Marr D. Marr 1. (feature-based) (area-based) (Dense Stereo Vision) van der Ma

28 TCG SURF Card recognition using SURF in TCG play video

光学

(MIRU2005) ( ) Radim Šára Globally Optimal Range Image Registration by G

IPSJ SIG Technical Report Vol.2011-EC-19 No /3/ ,.,., Peg-Scope Viewer,,.,,,,. Utilization of Watching Logs for Support of Multi-

310 T. SICE Vol.51 No.5 May 2015 Konolige 7) Correlationbased Markov Localization Olson 8) Konolige Dellaert 9) Monte Carlo Localization (MCL) 10) 2 2

Optical Flow t t + δt 1 Motion Field 3 3 1) 2) 3) Lucas-Kanade 4) 1 t (x, y) I(x, y, t)

SICE東北支部研究集会資料(2013年)

IPSJ SIG Technical Report Vol.2016-CVIM-201 No /3/3 Brick Partitioning 1,a) Winner Update Algorithm(WUA) Multilevel Successive Elimination

( ), ( ) Patrol Mobile Robot To Greet Passing People Takemi KIMURA(Univ. of Tsukuba), and Akihisa OHYA(Univ. of Tsukuba) Abstract This research aims a

Silhouette on Image Object Silhouette on Images Object 1 Fig. 1 Visual cone Fig. 2 2 Volume intersection method Fig. 3 3 Background subtraction Fig. 4

Input image Initialize variables Loop for period of oscillation Update height map Make shade image Change property of image Output image Change time L

8.dvi

IPSJ SIG Technical Report Vol.2015-UBI-47 No.23 Vol.2015-ASD-2 No /7/ , HOG Parameter Estimation from Videos in Monocular Camera for Eva

,4) 1 P% P%P=2.5 5%!%! (1) = (2) l l Figure 1 A compilation flow of the proposing sampling based architecture simulation

(3.6 ) (4.6 ) 2. [3], [6], [12] [7] [2], [5], [11] [14] [9] [8] [10] (1) Voodoo 3 : 3 Voodoo[1] 3 ( 3D ) (2) : Voodoo 3D (3) : 3D (Welc

3 1 Table 1 1 Feature classification of frames included in a comic magazine Type A Type B Type C Others 81.5% 10.3% 5.0% 3.2% Fig. 1 A co

DEIM Forum 2012 E Web Extracting Modification of Objec

IPSJ SIG Technical Report Vol.2010-MPS-77 No /3/5 VR SIFT Virtual View Generation in Hallway of Cybercity Buildings from Video Sequen

Fig. 3 Flow diagram of image processing. Black rectangle in the photo indicates the processing area (128 x 32 pixels).

円筒面で利用可能なARマーカ

28 Horizontal angle correction using straight line detection in an equirectangular image

2003/3 Vol. J86 D II No Fig. 1 An exterior view of eye scanner. CCD [7] CCD PC USB PC PC USB RS-232C PC

IPSJ SIG Technical Report Vol.2014-IOT-27 No.14 Vol.2014-SPT-11 No /10/10 1,a) 2 zabbix Consideration of a system to support understanding of f

proc.dvi

IPSJ SIG Technical Report Vol.2014-DBS-159 No.6 Vol.2014-IFAT-115 No /8/1 1,a) 1 1 1,, 1. ([1]) ([2], [3]) A B 1 ([4]) 1 Graduate School of Info

1 Table 1: Identification by color of voxel Voxel Mode of expression Nothing Other 1 Orange 2 Blue 3 Yellow 4 SSL Humanoid SSL-Vision 3 3 [, 21] 8 325

情報処理学会研究報告 IPSJ SIG Technical Report Vol.2017-CG-166 No /3/ HUNTEXHUNTER1 NARUTO44 Dr.SLUMP1,,, Jito Hiroki Satoru MORITA The

2 Fig D human model. 1 Fig. 1 The flow of proposed method )9)10) 2.2 3)4)7) 5)11)12)13)14) TOF 1 3 TOF 3 2 c 2011 Information

WISS 2018 [2 4] [5,6] Query-by-Dancing Query-by- Dancing Cao [1] OpenPose 2 Ghias [7] Query by humming Chen [8] Query by rhythm Jang [9] Query-by-tapp

IPSJ SIG Technical Report Vol.2012-HCI-149 No /7/20 1 1,2 1 (HMD: Head Mounted Display) HMD HMD,,,, An Information Presentation Method for Weara

IPSJ SIG Technical Report Vol.2014-DPS-158 No.27 Vol.2014-CSEC-64 No /3/6 1,a) 2,b) 3,c) 1,d) 3 Cappelli Bazen Cappelli Bazen Cappelli 1.,,.,.,

IPSJ SIG Technical Report NetMAS NetMAS NetMAS One-dimensional Pedestrian Model for Fast Evacuation Simulator Shunsuke Soeda, 1 Tomohisa Yam

a) Extraction of Similarities and Differences in Human Behavior Using Singular Value Decomposition Kenichi MISHIMA, Sayaka KANATA, Hiroaki NAKANISHI a

IPSJ SIG Technical Report Vol.2009-DPS-141 No.23 Vol.2009-GN-73 No.23 Vol.2009-EIP-46 No /11/27 t-room t-room 2 Development of

IPSJ SIG Technical Report GPS LAN GPS LAN GPS LAN Location Identification by sphere image and hybrid sensing Takayuki Katahira, 1 Yoshio Iwai 1

No. 3 Oct The person to the left of the stool carried the traffic-cone towards the trash-can. α α β α α β α α β α Track2 Track3 Track1 Track0 1

1 (PCA) 3 2 P.Viola 2) Viola AdaBoost 1 Viola OpenCV 3) Web OpenCV T.L.Berg PCA kpca LDA k-means 4) Berg 95% Berg Web k-means k-means

(a) (b) (c) Canny (d) 1 ( x α, y α ) 3 (x α, y α ) (a) A 2 + B 2 + C 2 + D 2 + E 2 + F 2 = 1 (3) u ξ α u (A, B, C, D, E, F ) (4) ξ α (x 2 α, 2x α y α,

IPSJ SIG Technical Report Vol.2014-CG-155 No /6/28 1,a) 1,2,3 1 3,4 CG An Interpolation Method of Different Flow Fields using Polar Inter

IPSJ SIG Technical Report Vol.2015-CVIM-195 No /1/23 RGB-D RGB 3 1,a) RGB-D RGB-D 3. RGB CG RGB DTAM[1] MonoFusi


IPSJ SIG Technical Report Vol.2012-CG-148 No /8/29 3DCG 1,a) On rigid body animation taking into account the 3D computer graphics came

図 2: 高周波成分を用いた超解像 解像度度画像とそれらを低解像度化して得られる 低解像度画像との差により低解像度の高周波成分 を得る 高解像度と低解像度の高周波成分から位 置関係を保ったままパッチ領域をそれぞれ切り出 し 高解像度パッチ画像と低解像度パッチ画像の ペアとしてデータベースに登録する


1 7.35% 74.0% linefeed point c 200 Information Processing Society of Japan

第62巻 第1号 平成24年4月/石こうを用いた木材ペレット

THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS TECHNICAL REPORT OF IEICE. UWB UWB

日本感性工学会論文誌

Vol. 42 No. SIG 8(TOD 10) July HTML 100 Development of Authoring and Delivery System for Synchronized Contents and Experiment on High Spe

DEIM Forum 2010 A Web Abstract Classification Method for Revie

Fig. 2 Signal plane divided into cell of DWT Fig. 1 Schematic diagram for the monitoring system

i CG ICP(Iterative Closest Point) ICP 2 2 ICP 2 2 2

Convolutional Neural Network A Graduation Thesis of College of Engineering, Chubu University Investigation of feature extraction by Convolution

Dual Stack Virtual Network Dual Stack Network RS DC Real Network 一般端末 GN NTM 端末 C NTM 端末 B IPv4 Private Network IPv4 Global Network NTM 端末 A NTM 端末 B

Computer Security Symposium October ,a) 1,b) Microsoft Kinect Kinect, Takafumi Mori 1,a) Hiroaki Kikuchi 1,b) [1] 1 Meiji U

Microsoft Word - toyoshima-deim2011.doc

直樹卒業論文

(a) (b) (c) Fig. 2 2 (a) ; (b) ; (c) (a)configuration of the proposed system; (b)processing flow of the system; (c)the system in use 1 GPGPU (


ActionScript Flash Player 8 ActionScript3.0 ActionScript Flash Video ActionScript.swf swf FlashPlayer AVM(Actionscript Virtual Machine) Windows

Fig. 3 3 Types considered when detecting pattern violations 9)12) 8)9) 2 5 methodx close C Java C Java 3 Java 1 JDT Core 7) ) S P S

% 2 3 [1] Semantic Texton Forests STFs [1] ( ) STFs STFs ColorSelf-Simlarity CSS [2] ii

情報処理学会研究報告 IPSJ SIG Technical Report Vol.2015-GI-34 No /7/ % Selections of Discarding Mahjong Piece Using Neural Network Matsui


Sobel Canny i

LBP 2 LBP 2. 2 Local Binary Pattern Local Binary pattern(lbp) [6] R

(a) Picking up of six components (b) Picking up of three simultaneously. components simultaneously. Fig. 2 An example of the simultaneous pickup. 6 /

Transcription:

3-D 1,a) 1 1,b) 3 3 3 1% Spin Image 51.6% 93.8% 9 PCL Point Cloud Library Correspondence Grouping 13.5% 10 3 Extraction of 3-D Feature Point for Effect in Object Recognition based on Local Shape Distinctiveness Nagase Masanobu 1,a) Akizuki Shuichi 1 Hashimoto Manabu 1,b) Keywords: object recognition, 3-D feature point matching, robot vision, point cloud data, bin-picking 1. 3 1 Graduate School of Information Science and echnology, Chukyo University, Nagoya, Aichi 466 8666, Japan a) nagase@isl.sist.chukyo-u.ac.jp b) mana@isl.sist.chukyo-u.ac.jp 3 [1] [2] 3-D c 2013 Information ocessing Society of Japan 1

Spin Image [3] 3D Shape Context [4] Spin Image 2 3D Shape Context Shape Index[5] Local Surface Patch[6] DAI [7], [8] [9], [10] Reference Frame SHO[11] CSHO[12] Reference Frame 1 Reference Frame 3 3 3 3 1 2 3 4 5 2. 2 1 2 1 Fig. 1 1 Distinctive feature points and non-distinctive feature points. c 2013 Information ocessing Society of Japan 2

3. 3.1 2 Fig. 3 3 Method for creating normal distribution histogram. 2 Fig. 2 Flow of the proposed algorithm. 3.2 3 n r n m t N n N mt θ θ 3.3 (1) Bhattacharyya B U B(P, Q) = 1 Pu Q u (1) u=1 P Q U u B 1 (2) S n S n = 1 B(p n, q t ) (2) t=1 p q n t S n 0 1 1 3.4 c 2013 Information ocessing Society of Japan 3

Bhattacharyya 4 m 1 m 2 s 1 s 2 (3) 4 Fig. 4 Geometric consistency of an object model and the range image. ( d s1,s 2 d m1,m 2 < th d ) ( θ s1 θ m1 < th t ) ( θ s2 θ m2 < th t ) (3) d m1,m 2 d s1,s 2 2 θ m1 θ m2 θ s1 θ s2 2 th d th t 2 m 1 5 (4)(5) R i = 1 D(m t ) (4) t=1 c if f(m t (x),m t (y))=0 D(m t ) = (5) m t (z) f(i, j) otherwise R i i 5 Fig. 5 Overview of pose recognition scheme using distinctive feature points extracted from object model. m t (x) m t (y) m t (z) 3 t f D(m t ) c 4. 4.1 6(a) 6(b) 6(c) 0 90 2 1mm 1 r 5mm 14 2 c 2013 Information ocessing Society of Japan 4

Fig. 8 8 Distribution of the selected distinctive feature points. 6 Fig. 6 Distinctiveness calculation result. ( ) ( ) 7(a) (b) 0.4mm 5 r 2mm 8(a) (b) (c) 7 Fig. 7 Distinctiveness calculation result by the industrial parts. 4.2 4.2.1 4 (1) Spin Image [3] (2) Point Cloud Libruary[13] Correspondence Grouping [14] (3) (4) 9 A B C D 1 1 2 3 P r [%] [sec] N [point] N 1% 5% 1.5mm 10(a) (c) (e) (g) 10(b) (d) (f) (h) c 2013 Information ocessing Society of Japan 5

情報処理学会研究報告 表 2 各手法による独自性の高い特徴点の抽出結果 able 2 Extraction results of distinctive feature points by each method. 図 9 距離画像データベース Fig. 9 Range image database. 表 1 物体モデルとダウンサンプリング結果 able 1 Object model and down sampling results 表 3 認識成功率と処理時間 able 3 Recognition success rate and processing time. 物体 A 物体 B 物体 C 物体 D 平均 49.6 50.8 35.2 70.6 51.6 Image 法 [3] 24.95 55.34 31.21 20.68 33.05 CG 法 74.4 96.2 65.6 84.9 80.3 Spin [13][14] ランダム法 曲率法 提案手法 45.41 52.85 29.26 26.10 38.41 N 70 50-89.1 96.9 85.2 69.8 85.3 5.87 4.77 2.06 1.74 3.61 N 70 50-86.8 76.9 18.0 54.8 59.1 6.01 4.94 2.21 1.97 3.78 N 70 50-89.1 97.7 94.5 93.7 93.8 5.83 4.76 2.05 1.76 3.60 93.8%に向上したことを確認した 処理時間に関しては約 9 倍以上の高速化となった Spin Image 法は物体モデル全 点を用いて照合しているのに対し 提案手法は独自性の高 い ごく少数の厳選された特徴点のみを照合に用いている モデルを入力シーンに重畳した結果を示す 実験は CPU ことがその要因である また Spin Image 法は注目点の R Intel CORE 法線ベクトル方向と それに直交する軸を基準とした 2 次 M i7-3.40ghz システムメモリ 8GB で 構成されるシステムでおこなった 元空間に物体モデル点の相対的な位置を投票した画像を照 4.2.2 従来手法との認識性能比較と考察 合に用いる手法である そのため注目点から遠い点ほど法 提案手法は 従来の Spin Image 法に対して 物体モデ 線ベクトルの揺らぎに敏感であり 安定した特徴記述がで ルの 1%から 5%程度のごく少数の特徴点数で 4 種類の きず 認識成功率が低かった 提案手法も法線ベクトルを A から D の物体に対する平均認識成功率が 51.6%から 使用しているが 点群を利用した法線ベクトル同士のなす c 2013 Information ocessing Society of Japan 6

情報処理学会研究報告 うな形状部分を保持する特徴点が選択されており 入力距 離画像との照合の際に誤照合が増加したためである 曲率 法に関しては 曲率の大きな点のみを特徴点として選択し ているため 入力距離画像中に曲率の大きな点が多く存在 する場合に認識成功率が低下した また曲率法で選択した 特徴点は窪んだ曲率部の点も選択しているため 入力距離 画像中の対象物の姿勢によっては対応点が隠れてしまう そのため認識成功率が低かった 以 上 よ り Spin Image 法 PCL の Correspondence Grouping 法 ランダム法 曲率法に対して 提案手法 は平均認識成功率が向上し 処理時間に関しても同等以上 であることを確認した また 提案手法はどのような形状 の対象物に対しても安定した認識成功率を実現しているこ とを確認した なお 図 11 に認識に失敗した例を示す 本研究では 姿 勢パラメータを適用した物体モデルと入力距離画像との誤 差を計算し 一番小さい誤差の位置姿勢パラメータを認識 結果としている 図 11 のような平面的な物体の場合では 姿勢変換したモデルが 2 つの対象物上に重畳された場合で も 位置合わせ誤差が小さくなり それが原因で認識に失 敗した この問題に対しては 認識に用いる特徴点数やパ ラメータを調整することで改善されると考えられる 図 10 認識結果例 Fig. 10 Example recognition results. 角度を軸としたヒストグラムで表現しているため 法線ベ 図 11 認識失敗例 Fig. 11 Recognition failure cases. 4.2.3 姿勢推定の精度評価 クトルに多少の揺らぎがある場合にも安定した特徴記述 本研究では 位置姿勢推定後の物体モデルに ICP アル ができた また Spin Image 法は入力距離画像からラン ゴリズム [15] を適用することにより 位置合わせの精度 ダムに点を選択して Spin Image を作成し物体モデル全 向上を図った 図 12 に ICP アルゴリズム適用前と適用後 点と照合する ランダムに選択した点が物体モデル内の同 の物体モデルを示す 図 12(a) は微小の位置ずれを起こし じ点と対応していなければ正しく照合することができな ているのに対して ICP 適用後の図 12(b) は位置ずれな い そのことも認識成功率が低かった理由の一つである しで位置合わせできていることを確認した また図 13 に Correspondence Grouping 法の認識成功率が低かった理由 ICP アルゴリズム適用前と適用後の位置合わせ誤差の平 としては モデル点をダウンサンプルした時の点を認識に 均を示す 実際に実験に用いたレンジセンサの分解能は 用いていることが原因である また 正しい姿勢パラメー 約 0.40mm である ICP アルゴリズム適用前の位置合わせ タを算出するには半径の大きな Reference Frame を作成す 誤差は約 0.82[mm/point] であったのに対し 適用後は約 る必要があり その処理に時間がかかっている ランダム 0.51[mm/point] であった この結果はレンジセンサの分解 法が提案手法より認識成功率が低かった理由としては 特 能と同等であることから 精度よく位置合わせできたこと 徴点をランダムに選択しているため物体モデル内で同じよ を確認した c 2013 Information ocessing Society of Japan 7

ICP 0.51[mm/point] 0.40mm 12 ICP Fig. 12 Before and after of accurate alignment by the ICP. 13 4 Fig. 13 Average alignment error of four data sets. 5. Spin Image 51.6% 93.8% 9 PCL Correspondence Grouping 10 13.5% [1] 2 3 - -, (D-II), Vol.J77- D-II, No.11, pp.2179-2187 (1994). [2], (MIRU), IS2-4, pp.778-785 (2010). [3] Johnson E. A and Hebert M.: Using Spin Images for Efficient Object Recognition in Cluttered 3D Scenes, rans. IEEE Pattern Analysis and Machine Intelligence, Vol.21, No.5, pp.433-449 (1999). [4] Frome A., Huber D., Kolluri R., Bulow., Malik J.: Recognizing Object in Range Data Using Regional Point Descriptors, European Conference on Computer Vision, Vol.23, pp.224-237 (2004). [5] Dorai C. and Jain K.A.: COSMOS-A Representation Scheme for 3D Free-form Objects, rans. IEEE Pattern Analysis and Machine Intelligence, Vol.19, No.10, pp.1115-11 (1997). [6] Chen H. and Bhanu B.: 3D Free-form Object Recognition in Range Images Using Local Surface Patches, Pattern Recognition Letters, Vol.28, pp.1252-1262 (2007). [7],, (C), Vol.124, No.3, pp.637-646 (2004). [8],,, : ICP 3, (C), Vol.127, No.4, pp.615-622 (2007). [9], 3, (D-II), Vol.J80-D-II, No.5, pp.1105-1112 (1997). [10] Steder B., Rusu B.R, Konolige K. and Burgard W.: Point Feature Extraction on 3D Range Scans aking into Account Object Boundaries, IEEE International Conference on Robotics and Automation, pp.2601-2608 (2011). [11] ombari F., Salti S. and Stefano D.L.: Unique Signatures of Histograms for Local Surface Description, European Conference on Computer Vision, Vol.6313, pp.356-369 (2010). [12] ombari F., Salti S. and Stefano D.L.: A Combined exture-shape Descriptor for Enhanced 3D Feature Matching, IEEE International Conference on Image ocessing, pp.809-812 (2011). [13] Rusu B.R. and Cousins S.: 3D is here: Point Cloud Library (PCL), IEEE International Conference on Robotics and Automation, pp.1-4 (2011). [14] ombari F. and Stefano D.L.: Object Recognition in 3D Scenes with Occlusions and Clutter by Hough Voting, IEEE oc. on 4th Pacific-Rim Symposium on Image and Video echnology, pp.349-355 (2010). [15] Besl J.P. and McKay D.N.: A Method for Registration of 3-D Shapes, Vol14, No.2, pp.239-256 (1992). c 2013 Information ocessing Society of Japan 8