3 Abstract CAD 3-D ( ) 4 Spin Image Correspondence Grouping 46.1% 17.4% 97.6% ICP [0.6mm/point] 1 CAD [1][2]

Similar documents
Spin Image [3] 3D Shape Context [4] Spin Image 2 3D Shape Context Shape Index[5] Local Surface Patch[6] DAI [7], [8] [9], [10] Reference Frame SHO[11]

IS1-09 第 回画像センシングシンポジウム, 横浜,14 年 6 月 2 Hough Forest Hough Forest[6] Random Forest( [5]) Random Forest Hough Forest Hough Forest 2.1 Hough Forest 1 2.2

(MIRU2008) HOG Histograms of Oriented Gradients (HOG)

4. C i k = 2 k-means C 1 i, C 2 i 5. C i x i p [ f(θ i ; x) = (2π) p 2 Vi 1 2 exp (x µ ] i) t V 1 i (x µ i ) 2 BIC BIC = 2 log L( ˆθ i ; x i C i ) + q

IPSJ SIG Technical Report Vol.2012-CG-149 No.13 Vol.2012-CVIM-184 No /12/4 3 1,a) ( ) DB 3D DB 2D,,,, PnP(Perspective n-point), Ransa

IPSJ SIG Technical Report Vol.2010-CVIM-170 No /1/ Visual Recognition of Wire Harnesses for Automated Wiring Masaki Yoneda, 1 Ta

3 2 2 (1) (2) (3) (4) 4 4 AdaBoost 2. [11] Onishi&Yoda [8] Iwashita&Stoica [5] 4 [3] 3. 3 (1) (2) (3)

光学

[6] DoN DoN DDoN(Donuts DoN) DoN 4(2) DoN DDoN 3.2 RDoN(Ring DoN) 4(1) DoN 4(3) DoN RDoN 2 DoN 2.2 DoN PCA DoN DoN 2 DoN PCA 0 DoN 3. DoN

258 5) GPS 1 GPS 6) GPS DP 7) 8) 10) GPS GPS ) GPS Global Positioning System

(a) (b) 2 2 (Bosch, IR Illuminator 850 nm, UFLED30-8BD) ( 7[m] 6[m]) 3 (PointGrey Research Inc.Grasshopper2 M/C) Hz (a) (b

28 Horizontal angle correction using straight line detection in an equirectangular image

8.dvi

yoo_graduation_thesis.dvi

(a) 1 (b) 3. Gilbert Pernicka[2] Treibitz Schechner[3] Narasimhan [4] Kim [5] Nayar [6] [7][8][9] 2. X X X [10] [11] L L t L s L = L t + L s

[1] SBS [2] SBS Random Forests[3] Random Forests ii

(MIRU2005) ( ) Radim Šára Globally Optimal Range Image Registration by G

1 Kinect for Windows M = [X Y Z] T M = [X Y Z ] T f (u,v) w 3.2 [11] [7] u = f X +u Z 0 δ u (X,Y,Z ) (5) v = f Y Z +v 0 δ v (X,Y,Z ) (6) w = Z +

14 2 5

SSII原稿v5.doc

Duplicate Near Duplicate Intact Partial Copy Original Image Near Partial Copy Near Partial Copy with a background (a) (b) 2 1 [6] SIFT SIFT SIF

IPSJ SIG Technical Report 1,a) 1,b) 1,c) 1,d) 2,e) 2,f) 2,g) 1. [1] [2] 2 [3] Osaka Prefecture University 1 1, Gakuencho, Naka, Sakai,

,,.,.,,.,.,.,.,,.,..,,,, i

IPSJ SIG Technical Report Vol.2014-MBL-70 No.49 Vol.2014-UBI-41 No /3/15 2,a) 2,b) 2,c) 2,d),e) WiFi WiFi WiFi 1. SNS GPS Twitter Facebook Twit

Silhouette on Image Object Silhouette on Images Object 1 Fig. 1 Visual cone Fig. 2 2 Volume intersection method Fig. 3 3 Background subtraction Fig. 4

IPSJ SIG Technical Report GPS LAN GPS LAN GPS LAN Location Identification by sphere image and hybrid sensing Takayuki Katahira, 1 Yoshio Iwai 1

tnbp59-21_Web:P2/ky132379509610002944


proc.dvi

日本内科学会雑誌第98巻第4号

日本内科学会雑誌第97巻第7号

円筒面で利用可能なARマーカ

IPSJ SIG Technical Report Vol.2009-CVIM-167 No /6/10 Real AdaBoost HOG 1 1 1, 2 1 Real AdaBoost HOG HOG Real AdaBoost HOG A Method for Reducing

Optical Flow t t + δt 1 Motion Field 3 3 1) 2) 3) Lucas-Kanade 4) 1 t (x, y) I(x, y, t)

LBP 2 LBP 2. 2 Local Binary Pattern Local Binary pattern(lbp) [6] R

す 局所領域 ωk において 線形変換に用いる係数 (ak 画素の係数 (ak bk ) を算出し 入力画像の信号成分を bk ) は次式のコスト関数 E を最小化するように最適化 有さない画素に対して 式 (2) より画素値を算出する される これにより 低解像度な画像から補間によるアップサ E(

2. 30 Visual Words TF-IDF Lowe [4] Scale-Invarient Feature Transform (SIFT) Bay [1] Speeded Up Robust Features (SURF) SIFT 128 SURF 64 Visual Words Ni

IPSJ SIG Technical Report Vol.2013-CVIM-188 No /9/2 1,a) D. Marr D. Marr 1. (feature-based) (area-based) (Dense Stereo Vision) van der Ma

色の類似性に基づいた形状特徴量CS-HOGの提案

SICE東北支部研究集会資料(2013年)

2007/8 Vol. J90 D No. 8 Stauffer [7] 2 2 I 1 I 2 2 (I 1(x),I 2(x)) 2 [13] I 2 = CI 1 (C >0) (I 1,I 2) (I 1,I 2) Field Monitoring Server

Fig Measurement data combination. 2 Fig. 2. Ray vector. Fig (12) 1 2 R 1 r t 1 3 p 1,i i 2 3 Fig.2 R 2 t 2 p 2,i [u, v] T (1)(2) r R 1 R 2

2). 3) 4) 1.2 NICTNICT DCRA Dihedral Corner Reflector micro-arraysdcra DCRA DCRA DCRA 3D DCRA PC USB PC PC ON / OFF Velleman K8055 K8055 K8055

DEIM Forum 2019 A7-1 Flexible Distance-based Hashing mori

IPSJ SIG Technical Report Vol.2010-MPS-77 No /3/5 VR SIFT Virtual View Generation in Hallway of Cybercity Buildings from Video Sequen

THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS TECHNICAL REPORT OF IEICE. TRECVID2012 Instance Search {sak

2003/3 Vol. J86 D II No Fig. 1 An exterior view of eye scanner. CCD [7] CCD PC USB PC PC USB RS-232C PC

A Graduation Thesis of College of Engineering, Chubu University Pose Estimation by Regression Analysis with Depth Information Yoshiki Agata

VRSJ-SIG-MR_okada_79dce8c8.pdf

図 2: 高周波成分を用いた超解像 解像度度画像とそれらを低解像度化して得られる 低解像度画像との差により低解像度の高周波成分 を得る 高解像度と低解像度の高周波成分から位 置関係を保ったままパッチ領域をそれぞれ切り出 し 高解像度パッチ画像と低解像度パッチ画像の ペアとしてデータベースに登録する


xx/xx Vol. Jxx A No. xx 1 Fig. 1 PAL(Panoramic Annular Lens) PAL(Panoramic Annular Lens) PAL (2) PAL PAL 2 PAL 3 2 PAL 1 PAL 3 PAL PAL 2. 1 PAL

Ł\”ƒ-2005

THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS TECHNICAL REPORT OF IEICE. UWB UWB

i CG ICP(Iterative Closest Point) ICP 2 2 ICP 2 2 2

第90回日本感染症学会学術講演会抄録(I)

WISS 2018 [2 4] [5,6] Query-by-Dancing Query-by- Dancing Cao [1] OpenPose 2 Ghias [7] Query by humming Chen [8] Query by rhythm Jang [9] Query-by-tapp

(4) ω t(x) = 1 ω min Ω ( (I C (y))) min 0 < ω < C A C = 1 (5) ω (5) t transmission map tmap 1 4(a) t 4(a) t tmap RGB 2 (a) RGB (A), (B), (C)

Vol. 44 No. SIG 9(CVIM 7) ) 2) 1) 1 2) 3 7) 1) 2) 3 3) 4) 5) (a) (d) (g) (b) (e) (h) No Convergence? End (f) (c) Yes * ** * ** 1

日本内科学会雑誌第102巻第4号

Sobel Canny i

27 AR


直樹卒業論文

& Vol.5 No (Oct. 2015) TV 1,2,a) , Augmented TV TV AR Augmented Reality 3DCG TV Estimation of TV Screen Position and Ro

A Navigation Algorithm for Avoidance of Moving and Stationary Obstacles for Mobile Robot Masaaki TOMITA*3 and Motoji YAMAMOTO Department of Production

DEIM Forum 2012 E Web Extracting Modification of Objec

IPSJ SIG Technical Report Vol.2015-CVIM-195 No /1/23 RGB-D RGB 3 1,a) RGB-D RGB-D 3. RGB CG RGB DTAM[1] MonoFusi

IPSJ SIG Technical Report Vol.2015-MUS-107 No /5/23 HARK-Binaural Raspberry Pi 2 1,a) ( ) HARK 2 HARK-Binaural A/D Raspberry Pi 2 1.

O1-1 O1-2 O1-3 O1-4 O1-5 O1-6


放射線専門医認定試験(2009・20回)/HOHS‐05(基礎二次)

プログラム

Gaze Head Eye (a) deg (b) 45 deg (c) 9 deg 1: - 1(b) - [5], [6] [7] Stahl [8], [9] Fang [1], [11] Itti [12] Itti [13] [7] Fang [1],

IPSJ SIG Technical Report Vol.2014-DBS-159 No.6 Vol.2014-IFAT-115 No /8/1 1,a) 1 1 1,, 1. ([1]) ([2], [3]) A B 1 ([4]) 1 Graduate School of Info

DEIM Forum 2010 A Web Abstract Classification Method for Revie

1 Table 1: Identification by color of voxel Voxel Mode of expression Nothing Other 1 Orange 2 Blue 3 Yellow 4 SSL Humanoid SSL-Vision 3 3 [, 21] 8 325

(a) Picking up of six components (b) Picking up of three simultaneously. components simultaneously. Fig. 2 An example of the simultaneous pickup. 6 /


[12] [5, 6, 7] [5, 6] [7] 1 [8] 1 1 [9] 1 [10, 11] [10] [11] 1 [13, 14] [13] [14] [13, 14] [10, 11, 13, 14] 1 [12]

日歯雑誌(H19・5月号)済/P6‐16 クリニカル  柿木 5

SICE東北支部研究集会資料(2012年)

2 Fig D human model. 1 Fig. 1 The flow of proposed method )9)10) 2.2 3)4)7) 5)11)12)13)14) TOF 1 3 TOF 3 2 c 2011 Information

(fnirs: Functional Near-Infrared Spectroscopy) [3] fnirs (oxyhb) Bulling [4] Kunze [5] [6] 2. 2 [7] [8] fnirs 3. 1 fnirs fnirs fnirs 1

TC1-31st Fuzzy System Symposium (Chofu, September -, 15) cremental Neural Networ (SOINN) [5] Enhanced SOINN (ESOINN) [] ESOINN GNG Deng Evolving Self-

proc.dvi

第1章

カメラレディ原稿

1(a) (b),(c) - [5], [6] Itti [12] [13] gaze eyeball head 2: [time] [7] Stahl [8], [9] Fang [1], [11] 3 -

miru02_merging.dvi

IPSJ SIG Technical Report Vol.2012-ICS-167 No /3/ ,,., 3, 3., 3, 3. Automatic 3D Map Generation by Using a Small Unmanned Vehicle

% 2 3 [1] Semantic Texton Forests STFs [1] ( ) STFs STFs ColorSelf-Simlarity CSS [2] ii

Computer Security Symposium October ,a) 1,b) Microsoft Kinect Kinect, Takafumi Mori 1,a) Hiroaki Kikuchi 1,b) [1] 1 Meiji U

マップマッチングのアルゴリズム

2

情報処理学会研究報告 IPSJ SIG Technical Report Vol.2013-CVIM-186 No /3/15 EMD 1,a) SIFT. SIFT Bag-of-keypoints. SIFT SIFT.. Earth Mover s Distance

untitled

11) 13) 11),12) 13) Y c Z c Image plane Y m iy O m Z m Marker coordinate system T, d X m f O c X c Camera coordinate system 1 Coordinates and problem

( ), ( ) Patrol Mobile Robot To Greet Passing People Takemi KIMURA(Univ. of Tsukuba), and Akihisa OHYA(Univ. of Tsukuba) Abstract This research aims a

IPSJ SIG Technical Report Vol.2015-CVIM-196 No /3/6 1,a) 1,b) 1,c) U,,,, The Camera Position Alignment on a Gimbal Head for Fixed Viewpoint Swi

Transcription:

3 E-mail: {akizuki}@isl.sist.chukyo-u.ac.jp Abstract CAD 3-D ( ) 4 Spin Image Correspondence Grouping 46.1% 17.4% 97.6% ICP [0.6mm/point] 1 CAD [1][2] Shape Index [3] [4][5] 3 SHOT [6] [7] Point Pair Feature PPF [8][9][10] PPF PPF [8] [9] PPF Visiblity Context PPF PPF [10], PPF 3 3 3 3 3-D ( )

ICP [11] CAD 2 3-D 3 4 x = αa + βb + γc (1) a b c 3 α β γ α + β + γ = 1 2 2 2 3 3-D 2.1 3-D 3 3 3 3-D 3-D 1 3-D P P d q1 d q2 Q 1 Q 2 2.3 3 3 l q1 l q2 θ 3 s p s q1 s q2 3-D 3 1 3-D 2.2 3 CAD 3 (1) 3 x 3 (2) 3 3 {v n 0,, N 1} l 1 l 2 θ th θ th l { d q1 d q2 θ th θ l q1 l 1, l q2 l 2 th l (2) P Q 1 Q 2 s p s q1 s q2 (3)

s p = n n p, s q1 = n n q1, s q2 = n n q2 where, n = d q1 d q2 / d q1 d q2 (3) n p n q1 n q2 (4)(5) s p s q1 s q2 3 h 4 3 h(s p, s q1, s q2 ) = N 1 n=0 δ(v n ) (4) 5 δ = 1 when{v n (s p )=s p } {v n (s q1 )=s q1 } δ = 0 4 otherwise {v n (s q2 )=s q2 } 3 (5) 3 4 s p 2 1 (6) P h L P h(s p, s q1, s q2 ) s p, s q1, s q2 P h(s p, s q1, s q2 ) = L 1 L 1 h(s p, s q1, s q2 ) L 1 s p =0 s q1 =0 s q2 =0 h(s p, s q1, s q2 ) (6) P h 2.4 5 l q1 l q2 θ s p s q1 s q2 (R, t) 0.3% (7) C = arg min{ 1 (R,t) M M Rp m + t q } (7) m=0 M p m m q p m M 10% ICP [11]

3 実験結果と考察 3.1 ベクトルペアを規定するパラメータと認識性能の 関係 ベクトルペアを規定するパラメータと認識性能の関 係を明らかにするために lq1 lq2 を変化させながら認 識をおこなった 実験に用いたモデルデータは図 2 の サーフェスモデルであり レンジファインダで実物体 を撮影した距離データに対して認識をおこなった 実 験に用いた距離データは 140 例である 姿勢推定精度 図7 位置合わせ誤差の大きかったパラメータの に等方性を持たせるために θ = 90[deg] とし ベクトル ベクトルペア (a) と誤差の少なかったパラメータ ペア数は 80 とした 結果を図 6 に示す 図中の横軸は のベクトルペア (b) の例 lq1 lq2 の長さを示し 縦軸は認識結果の物体モデルと 入力距離データとの位置合わせ誤差の平均値である た このときの認識結果例を図 8 に示す 白点は入力 距離データを示し 色つきの点を用いて物体モデルを 認識結果の幾何変換パラメータに基づいて姿勢変換さ せて入力距離データに重ね合わせている 図8 図6 lq1 lq2 と認識精度の関係 3.2 認識結果例 距離データを用いた認識性能評価実験 サーフェスモデルが用意されていない物体に対して lq1 lq2 が短いときは位置合わせ誤差が大きく 長く なるにつれて位置合わせ誤差が小さくなる傾向があっ た しかしながら 27mm を越えると位置合わせ誤差 が大きくなった 図 7 に誤差の大きかったパラメータ は レンジファインダを用いてモデルデータを生成す る 本節ではこの方法で取得した物体モデルを用いて 認識実験をおこなった 実験には図 9 に示す 4 種類の 物体を用意し 距離データを約 130 4 セット用意した のベクトルペアと誤差の小さかったパラメータのベク トルペアの例を示す 図 7(a) に示すベクトルペアは物体の上端部分と下端 部分を同時に選択している ベクトルペアを構成する点 間の距離が大きくなりすぎたことに起因して 全て点が 同時に観測しにくくなったことが精度低下の原因と考え られる このため lq1 lq2 は 3 点が同時に観測されうる 範囲で大きい値に設定することで信頼性の高い照合が実 現することが分かった 最も誤差の少なかったパラメー タは図 7(b) に示す lq1 = 24[mm] lq2 = 15[mm] であり 位置合わせ誤差平均値は 1.22[mm/point] であった この 時の認識成功率は 90.7%であり 処理時間は約 3.48[sec] TM R であった また 実験は CPU Intel CORE i7 シ ステムメモリ 4GB で構成されるシステムでおこなっ 図9 4 種類のばら積み物体 図 10 に提案手法によって選択されたベクトルペア群 を示す 多くのベクトルペアは物体内でも曲率の大きな 部分に選択されていることがわかる 一方で いくつか のベクトルペアは図 10(a) のように小さい曲率部にも選 択された これは本手法が曲率値をもとにベクトルペ アを選択しているのではなく あくまでその発生頻度を もとにしていることを示している 認識実験には比較 手法として Spin Image 法 [1] Point Cloud Library[12]

図 10 4 種類の物体における選択された特徴的 ベクトルペア の認識モジュールである Correspondence Grouping 法 図 11 提案手法による認識結果例 [7] を用いた 表 1 に各手法の認識成功率 P r[%] と処理 時間 T [sec] を示す N は認識に用いたベクトルペア数 形状の対象物である この物体に対しても高い認識率 である 認識は物体モデルと入力距離データを重ね合わ を達成することができた せた際の位置ずれ誤差平均値が 1.5mm 以内の時に成功 とした 図 11 に提案手法による各物体の認識例を示す 従来手法との比較に関しては Spin Image 法は物体モ デルの全点を認識に用いる 提案手法はごく少数の点数 のみで照合をおこなうため Spin Image 法に対して約 11 表1 Spin Image[1] Correspondence Grouping[6][12] Proposed method 倍高速認識することができた また Correspondence 4 種類の物体の認識結果 Pr T Pr T N Pr T A 70.6 20.68 84.9 26.10 20 95.2 0.95 B 50.8 55.34 96.2 52.85 10 100.0 3.17 C 35.2 31.21 65.6 29.26 10 100.0 5.12 D 49.6 24.95 74.4 45.41 20 95.3 2.64 Grouping 法は物体境界において特徴記述範囲に他物体 との接触による外乱を含みやすいため 入力距離デー タにおける特徴量の再現性が悪く 誤認識を誘発した 図 12 に 本実験における典型的な認識失敗例を示 す 物体モデルが平面的なため 物体モデルをばら積 みしたときの入力距離データも平面的であった この ため 位置姿勢が正しくないときも物体モデルと入力 物体 A は提案手法による高速化が最も顕著であった 距離データの幾何学的整合性が高くなってしまったこ 物体 A は曲率の大きさのバリエーションに富んだ物体 とが原因である この問題に対しては 整合性を測る である このため 他の物体に比べて相対的に低い発 際に 物体モデルと入力距離データの法線方向の類似 生確率のベクトルペアを認識に用いることができ ベ 性も用いることで誤認識は解消されると考えられる クトルペア当たりの入力距離データにおける対応点数 を削減された 結果として 高速な処理時間を達成す ることができた 物体 B と C は単純形状の繰り返しによって構成され る物体であり ベクトルペアの発生確率が単調である このため 他の物体に比べて発生確率の低いベクトル ペア数が減り 独自性の高いベクトルペアを選択でき なかった このため 認識時には各ベクトルペアと入 力距離データとの対応点数が増え 処理時間が増加し た しかし ベクトルペア間の正しい対応の見逃しが 減り 高い認識成功率を記録した 物体 D は平面的な 図 12 誤認識例

3.3 ICP [11] 13 ICP 14 ICP ICP 0.4mm ICP 0.84[mm/point] ICP 0.6[mm/point] 13 ICP 14 4 4 CAD Spin Image Correspondence Grouping 46.1% 17.4% ICP 0.6[mm/point] [1] A. E. Johnson and M. Hebert, Using Spin Images for Efficient Object Recognition in Cluttered 3D Scenes, IEEE Pattern Analysis and Machine Intelligence, vol. 21, no. 5, pp.433 449, 1999. [2] G. Hetzel B. Leibe P.Levi and B. Schiele 3D Object Recognition from Range Images using Local Feature Histograms IEEE Computer Vision and Pattern Recognition vol.2, pp.394 399, 2001 [3] C. Dorai and A. K. Jain, COSMOS-A Representation Scheme for 3D Free-Form Objects, IEEE Pattern Analysis and Machine Intelligence, vol.19, no.10, pp.1115 1130, 1997. [4] (C), vol.124, no.3, pp.637 646, 2004. [5] H. Chen and B. Bhanu, 3D Free-form Object Recognition in Range Images using Local Surface Patches, Pattern Recognition Letters, vol.28, pp.1252 1262, 2007. [6] F. Tombari, S. Salti and L. D. Stefano, Unique Signatures of Histograms for Local Surface Description, European Conference on Computer Vision, pp.356 369, 2010. [7] F. Tombari and L. D. Stefano, Hough Voting for 3D Object Recognition under Occlusion and Clutter, IPSJ Computer Vision and Applications, vol.4, pp.1 10, 2012. [8] B. Drost, M. Ulrich, N. Navab and S. Ilic, Model Globally, Match Locally: Efficient and Robust 3D Object Recognition, IEEE Computer Vision and Pattern Recognition, pp.998 1005, 2010. [9] E. Kim and G. Medioni, 3D Object Recognition in Range Images using Visibility Context, IEEE/RSJ International Coference on Intelligent Robots and Systems, pp.3800 3807, 2011. [10] C. Choi, Y. Taguchi, O. Tuzel, M. Liu, and S. Ramalingam, Voting-Based Pose Estimation for Robotic Assembly Using a 3D Sensor, IEEE International Conference on Robotics and Automation, pp.1724 1731, 2012. [11] P. J. Besl and N. D. McKay, A Method for Registration of 3-D Shapes, IEEE Pattern Analysis and Machine Intelligence, vol.14, pp.239 256, 1992. [12] R. B. Rusu and S. Cousins, 3D is Here: Point Cloud Library (PCL), IEEE International Conference on Robotics and Automation, pp.1 4, 2011.