研究成果報告書

Similar documents
光学

( ), ( ) Patrol Mobile Robot To Greet Passing People Takemi KIMURA(Univ. of Tsukuba), and Akihisa OHYA(Univ. of Tsukuba) Abstract This research aims a

(3.6 ) (4.6 ) 2. [3], [6], [12] [7] [2], [5], [11] [14] [9] [8] [10] (1) Voodoo 3 : 3 Voodoo[1] 3 ( 3D ) (2) : Voodoo 3D (3) : 3D (Welc

カメラレディ原稿

平成 28 年 6 月 3 日 報道機関各位 東京工業大学広報センター長 岡田 清 カラー画像と近赤外線画像を同時に撮影可能なイメージングシステムを開発 - 次世代画像センシングに向けオリンパスと共同開発 - 要点 可視光と近赤外光を同時に撮像可能な撮像素子の開発 撮像データをリアルタイムで処理する

図 5 一次微分 図 6 コントラスト変化に伴う微分プロファイルの変化 価し, 合否判定を行う. 3. エッジ検出の原理ここでは, 一般的なエッジ検出の処理内容と, それぞれの処理におけるパラメータについて述べる. 3.1 濃度投影検出線と直交する方向に各画素をスキャンし, その濃度平均値を検出線上

コンピュータグラフィックス第8回

Microsoft PowerPoint - pr_12_template-bs.pptx

IPSJ SIG Technical Report iphone iphone,,., OpenGl ES 2.0 GLSL(OpenGL Shading Language), iphone GPGPU(General-Purpose Computing on Graphics Proc

自動車ボディ寸法検査

スライド 1

3 2 2 (1) (2) (3) (4) 4 4 AdaBoost 2. [11] Onishi&Yoda [8] Iwashita&Stoica [5] 4 [3] 3. 3 (1) (2) (3)

& Vol.5 No (Oct. 2015) TV 1,2,a) , Augmented TV TV AR Augmented Reality 3DCG TV Estimation of TV Screen Position and Ro

Fig Measurement data combination. 2 Fig. 2. Ray vector. Fig (12) 1 2 R 1 r t 1 3 p 1,i i 2 3 Fig.2 R 2 t 2 p 2,i [u, v] T (1)(2) r R 1 R 2

IPSJ SIG Technical Report Vol.2015-CVIM-196 No /3/6 1,a) 1,b) 1,c) U,,,, The Camera Position Alignment on a Gimbal Head for Fixed Viewpoint Swi

2008 年度下期未踏 IT 人材発掘 育成事業採択案件評価書 1. 担当 PM 田中二郎 PM ( 筑波大学大学院システム情報工学研究科教授 ) 2. 採択者氏名チーフクリエータ : 矢口裕明 ( 東京大学大学院情報理工学系研究科創造情報学専攻博士課程三年次学生 ) コクリエータ : なし 3.

258 5) GPS 1 GPS 6) GPS DP 7) 8) 10) GPS GPS ) GPS Global Positioning System

(a) 1 (b) 3. Gilbert Pernicka[2] Treibitz Schechner[3] Narasimhan [4] Kim [5] Nayar [6] [7][8][9] 2. X X X [10] [11] L L t L s L = L t + L s

1 Table 1: Identification by color of voxel Voxel Mode of expression Nothing Other 1 Orange 2 Blue 3 Yellow 4 SSL Humanoid SSL-Vision 3 3 [, 21] 8 325

研究成果報告書

2). 3) 4) 1.2 NICTNICT DCRA Dihedral Corner Reflector micro-arraysdcra DCRA DCRA DCRA 3D DCRA PC USB PC PC ON / OFF Velleman K8055 K8055 K8055

基礎輪講2週目 Kinectの話

複雑な立体形状を捉える [3 次元計測 ] カラーカメラでの画像処理では 侵入者を抽出するために 画像の変化を検出する差分処理 ( 背景差分 フレーム間差分 ) を行う しかし 侵入者が 背景と類似した服を着用していると 輝度の違い ( コントラスト ) がなくなり 分離が難しくなる 3 次元情報が

研究成果報告書

Powered by TCPDF ( Title 組織のスラック探索に関する包括的モデルの構築と実証研究 Sub Title On the comprehensive model of organizational slack search Author 三橋, 平 (M

粒子画像流速測定法を用いた室内流速測定法に関する研究

す 局所領域 ωk において 線形変換に用いる係数 (ak 画素の係数 (ak bk ) を算出し 入力画像の信号成分を bk ) は次式のコスト関数 E を最小化するように最適化 有さない画素に対して 式 (2) より画素値を算出する される これにより 低解像度な画像から補間によるアップサ E(

IPSJ SIG Technical Report Vol.2015-MUS-107 No /5/23 HARK-Binaural Raspberry Pi 2 1,a) ( ) HARK 2 HARK-Binaural A/D Raspberry Pi 2 1.

Web UX Web Web Web 1.2 Web GIF Kevin Burg Jamie Beck GIF GIF [2] Flixel Cinemagraph pro *1 Adobe Photoshop *2 GIMP *3 Web *1 Flixel Photos Inc. *2 *3

D-Cubis [5] [6] 3D D-Cubis PasQ( ) PasQ PasQ Web HotMedia HotMedia [7] IBM Java 3D Audio 360 Web HotMedia PanoramaStudio Panorama

人間の視野と同等の広視野画像を取得・提示する簡易な装置

0 21 カラー反射率 slope aspect 図 2.9: 復元結果例 2.4 画像生成技術としての計算フォトグラフィ 3 次元情報を復元することにより, 画像生成 ( レンダリング ) に応用することが可能である. 近年, コンピュータにより, カメラで直接得られない画像を生成する技術分野が生

SICE東北支部研究集会資料(2013年)

1 Web [2] Web [3] [4] [5], [6] [7] [8] S.W. [9] 3. MeetingShelf Web MeetingShelf MeetingShelf (1) (2) (3) (4) (5) Web MeetingShelf

1 Kinect for Windows M = [X Y Z] T M = [X Y Z ] T f (u,v) w 3.2 [11] [7] u = f X +u Z 0 δ u (X,Y,Z ) (5) v = f Y Z +v 0 δ v (X,Y,Z ) (6) w = Z +

LightsheetZ1_print.indd

MATLAB ではじめる画像処理とロボットビジョン ~ 機械学習による物体認識と SLAM~ MathWorks Japan アプリケーションエンジニアリング部信号処理 通信 木川田亘 2015 The MathWorks, 1Inc.

paper.dvi

(MIRU2008) HOG Histograms of Oriented Gradients (HOG)

Journal of Geography 116 (6) Configuration of Rapid Digital Mapping System Using Tablet PC and its Application to Obtaining Ground Truth

Silhouette on Image Object Silhouette on Images Object 1 Fig. 1 Visual cone Fig. 2 2 Volume intersection method Fig. 3 3 Background subtraction Fig. 4

CSM_FZ5_SDNB-031_10_3

. ) ) ) 4) ON DC 6 µm DC [4]. 8 NaPiOn 4

SICE東北支部研究集会資料(2004年)

光学

「霧」や「もや」などをクリアにする高速画像処理技術


円筒面で利用可能なARマーカ

デプスカメラと加速度センサを用いた歩行可能な平面領域の検出

013858,繊維学会誌ファイバー1月/報文-02-古金谷

1 Fig. 1 Extraction of motion,.,,, 4,,, 3., 1, 2. 2.,. CHLAC,. 2.1,. (256 ).,., CHLAC. CHLAC, HLAC. 2.3 (HLAC ) r,.,. HLAC. N. 2 HLAC Fig. 2

Microsoft PowerPoint - H24全国大会_発表資料.ppt [互換モード]

コンピュータグラフィックス

dsample.dvi

2003/3 Vol. J86 D II No Fig. 1 An exterior view of eye scanner. CCD [7] CCD PC USB PC PC USB RS-232C PC

2. CABAC CABAC CABAC 1 1 CABAC Figure 1 Overview of CABAC 2 DCT 2 0/ /1 CABAC [3] 3. 2 値化部 コンテキスト計算部 2 値算術符号化部 CABAC CABAC

IEEE HDD RAID MPI MPU/CPU GPGPU GPU cm I m cm /g I I n/ cm 2 s X n/ cm s cm g/cm

特別寄稿.indd

36 581/2 2012

1 (PCA) 3 2 P.Viola 2) Viola AdaBoost 1 Viola OpenCV 3) Web OpenCV T.L.Berg PCA kpca LDA k-means 4) Berg 95% Berg Web k-means k-means

) 1 2 2[m] % H W T (x, y) I D(x, y) d d = 1 [T (p, q) I D(x + p, y + q)] HW 2 (1) p q t 3 (X t,y t,z t) x t [ ] T x t

画像類似度測定の初歩的な手法の検証

スライド 1

IPSJ SIG Technical Report Vol.2009-DPS-141 No.20 Vol.2009-GN-73 No.20 Vol.2009-EIP-46 No /11/27 1. MIERUKEN 1 2 MIERUKEN MIERUKEN MIERUKEN: Spe


Robot Platform Project(RPP) "Spur" "YP-Spur" rev. 4 [ ] Robot Platform Project(RPP) WATANABE Atsushi 1.,,., Fig. 1.,,,,,.,,,..,,..,,..,,,,. "

Copyright c 2009 by Masaki Yagi

(a) (b) 2 2 (Bosch, IR Illuminator 850 nm, UFLED30-8BD) ( 7[m] 6[m]) 3 (PointGrey Research Inc.Grasshopper2 M/C) Hz (a) (b


xx/xx Vol. Jxx A No. xx 1 Fig. 1 PAL(Panoramic Annular Lens) PAL(Panoramic Annular Lens) PAL (2) PAL PAL 2 PAL 3 2 PAL 1 PAL 3 PAL PAL 2. 1 PAL

スライド 1

2. Shepherd 1) Shepherd 1) PC PC 1 3 Cheng Wii 2) 3 3) Grossman ) ポインティング線ポインティング位置デバイスデバイス Grossman 1 3 3) 2

,,.,.,,.,.,.,.,,.,..,,,, i

IPSJ SIG Technical Report Vol.2016-CG-165 No.16 Vol.2016-DCC-14 No.16 Vol.2016-CVIM-204 No /11/10 1 Marco Visentini Scarzanella (AR) (M

連続講座 断層映像法の基礎第 34 回 : 篠原 広行 他 放射状に 線を照射し 対面に検出器の列を置いておき 一度に 1 つの角度データを取得する 後は全体を 1 回転しながら次々と角度データを取得することで計測を終了する この計測で得られる投影はとなる ここで l はファンビームのファンに沿った

ELiiXA+ 16k/8k/4k Pixels

コンピュータグラフィックス第6回

2 2. Fig.2. Schematic flow of proposed method. 2 DIC Technical Review No.2 / 26

Microsoft Word - 卒論レジュメ_最終_.doc

第1章

IPSJ SIG Technical Report Vol.2012-CG-149 No.13 Vol.2012-CVIM-184 No /12/4 3 1,a) ( ) DB 3D DB 2D,,,, PnP(Perspective n-point), Ransa


5) 2. Geminoid HI-1 6) Telenoid 7) Geminoid HI-1 Geminoid HI-1 Telenoid Robot- PHONE 8) RobotPHONE 11 InterRobot 9) InterRobot InterRobot irt( ) 10) 4

Kumamoto University Center for Multimedia and Information Technologies Lab. 熊本大学アプリケーション実験 ~ 実環境における無線 LAN 受信電波強度を用いた位置推定手法の検討 ~ InKIAI 宮崎県美郷

LMSシリーズ LMS1000, 製品群一覧

28 Horizontal angle correction using straight line detection in an equirectangular image

伝統芸能のデジタルアーカイブと ロボットによる実体提示

21 e-learning Development of Real-time Learner Detection System for e-learning

FFT

1. 概要この文書は Raposo, C., Barreto, J. P., & Nunes, U. (2013). Fast and Accurate Calibration of a Kinect Sensor. International Conference on 3D Vision. につ

Google Goggles [1] Google Goggles Android iphone web Google Goggles Lee [2] Lee iphone () [3] [4] [5] [6] [7] [8] [9] [10] :

この演習について Autoware 演習 1: データの記録 再生 Autoware 演習 2: センサーキャリブレーション Autoware 演習 3:3 次元地図の作成 Autoware 演習 4: 自己位置推定 Autoware 演習 5: パラメータ調整 Autoware 演習 6: 物体検

Microsoft PowerPoint - 写測学会.pptx

高分解能衛星データによる地形図作成手法に関する調査研究 ( 第 2 年次 ) 実施期間平成 18 年度 ~ 測図部測図技術開発室水田良幸小井土今朝巳田中宏明 佐藤壮紀大野裕幸 1. はじめに国土地理院では, 平成 18 年 1 月に打ち上げられた陸域観測技術衛星 ALOS に関して, 宇宙航空研究開

スライド 1

UNiiQA+ 16k/4k/2k/1k/0.5k Pixels

IPSJ SIG Technical Report Vol.2013-CVIM-188 No /9/2 1,a) D. Marr D. Marr 1. (feature-based) (area-based) (Dense Stereo Vision) van der Ma

様式F-19 記入例・作成上の注意

図 2: 高周波成分を用いた超解像 解像度度画像とそれらを低解像度化して得られる 低解像度画像との差により低解像度の高周波成分 を得る 高解像度と低解像度の高周波成分から位 置関係を保ったままパッチ領域をそれぞれ切り出 し 高解像度パッチ画像と低解像度パッチ画像の ペアとしてデータベースに登録する

PowerPoint Presentation

Transcription:

様式 C-19 科学研究費補助金研究成果報告書 平成 23 年 4 月 30 日現在 機関番号 :32641 研究種目 : 基盤研究 (C) 研究期間 : 2008 ~ 2010 課題番号 :20500164 研究課題名 ( 和文 ) 屋外利用可能な高速小型距離画像センサの構築と三次元環境モデリング応用研究課題名 ( 英文 ) Construction of a fast and compact range image sensor that can be used in outdoor environments and its application to 3D modeling of environments 研究代表者梅田和昇 ( UMEDA KAZUNORI ) 中央大学理工学部教授研究者番号 :10266273 研究成果の概要 ( 和文 ): ロボットの眼として用いるために, 多数の点を一度に投影できるレーザプロジェクタと高速な CCD カメラを組み合わせ, 距離画像 ( 明るさではなく距離で構成される画像 ) を一秒間に 200 枚と高速に取得できる小型センサを開発した. 太陽光の下でも利用可能である. また, カラー画像の同時取得を可能にし, 複数の画像をつなげることで環境の 3 次元マップを取得する手法も確立した. さらに, 点ではなく多数の線を投影するプロジェクタを利用したセンサも開発した. 研究成果の概要 ( 英文 ):We developed a fast and compact range image sensor that captures range images at 200Hz for using robot vision. The sensor consists of a laser projector that projects multiple spotlights and a fast CCD camera. It can be used even under sun lights. Furthermore, we added a color CCD camera, and developed a method to construct a 3D map of a scene by connecting multiple range and color images. We also developed a sensor that uses a projector of multiple slit lights. 交付決定額 ( 金額単位 : 円 ) 直接経費 間接経費 合計 2008 年度 1,700,000 510,000 2,210,000 2009 年度 1,200,000 360,000 1,560,000 2010 年度 700,000 210,000 910,000 総計 3,600,000 1,080,000 4,680,000 研究分野 : ロボット工学, 計測工学科研費の分科 細目 : 情報学知覚情報処理 知能ロボティクスキーワード : 距離画像センサ, 環境モデリング, ロボットビジョン,3 次元センシング, マルチスポットレーザ, マルチスリットレーザ, アクティブステレオ 1. 研究開始当初の背景近年のロボットビジョンにおける重要な成果の一つに, 東大の石川らが提案した 1ms ビジョン, ならびにそれに続く高速なビジョンシステムに関する研究成果が挙げられる. ロボットビジョン マシンビジョンで使われる典型的な CCD カメラは, テレビのビデオレートに支配された 30Hz がほとんどであった. このスピードはロボットビジョン用途として必ずしも十分な速度ではなかった. これに対し, 石川らは, 撮像素子レベルから新た に設計することにより, 画像入力ならびに簡単な画像処理を 1ms という, 従来よりもはるかに高速に実現することに成功した. 一方, 3 次元画像である距離画像を入力する手法は, これまでにこのように高速なものはほとんど実現されておらず, 高速なものでもビデオレート程度 (30~50Hz) での計測が可能なシステムがいくつか発表されているにすぎない. これに対し我々は, 市販のマルチスポット光プロジェクタと高速 CCD カメラとを組み合わせることで,200Hz で距離画像取得が

可能なセンサを既に開発している. しかしながら, 屋外では利用不可能であった. 2. 研究の目的本研究では, 当初以下の 2 つを研究目的とした. (1) 屋外利用可能なセンサの構築これまでに我々が構築したセンサを発展させ,200Hz の高速性や移動ロボット搭載可能な小型さは維持したまま, 照度 10 万ルクスに達する屋外でも利用可能な高速距離画像センサを構築する. (2) 三次元環境モデリングへの応用本センサを用いて高速に環境の 3 次元モデルを構築する手法を確立する. センサが高速であるため連続する距離画像間での変動が小さいことを積極に利用することで, 計測点数が少なくても動く, 複数距離画像のレジストレーション手法を確立する. 本センサを移動ロボットに搭載して, 実際に 3 次元モデルの構築が可能であることを検証する. 3. 研究の方法 (1) 屋外利用可能なセンサの構築高速かつロバストな距離算出アルゴリズムの構築, ならびにレーザプロジェクタの光学フィルタの工夫などのハードウェアの改良により,200Hz で屋外利用可能なセンサを実現した. さらに, カラー CCD カメラを付加することで, カラー画像つき距離画像の取得を実現した. (2) 三次元環境モデリングへの応用複数の距離画像を取得し, それらを位置合わせ ( レジストレーション ) して統合することで, 環境の三次元モデルの生成を実現する. 本センサで得られる距離画像は, 計測点数が少ない ( 粗い ) ため, レジストレーションを行うのに, 距離が密なことを前提とした一般的な手法 (ICP 法など ) の利用が困難であることが判明した. そこで, 密な画像が得られるカラー画像で特徴を抽出し, カラー画像間で対応を求めた上で, 距離画像 (3 次元座標 ) の対応を求める手法を構築した. 4. 研究成果 (1) 屋外利用可能なセンサの構築 1 高速かつロバストな距離算出アルゴリズムの構築高速かつ外乱光にロバストな距離画像センサを構築するためには, 単に高速なカメラやプロジェクタを組み合わせれば良い訳ではなく, 距離算出のための画像処理をいかに軽量化し高速にするかが大きなポイントとなる. そこで, マルチスポット光が投影された画像から各スポット光の視差情報を, 高速かつロバストに検出するアルゴリズムを構築した. 具体的には, カメラとプロジェクタ とを平行に設置し, エピポーラ線を画像の水平方向に平行となるようにした上で, エピポーラ線上の 1 ラインのみのスキャンでのインテリジェントな重心演算によって各スポット光の位置を計測する. 2 外乱光に強いセンサの製作 200Hz での画像計測が可能な高速 CMOS カメラとマルチスポット光プロジェクタとを組み合わせ, 小型距離画像センサを構築した. 画像情報は IEEE1394 により PC に取り込み, 上記で開発した高速な距離算出アルゴリズムを適用することにより,200Hz で距離画像計測が可能な, 高速な小型距離画像センサを実現した. レーザプロジェクタには StockerYale 社 Mini-519X を用いた.19x19 点のレーザスポット光を投影する. 波長は近赤外の 785nm とし, 中心波長 785nm の狭帯域バンドパスフィルタと波長 720nm 以下の光をカットする R72 フィルタを組み合わせた. これにより, 外乱光が極めて強い晴天の屋外でも計測可能なセンシングシステムを実現した. 距離画像の画素数は 361 点, 計測レンジは約 2m, 距離計測精度は距離 1m で標準偏差約 2mm を実現した. 3 カラー画像の同時取得の実現上記の小型距離画像センサシステムに高速カラー CCD カメラを付加することで, 距離画像にカラー画像をテクスチャマッピングした画像をリアルタイム取得できるセンサシステムを構築した. カラー画像と距離画像の同時計測で 100Hz を実現した. 図 1 に構築したセンサの外観を示す. 下部のレーザプロジェクタとモノクロカメラとの組み合わせで距離画像を計測し, 上部のカラーカメラでカラー画像を取得する. 図 2 に屋外での計測の様子を示す. 図 2(a) に示すように太陽光が照射しているシーンでも, 図 2(b) のモノクロカメラの画像が示すように, 投影されたスポット光が明確に抽出可能である. 抽出された各スポット光に対して三角測量の原理で距離を計測する. 図 1 構築した距離画像センサ

(a) 計測の様子 (b) センサのモノクロ CCD カメラの画像図 2 屋外環境での計測 (a) 計測の様子 (2) 三次元環境モデリングへの応用上述のように, 距離画像のみでの複数画像のレジストレーションが困難であったため, カラー画像と距離画像とを組み合わせた 3 次元モデル構築手法を構築した. 複数のカラー画像で特徴を抽出し, 複数画像間での対応づけを求め, 距離画像から対応点の 3 次元座標を得, 複数画像間の回転 並進のパラメータを求めるという手法を構築した. これにより, 多くの凹凸があり複雑なオフィス環境, ならびに特徴がなく平坦であるがテクスチャはある環境のいずれにおいても, 移動ロボットなどで取得される画像シーケンスから 3 次元モデルの構築を実現した. カラー画像から抽出する特徴には,SIFT 特徴量と KLT (Kanade-Lucas-Tomasi) Tracker とを検討した. 一般に,SIFT 特徴量の方が, 複数画像間でのロバストな対応付けが可能である一方, 処理コストが大きい. 本研究では, センサ自体が高速であることから, 連続する画像間の変位が大きくなく, 特徴の差が小さい. そこで KLT でも必要十分なマッチングを実現できることが分かった. さらに,2 次元座標から 3 次元座標を求める時の処理などを GPU (Graphics Processing Unit) を用いた並列化により高速化した. 以上の KLT, GPU の利用により, リアルタイムではないものの, かなり高速に三次元マッピングを実現できるようになった. 例えば,156 枚の画像からの 3 次元モデルの作成がトータルで 215 秒であった. 図 4 に, 複雑なシーンに対し提案手法で 3 次元モデルの作成を行った例を示す. この例では 190 枚の画像からモデルを作成している. (b) は距離画像のみから構築されたモデル, (c) はさらにカラー画像 ( テクスチャ ) を貼り付けた結果である. 距離画像が粗いにも関わらず, 詳細な 3 次元モデルの構築に成功していることが示されている. (b) 得られたカラーテクスチャつき距離画像 ( 視点を変えて表示 ) 図 3 構築した距離画像センサでの計測例 図 3 に, 構築したセンサでのカラー画像も含めた計測例を示す. 距離とカラーとが共に計測できていること, 両画像の位置合わせが問題なく行えていることが分かる. (3) マルチスリットレーザプロジェクタを用いた距離画像センサの構築当初想定していなかった新しい研究として, マルチスポットではなくマルチスリットを用いた距離画像センサのプロトタイプの構築を行い, さらに構築したセンサのヒューマノイドロボットへの応用を試みた. 15 本のスリット光を照射するプロジェクタ (Stocker Yale Mini-715L) と CCD カメラとを組み合わせ, 約 30fps で 4000 点以上の点からなる距離画像の取得を実現した. マルチスポット光では, 二方向いずれも距離画像が粗くなるのに対し, マルチスリットを用いることで, 一方向に関しては密な計測を実現している. なお, このセンサでは, さらなる小型化を優先するため標準的な速度の CCD カメラを用いたことから, 高速な距離画像取得

は実現していない. このセンサを用いて, 平面上の障害物をリアルタイムに検出することを実現した. さらにヒューマノイドロボットに搭載することで, 高さ 5mm 程度の小さな障害物や, ケーブルのような細長い障害物を, 歩行中に安定して検出し, 回避できることを示した. 図 5 に構築したセンサの外観とヒューマノイドロボットに搭載した様子を, 図 6 に構築したセンサでの距離画像の取得例を示す. スリット方向の計測が密に実現できていることが示されている. 以上, 研究目的に即した 2 つの結果 (1),(2) と, 想定していなかった新たな結果 (3) を示した. ロボットビジョン, あるいはモデリングに利用可能な, 有用なセンサを構築することが出来, さらにその応用としても意味のある手法を構築できたと考えている. (a) センサ外観 (b) ヒューマノイドロボットに搭載した様子 図 5 構築したマルチスリットレーザプロジェクタを用 いた距離画像センサ (a) 対象シーン (a) 対象シーン (b) 構築された三次元モデル ( テクスチャなし ) (c) 構築された三次元モデル ( テクスチャあり ) 図 4 三次元環境モデリングの例 :190 枚の画像から構築 (b) 得られた距離画像 図 6 距離画像の計測例

5. 主な発表論文等 ( 研究代表者 研究分担者及び連携研究者には下線 ) 以下の 4 件はいずれも査読あり. また, 発表者は研究室の院生である ([2] 以外 ). 学会発表 ( 計 10 件 ) [1] 黒木崇博 : マルチスリット光を用いた小型距離画像センサによるヒューマノイドの障害物回避, 第 16 回ロボティクスシンポジア予稿集, 指宿,2011-3-14. [2] Kazunori Umeda: A 100Hz Real-time Sensing System of Textured Range Images, ISOT 2010 International Symposium on Optomechatronic Technologies, Toronto, Canada, 2010-10-25. [3] Takahiro Kuroki: Construction of a Compact Range Image Sensor Using Multi-Slit Laser Projector and Obstacle Detection of a Humanoid with the Sensor, 2010 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS2010), Taipei, Taiwan, 2010-10-21. [4] Hidetoshi Ishiyama: Real-time Sensing of Textured Range Images for Localization and Mapping, Proc. of 15th Japan-Korea Joint Workshop on Frontiers of Computer Vision (FCV2009), Andong, Korea, 2009-2-6. その他 ( ホームページ ) http://www.mech.chuo-u.ac.jp/umedalab/ 6. 研究組織 (1) 研究代表者梅田和昇 (UMEDA KAZUNORI) 中央大学 理工学部 教授研究者番号 :10266273 (2) 研究分担者寺林賢司 (TERABAYASHI KENJI) 中央大学 理工学部 助教研究者番号 :20509161