情報処理学会研究報告 IPSJ SIG Technical Report 背景映像を利用したビデオ映像からの効率的な前景物体抽出法 盛内翔太 藤本忠博 本研究では, 複数のビデオカメラを用いることで, 背景に動く物体が含まれる場合にも, ビデオ映像から前景物体のみを効率的に抽出する手法を提案する.
|
|
|
- みいか まつかた
- 6 years ago
- Views:
Transcription
1 背景映像を利用したビデオ映像からの効率的な前景物体抽出法 盛内翔太 藤本忠博 本研究では, 複数のビデオカメラを用いることで, 背景に動く物体が含まれる場合にも, ビデオ映像から前景物体のみを効率的に抽出する手法を提案する. 本手法では, 背景のみを撮影する 3~4 台の背景カメラ, ならびに, 背景を含めて前景物体を撮影する 1 台の前景カメラを使用する. 各カメラによる背景映像と前景映像を関連付けるホモグラフィ行列と基礎行列を用いて, 背景映像との背景差分により効率的に前景映像中の前景物体を抽出する. Efficient Foreground Object Detection in Video Using Background Video Syouta Moriuchi and Tadahiro Fujimoto In this paper, we propose a method to efficiently detect foreground objects in a video. This method copes with the case in which the background has moving objects using multiple cameras. Two types of cameras are used: a few background cameras capture only the background, and one foreground camera captures foreground objects as well as the background. Using homography matrices and fundamental matrices relating background videos and a foreground video, foreground objects in the foreground video can be efficiently detected by background subtraction with the background videos. 1. はじめに 背景差分は, ビデオ映像中で背景から前景物体のみを分離して抽出する映像技術であり, 映像コンテンツの制作や監視システムなど, 様々な応用分野に用いられる. 最も簡単な背景差分の方法としては, 背景のみが映る 1 枚の背景画像をあらかじめ撮影しておき, 前景物体を含めて撮影したビデオ映像のフレーム画像ごとに背景画像との差分を求めることで前景物体が映る画素領域のみを抽出する方法がよく用いられる. しかし, この方法は, 背景が常に変化しないことが前提であり, 背景の時刻に伴う環境変化 ( 明るさの変化など ) や背景に動的な物体がある場合などには, それらの画素領域も抽出されてしまう問題がある. そこで, そのような問題を解決するため, 画素ごとに映る背景の変化を確率統計的に扱う背景モデルなど, これまでに多くの手法が提案されてきた [1-7]. しかし, その多くは, 背景の微小な変化や緩やかな変化に対応するものであり, 例えば, 前景物体と同等の動きを伴う物体が背景にあるような場合には, 前景物体のみを抽出することは難しい. 一方, 物体を異なるカメラ位置から取り囲むように撮影した複数のビデオ映像から物体の 3 次元形状を復元するイメージベース CG の分野では, 各ビデオ映像上で物体を抽出することが必要となる場合が多い [8-13]. そこで, 本研究では, 前景物体を周囲から撮影した複数の映像から, それぞれ, 前景物体の画素領域 ( 前景領域 ) を抽出した映像を得ることを最終目標とする. そして, 背景に変化がある場合にも適切に前景領域のみを抽出する手法を提案する. 本研究では, その方法として, 複数の前景カメラと背景カメラを用いた方法を採用する. 図 1 に示すように, 前景物体の全周を取り囲むように前景カメラと背景カメラを配置し, 前景カメラは内側の物体に向け, 背景カメラは外側の背景に向ける. そして, 各背景カメラで撮影される背景のみが映る背景映像と各前景カメラで撮影される前景物体と背景がともに映る前景映像の間で, 適切な画像座標の変換や背景差分等を行うことで, 各前景映像中の前景領域のみを抽出する. 本研究では, 上記の最終目標を実現するための基礎技術として,3~4 台ほどの背景カメラと 1 台の前景カメラを用い, 前景映像から前景領域を抽出する手法を提案する. 図 2 に本研究におけるカメラの配置を示す. 図 2 のカメラ配置は図 1 の一部を構成しており, 本研究の目的は, 図 2 中の前景カメラと背景カメラの間の領域に存在する物体を前景物体として抽出することである. 岩手大学大学院工学研究科 Graduate School of Engineering, Iwate University 岩手大学工学部 Faculty of Engineering, Iwate University 1 c2012 Information Processing Society of Japan
2 て述べる. なお, これ以降の文中では, 適宜, カメラ映像 という用語を ビデオ映像 と同義で用いる. 2. 異なるカメラ映像の画素間の対応付け 図 1 物体の全周を取り囲む前景カメラと背景カメラの配置 本手法では, 異なるカメラ視点から撮影された前景映像と複数の背景映像の画素どうしを対応付ける必要がある. そこで, それを実現するための方法について述べる. 2.1 特徴点の抽出とマッチング異なるカメラ映像内で 3 次元空間上の同じ部分を映す画素間の対応関係を得るために, まず, 各映像内の特徴点の抽出とマッチングを行う. 特徴点の抽出法には SURF (Speeded-Up Robust Features) を用いる [14].SURF とは, 画像から局所特徴量を求めて特徴点を抽出する方法であり, スケール変化, 平行移動, 回転, 環境変化に対し頑健であり, リアルタイム性に優れる. 異なる画像内で抽出された特徴点どうしのマッチングには, 抽出した特徴点の局所特徴量に含まれる 128 次元からなる特徴ベクトルの比較を行う.2 枚の画像間で, 各画像内で得られた特徴点どうしを特徴ベクトルのユークリッド距離で比較し, 閾値により誤対応点を除外し, 最も距離の近い特徴点どうしを対応点として決定する. 図 3 は 2 枚の画像の対応点を黄色斜線で結んだマッチングの例である. 図 2 本研究における前景カメラと背景カメラの配置 以下,2 節で異なるビデオ映像の画素間の対応付けの方法,3 節で前景物体領域の抽出の方法について述べる.4 節で実験結果を示し,5 節でまとめと今後の課題につい 図 3 特徴点のマッチング上段画像の特徴点数 :1276 下段画像の特徴点数 :1190 マッチング数 :206 2 c2012 Information Processing Society of Japan
3 2.2 ホモグラフィ行列の算出一般に, カメラ映像内に映る全ての物体が一つの平面上にあると仮定すれば, ホモグラフィ行列により, 異なるカメラ映像の画素間の対応関係を容易に得ることが可能となる. 図 4 のように, ある平面上の任意の点 P が投影される 2 つのカメラ映像上の画素座標を同次座標 ~ p 1, ~ p2 とすると, 式 (1) の関係が成り立つ. ~ p H ~ p (1) 2 1 T x, y,1, ~ p x, y,1 ~ T p , h11 h12 h13 H h 21 h22 h23 h31 h32 h33 式 (1) 中の H をホモグラフィ行列と呼ぶ. ホモグラフィ行列は, 特徴点のマッチングで得た対応点の組から算出することができ, 最低で 4 組の対応点から算出可能である. 一の平面上にあることを前提とするため, 同一平面上に限定されない奥行きのある点には対応しない. その場合, 一般には, 基礎行列によるエピポーラ幾何を用いることが多い. これにより, 一方のカメラ映像上の画素位置に対応する他方のカメラ映像上の画素位置の範囲をエピポーラ拘束によりエピポーラ線上に限定することが可能となる. 図 5 にエピポーラ幾何による 2 つのカメラ映像間の画素位置の関係を示す. このとき,3 次元空間上の点 P が投影される各カメラ映像上の画素座標 ~ p 1, ~ p2 の関係は式 (2) で表せる. ~ p T F ~ p 0 (2) 1 2 T x, y,1, ~ p x, y,1 ~ T p , f11 f12 f13 F f 21 f22 f23 f31 f32 f33 式 (2) 中の F を基礎行列と呼ぶ. 基礎行列も特徴点のマッチングで得た対応点の組から算出することができる. 図 4 ホモグラフィ行列による異なるカメラ映像の画素間の対応関係 2.3 基礎行列の算出ホモグラフィ行列は, 画素の探索を行うことなく, 映像間の画素ごとの対応関係を一度の計算で効率的に求めることができる. しかし, 映像内に映る全ての物体の点が同 図 5 基礎行列によるエピポーラ幾何を用いた異なるカメラ映像の画素間の対応関係 3 c2012 Information Processing Society of Japan
4 カメラが固定されていれば基礎行列は不変であり, 式 (2) の ~ p 1, ~ p2 の関係は映像内に映る物体の 3 次元形状に関わらずに成り立つ. よって, 全ての物体の点が同一平面上にあることを前提とする式 (1) の ~ p 1, ~ p2 は式 (2) を満たす. これは,2 つの映像間でホモグラフィ行列によって対応付けられる画素どうしは互いのエピポーラ線上にのることを意味する. 3. 前景物体領域の抽出 ホモグラフィ行列と基礎行列により, 前景カメラと各背景カメラの映像間の画素の対応関係が求まる. これにより, 前景映像と背景映像の背景差分により前景物体領域の抽出が可能となる. 本研究では, 比較のために, 前景映像から前景物体領域を抽出する方法として次の 2 つの方法を提案する. [ 方法 1] 複数の背景映像をホモグラフィ行列により一枚の背景合成映像に合成し, 背景合成映像と前景映像との背景差分を行う方法 (3.1 節 ) [ 方法 2] エピポーラ幾何を用いて背景映像ごとに前景映像との背景差分を行う方法 (3.2 節 ) 以下, それぞれの方法について述べる. 3.1 方法 1: 背景合成映像との背景差分による方法前景物体に比べて背景が十分に遠方にあるものとすれば, 背景の全ての物体が一つの平面上にあるものと仮定することができる. その場合, 各背景映像間のホモグラフィ行列を求め, 複数の背景映像を一枚の背景合成映像に合成することが可能となる [15]. ホモグラフィ行列は背景映像内の特徴点の抽出とマッチングの結果から求めることができる (2.2 節 ). 基準とする背景映像 ( 基準背景映像 ) を src0 とし, 隣接する背景映像を順に src 1, src 2, src 3,... srcn 1 とする. また, 隣接する 2 つの背景映像 src i, srcj の間のホモグラフィ行列を H ij とする. このとき, 背景映像 srck ( k 1,..., N 1) の画像座標を基準背景映像 src0 の画像座標に変換するホモグラフィ行列 H 0k を式 (3) により得ることができる. H 0 k H 01H12... H k 1k (3) これを用いて, 基準背景映像 src0 に他の全ての背景映像 srck を合成することができる. 式 (3) の行列 H0k により背景映像 srck を変換した映像を dstk とする. この変換後の背景映像を基準背景映像 src0 の画像座標系上で重ね合わせることで背景合成映像を生成する場合, 背景映像どうしが重なり合う領域で輝度値の調整が必要となる. 本手法で は, 背景映像どうしが水平方向に隣接しているものとし, 例えば, 基準背景映像 src0 に背景映像 dst1 を合成する場合, 図 6 に示すように, 重なり合う領域で境目からの水平方向の距離に応じて輝度値を線形に調整する. 図 6 赤枠で示す重なり合う領域内の点 d における合成後の輝度値 cmp01( d) は, 式 (4) に示すように, 元の 2 つの映像 src0 と dst1 の点 d における輝度値 src0 ( d) と dst1 ( d) に対して, 図 6 中の距離 d 0 と d 1 を用いた重み付けによる α ブレンディングで求められる. cmp d1 d0 d) src0 ( d) dst ( ) (4) d d d d 01( 1 d 図 6 2 つの映像が重なり合う領域内の輝度値の計算 背景映像を合成後, 背景合成映像を用いて背景差分により前景映像から前景物体を抽出するために, 前景映像の各画素に対応する背景合成映像の画素を求める. 背景の全ての物体が同一平面上にあるものと仮定すれば, 背景映像の合成のときと同様, 前景映像と背景合成映像の間のホモグラフィ行列を求めて画素間の対応関係を得ることができる. 前景映像には前景物体が含まれるが, ホモグラフィ行列を求める際の特徴点のマッチングでは両映像中に共通に含まれる背景の特徴点のみが対応付けられるため, 背景のみを考慮したホモグラフィ行列が得られる. 前景映像を src fore, 背景合成映像を src back, 両映像間のホモグラフィ行列を H fb とし, srcback を H fb により座標変換した映像を dstback とする. すると, srcfore と dstback の背景差分により,3 次元空間上で前景カメラと背景カメラの間の領域に存在する前景物体を前景映像から抽出することが可能となる. 背景差分における輝度値の差分には, 明るさの変動の影響を考慮できる HSV 表色系を用い, 対応画素間の H,S,V 値の差分の絶対値に適切な重み付けを行い, その合計値を評価値として閾値と比較することで前景画素か背景画素かの判定を行う. また, 背景の全ての物体が同一平面上にあるという仮定は現実には満たされないため, 実際には, ホモグラフィ行列による画素の対応は不確実である. そこで, 前景映像 srcfore 4 c2012 Information Processing Society of Japan
5 の各画素に対応する ( 変換後の ) 背景合成映像 dst back 内の画素について, 周囲の 8 近傍まで参照し, 合計 9 つの画素に対して上記の評価値を求め, 最小の評価値となる参照画素を対応画素として扱う ( 図 7). たように, 理論上はホモグラフィ行列による対応画素はエピポーラ線上にのるはずであるが, 実際には, ホモグラフィ行列や基礎行列を求める際の精度の問題などのため, そうならない場合が普通である. そこで, 図 8 に示すように, ホモグラフィ行列による対応画素の位置からエピポーラ線上で最も近い画素を基準参照画素として求め, その基準参照画素から一定の画素範囲内のエピポーラ線上に沿った参照画素を対応画素の候補とする. その全ての参照画素と前景映像の着目画素との間で 3.1 節の方法と同様の H,S,V 値による評価値を求め, 評価値が最小の参照画素を対応画素とする. 図 7 方法 1 における背景合成映像内の参照画素 3.2 方法 2: 背景映像ごとの背景差分による方法 3.1 節の方法は, 背景の全ての物体が同一平面上にあることを前提としているため, 前景物体抽出の精度が不十分である. また, 背景合成映像の生成では, 元の複数の背景映像を基準背景映像の画像座標系へ座標変換する処理や,α ブレンディングによる輝度値の合成を行うため, その処理に時間を要する. そこで, これらの問題を改善するため, 以下の方法を提案する. この方法では, 背景映像を合成せず, 前景映像に対して各背景映像を個別に対応させて背景差分を行い, 前景映像の画素ごとに 2 値化したマスク映像 ( 前景画素 :1, 背景画素 :0) を生成する. その後, 全ての背景映像に関するマスク映像を論理積で統合した合成マスク映像を求め, 前景映像との論理積を取ることで前景物体を抽出した映像を得る. 背景映像ごとの前景映像との背景差分における両映像間の画素の対応付けについては, 背景の全ての物体が同一平面上にあるという制約を無くすため, 前景映像と背景映像の間の基礎行列によるエピポーラ幾何を用いる (2.3 節 ). 基礎行列は前景映像と背景映像内の特徴点の抽出とマッチングの結果から算出する. 前景映像の各画素に対応する背景映像内の画素は式 (2) によるエピポーラ線上に限定されるが, さらに, 前景映像と背景映像の間のホモグラフィ行列によりエピポーラ線上の探索範囲を絞り込む. すなわち, 背景の全ての物体が 3 次元空間上でホモグラフィ行列による平面に近い範囲内に存在すると仮定し, 式 (2) によるエピポーラ線上で式 (1) のホモグラフィ行列による対応画素を中心とした一定の範囲だけを探索する. このとき,2.3 節の最後に述べ 図 8 方法 2 における背景映像内の参照画素 5 c2012 Information Processing Society of Japan
6 4. 実験 提案手法の有効性を検証するために実験を行った. 図 9 は実験環境を背景の側から見た画像である. 背景から約 4.7 メートルほど離れた場所に 3 台の背景カメラ, さらに約 1.8 メートルほど離れた場所に 1 台の前景カメラを背景に向けて配置し, 背景カメラと前景カメラの間に前景物体を置くことで, それぞれ, 背景映像と前景映像を撮影した. 実行環境を以下の表 1 に示す. 表 1 実行環境 CPU AMD Phenom(tm)Ⅱ X GHz メモリ 8.00GB グラフィックカード ATI Radeon HD 4200 カメラ PointGreyResearch 製 Dragonfly2 OS Windows 7 開発環境 Visual Studio 2010, Visual C++ 図 9 実験環境 方法 1(3.1 節 ) による結果を図 10,11,12,13,14, 方法 2(3.2 節 ) による結果を図 15,16,17,18 に示す. それぞれ, ビデオ映像上の一つのフレーム画像に関するものである. 各映像の解像度は 画素とした. また, 背景差分における評価値の計算において,H,S,V 値の差分の絶対値には, それぞれ,1.0,1.0,0.1 の重み付けを行い, 前景画素か背景画素かの判定のための閾値は 20 とした (0 <= H, S, V <= 255). また, 方法 2 における背景映像内の参照画素数は 21 とした. それぞれの処理時間を表 2,3 に示す. 方法 1 では, 図 13 のマスク映像から分かるように, 背景の全ての物体が同一平面上にあるという仮定が実際には成り立たず, 背景の多くの部分が前景物体とみなされ, 正確な前景物体領域を得ることができなかった. 一方, 方法 2 では, 図 17 のマスク映像から分かるように, ある程度の精度で前景物体領域を得ることができた. 背景に動的な物体が置かれた場合も背景とみなし, 前景物体の存在領域にある物体のみの抽出が可能となった. また,HSV 表色系を用いた背景差分については, 背景との色相の相違が大きい前景物体の抽出結果は良好となった. しかし, 例えば, 背景が白, 前景物体が肌色のような, 背景との色相の相違が小さい前景物体に対しては, 前景物体領域も背景とみなされ, 良好な結果が得られない場合が多かった. 図 10 方法 1 の背景合成映像 src 図 11 方法 1 の座標変換後の背景合成映像 dst back back 6 c2012 Information Processing Society of Japan
7 図 12 方法 1 の前景映像 src fore 図 16 方法 2 の前景映像 図 13 方法 1 の背景差分によるマスク映像. 白 : 前景画素, 黒 : 背景画素. 図 17 方法 2 の各背景映像に関する背景差分の結果を論理積により統合した合成マスク映像. 白 : 前景画素, 黒 : 背景画素. 図 14 方法 1 による前景物体の抽出結果. 図 12 の前景映像に図 13 のマスク映像を重ねて生成した. 図 18 方法 2 による前景物体の抽出結果. 図 16 の前景映像に図 17 のマスク映像を重ねて生成した. 表 2 方法 1 の処理時間 参照画素領域 処理時間 (s) フレームレート (fps) 3 3 近傍 近傍 図 15 方法 2 の各背景映像 7 c2012 Information Processing Society of Japan
8 5. まとめと今後の課題 表 3 方法 2 の処理時間 参照画素数 処理時間 (s) フレームレート (fps) 本研究では, 前景カメラと背景カメラを用いることで, 背景に変化がある場合にも適切に目的とする前景物体のみをビデオ映像から抽出する手法を提案した. 実験により, エピポーラ幾何とホモグラフィ行列を利用して背景映像ごとの背景差分を行う方法 2 について, 良好な結果が得られた. 今後の課題としては, 背景との色相の相違が小さい前景物体に対する抽出精度を上げ, また, 処理速度の向上を図ることが挙げられる. さらに, 本研究の手法を拡張し, 物体の全周に前景カメラと背景カメラを配置し, 全方向からの前景物体領域の抽出を可能にすることが今後の目標である. 謝辞本研究を実施するにあたり, 様々な貴重な御意見を頂いた岩手大学工学部千葉則茂教授に感謝致します. 本研究の一部は科学研究費補助金 ( 基盤研究 (C) ) の援助を受けている. 参考文献 1) A. Elgammal, D. Harwood, L. S. Davis, Non-parametric Model for Background Subtraction, Proceedings of the European Conference on Computer Vision 2000, pp , ) T. Horprasert, D. Harwood, L. S. Davis, A Robust Background Subtraction and Shadow Detection, Proceedings of the Asian Conference on Computer Vision 2000, pp , ) A. Elgammal, R. Duraiswami, D. Harwood, L. S. Davis, Background and Foreground Modeling Using Nonparametric Kernel Density Estimation for Visual Surveillance, Proceedings of the IEEE, Vol.90, No.7, pp , ) S.-C. S. Cheung, C. Kamath, Robust Techniques for Background Subtraction in Urban Traffic Video, Proceedings of the Conference on Visual Communications and Image Processing 2004, Vol.5308, No.1, pp , ) A. Mittal, N. Paragios, Motion-Based Background Subtraction Using Adaptive Kernel Density Estimation, Proceedings of the Conference on Computer Vision and Pattern Recognition 2004, pp , ) M. Heikkila, M. Pietikainen, A Texture-Based Method for Modeling the Background and Detecting Moving Objects, Transactions on Pattern Analysis and Machine Intelligence, Vol.28, No.4, pp , ) Z. Zivkovic, F. v. d. Heijden, Efficient Adaptive Density Estimation per Image Pixel for the Task of Background Subtraction, Pattern Recognition Letters, vol.27, no.7, pp , ) W. Matusik, C. Buehler, R. Raskar, S. Gortler, L. McMillan, Image Based Visual Hulls, Proceedings of SIGGRAPH 2000, pp , ) G. Slabaugh, B. Culbertson, T. Malzbender, R. Shafer, A Survey of Methods for Volumetric Scene Reconstruction from Photographs, Proceedings of the International Workshop on Volume Graphics 2001, pp , ) C. L. Zitnick, S. B. Kang, M. Uyttendaele, S. Winder, R. Szeliski, High-quality Video View Interpolation Using a Layered Representation, Proceedings of SIGGRAPH 2004, pp , ) S. Corazza, L. Mundermann, A. M. Chaudhari, T. Demattio, C. Cobelli, T. P. Andriacchi, A Markerless Motion Capture System to Study Musculoskeletal Biomechanics: Visual Hull and Simulated Annealing Approach, Annals of Biomedical Engineering, Vol.34, No.6, pp , ) H. Kim, R. Sakamoto, I. Kitahara, N. Orman, T. Toriyama, K. Kogure, Compensated Visual Hull for Defective Segmentation and Occlusion, Proceedings of 17th International Conference on Artificial Reality and Telexistence (ICAT2007), pp , ) D. Vlasic, I. Baran, W. Matusik, J. Popovic, Articulated Mesh Animation from Multi-view Silhouettes, Proceedings of SIGGRAPH 2008, pp.97:1-9, ) H. Bay, A. Ess, T. Tuytelaars, L. V. Gool, SURF: Speeded Up Robust Features, Computer Vision and Image Understanding, 110(3), pp , ) 千葉直樹, 蚊野浩, 美濃導彦, 安田昌司, 画像特徴に基づくイメージモザイキング, 電子情報通信学会論文誌, Vol.j82-D-Ⅱ,No.10,pp ,1999 年. 8 c2012 Information Processing Society of Japan
(MIRU2008) HOG Histograms of Oriented Gradients (HOG)
(MIRU2008) 2008 7 HOG - - E-mail: [email protected], {takigu,ariki}@kobe-u.ac.jp Histograms of Oriented Gradients (HOG) HOG Shape Contexts HOG 5.5 Histograms of Oriented Gradients D Human
3 2 2 (1) (2) (3) (4) 4 4 AdaBoost 2. [11] Onishi&Yoda [8] Iwashita&Stoica [5] 4 [3] 3. 3 (1) (2) (3)
(MIRU2012) 2012 8 820-8502 680-4 E-mail: {d kouno,shimada,endo}@pluto.ai.kyutech.ac.jp (1) (2) (3) (4) 4 AdaBoost 1. Kanade [6] CLAFIC [12] EigenFace [10] 1 1 2 1 [7] 3 2 2 (1) (2) (3) (4) 4 4 AdaBoost
円筒面で利用可能なARマーカ
円筒面で利用可能な AR マーカ AR Marker for Cylindrical Surface 2014 年 11 月 14 日 ( 金 ) 眞鍋佳嗣千葉大学大学院融合科学研究科 マーカベース AR 二次元マーカはカメラ姿勢の推定, 拡張現実等広い研究分野で利用されている 現実の風景 表示される画像 デジタル情報を付加 カメラで撮影し, ディスプレイに表示 使用方法の単純性, 認識の安定性からマーカベース
0 21 カラー反射率 slope aspect 図 2.9: 復元結果例 2.4 画像生成技術としての計算フォトグラフィ 3 次元情報を復元することにより, 画像生成 ( レンダリング ) に応用することが可能である. 近年, コンピュータにより, カメラで直接得られない画像を生成する技術分野が生
0 21 カラー反射率 slope aspect 図 2.9: 復元結果例 2.4 画像生成技術としての計算フォトグラフィ 3 次元情報を復元することにより, 画像生成 ( レンダリング ) に応用することが可能である. 近年, コンピュータにより, カメラで直接得られない画像を生成する技術分野が生まれ, コンピューテーショナルフォトグラフィ ( 計算フォトグラフィ ) と呼ばれている.3 次元画像認識技術の計算フォトグラフィへの応用として,
1 Fig. 1 Extraction of motion,.,,, 4,,, 3., 1, 2. 2.,. CHLAC,. 2.1,. (256 ).,., CHLAC. CHLAC, HLAC. 2.3 (HLAC ) r,.,. HLAC. N. 2 HLAC Fig. 2
CHLAC 1 2 3 3,. (CHLAC), 1).,.,, CHLAC,.,. Suspicious Behavior Detection based on CHLAC Method Hideaki Imanishi, 1 Toyohiro Hayashi, 2 Shuichi Enokida 3 and Toshiaki Ejima 3 We have proposed a method for
2. CABAC CABAC CABAC 1 1 CABAC Figure 1 Overview of CABAC 2 DCT 2 0/ /1 CABAC [3] 3. 2 値化部 コンテキスト計算部 2 値算術符号化部 CABAC CABAC
H.264 CABAC 1 1 1 1 1 2, CABAC(Context-based Adaptive Binary Arithmetic Coding) H.264, CABAC, A Parallelization Technology of H.264 CABAC For Real Time Encoder of Moving Picture YUSUKE YATABE 1 HIRONORI
& Vol.5 No (Oct. 2015) TV 1,2,a) , Augmented TV TV AR Augmented Reality 3DCG TV Estimation of TV Screen Position and Ro
TV 1,2,a) 1 2 2015 1 26, 2015 5 21 Augmented TV TV AR Augmented Reality 3DCG TV Estimation of TV Screen Position and Rotation Using Mobile Device Hiroyuki Kawakita 1,2,a) Toshio Nakagawa 1 Makoto Sato
258 5) GPS 1 GPS 6) GPS DP 7) 8) 10) GPS GPS 2 3 4 5 2. 2.1 3 1) GPS Global Positioning System
Vol. 52 No. 1 257 268 (Jan. 2011) 1 2, 1 1 measurement. In this paper, a dynamic road map making system is proposed. The proposition system uses probe-cars which has an in-vehicle camera and a GPS receiver.
1 Kinect for Windows M = [X Y Z] T M = [X Y Z ] T f (u,v) w 3.2 [11] [7] u = f X +u Z 0 δ u (X,Y,Z ) (5) v = f Y Z +v 0 δ v (X,Y,Z ) (6) w = Z +
3 3D 1,a) 1 1 Kinect (X, Y) 3D 3D 1. 2010 Microsoft Kinect for Windows SDK( (Kinect) SDK ) 3D [1], [2] [3] [4] [5] [10] 30fps [10] 3 Kinect 3 Kinect Kinect for Windows SDK 3 Microsoft 3 Kinect for Windows
(a) 1 (b) 3. Gilbert Pernicka[2] Treibitz Schechner[3] Narasimhan [4] Kim [5] Nayar [6] [7][8][9] 2. X X X [10] [11] L L t L s L = L t + L s
1 1 1, Extraction of Transmitted Light using Parallel High-frequency Illumination Kenichiro Tanaka 1 Yasuhiro Mukaigawa 1 Yasushi Yagi 1 Abstract: We propose a new sharpening method of transmitted scene
Microsoft PowerPoint - pr_12_template-bs.pptx
12 回パターン検出と画像特徴 テンプレートマッチング 領域分割 画像特徴 テンプレート マッチング 1 テンプレートマッチング ( 図形 画像などの ) 型照合 Template Matching テンプレートと呼ばれる小さな一部の画像領域と同じパターンが画像全体の中に存在するかどうかを調べる方法 画像内にある対象物体の位置検出 物体数のカウント 物体移動の検出などに使われる テンプレートマッチングの計算
Microsoft PowerPoint CRCフォーラム「動的背景差分(中島)」Web公開用.ppt
第 5 回 ( 平成 26 年度第 2 回 )CRCフォーラム( 平成 26 年 9 月 19 日 ( 金 ) 開催 ) 安全 安心のための画像 映像技術 動的背景差分による移動物体の検出 中島克人教授未来科学部情報メディア学科 平成 26 年度東京電機大学第 2 回 CRC フォーラム 安全 安心のための画像 映像技術 動的背景差分法による 移動物体の検出 2014.9.19 東京電機大学未来科学部情報メディア学科中島克人
SICE東北支部研究集会資料(2013年)
280 (2013.5.29) 280-4 SURF A Study of SURF Algorithm using Edge Image and Color Information Yoshihiro Sasaki, Syunichi Konno, Yoshitaka Tsunekawa * *Iwate University : SURF (Speeded Up Robust Features)
Input image Initialize variables Loop for period of oscillation Update height map Make shade image Change property of image Output image Change time L
1,a) 1,b) 1/f β Generation Method of Animation from Pictures with Natural Flicker Abstract: Some methods to create animation automatically from one picture have been proposed. There is a method that gives
[1] SBS [2] SBS Random Forests[3] Random Forests ii
Random Forests 2013 3 A Graduation Thesis of College of Engineering, Chubu University Proposal of an efficient feature selection using the contribution rate of Random Forests Katsuya Shimazaki [1] SBS
IPSJ SIG Technical Report Vol.2012-CG-149 No.13 Vol.2012-CVIM-184 No /12/4 3 1,a) ( ) DB 3D DB 2D,,,, PnP(Perspective n-point), Ransa
3,a) 3 3 ( ) DB 3D DB 2D,,,, PnP(Perspective n-point), Ransac. DB [] [2] 3 DB Web Web DB Web NTT NTT Media Intelligence Laboratories, - Hikarinooka Yokosuka-Shi, Kanagawa 239-0847 Japan a) [email protected]
1 3DCG [2] 3DCG CG 3DCG [3] 3DCG 3 3 API 2 3DCG 3 (1) Saito [4] (a) 1920x1080 (b) 1280x720 (c) 640x360 (d) 320x G-Buffer Decaudin[5] G-Buffer D
3DCG 1) ( ) 2) 2) 1) 2) Real-Time Line Drawing Using Image Processing and Deforming Process Together in 3DCG Takeshi Okuya 1) Katsuaki Tanaka 2) Shigekazu Sakai 2) 1) Department of Intermedia Art and Science,
LBP 2 LBP 2. 2 Local Binary Pattern Local Binary pattern(lbp) [6] R
DEIM Forum 24 F5-4 Local Binary Pattern 6 84 E-mail: {tera,kida}@ist.hokudai.ac.jp Local Binary Pattern (LBP) LBP 3 3 LBP 5 5 5 LBP improved LBP uniform LBP.. Local Binary Pattern, Gradient Local Auto-Correlations,,,,
スライド 1
知能制御システム学 画像追跡 (1) 特徴点の検出と追跡 東北大学大学院情報科学研究科鏡慎吾 swk(at)ic.is.tohoku.ac.jp 2008.07.07 今日の内容 前回までの基本的な画像処理の例を踏まえて, ビジュアルサーボシステムの構成要素となる画像追跡の代表的手法を概説する 画像上の ある点 の追跡 オプティカルフローの拘束式 追跡しやすい点 (Harris オペレータ ) Lucas-Kanade
28 TCG SURF Card recognition using SURF in TCG play video
28 TCG SURF Card recognition using SURF in TCG play video 1170374 2017 3 2 TCG SURF TCG TCG OCG SURF Bof 20 20 30 10 1 SURF Bag of features i Abstract Card recognition using SURF in TCG play video Haruka
1 Web [2] Web [3] [4] [5], [6] [7] [8] S.W. [9] 3. MeetingShelf Web MeetingShelf MeetingShelf (1) (2) (3) (4) (5) Web MeetingShelf
1,a) 2,b) 4,c) 3,d) 4,e) Web A Review Supporting System for Whiteboard Logging Movies Based on Notes Timeline Taniguchi Yoshihide 1,a) Horiguchi Satoshi 2,b) Inoue Akifumi 4,c) Igaki Hiroshi 3,d) Hoshi
ActionScript Flash Player 8 ActionScript3.0 ActionScript Flash Video ActionScript.swf swf FlashPlayer AVM(Actionscript Virtual Machine) Windows
ActionScript3.0 1 1 YouTube Flash ActionScript3.0 Face detection and hiding using ActionScript3.0 for streaming video on the Internet Ryouta Tanaka 1 and Masanao Koeda 1 Recently, video streaming and video
21 e-learning Development of Real-time Learner Detection System for e-learning
21 e-learning Development of Real-time Learner Detection System for e-learning 1100349 2010 3 1 e-learning WBT (Web Based training) e-learning LMS (Learning Management System) LMS WBT e-learning e-learning
カメラレディ原稿
IS2-A2 カメラを回転させた時の特徴点軌跡を用いた魚眼カメラの内部パラメータ推定 - モデルと評価関数の変更による改良 - 田中祐輝, 増山岳人, 梅田和昇 Yuki TANAKA, Gakuto MASUYAMA, Kazunori UMEDA : 中央大学大学院理工学研究科,[email protected] 中央大学理工学部,{masuyama, umeda}@mech.chuo-u.ac.jp
& 3 3 ' ' (., (Pixel), (Light Intensity) (Random Variable). (Joint Probability). V., V = {,,, V }. i x i x = (x, x,, x V ) T. x i i (State Variable),
.... Deeping and Expansion of Large-Scale Random Fields and Probabilistic Image Processing Kazuyuki Tanaka The mathematical frameworks of probabilistic image processing are formulated by means of Markov
IPSJ SIG Technical Report Vol.2009-DPS-141 No.20 Vol.2009-GN-73 No.20 Vol.2009-EIP-46 No /11/27 1. MIERUKEN 1 2 MIERUKEN MIERUKEN MIERUKEN: Spe
1. MIERUKEN 1 2 MIERUKEN MIERUKEN MIERUKEN: Speech Visualization System Based on Augmented Reality Yuichiro Nagano 1 and Takashi Yoshino 2 As the spread of the Augmented Reality(AR) technology and service,
IPSJ SIG Technical Report Vol.2012-CG-148 No /8/29 3DCG 1,a) On rigid body animation taking into account the 3D computer graphics came
3DCG 1,a) 2 2 2 2 3 On rigid body animation taking into account the 3D computer graphics camera viewpoint Abstract: In using computer graphics for making games or motion pictures, physics simulation is
光学
Range Image Sensors Using Active Stereo Methods Kazunori UMEDA and Kenji TERABAYASHI Active stereo methods, which include the traditional light-section method and the talked-about Kinect sensor, are typical
28 Horizontal angle correction using straight line detection in an equirectangular image
28 Horizontal angle correction using straight line detection in an equirectangular image 1170283 2017 3 1 2 i Abstract Horizontal angle correction using straight line detection in an equirectangular image
IPSJ SIG Technical Report Vol.2014-IOT-27 No.14 Vol.2014-SPT-11 No /10/10 1,a) 2 zabbix Consideration of a system to support understanding of f
1,a) 2 zabbix Consideration of a system to support understanding of fault occurrences based on the similarity of the time series Miyaza Nao 1,a) Masuda Hideo 2 Abstract: With the development of network
(fnirs: Functional Near-Infrared Spectroscopy) [3] fnirs (oxyhb) Bulling [4] Kunze [5] [6] 2. 2 [7] [8] fnirs 3. 1 fnirs fnirs fnirs 1
THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS TECHNICAL REPORT OF IEICE. fnirs Kai Kunze 599 8531 1 1 223 8526 4 1 1 E-mail: [email protected], [email protected],
2. 30 Visual Words TF-IDF Lowe [4] Scale-Invarient Feature Transform (SIFT) Bay [1] Speeded Up Robust Features (SURF) SIFT 128 SURF 64 Visual Words Ni
DEIM Forum 2012 B5-3 606 8510 E-mail: {zhao,ohshima,tanaka}@dl.kuis.kyoto-u.ac.jp Web, 1. Web Web TinEye 1 Google 1 http://www.tineye.com/ 1 2. 3. 4. 5. 6. 2. 30 Visual Words TF-IDF Lowe [4] Scale-Invarient
3 Abstract CAD 3-D ( ) 4 Spin Image Correspondence Grouping 46.1% 17.4% 97.6% ICP [0.6mm/point] 1 CAD [1][2]
3 E-mail: {akizuki}@isl.sist.chukyo-u.ac.jp Abstract CAD 3-D ( ) 4 Spin Image Correspondence Grouping 46.1% 17.4% 97.6% ICP [0.6mm/point] 1 CAD [1][2] Shape Index [3] [4][5] 3 SHOT [6] [7] Point Pair Feature
す 局所領域 ωk において 線形変換に用いる係数 (ak 画素の係数 (ak bk ) を算出し 入力画像の信号成分を bk ) は次式のコスト関数 E を最小化するように最適化 有さない画素に対して 式 (2) より画素値を算出する される これにより 低解像度な画像から補間によるアップサ E(
IR E-mail: [email protected] Abstract IR RGB ( ) IR IR IR RGB RGB PSNR 1 Time-Of- Flight(TOF)[1] Kinect [2] TOF LED TOF [3] [6] [4][5] 2 [6] RGB ( ) Infrared(IR) IR 2 2.1 1 す 局所領域 ωk において 線形変換に用いる係数 (ak
1 (PCA) 3 2 P.Viola 2) Viola AdaBoost 1 Viola OpenCV 3) Web OpenCV T.L.Berg PCA kpca LDA k-means 4) Berg 95% Berg Web k-means k-means
Web, Web k-means 62% Associating Faces and Names in Web Photo News Akio Kitahara and Keiji Yanai We propose a system which extracts faces and person names from news articles with photographs on the Web
図 5 一次微分 図 6 コントラスト変化に伴う微分プロファイルの変化 価し, 合否判定を行う. 3. エッジ検出の原理ここでは, 一般的なエッジ検出の処理内容と, それぞれの処理におけるパラメータについて述べる. 3.1 濃度投影検出線と直交する方向に各画素をスキャンし, その濃度平均値を検出線上
The Principles of Edge Detection, and Its Application to Image Measurement/ Junichi SUGANO ヴィスコ テクノロジーズ株式会社開発本部研究部菅野純一 1. はじめに画像処理におけるエッジとは, 対象物と背景の境界点を指しており, この境界点が連なることで対象物の輪郭を形成する. 対象物の輪郭を拡大してみると, レンズボケにより明から暗または暗から明へ濃度値が連続的に変化していることがわかる.
(3.6 ) (4.6 ) 2. [3], [6], [12] [7] [2], [5], [11] [14] [9] [8] [10] (1) Voodoo 3 : 3 Voodoo[1] 3 ( 3D ) (2) : Voodoo 3D (3) : 3D (Welc
1,a) 1,b) Obstacle Detection from Monocular On-Vehicle Camera in units of Delaunay Triangles Abstract: An algorithm to detect obstacles by using a monocular on-vehicle video camera is developed. Since
xx/xx Vol. Jxx A No. xx 1 Fig. 1 PAL(Panoramic Annular Lens) PAL(Panoramic Annular Lens) PAL (2) PAL PAL 2 PAL 3 2 PAL 1 PAL 3 PAL PAL 2. 1 PAL
PAL On the Precision of 3D Measurement by Stereo PAL Images Hiroyuki HASE,HirofumiKAWAI,FrankEKPAR, Masaaki YONEDA,andJien KATO PAL 3 PAL Panoramic Annular Lens 1985 Greguss PAL 1 PAL PAL 2 3 2 PAL DP
「霧」や「もや」などをクリアにする高速画像処理技術
Fas Single-Image Defogging 谭志明 白向晖 王炳融 東明浩 あらまし CPU GPU720 48050 fps Absrac Bad weaher condiions such as fog, haze, and dus ofen reduce he performance of oudoor cameras. In order o improve he visibiliy
画像類似度測定の初歩的な手法の検証
画像類似度測定の初歩的な手法の検証 島根大学総合理工学部数理 情報システム学科 計算機科学講座田中研究室 S539 森瀧昌志 1 目次 第 1 章序論第 章画像間類似度測定の初歩的な手法について.1 A. 画素値の平均を用いる手法.. 画素値のヒストグラムを用いる手法.3 C. 相関係数を用いる手法.4 D. 解像度を合わせる手法.5 E. 振れ幅のヒストグラムを用いる手法.6 F. 周波数ごとの振れ幅を比較する手法第
DEIM Forum 2012 E Web Extracting Modification of Objec
DEIM Forum 2012 E4-2 670 0092 1 1 12 E-mail: [email protected], {dkitayama,sumiya}@shse.u-hyogo.ac.jp Web Extracting Modification of Objects for Supporting Map Browsing Junki MATSUO, Daisuke
第62巻 第1号 平成24年4月/石こうを用いた木材ペレット
Bulletin of Japan Association for Fire Science and Engineering Vol. 62. No. 1 (2012) Development of Two-Dimensional Simple Simulation Model and Evaluation of Discharge Ability for Water Discharge of Firefighting
IPSJ SIG Technical Report Vol.2011-EC-19 No /3/ ,.,., Peg-Scope Viewer,,.,,,,. Utilization of Watching Logs for Support of Multi-
1 3 5 4 1 2 1,.,., Peg-Scope Viewer,,.,,,,. Utilization of Watching Logs for Support of Multi-View Video Contents Kosuke Niwa, 1 Shogo Tokai, 3 Tetsuya Kawamoto, 5 Toshiaki Fujii, 4 Marutani Takafumi,
2010 : M0107189 3DCG 3 (3DCG) 3DCG 3DCG 3DCG S
2010 M0107189 2010 : M0107189 3DCG 3 (3DCG) 3DCG 3DCG 3DCG S 1 1 1.1............................ 1 1.2.............................. 4 2 5 2.1............................ 5 2.2.............................
Microsoft PowerPoint - 10.pptx
m u. 固有値とその応用 8/7/( 水 ). 固有値とその応用 固有値と固有ベクトル 行列による写像から固有ベクトルへ m m 行列 によって線形写像 f : R R が表せることを見てきた ここでは 次元平面の行列による写像を調べる とし 写像 f : を考える R R まず 単位ベクトルの像 u y y f : R R u u, u この事から 線形写像の性質を用いると 次の格子上の点全ての写像先が求まる
2008 年度下期未踏 IT 人材発掘 育成事業採択案件評価書 1. 担当 PM 田中二郎 PM ( 筑波大学大学院システム情報工学研究科教授 ) 2. 採択者氏名チーフクリエータ : 矢口裕明 ( 東京大学大学院情報理工学系研究科創造情報学専攻博士課程三年次学生 ) コクリエータ : なし 3.
2008 年度下期未踏 IT 人材発掘 育成事業採択案件評価書 1. 担当 PM 田中二郎 PM ( 筑波大学大学院システム情報工学研究科教授 ) 2. 採択者氏名チーフクリエータ : 矢口裕明 ( 東京大学大学院情報理工学系研究科創造情報学専攻博士課程三年次学生 ) コクリエータ : なし 3. プロジェクト管理組織 株式会社オープンテクノロジーズ 4. 委託金支払額 3,000,000 円 5.
バイノーラルマイクを用いたライフログ映像のショット識別 Life-log Video Shot Discrimination using Binaural Microphone 山野貴一郎 伊藤克亘 法政大学大学院情報科学研究科 法政大学情報科学部 Kiichiro YAMANO Katunobu
バイノーラルマイクを用いたライフログ映像のショット識別 Life-log Video Shot Discrimination using Binaural Microphone 山野貴一郎 伊藤克亘 法政大学大学院情報科学研究科 法政大学情報科学部 Kiichiro YAMANO Katunobu ITOU Graduate School of Computer and Information Sciences,
情報処理学会研究報告 IPSJ SIG Technical Report Vol.2014-GN-90 No.6 Vol.2014-CDS-9 No.6 Vol.2014-DCC-6 No /1/23 Bullet Time 1,a) 1 Bullet Time Bullet Time
Bullet Time 1,a) 1 Bullet Time Bullet Time Generation Technique and Eveluation on High-Resolution Bullet-Time Camera Work Ryuuki Sakamoto 1,a) Ding Chen 1 Abstract: The multi-camera environment have been
B HNS 7)8) HNS ( ( ) 7)8) (SOA) HNS HNS 4) HNS ( ) ( ) 1 TV power, channel, volume power true( ON) false( OFF) boolean channel volume int
SOA 1 1 1 1 (HNS) HNS SOA SOA 3 3 A Service-Oriented Platform for Feature Interaction Detection and Resolution in Home Network System Yuhei Yoshimura, 1 Takuya Inada Hiroshi Igaki 1, 1 and Masahide Nakamura
% 2 3 [1] Semantic Texton Forests STFs [1] ( ) STFs STFs ColorSelf-Simlarity CSS [2] ii
2012 3 A Graduation Thesis of College of Engineering, Chubu University High Accurate Semantic Segmentation Using Re-labeling Besed on Color Self Similarity Yuko KAKIMI 2400 90% 2 3 [1] Semantic Texton
,,.,.,,.,.,.,.,,.,..,,,, i
22 A person recognition using color information 1110372 2011 2 13 ,,.,.,,.,.,.,.,,.,..,,,, i Abstract A person recognition using color information Tatsumo HOJI Recently, for the purpose of collection of
Gaze Head Eye (a) deg (b) 45 deg (c) 9 deg 1: - 1(b) - [5], [6] [7] Stahl [8], [9] Fang [1], [11] Itti [12] Itti [13] [7] Fang [1],
1 1 1 Structure from Motion - 1 Ville [1] NAC EMR-9 [2] 1 Osaka University [3], [4] 1 1(a) 1(c) 9 9 9 c 216 Information Processing Society of Japan 1 Gaze Head Eye (a) deg (b) 45 deg (c) 9 deg 1: - 1(b)
2). 3) 4) 1.2 NICTNICT DCRA Dihedral Corner Reflector micro-arraysdcra DCRA DCRA DCRA 3D DCRA PC USB PC PC ON / OFF Velleman K8055 K8055 K8055
1 1 1 2 DCRA 1. 1.1 1) 1 Tactile Interface with Air Jets for Floating Images Aya Higuchi, 1 Nomin, 1 Sandor Markon 1 and Satoshi Maekawa 2 The new optical device DCRA can display floating images in free
IPSJ SIG Technical Report Vol.2016-CE-137 No /12/ e β /α α β β / α A judgment method of difficulty of task for a learner using simple
1 2 3 4 5 e β /α α β β / α A judgment method of difficulty of task for a learner using simple electroencephalograph Katsuyuki Umezawa 1 Takashi Ishida 2 Tomohiko Saito 3 Makoto Nakazawa 4 Shigeichi Hirasawa
Fig. 3 Flow diagram of image processing. Black rectangle in the photo indicates the processing area (128 x 32 pixels).
Fig. 1 The scheme of glottal area as a function of time Fig. 3 Flow diagram of image processing. Black rectangle in the photo indicates the processing area (128 x 32 pixels). Fig, 4 Parametric representation
2 4 2 3 4 3 [12] 2 3 4 5 1 1 [5, 6, 7] [5, 6] [7] 1 [8] 1 1 [9] 1 [10, 11] [10] [11] 1 [13, 14] [13] [14] [13, 14] [10, 11, 13, 14] 1 [12]
Walking Person Recognition by Matching Video Fragments Masashi Nishiyama, Mayumi Yuasa, Tomokazu Wakasugi, Tomoyuki Shibata, Osamu Yamaguchi ( ), Corporate Research and Development Center, TOSHIBA Corporation
GID Haar-like Mean-Shift Multi-Viewpoint Human Tracking Based on Face Detection Using Haar-like Features and Mean-Shift Yu Ito (Shizuoka Univers
GID-08-6 Haar-like Mean-Shift Multi-Viewpoint Human Tracking Based on Face Detection Using Haar-like Features and Mean-Shift Yu Ito (Shizuoka University), Atsushi Yamashita, Toru Kaneko (Shizuoka University)
Microsoft PowerPoint - CV10.ppt [互換モード]
カメラキャリブレーション 呉海元 @ 和歌山大学 2010 年 6 月 21 日 カメラキャリブレーション ( 校正 ) 実世界のカメラとカメラモデルとの対応付け 2 カメラキャリブレーション項目 幾何学的キャリブレーション - 外部パラメータ : 6 世界座標系におけるレンズの中心座標 (t) レンズ光軸の方向 (R) - 内部パラメータ : 5 焦点距離 画像中心 画像像 ( 画素 ) サイズ
1(a) (b),(c) - [5], [6] Itti [12] [13] gaze eyeball head 2: [time] [7] Stahl [8], [9] Fang [1], [11] 3 -
Vol216-CVIM-22 No18 216/5/12 1 1 1 Structure from Motion - 1 8% Tobii Pro TX3 NAC EMR ACTUS Eye Tribe Tobii Pro Glass NAC EMR-9 Pupil Headset Ville [1] EMR-9 [2] 1 Osaka University Gaze Head Eye (a) deg
1: A/B/C/D Fig. 1 Modeling Based on Difference in Agitation Method artisoc[7] A D 2017 Information Processing
1,a) 2,b) 3 Modeling of Agitation Method in Automatic Mahjong Table using Multi-Agent Simulation Hiroyasu Ide 1,a) Takashi Okuda 2,b) Abstract: Automatic mahjong table refers to mahjong table which automatically
BDH Cao BDH BDH Cao Cao Cao BDH ()*$ +,-+.)*$!%&'$!"#$ 2. 1 Weng [4] Metric Learning Weng DB DB Yang [5] John [6] Sparse Coding sparse coding DB [7] K
Bucket Distance Hashing Metric Learning 1,a) 1,b) 1,c) 1,d) (DB) [1] DB Cao [2] Cao Metric Learning Cao Cao Cao Cao Cao 100 DB 10% 1. m DB DB DB 1 599 8531 1 1 Graduate School of Engineering, Osaka Prefecture
[2] OCR [3], [4] [5] [6] [4], [7] [8], [9] 1 [10] Fig. 1 Current arrangement and size of ruby. 2 Fig. 2 Typography combined with printing
1,a) 1,b) 1,c) 2012 11 8 2012 12 18, 2013 1 27 WEB Ruby Removal Filters Using Genetic Programming for Early-modern Japanese Printed Books Taeka Awazu 1,a) Masami Takata 1,b) Kazuki Joe 1,c) Received: November
