http//umercalbra.org/lectures/deep-learg/ z l l-1 = f w l 1 z l 1 1 f x = 1 + e x x x > 0 f x = 0 x 0 z l l-1 = f w l 1 z l 1
|
|
|
- しらん さだい
- 7 years ago
- Views:
Transcription
1
2 http//umercalbra.org/lectures/deep-learg/ z l l-1 = f w l 1 z l 1 1 f x = 1 + e x x x > 0 f x = 0 x 0 z l l-1 = f w l 1 z l 1
3 typedef struct Layer *layer; Coecto *coecto; sfmt_t rg; t ; Networ; double sel.c typedef struct Neuro *z; t ; Layer; typedef struct Weght *w; t _pre; t _post; Coecto; typedef double Neuro, Weght; vod createnetwor Networ *etwor, cost t umber_of_layers, cost sfmt_t rg etwor -> layer = Layer * malloc umber_of_layers * szeof Layer ; etwor -> coecto = Coecto * malloc umber_of_layers * szeof Coecto ; etwor -> = umber_of_layers; etwor -> rg = rg; vod createlayer Networ *etwor, cost t layer_d, cost t umber_of_euros Layer *layer = &etwor -> layer [ layer_d ]; layer -> = umber_of_euros; layer -> z = Neuro * malloc umber_of_euros * szeof Neuro ; for t = 0; < layer -> ; ++ layer -> z [ ] = 0.; vod deletenetwor Networ *etwor free etwor -> layer ; free etwor -> coecto ; vod deletelayer Networ *etwor, cost t layer_d Layer *layer = &etwor -> layer [ layer_d ]; free layer -> z ; vod createlayer Networ *etwor, cost t layer_d, cost t umber_of_euros Layer *layer = &etwor -> layer [ layer_d ]; layer -> = umber_of_euros; layer -> z = Neuro * malloc umber_of_euros * szeof Neuro ; for t = 0; < layer -> ; ++ layer -> z [ ] = 0.; vod createcoecto Networ *etwor, cost t layer_d, double *fuc Networ *, cost t, cost t Coecto *coecto = &etwor -> coecto [ layer_d ]; cost t _pre = etwor -> layer [ layer_d ]. + 1; // +1 cost t _post = layer_d == etwor -> - 1? 1 etwor -> layer [ layer_d + 1 ]. ; coecto -> w = Weght * malloc _pre * _post * szeof Weght ; vod deletelayer Networ *etwor, cost t layer_d Layer *layer = &etwor -> layer [ layer_d ]; free layer -> z ; vod createlayer Networ *etwor, cost t layer_d, cost t umber_of_euros Layer *layer = &etwor -> layer [ layer_d ]; layer -> = umber_of_euros; t bas = layer_d < etwor -> - 1? 1 0; // for t = 0; < _post; ++ for t = 0; < _pre; ++ coecto -> w [ + _pre * ] = fuc etwor,, ; coecto -> _pre = _pre; coecto -> _post = _post; vod deletecoecto Networ *etwor, cost t layer_d Coecto *coecto = &etwor -> coecto [ layer_d ]; free coecto -> w ; layer -> z = Neuro * malloc umber_of_euros + bas * szeof Neuro ; for t = 0; < layer -> ; ++ layer -> z [ ] = 0.; f bas layer -> z [ layer -> ] = +1.; //
4 ma double all_to_all Networ *, cost t, cost t retur 1.; t ma vod sfmt_t rg; sfmt_t_ge_rad &rg, getpd ; // Networ etwor; createnetwor &etwor, 3, rg ; createlayer &etwor, 0, 2 ; createlayer &etwor, 1, 2 ; createlayer &etwor, 2, 1 ; createcoecto &etwor, 0, all_to_all ; createcoecto &etwor, 1, all_to_all ; // deletecoecto &etwor, 1 ; deletecoecto &etwor, 0 ; deletelayer &etwor, 2 ; deletelayer &etwor, 1 ; deletelayer &etwor, 0 ; deletenetwor &etwor ; retur 0; [ya000836@purple99 ~/dl]$ gcc -O3 -std=c99 -Wall -I SFMT-src D SFMT_MEXP= o sel sel.c SFMT-src-1.5.1/SFMT.c [ya000836@purple99 ~/dl]$./sel [ya000836@purple99 ~/dl]$ vod setiput Networ *etwor, Neuro x [ ] Layer *put_layer = &etwor -> layer [ 0 ]; for t = 0; < put_layer -> ; ++ put_layer -> z [ ] = x [ ]; vod forwardpropagato Networ *etwor, double *actvato double for t = 0; < etwor -> - 1; ++ Layer *l_pre = &etwor -> layer [ ]; Layer *l_post = &etwor -> layer [ + 1 ]; Coecto *c = &etwor -> coecto [ ]; for t = 0; < c -> _post; ++ Neuro u = 0.; for t = 0; < c -> _pre; ++ u += c -> w [ + c -> _pre * ] * l_pre -> z [ ] ; l_post -> z [ ] = actvato u ; double sgmod double x retur 1. / 1. + exp - x ; Neuro x [] = 0., 1. ; setiput &etwor, x ; forwardpropagato &etwor, sgmod ; z l = f w l 1 z l 1 vod dump Networ * ;
5 スケジュール 第1回 10/03 ガイダンス ニューラルネット概論と肩慣らし 第2回 10/08 誤差逆伝播のミニ講義と実装 作ってわかる深層学習 山 匡 MIコース 第3回 10/10 手書き文字認識のテスト 第4回 10/15 自己符号化器のミニ講義と実装 第5回 10/17 実装 第6回 10/22 実装 2回目スライド資料 第7回 10/24 実装 2018年度 MI/CS実験第二 パーセプトロン Roseblat 1958 パーセプトロン パーセプトロン パーセプトロンの特徴 Roseblat 1958 世界で最初のニューラルネット 中間層に多数のニューロン 第一次ブームの火付け役 入力層 中間層の結合は スパースかつランダムで固定 3層構造 入力 中間 出力 中間層 出力層の結合重みを 教師信号を使って変化させる 教師付学習 教師信号 教師付学習機械 教師信号 教師付学習 学習ルール!パーセプトロン則 " " E= 誤差 ベクトル D = x1, z1,, x, z 文脈信号 x と教師信号 zのペア 種類 x を入力層に入れるとzを出力 するように重みを変える 教師付学習 dw 計算する式 E = 2 を定義して これを減らす w hdde = E whdde ベクトル 学習係数 E whdde hdde =w t η Ewhdde t + 1 = w # 1! " teacher output 2 z z 2 誤差! " 1" "zteacher zoutput"2 教師信号E = hdde dt エポック数に 関して離散化 1 " teacher 2 zoutput" z 2 hdde t η! E 個々のサンプル hdde w t + 1 = whdde t η hdde に関して書くと w!! E= E = whdde t η E,whdde
6 w hdde t + 1 = w hdde t η E = E = w hdde t η w 0.. w l 1 w hdde E,w hdde w hdde w hdde w hdde = z teacher w hdde z output t + 1 = w hdde t η w hdde = w hdde t + η z teacher z output z output 1 z output z output 1 z output z hdde z hdde E = 1 2 z output w hdde = f w hdde z teacher w hdde f x = w hdde = z output z output w hdde z output 2 E = z output z hdde zoutput w hdde = f z teacher w hdde e x f x = f x 1 f x t + 1 = w hdde t η w hdde = w hdde t + η z teacher z output z output z output z hdde z hdde 1 z output Layer *output_layer = &etwor -> layer [ etwor -> - 1 ]; Layer *hdde_layer = &etwor -> layer [ etwor -> - 2 ]; Coecto *c = &etwor -> coecto [ etwor -> - 2 ]; for t = 0; < c -> _post; ++ for t = 0; < c -> _pre; ++ double o = output_layer -> z [ ]; double d = z [ ] - o * dff_actvato o ; c -> dw [ + c -> _pre * ] += Eta * d * hdde_layer -> z [ ] ; z hdde double updatebyperceptrorule Networ *etwor, Neuro z [ ], double *dff_actvato double ; x1 x0 z Networ etwor; createnetwor &etwor, 3, rg ; createlayer &etwor, 0, 2 ; createlayer &etwor, 1, 128 ; createlayer &etwor, 2, 1 ; createcoecto &etwor, 0, sparse_radom ; createcoecto &etwor, 1, uform_radom ; double uform_radom Networ *, cost t, cost t retur * sfmt_gerad_real2 & -> rg ; double sparse_radom Networ *, cost t, cost t retur sfmt_gerad_real2 & -> rg < 0.5? uform_radom,, 0.; vod createcoecto Networ *etwor, cost t layer_d, double *fuc Networ *, cost t, cost t Coecto *coecto = &etwor -> coecto [ layer_d ]; cost t _pre = etwor -> layer [ layer_d ]. + 1; // +1 cost t _post = layer_d == etwor -> - 1? 1 etwor -> layer [ layer_d + 1 ]. ; coecto -> w = Weght * malloc _pre * _post * szeof Weght ; for t = 0; < _post; ++ for t = 0; < _pre; ++ coecto -> w [ + _pre * ] = fuc etwor,, ; coecto -> dw = Weght * malloc _pre * _post * szeof Weght ; for t = 0; < _post; ++ for t = 0; < _pre; ++ coecto -> dw [ + _pre * ] = 0.; coecto -> _pre = _pre; coecto -> _post = _post; vod deletecoecto Networ *etwor, cost t layer_d Coecto *coecto = &etwor -> coecto [ layer_d ]; free coecto -> w ; free coecto -> dw ; Neuro x [ 4 ][ 2 ] = 0., 0., 0., 1., 1., 0., 1., 1. ; Neuro z [ 4 ][ 1 ] = 0., 1., 1., 0. ; cost t umber_of_trag_data = 4; // Trag double error = 1.0; // arbtrary large umber cost double Epslo = 0.001; // tolerat error rate t = 0; whle error > Epslo error = 0.; talzedw &etwor ; for t = 0; < umber_of_trag_data; ++ //t = t umber_of_trag_data * sfmt_gerad_real2 &rg ; t = ; setiput &etwor, x [ ] ; forwardpropagato &etwor, sgmod ; error += updatebyperceptrorule &etwor, z [ ], dff_sgmod ; updatew &etwor ; prtf "%d %f\",, error ; ++; fprtf stderr, "# of epochs = %d\", ; double dff_sgmod double z retur z * 1. - z ; // f'x = fx 1 - fx = z 1 - z
7 // Test Layer *output_layer = &etwor. layer [ etwor. - 1 ]; cost t = output_layer -> ; for t = 0; < umber_of_trag_data; ++ setiput &etwor, x [ ] ; forwardpropagato &etwor, sgmod ; for t = 0; < ; ++ fprtf stderr, "%f%s", output_layer -> z [ ], == - 1? "\" " " ; vod talzedw Networ *etwor Coecto *c = &etwor -> coecto [ etwor -> - 2 ]; for t = 0; < c -> _post; ++ for t = 0; < c -> _pre; ++ c -> dw [ + c -> _pre * ] = 0.; vod updatew Networ *etwor Coecto *c = &etwor -> coecto [ etwor -> - 2 ]; for t = 0; < c -> _post; ++ for t = 0; < c -> _pre; ++ c -> w [ + c -> _pre * ] += c -> dw [ + c -> _pre * ]; [ya000836@purple99 ~/dl]$ gcc -O3 -std=c99 -Wall -I SFMT-src D SFMT_MEXP= o perceptro perceptro.c SFMT-src-1.5.1/SFMT.c [ya000836@purple99 ~/dl]$./perceptro # of epochs = [ya000836@purple99 ~/dl]$./perceptro > perceptro.dat [ya000836@purple99 ~/dl]$ guplot G N U P L O T Verso 4.6 patchlevel 6 last modfed September 2014 Buld System Darw x86_64 Copyrght C , 1998, 2004, Thomas Wllams, Col Kelley ad may others guplot home faq, bugs, etc mmedate help Termal type set to 'x11' guplot> plot 'perceptro.dat' http// type "help FAQ" type "help" plot wdow ht 'h'
8 l-1 l w l 1 w l 1 z l w l 1 t + 1 = w l 1 t η = z l z l w l 1 = z l 1 z l z l 1 w l 1 l E = z teacher z l z l z l = w l 1 z l+1 z l+1 z l t + 1 = w l 1 t + η E = z l z teacher z l+1 z l z l+1 1 z l+1 z l w l z l 1 z l l s output layer otherwse z l 1 z l+1 z l+1 z l z l = z l+1 z l+1 z l = f = z l+1 w l zl 1 z l+1 w l w l z l = z l+1 = f z teacher z l w l zl f updatebybacpropagato typedef double Neuro, Delta, Weght; typedef struct Neuro *z; Delta *delta; t ; Layer; vod createlayer Networ *etwor, cost t layer_d, cost t umber_of_euros layer -> delta = Delta * malloc umber_of_euros + bas * szeof Delta ; for t = 0; < layer -> ; ++ layer -> delta [ ] = 0.; f bas layer -> delta [ layer -> ] = 0.; // vod deletelayer Networ *etwor, cost t layer_d free layer -> delta ; perceptro.c updatebyperceptrorule updatebybacpropagato updatebybacpropagato dl/code/bp.c
9 code/mst.c, h code/mst_test.c code/mst/ mae mst_test mdr pg./mst_test./pg E = 1 z teacher z output 2 2 =4 =60000 whle error > Epslo error = 0.; talzedw &etwor ; for t = 0; < umber_of_trag_data; ++ //t = t umber_of_trag_data * sfmt_gerad_real2 &rg ; t = ; setiput &etwor, x [ ] ; forwardpropagato &etwor, sgmod ; error += updatebybacpropagato &etwor, z [ ], dff_sgmod ; whle error > Epslo error = 0.; talzedw &etwor ; for t = 0; < MINI_BATCH_SIZE; ++ t = t umber_of_trag_data * sfmt_gerad_real2 &rg ; setiput &etwor, x [ ] ; forwardpropagato &etwor, sgmod ; error += updatebybacpropagato &etwor, z [ ], dff_sgmod ;
10 mst_geerate_pg z l = f w l 1 z l 1 θ l dw l dt dθ l = E w l = E dt θ l
11 スケジュール 第1回 10/03 ガイダンス ニューラルネット概論と肩慣らし 第2回 10/08 誤差逆伝播のミニ講義と実装 作ってわかる深層学習 山 匡 MIコース 第3回 10/10 手書き文字認識のテスト 第4回 10/15 自己符号化器のミニ講義と実装 第5回 10/17 実装 第6回 10/22 実装 3回目スライド資料 第7回 10/24 実装 2018年度 MI/CS実験第二 自己符号化器 オートエンコーダ 復号化 自己符号化器 符号化 例 画像圧縮 深層化と勾配消失問題 復号化 フーリエ変換と画像圧縮 武田祐一 https// 符号化 画像をうまく表現する基底を構成する 深層化と勾配消失問題 f x = e x f x = f x 1 f x < 1/4 逆伝播する度にデルタの値が指数的に小さくなる 深層化と勾配消失問題! x f x = 0 x>0 x 0! 1 x>0 f x = 0 x 0 ReLUはその点は性質がいい 一気に普及
12 vod copycoecto Networ *etwor_src, t layer_d_src, Networ *etwor_dst, t layer_d_dst Networ etwor; createnetwor &etwor1, 3, rg ; createlayer &etwor1, 0, MNIST_IMAGE_SIZE ; createlayer &etwor1, 1, 128 ; createlayer &etwor1, 2, MNIST_IMAGE_SIZE ; createcoecto &etwor1, 0, uform_radom ; createcoecto &etwor1, 1, uform_radom ; copycoectowthtraspose &etwor, 0, &etwor, 1 ; vod copycoectowthtraspose Networ *etwor_src, t layer_d_src, Networ *etwor_dst, t layer_d_dst ; double updatebybacpropagatopartal Networ *etwor, Neuro z [ ], double *dff_actvato double ; // Trag for t = 0; < MNIST_TRAINING_DATA_SIZE; ++ talzedw &etwor1 ; double error = 0.; copycoectowthtraspose &etwor, 0, &etwor, 1 ; for t = 0; < 1; ++ //t = t MNIST_TRAINING_DATA_SIZE * sfmt_gerad_real2 &rg ; t = ; // Use all trag data oe by oe sequetally setiput &etwor1, trag_mage [ ] ; forwardpropagato &etwor1, sgmod ; error += updatebybacpropagatopartal &etwor1, etwor1. layer [ 0 ]. z, dff_sgmod ; updatew &etwor1 ; f % 100 == 0 prtf "%d %f\",, error ; Networ etwor2; createnetwor &etwor2, 4, rg ; createlayer &etwor2, 0, MNIST_IMAGE_SIZE ; createlayer &etwor2, 1, 128 ; createlayer &etwor2, 2, 64 ; createlayer &etwor2, 3, 128 ; createcoecto &etwor2, 0, uform_radom ; createcoecto &etwor2, 1, uform_radom ; createcoecto &etwor2, 2, uform_radom ; copycoecto &etwor1, 0, &etwor2, 0 ; copycoectowthtraspose &etwor2, 1, &etwor2, 2 ; deletecoecto &etwor1, 1 ; deletecoecto &etwor1, 0 ; deletelayer &etwor1, 2 ; deletelayer &etwor1, 1 ; deletelayer &etwor1, 0 ; deletenetwor &etwor1 ; // Trag for t = 0; < MNIST_TRAINING_DATA_SIZE; ++ talzedw &etwor2 ; double error = 0.; copycoectowthtraspose &etwor2, 1, &etwor2, 2 ; for t = 0; < 1; ++ //t = t MNIST_TRAINING_DATA_SIZE * sfmt_gerad_real2 &rg ; t = ; // Use all trag data oe by oe sequetally setiput &etwor2, trag_mage [ ] ; forwardpropagato &etwor2, sgmod ; error += updatebybacpropagatopartal &etwor2, etwor2. layer [ 1 ]. z, dff_sgmod ; updatew &etwor2 ; f % 100 == 0 prtf "%d %f\",, error ;
13
Slide 1
ハンズオン受講の為の準備講座 これから始める人の為の ディープラーニング基礎講座 村上真奈 NVIDIA CUDA & Deep Learning Solution Architect NVIDIA Corporation 1 機械学習とディープラーニングの関係 AGENDA ディープラーニングとは? ニューラルネットワークの構造 ディープラーニングの学習とは 畳み込みニューラルネットワーク 午後に予定しているハンズオンの為の基礎講座ディープラーニングをこれから始める方を対象に基礎概念や用語の解説を行います
Microsoft PowerPoint - 第3回2.ppt
講義内容 講義内容 次元ベクトル 関数の直交性フーリエ級数 次元代表的な対の諸性質コンボリューション たたみこみ積分 サンプリング定理 次元離散 次元空間周波数の概念 次元代表的な 次元対 次元離散 次元ベクトル 関数の直交性フーリエ級数 次元代表的な対の諸性質コンボリューション たたみこみ積分 サンプリング定理 次元離散 次元空間周波数の概念 次元代表的な 次元対 次元離散 ベクトルの直交性 3
1 1 Gnuplot gnuplot Windows gnuplot gp443win32.zip gnuplot binary, contrib, demo, docs, license 5 BUGS, Chang
Gnuplot で微分積分 2011 年度前期 数学解析 I 講義資料 (2011.6.24) 矢崎成俊 ( 宮崎大学 ) 1 1 Gnuplot gnuplot http://www.gnuplot.info/ Windows gnuplot 2011 6 22 4.4.3 gp443win32.zip gnuplot binary, contrib, demo, docs, license 5
memo
数理情報工学演習第一 C プログラミング演習 ( 第 5 回 ) 2015/05/11 DEPARTMENT OF MATHEMATICAL INFORMATICS 1 今日の内容 : プロトタイプ宣言 ヘッダーファイル, プログラムの分割 課題 : 疎行列 2 プロトタイプ宣言 3 C 言語では, 関数や変数は使用する前 ( ソースの上のほう ) に定義されている必要がある. double sub(int
FX ) 2
(FX) 1 1 2009 12 12 13 2009 1 FX ) 2 1 (FX) 2 1 2 1 2 3 2010 8 FX 1998 1 FX FX 4 1 1 (FX) () () 1998 4 1 100 120 1 100 120 120 100 20 FX 100 100 100 1 100 100 100 1 100 1 100 100 1 100 101 101 100 100
Unix * 3 PC 2 Linux, Mac *4 Windows Cygwin Cygwin gnuplot Cygwin unix emulator online gnuplot *5 matplotlib *6 SuperMongo *7 gnuplot gnuplot OS *8 Uni
2015 8 1 ( ) Unix 1 *1 Unix Unix Unix Perl, Python *2 Unix 2 PC gnuplot *1 100 10 10 6 10 = 10 7 1 1/3 3 10 7 10 7.5 1 24 3600 = (30 6)(30 + 6) 100 = 86400 1 10 7.5 *2 Perl, Python Python 1 Unix * 3 PC
gnuplot の使い方 gnuplot は汎用的で しかも手軽に使えるプロッティング プログラムです 計算結果をグラフにするとき に非常に便利なので ぜひ覚えてください 1 gnuplot の始め方 終わり方 gnuplot の始め方は ターミナル上のプロンプトの後ろで gnuplot と打つだけ
gnuplot の使い方 gnuplot は汎用的で しかも手軽に使えるプロッティング プログラムです 計算結果をグラフにするとき に非常に便利なので ぜひ覚えてください 1 gnuplot の始め方 終わり方 gnuplot の始め方は ターミナル上のプロンプトの後ろで gnuplot と打つだけです すると /home/snaoki> gnuplot G N U P L O T Version
PowerPoint Presentation
付録 2 2 次元アフィン変換 直交変換 たたみ込み 1.2 次元のアフィン変換 座標 (x,y ) を (x,y) に移すことを 2 次元での変換. 特に, 変換が と書けるとき, アフィン変換, アフィン変換は, その 1 次の項による変換 と 0 次の項による変換 アフィン変換 0 次の項は平行移動 1 次の項は座標 (x, y ) をベクトルと考えて とすれば このようなもの 2 次元ベクトルの線形写像
JPS_draft.pptx
LHC-ATLAS 実験における高い運動量を持つジェットの b- タグの開発及び評価 小林愛音 江成祐二 A 川本辰男 A 東大理 東大素セ A 9pSK-6 9th September 4 日本物理学会 4 年秋季大会 Introduction 5 年から始まる LHC の運転では高い運動量を持った物理の解析が重要 新しい重いレゾナンスの探索 (à WW, tt, hhà jets) VHà bb
Ver.1.0.1-1512 1. 03 2. 04 3. 05 05 4. 06 07 5. 08 6. 09 10 11 12 14 7. 19 2 1. Plus / 3 2. 1 4 3. Plus 5 4. FX 6 4. 7 5. 1 200 3 8 6. 38 25 16 9 6. 10 6. 11 6. 38 / 12 6. 13 6. 25 14 6. 0 359 15 6. 3
画像解析論(2) 講義内容
画像解析論 画像解析論 東京工業大学長橋宏 主な講義内容 信号処理と画像処理 二次元システムとその表現 二次元システムの特性解析 各種の画像フィルタ 信号処理と画像処理 画像解析論 処理の応答 記憶域 入出力の流れ 信号処理系 実時間性が求められる メモリ容量に対する制限が厳しい オンラインでの対応が厳しく求められる 画像処理系 ある程度の処理時間が許容される 大容量のメモリ使用が容認され易い オフラインでの対応が容認され易い
自己紹介 名前 : 竹田卓也 年齢 : 20 歳 ( 大学生 ) 経歴 : 人工知能歴 1ヶ月プログラミング歴 5 年くらい 言語 : PythonとかJavaとかGoとか 趣味 : オンライン オフラインゲーム 2
リカレントニューラルネットワークの概要と動作原理 竹田卓也 後援 : ドワンゴ 1 自己紹介 名前 : 竹田卓也 年齢 : 20 歳 ( 大学生 ) 経歴 : 人工知能歴 1ヶ月プログラミング歴 5 年くらい 言語 : PythonとかJavaとかGoとか 趣味 : オンライン オフラインゲーム 2 アウトライン Feed forward neural network Recurrent neural
1
1 5% 4% 11% 8% 13% 12% 10% 6% 17% 6% 8% 4% 6% 6% 2% 17% 17% 12% 14% 16% 6% 37% 11% 17% 35% 2 (N=6,239) 0 200 400 600 800 1,000 1,200 1,400 1,600 1,800 1,585 1,126 950 494 345 296 242 263 191 150 131 116
Microsoft PowerPoint pptx
4.2 小信号パラメータ 1 電圧利得をどのように求めるか 電圧ー電流変換 入力信号の変化 dv BE I I e 1 v be の振幅から i b を求めるのは難しい? 電流増幅 電流ー電圧変換 di B di C h FE 電流と電圧の関係が指数関数になっているのが問題 (-RC), ただし RL がない場合 dv CE 出力信号の変化 2 pn 接合の非線形性への対処 I B 直流バイアスに対する抵抗
SAP11_03
第 3 回 音声音響信号処理 ( 線形予測分析と自己回帰モデル ) 亀岡弘和 東京大学大学院情報理工学系研究科日本電信電話株式会社 NTT コミュニケーション科学基礎研究所 講義内容 ( キーワード ) 信号処理 符号化 標準化の実用システム例の紹介情報通信の基本 ( 誤り検出 訂正符号 変調 IP) 符号化技術の基本 ( 量子化 予測 変換 圧縮 ) 音声分析 合成 認識 強調 音楽信号処理統計的信号処理の基礎
[Problem D] ぐらぐら 一般に n 個の物体があり i 番目の物体の重心の x 座標を x i, 重さを w i とすると 全体の n 重心の x 座標と重さ w は x = ( x w ) / w, w = w となる i= 1 i i n i= 1 i 良さそうな方法は思いつかなかった
[Problem D] ぐらぐら 一般に n 個の物体があり 番目の物体の重心の x 座標を x, 重さを w とすると 全体の n 重心の x 座標と重さ w は x = ( x w ) / w, w = w となる = n = 良さそうな方法は思いつかなかった アイデア募集中!!! ので 少し強引に解いている 入力データの読み込みは w と h を scanf で読み込み getchar でその行の行末コードを読み込み
<4D F736F F F696E74202D2091E6824F82538FCD8CEB82E88C9F8F6F814592F990B382CC8CB4979D82BB82CC82505F D E95848D8682CC90B69
第 章 誤り検出 訂正の原理 その ブロック符号とその復号 安達文幸 目次 誤り訂正符号化を用いる伝送系誤り検出符号誤り検出 訂正符号 7, ハミング符号, ハミング符号生成行列, パリティ検査行列の一般形符号の生成行列符号の生成行列とパリティ検査行列の関係符号の訂正能力符号多項式 安達 : コミュニケーション符号理論 安達 : コミュニケーション符号理論 誤り訂正符号化を用いる伝送系 伝送システム
5 Basis Expansions and Regularization 5.3 Filtering and Feature Extraction 5.4 Smoothing Splines Degrees of Freedom and Smoother Matrices
Learnng to Generate wth Memory Chongxuan L, Jun Zhu, Bo Zhang 2016/07/16 ICML 読み会 奈良先端科学技術大学院大学 中村研 D2 品川政太朗 1/24 はじめに 何の論文? Neural Turng Machne や Memory Networks で用いられている外部メモリを深層生成モデル (DGMs) に導入 どこがすごいか抽象度の低い特徴は階層が上がるにつれて落ちる情報だが
Microsoft PowerPoint - comprog11.pptx
Outline プログラミング演習第 回エッジを検出する on 3..4 電気通信大学情報理工学部知能機械工学科長井隆行 画像の本質 輝度の境目に情報あり! 画像の微分と 階微分 エッジ検出 画像をぼかす 本日の課題 画像の本質 エッジ抽出 画像の情報は境目にあり! エッジ 輝度が大きく変化しているところ ( 境界 ) 画像の情報はエッジにあり 輝度 人間の視覚系でも特定のエッジの方向に発火するニューロンが見つかっている
PowerPoint プレゼンテーション
復習 ) 時系列のモデリング ~a. 離散時間モデル ~ y k + a 1 z 1 y k + + a na z n ay k = b 0 u k + b 1 z 1 u k + + b nb z n bu k y k = G z 1 u k = B(z 1 ) A(z 1 u k ) ARMA モデル A z 1 B z 1 = 1 + a 1 z 1 + + a na z n a = b 0
r07.dvi
19 7 ( ) 2019.4.20 1 1.1 (data structure ( (dynamic data structure 1 malloc C free C (garbage collection GC C GC(conservative GC 2 1.2 data next p 3 5 7 9 p 3 5 7 9 p 3 5 7 9 1 1: (single linked list 1
ohp07.dvi
19 7 ( ) 2019.4.20 1 (data structure) ( ) (dynamic data structure) 1 malloc C free 1 (static data structure) 2 (2) C (garbage collection GC) C GC(conservative GC) 2 2 conservative GC 3 data next p 3 5
( ) kadai4, kadai4.zip.,. 3 cos x [ π, π] Python. ( 100 ), x cos x ( ). (, ). def print cos(): print cos()
4 2010.6 1 :, HP.. HP 4 (, PGM/PPM )., python,,, 2, kadai4,.,,, ( )., ( ) N, exn.py ( 3 ex3.py ). N 3.., ( )., ( ) N, (exn.txt).. 1 ( ) kadai4, kadai4.zip.,. 3 cos x [ π, π] Python. ( 100 ), x cos x (
遅延デジタルフィルタの分散型積和演算回路を用いたFPGA実装の検討
第 回電気学会東京支部栃木 群馬支所合同研究発表会 ETT--7 遅延デジタルフィルタの分散型積和演算回路を用いた FPGA 実装の検討 易茹 * 立岩武徳 ( 群馬大学 ) 浅見幸司 ( 株式会社アドバンテスト ) 小林春夫 ( 群馬大学 ) 発表内容 研究の背景 目的 分散型積和演算回路 実装の検討 まとめ 今後の課題 発表内容 研究の背景 目的 分散型積和演算回路 実装の検討 まとめ 今後の課題
機械学習 ハンズオン-チュートリアル
機械学習 ハンズオン - チュートリアル 初めてのペアモニター研究 はじめに このチュートリアルは機械学習の環境を構築し ニューラルネットワークが実行できるようになるところまで行います チュートリアルの流れ 1. 環境構築 2. 機械学習用プログラム実装 & 実行 3. プログラムの改良 ( 精度向上のため ) 4. 機械学習についてより深く理解するために 2 y[mm] y[mm] 機械学習 ヒット分布
解析力学B - 第11回: 正準変換
解析力学 B 第 11 回 : 正準変換 神戸大 : 陰山聡 ホームページ ( 第 6 回から今回までの講義ノート ) http://tinyurl.com/kage2010 2011.01.27 正準変換 バネ問題 ( あえて下手に座標をとった ) ハミルトニアンを考える q 正準方程式は H = p2 2m + k 2 (q l 0) 2 q = H p = p m ṗ = H q = k(q
最小二乗フィット、カイ二乗フィット、gnuplot
数値計算法 009 5/7 林田清 ( 大阪大学大学院理学研究科 ) 最尤法 (Maxmum Lkelhood Method) 回の ( 独立な ) 測定 xで, x,..., x 1 母集団が平均値 μgauss) 標準偏差 の正規 ( 分布の場合 1 回の測定で xから( xの間の値を観測する確率は + dx) dq = Pdx 1 1 x µ P exp π µ は不可知 推定値をとする µ
Deep Learning によるビッグデータ解析 ~ 手法や CUDA による高速化 2014 年 9 月 5 日 G-DEP ソリューションパートナー株式会社システム計画研究所奥村義和
Deep Learning によるビッグデータ解析 ~ 手法や CUDA による高速化 2014 年 9 月 5 日 G-DEP ソリューションパートナー株式会社システム計画研究所奥村義和 目次 DeepLearning と GPU G-DEP テストドライブ ビッグデータ GPU DeepLearning の接点 目次 DeepLearningとGPU DeepLearningとは 仕組みと計算
ボルツマンマシンの高速化
1. はじめに ボルツマン学習と平均場近似 山梨大学工学部宗久研究室 G04MK016 鳥居圭太 ボルツマンマシンは学習可能な相互結合型ネットワー クの代表的なものである. ボルツマンマシンには, 学習のための統計平均を取る必要があり, 結果を求めるまでに長い時間がかかってしまうという欠点がある. そこで, 学習の高速化のために, 統計を取る2つのステップについて, 以下のことを行う. まず1つ目のステップでは,
テンソル ( その ) テンソル ( その ) スカラー ( 階のテンソル ) スカラー ( 階のテンソル ) 階数 ベクトル ( 階のテンソル ) ベクトル ( 階のテンソル ) 行列表現 シンボリック表現 [ ]
Tsor th-ordr tsor by dcl xprsso m m Lm m k m k L mk kk quott rul by symbolc xprsso Lk X thrd-ordr tsor cotrcto j j Copyrght s rsrvd. No prt of ths documt my b rproducd for proft. テンソル ( その ) テンソル ( その
kiso2-03.key
座席指定はありません Linux を起動して下さい 第3回 計算機基礎実習II 2018 のウェブページか ら 以下の課題に自力で取り組んで下さい 計算機基礎実習II 第2回の復習課題(rev02) 第3回の基本課題(base03) 第2回課題の回答例 ex02-2.c include int main { int l int v, s; /* 一辺の長さ */ /* 体積 v
mstrcpy char *mstrcpy(const char *src); mstrcpy malloc (main free ) stdio.h fgets char *fgets(char *s, int size, FILE *stream); s size ( )
2008 3 10 1 mstrcpy char *mstrcpy(const char *src); mstrcpy malloc (main free ) stdio.h fgets char *fgets(char *s, int size, FILE *stream); s size ( ) stream FILE ( man ) 40 ( ) %./a.out String : test
スライド 1
CNN を用いた弱教師学習による画像領域分割 下田和, 柳井啓司 電気通信大学 大学院情報理工学 研究科 総合情報学専攻 c 2015 UEC Tokyo. Convolutional Neural Network CNN クラス分類タスクにおいてトップの精度 CNN の応用 ( 物体位置の認識 ) 物体検出 物体に BB を付与 領域分割 ピクセル単位の認識 CNN を用いた領域分割 CNN による完全教師ありのセグメンテーション
Microsoft PowerPoint - H22制御工学I-10回.ppt
制御工学 I 第 回 安定性 ラウス, フルビッツの安定判別 平成 年 6 月 日 /6/ 授業の予定 制御工学概論 ( 回 ) 制御技術は現在様々な工学分野において重要な基本技術となっている 工学における制御工学の位置づけと歴史について説明する さらに 制御システムの基本構成と種類を紹介する ラプラス変換 ( 回 ) 制御工学 特に古典制御ではラプラス変換が重要な役割を果たしている ラプラス変換と逆ラプラス変換の定義を紹介し
各学科 課程 専攻別開設授業科目 ( 教職関係 ) 総合情報学科 ( 昼間コース ) 中学校教諭 1 種免許状 ( 数学 ) 高等学校教諭 1 種免許状 ( 数学 ) 代数学 線形代数学第一 2 線形代数学第二 2 離散数学 2 応用代数学 2 オペレーションズ リサーチ基礎 2 数論アルゴリズム
免許状取得に必要な履修科目 教育職員免許法施行規則に 左に該当する本学の 履修 高等学校教諭 高等学校教諭 中学校教諭 定める修得を要する科目 開設科目及び単位数 年次 専修免許状 1 種免許状 1 種免許状 教職の意義等に関する科目教職論 2 1 年 2 単位 2 単位 2 単位 教 教育原理 2 1 年 職 に教育の基礎理論に関する科教育心理学 2 1 年 6 単位 6 単位 6 単位 関目 す
Matrix and summation convention Kronecker delta δ ij 1 = 0 ( i = j) ( i j) permutation symbol e ijk = (even permutation) (odd permutation) (othe
Matr ad summato covto Krockr dlta δ ( ) ( ) prmutato symbol k (v prmutato) (odd prmutato) (othrs) gvalu dtrmat dt 6 k rst r s kt opyrght s rsrvd. No part of ths documt may b rproducd for proft. 行列 行 正方行列
Probit , Mixed logit
Probit, Mixed logit 2016/5/16 スタートアップゼミ #5 B4 後藤祥孝 1 0. 目次 Probit モデルについて 1. モデル概要 2. 定式化と理解 3. 推定 Mixed logit モデルについて 4. モデル概要 5. 定式化と理解 6. 推定 2 1.Probit 概要 プロビットモデルとは. 効用関数の誤差項に多変量正規分布を仮定したもの. 誤差項には様々な要因が存在するため,
スペクトルに対応する英語はスペクトラム(spectrum)です
7. ハミング窓とフラットトップ窓の等価ノイズ帯域幅 (ENBW) (1) Hamming 窓 Hamming 窓は次式で表されます MaTX にも関数が用意されています win = 0.54-0.46*cos(2*PI*[k/(N-1)); ただし k=0,1,---,n-1 N=256; K=[0:N-1]; w=0.54-0.46*cos(2*pi*k/(n-1)); mgplot_reset(1);
Microsoft PowerPoint - multi_media05-dct_jpeg [互換モード]
マルチメディア工学 マルチメディアデータの解析データ圧縮 : 離散コサイン変換と JPEG マルチメディア工学 : 講義計画 イントロダクション コンピュータグラフィックス (Computer Graphics: CG) マルチメディアデータの解析 佐藤嘉伸 大阪大学大学院医学系研究科放射線統合医学講座 [email protected] u.ac.jp http://www.image.med.osaka
数学 t t t t t 加法定理 t t t 倍角公式加法定理で α=β と置く. 三角関数
. 三角関数 基本関係 t cot c sc c cot sc t 還元公式 t t t t t t cot t cot t 数学 数学 t t t t t 加法定理 t t t 倍角公式加法定理で α=β と置く. 三角関数 数学. 三角関数 5 積和公式 6 和積公式 数学. 三角関数 7 合成 t V v t V v t V V V V VV V V V t V v v 8 べき乗 5 6 6
Microsoft PowerPoint - multi_media05-dct_jpeg [互換モード]
マルチメディア工学マルチメディアデータの解析データ圧縮 : 離散コサイン変換と JPEG 佐藤嘉伸 マルチメディア工学 : 講義計画 マルチメディアデータの解析 基礎数理 代表的解析手法 データ圧縮 : 離散コサイン変換 JPEG データ表現 : 形状の主成分分析 奈良先端科学技術大学院大学情報科学研究科生体医用画像研究室 [email protected] http://icb lab.naist.jp/members/yoshi/
LLG-R8.Nisus.pdf
d M d t = γ M H + α M d M d t M γ [ 1/ ( Oe sec) ] α γ γ = gµ B h g g µ B h / π γ g = γ = 1.76 10 [ 7 1/ ( Oe sec) ] α α = λ γ λ λ λ α γ α α H α = γ H ω ω H α α H K K H K / M 1 1 > 0 α 1 M > 0 γ α γ =
Microsoft PowerPoint - H17-5時限(パターン認識).ppt
パターン認識早稲田大学講義 平成 7 年度 独 産業技術総合研究所栗田多喜夫 赤穂昭太郎 統計的特徴抽出 パターン認識過程 特徴抽出 認識対象から何らかの特徴量を計測 抽出 する必要がある 認識に有効な情報 特徴 を抽出し 次元を縮小した効率の良い空間を構成する過程 文字認識 : スキャナ等で取り込んだ画像から文字の識別に必要な本質的な特徴のみを抽出 例 文字線の傾き 曲率 面積など 識別 与えられた未知の対象を
