基底関数ネットワーク

Similar documents
知能科学:ニューラルネットワーク

知能科学:ニューラルネットワーク

日本物理学会2013年秋季大会 於 高知大学朝倉campus 講演21aSB-6 (2013年9月21日) 高スピン間の回転行列の数値評価における著しい桁落の回避方法 田嶋直樹 福井大工 1.回転演算子の角運動量固有状態基底での表現行列 D関数 をWignerの公 式で数値的に求めると 角運動量jが

() x + y + y + x dy dx = 0 () dy + xy = x dx y + x y ( 5) ( s55906) 0.7. (). 5 (). ( 6) ( s6590) 0.8 m n. 0.9 n n A. ( 6) ( s6590) f A (λ) = det(a λi)

untitled

Microsoft PowerPoint - 物情数学C(2012)(フーリエ前半)_up

参考書 (1) 中村, 山本, 吉田 : ウェーブレットによる信号処理と画像処理, 共立出版 応用の紹介とプログラムリストが中心, 理論的背景はほとんどなし 意味不明の比喩を多用 各時代 各国別に美女を探すのが窓フーリエ変換である 応用テーマ : 不連続信号検出, 相関の検出, ノイズ除去, 画像デ

18 ( ) I II III A B C(100 ) 1, 2, 3, 5 I II A B (100 ) 1, 2, 3 I II A B (80 ) 6 8 I II III A B C(80 ) 1 n (1 + x) n (1) n C 1 + n C

DVIOUT

数学 t t t t t 加法定理 t t t 倍角公式加法定理で α=β と置く. 三角関数


Microsoft PowerPoint - dm1_6.pptx

B's Recorderマニュアル_B's Recorderマニュアル

B's Recorderマニュアル

Microsoft PowerPoint - 第3回2.ppt

Microsoft PowerPoint - DigitalMedia2_3b.pptx

第 4 週コンボリューションその 2, 正弦波による分解 教科書 p. 16~ 目標コンボリューションの演習. 正弦波による信号の分解の考え方の理解. 正弦波の複素表現を学ぶ. 演習問題 問 1. 以下の図にならって,1 と 2 の δ 関数を図示せよ δ (t) 2

Microsoft PowerPoint - dm1_5.pptx

画像処理工学

Microsoft PowerPoint - 配布資料・演習18.pptx

物性基礎

TOP URL 1

Microsoft PowerPoint - CSA_B3_EX2.pptx

Microsoft Word - FT_2010.doc

(Microsoft Word - PLL\203f\203\202\216\221\227\277-2-\203T\203\223\203v\203\213.doc)

mugensho.dvi

Microsoft Word - note02.doc

スライド 1

( ) sin 1 x, cos 1 x, tan 1 x sin x, cos x, tan x, arcsin x, arccos x, arctan x. π 2 sin 1 x π 2, 0 cos 1 x π, π 2 < tan 1 x < π 2 1 (1) (

横浜市環境科学研究所

Microsoft Word - 簡単な計算と作図.doc

I, II 1, A = A 4 : 6 = max{ A, } A A 10 10%

工業数学F2-04(ウェブ用).pptx

Microsoft PowerPoint - Lec14 [互換モード]

211 ‚æ2fiúŒÚ

( ) ( )

http//umercalbra.org/lectures/deep-learg/ z l l-1 = f w l 1 z l 1 1 f x = 1 + e x x x > 0 f x = 0 x 0 z l l-1 = f w l 1 z l 1

PowerPoint Presentation

Microsoft PowerPoint - 計測工学第7回.pptx

9 2 1 f(x, y) = xy sin x cos y x y cos y y x sin x d (x, y) = y cos y (x sin x) = y cos y(sin x + x cos x) x dx d (x, y) = x sin x (y cos y) = x sin x

QMI_09.dvi

QMI_10.dvi

18 2 F 12 r 2 r 1 (3) Coulomb km Coulomb M = kg F G = ( ) ( ) ( ) 2 = [N]. Coulomb

meiji_resume_1.PDF

1 12 ( )150 ( ( ) ) x M x 0 1 M 2 5x 2 + 4x + 3 x 2 1 M x M 2 1 M x (x + 1) 2 (1) x 2 + x + 1 M (2) 1 3 M (3) x 4 +

) a + b = i + 6 b c = 6i j ) a = 0 b = c = 0 ) â = i + j 0 ˆb = 4) a b = b c = j + ) cos α = cos β = 6) a ˆb = b ĉ = 0 7) a b = 6i j b c = i + 6j + 8)

周期時系列の統計解析 (3) 移動平均とフーリエ変換 nino 2017 年 12 月 18 日 移動平均は, 周期時系列における特定の周期成分の消去や不規則変動 ( ノイズ ) の低減に汎用されている統計手法である. ここでは, 周期時系列をコサイン関数で近似し, その移動平均により周期成分の振幅

振動学特論火曜 1 限 TA332J 藤井康介 6 章スペクトルの平滑化 スペクトルの平滑化とはギザギザした地震波のフーリエ スペクトルやパワ スペクトルでは正確にスペクトルの山がどこにあるかはよく分からない このようなスペクトルから不純なものを取り去って 本当の性質を浮き彫

PowerPoint プレゼンテーション

p = mv p x > h/4π λ = h p m v Ψ 2 Ψ

ディジタル信号処理

, 3, 6 = 3, 3,,,, 3,, 9, 3, 9, 3, 3, 4, 43, 4, 3, 9, 6, 6,, 0 p, p, p 3,..., p n N = p p p 3 p n + N p n N p p p, p 3,..., p n p, p,..., p n N, 3,,,,

50 2 I SI MKSA r q r q F F = 1 qq 4πε 0 r r 2 r r r r (2.2 ε 0 = 1 c 2 µ 0 c = m/s q 2.1 r q' F r = 0 µ 0 = 4π 10 7 N/A 2 k = 1/(4πε 0 qq

1 No.1 5 C 1 I III F 1 F 2 F 1 F 2 2 Φ 2 (t) = Φ 1 (t) Φ 1 (t t). = Φ 1(t) t = ( 1.5e 0.5t 2.4e 4t 2e 10t ) τ < 0 t > τ Φ 2 (t) < 0 lim t Φ 2 (t) = 0

untitled

x = a 1 f (a r, a + r) f(a) r a f f(a) 2 2. (a, b) 2 f (a, b) r f(a, b) r (a, b) f f(a, b)

Introduction to System Identification

.2 ρ dv dt = ρk grad p + 3 η grad (divv) + η 2 v.3 divh = 0, rote + c H t = 0 dive = ρ, H = 0, E = ρ, roth c E t = c ρv E + H c t = 0 H c E t = c ρv T

1 I 1.1 ± e = = - = C C MKSA [m], [Kg] [s] [A] 1C 1A 1 MKSA 1C 1C +q q +q q 1

II A A441 : October 02, 2014 Version : Kawahira, Tomoki TA (Kondo, Hirotaka )

I, II 1, 2 ɛ-δ 100 A = A 4 : 6 = max{ A, } A A 10

7. y fx, z gy z gfx dz dx dz dy dy dx. g f a g bf a b fa 7., chain ule Ω, D R n, R m a Ω, f : Ω R m, g : D R l, fω D, b fa, f a g b g f a g f a g bf a

1 8, : 8.1 1, 2 z = ax + by + c ax by + z c = a b +1 x y z c = 0, (0, 0, c), n = ( a, b, 1). f = n i=1 a ii x 2 i + i<j 2a ij x i x j = ( x, A x), f =

演習2

SOWC04....


I-2 (100 ) (1) y(x) y dy dx y d2 y dx 2 (a) y + 2y 3y = 9e 2x (b) x 2 y 6y = 5x 4 (2) Bernoulli B n (n = 0, 1, 2,...) x e x 1 = n=0 B 0 B 1 B 2 (3) co

If(A) Vx(V) 1 最小 2 乗法で実験式のパラメータが導出できる測定で得られたデータをよく近似する式を実験式という. その利点は (M1) 多量のデータの特徴を一つの式で簡潔に表現できること. また (M2) y = f ( x ) の関係から, 任意の x のときの y が求まるので,

R R 16 ( 3 )

SAP11_03

6 2 2 x y x y t P P = P t P = I P P P ( ) ( ) ,, ( ) ( ) cos θ sin θ cos θ sin θ, sin θ cos θ sin θ cos θ y x θ x θ P

Microsoft PowerPoint - LectureB1_17woAN.pptx

Gmech08.dvi

untitled

120 9 I I 1 I 2 I 1 I 2 ( a) ( b) ( c ) I I 2 I 1 I ( d) ( e) ( f ) 9.1: Ampère (c) (d) (e) S I 1 I 2 B ds = µ 0 ( I 1 I 2 ) I 1 I 2 B ds =0. I 1 I 2

統計的データ解析

Microsoft PowerPoint - multi_media05-dct_jpeg [互換モード]

Microsoft PowerPoint - multi_media05-dct_jpeg [互換モード]

N cos s s cos ψ e e e e 3 3 e e 3 e 3 e

i

,. Black-Scholes u t t, x c u 0 t, x x u t t, x c u t, x x u t t, x + σ x u t, x + rx ut, x rux, t 0 x x,,.,. Step 3, 7,,, Step 6., Step 4,. Step 5,,.

Microsoft PowerPoint - 資料04 重回帰分析.ppt

PowerPoint Presentation

曲面のパラメタ表示と接線ベクトル

ii 3.,. 4. F. (), ,,. 8.,. 1. (75%) (25%) =7 20, =7 21 (. ). 1.,, (). 3.,. 1. ().,.,.,.,.,. () (12 )., (), 0. 2., 1., 0,.

ma22-9 u ( v w) = u v w sin θê = v w sin θ u cos φ = = 2.3 ( a b) ( c d) = ( a c)( b d) ( a d)( b c) ( a b) ( c d) = (a 2 b 3 a 3 b 2 )(c 2 d 3 c 3 d

2010年度 筑波大・理系数学

Microsoft Word - 03-数値計算の基礎.docx

カイ二乗フィット検定、パラメータの誤差

Xray.dvi

D xy D (x, y) z = f(x, y) f D (2 ) (x, y, z) f R z = 1 x 2 y 2 {(x, y); x 2 +y 2 1} x 2 +y 2 +z 2 = 1 1 z (x, y) R 2 z = x 2 y

Sample function Re random process Flutter, Galloping, etc. ensemble (mean value) N 1 µ = lim xk( t1) N k = 1 N autocorrelation function N 1 R( t1, t1

スライド 1


x () g(x) = f(t) dt f(x), F (x) 3x () g(x) g (x) f(x), F (x) (3) h(x) = x 3x tf(t) dt.9 = {(x, y) ; x, y, x + y } f(x, y) = xy( x y). h (x) f(x), F (x

II No.01 [n/2] [1]H n (x) H n (x) = ( 1) r n! r!(n 2r)! (2x)n 2r. r=0 [2]H n (x) n,, H n ( x) = ( 1) n H n (x). [3] H n (x) = ( 1) n dn x2 e dx n e x2

(Microsoft Word - 10ta320a_\220U\223\256\212w\223\301\230__6\217\315\221O\224\274\203\214\203W\203\201.docx)


2. 2 P M A 2 F = mmg AP AP 2 AP (G > : ) AP/ AP A P P j M j F = n j=1 mm j G AP j AP j 2 AP j 3 P ψ(p) j ψ(p j ) j (P j j ) A F = n j=1 mgψ(p j ) j AP

Microsoft PowerPoint - LectureB1handout.ppt [互換モード]

Transcription:

6. 基底関数ネットワーク (Bass Functon Network) 6-1 基底関数ネットワーク研究の背景 (1)( 階層型 ) ニューラルネットワークの問題点の回避 設計性の悪さ ローカルミニマム問題 (2) 級数展開の利用 基底関数が周期関数 フーリエ級数

フーリエ級数

フーリエ級数 F1 フーリエ係数 F2 信号 + F3 F4

フーリエ展開で関数を近似した例

フーリエ係数の意味 F1 F2 F3 F4 スペクトル スペクトル F1 F3 F4 F2 それぞれの波の成分がどれぐらいふくまれるか 信号の特徴が分かる 周波数 1Hz 2Hz 8Hz

フーリエ係数 信号がどのような成分から成り立っているか いつ, その成分が現れているのか ウェーブレット理論 いつ, その成分が現れているのか

ウェーブレット関数 一部に局在する関数 ( 例 ) Harr ウェーブレット ψ-10 ψ00 ψ10 ψ11 ψab : 基底関数 a b : 基底の幅を決める : 基底の位置を決める ψ20 ψ21 ψ30

ウェーブレット級数

ウェーブレット級数 W -1 0 W00 W10 信号 + W11 W20 W21 W22 W23

関数近似の例

信号解析 Wj ウェーブレット係数 周波数 ( 関数の幅 ) 時間 スペクトル値

九州東海大学ソーラーカープロジェクト NEXTAGE号

ウェーブレット解析例 加速時 減速時 ソーラーカー車内音のウェーブレット解析結果 ( 縦軸 : 周波数, 横軸 : ステップ数 ( サンプリングレート 22050 /sec))

離散コサイン変換 DCT JPEG 1 96圧縮 離散ウェーブレット変換 DWT JPEG2000 1 96圧縮 出典 http://www.zdnet.co.jp/news/0012/04/jpeg2000.html

6. 基底関数ネットワーク (Bass Functon Network) 6-1 基底関数ネットワーク研究の背景 (1)( 階層型 ) ニューラルネットワークの問題点の回避 設計性の悪さ ローカルミニマム問題 (2) 級数展開の利用 基底関数が周期関数 フーリエ級数

6 2 基底関数ネットワークの基礎 (1) 基本構造 さっきのフーリエ級数展開の図 f ( x) = F g ( x)

(2) 基底関数の種類 ガウス関数 RBF(Radal Bass Functon) ネットワーク ウェーブレット関数 詳しくはのちほど... ファジィメンバーシップ関数 その他 前件部 : 相補型メンバーシップ関数後件部 : シングルトン

(3) 特徴 ローカルミニマム問題の回避 設計性の向上 汎化能力の低下 (4) 演算方法 学習 最小二乗法 ( 逆行列計算 ) (5) 応用例 ウェーブレットネットワーク

ウェーブレット理論 (Wavelet Theory) wavelet ってなに?

ウェーブレット理論 (Wavelet Theory) wavelet ってなに? wave 波 let 小さいという意味の接尾語

ウェーブレット理論 (Wavelet Theory) wavelet ってなに? wave 波 let 小さいという意味の接尾語 小波, さざなみ

ウェーブレット理論 (Wavelet Theory) wavelet ってなに? wave 波 let 小さいという意味の接尾語 小波, さざなみ さざなみ を利用した理論

ウェーブレット理論 (Wavelet Theory) wavelet ってなに? wave 波 let 小さいという意味の接尾語 小波, さざなみ さざなみ を利用した理論

ウェーブレットニューロン (Wavelet Neuron) x 1 ニューロンの数式モデル x 2 w 1 w 2 θ y w n x n θ : 閾値

ウェーブレットニューロン (Wavelet Neuron) ニューロンの数式モデル 非線形シナプスニューロン x 1 x 1 x 2 w 2 w 1 θ y x 2 f 2 f 1 y w n f n x n θ : 閾値 x n f k 非線形シナプス 期待される効果 ローカルミニマム問題の回避 局所的な非線形性の記述 設計性の向上 Ψ0,0( x k ) w x k0,0 f k ( x k ) k Ψ x ) 1,0( k w k1,0 w, Ψ m, m ( xk ) k m m Weght Wavelet Bass

Approxmaton of a Functon by a Nonlnear Synapse Pecewse Lnear Part Smooth Part Leanng Data (101 ponts, samplng nterval 0.01)

Convex wavelet 1 ψ ( a, b)( x) =ψ ( ax b) ψ (0,0) -1/2 0 1/2 ψ (1,0) ψ (1,1 ) ψ ( x) = cosπx 0 x 1 2 ( otherwse) ψ (2,0) ψ (2,1) ψ (2,2 ) ψ (3,0) ψ (3,1) ψ (3,2) ψ (3,3 ) ψ (M,0) ψ (M,1) ψ ( M, M ) Non-Orthogonal Convex Smooth Compactly Supported f ( x) = a a= 0 b= 0 W a x (, b) ψ ( a, b) ( ) Convergent seres (1996)

Approxmaton of a Functon by a Nonlnear Synapse Compactly Supported Convex Wavelet (M=15, 136 weghts ) Leanng Tme:100 tmes Generalzaton Set Learnng Data

Approxmaton of a Functon by a Nonlnear Synapse Harr Wavelet Leanng Tme:100 tmes Generalzaton Set Learnng Data

Approxmaton of a Functon by a Nonlnear Synapse Non-convex Wavelet Leanng Tme:100 tmes Generalzaton Set Learnng Data

R.M.S.Error vs. Number of Bases 学習データ

Applcaton to System Modelng Modelng of Nonlnear Dynamcal System Modelng(Learnng) Predcton x 5x t t+ 1 = 0.5x 0.5 2 t xt 1 + 0. 5xt 2 1+ xt ( x = 0.2, x1 = 0.3, x2 0 = 1.0)

The Wavelet Neuron Achevng Modelng and Predcton Leanng Phase (Modelng) x t D x t 1 error = x t xˆ t D x t 2 f 2 f 1 xˆt D xt n f n Iterated Predcton Phase D x = ˆ t x t x t 1 D x t 2 f 2 f 1 xˆt D xt n f n

R.M.S.Error vs. Number of Synapses The 3 synapses (delay elements) are employed here. Number of Synapses

Mappng Functons Obtaned by Leanng Real W.Synapse Real W.Synapse Real W.Synapse x ( ) f 1 f1 x f2 x ( ) f2 x 3 x f f ( x 3 ) x t D x t 1 D D x t 2 xt n f 1 f 2 f 3 xˆt

Results of Iterated Predcton Well Predcted Wavelet Neuron 4-Layerd Neural Network

Solvng dfferental equaton Dfferental equaton f 2 dy d y x, y,, 2 dx dx n d y,, n dx = 0

Solvng dfferental equaton f Dfferental equaton x 2 n dy d y d y y,,,, n dx dx dx, 2 = 0 y = W ψ

Solvng dfferental equaton f Dfferental equaton x 2 n dy d y d y y,,,, n dx dx dx, 2 = 0 y dy dx = = W W ψ dψ dx known 2 d y 2 dx = W 2 d ψ 2 dx n d y n dx = W n d ψ n dx

Solvng dfferental equaton f Dfferental equaton x 2 n dy d y d y y,,,, n dx dx dx, 2 = 0 y dy dx = = W W ψ dψ dx known 2 d y 2 dx = W 2 d ψ 2 dx n d y n dx = W n d ψ n dx 入出力関係 学習で W を求める y

Rccat dfferental equaton (nonlnear dfferental equaton) f ( x) dy 2 = + P1 ( x) y + P2 ( x) y = 0, y(0) = dx 1 dy dx x x d ψ (0,0 ) dx d ψ (1,0 ) dx d ψ ( M, M ) P 1 ( x) y + x f (x) P 2 ( x) W ( a, b) y y :common dx ψ (0,0) ψ (1,0) W (1,0) W (0,0) W (1,0) W (0,0) Σ W( M, M ) ψ ( M, M ) W( M, M ) dy ( x) dx Σ y(x) 1 dψ dx 1/ 2 1/ 2 2 /π 1/π ψ 1/ 2 1/ 2

Soluton of Rccat dfferental equaton 解は級数

Conclusons ウェーブレット (wavelet) 時間 - 周波数解析 高い圧縮能力 ウェーブレットニューロン (wavelet neuron) 局所的な非線形性の記述ローカルミニマム問題の回避設計性の向上高い汎化能力