Information Theory

Similar documents
Information Theory

混沌系工学特論 #5

Microsoft PowerPoint - 7.pptx

Microsoft PowerPoint - mp11-02.pptx

学習指導要領

様々なミクロ計量モデル†

スライド 1

情報量と符号化

離散数学

<4D F736F F F696E74202D20837E834E838D2D91E6428FCD EF97708DC58FAC89BB96E291E E707074>

aaa


Microsoft PowerPoint - qcomp.ppt [互換モード]

             論文の内容の要旨

2-1 / 語問題 項書換え系 4.0. 準備 (3.1. 項 代入 等価性 ) 定義 3.1.1: - シグネチャ (signature): 関数記号の集合 (Σ と書く ) - それぞれの関数記号は アリティ (arity) と呼ばれる自然数が定められている - Σ (n) : アリ

オートマトン 形式言語及び演習 3. 正規表現 酒井正彦 正規表現とは 正規表現 ( 正則表現, Regular Expression) オートマトン : 言語を定義する機械正規表現 : 言語

Microsoft Word - 微分入門.doc

<91818C E90B690EA97708CF696B188F58D758DC0838A815B83742E706466>

数学 IB まとめ ( 教科書とノートの復習 ) IB ということで計算に関する話題中心にまとめました 理論を知りたい方はのみっちー IA のシケプリを参考にするとよいと思います 河澄教授いわく テストはまんべんなく出すらしいです でも 重積分 ( 特に変数変換使うもの ) 線積分とグリーンの定理は

チェビシェフ多項式の2変数への拡張と公開鍵暗号(ElGamal暗号)への応用

講義「○○○○」

2014年度 九州大・理系数学

立ち読みページ

学習指導要領

スライド 1

Microsoft Word - 補論3.2

( 最初の等号は,N =0, 番目は,j= のとき j =0 による ) j>r のときは p =0 から和の上限は r で十分 定義 命題 3 ⑵ 実数 ( 0) に対して, ⑴ =[] []=( 0 または ) =[6]+[] [4] [3] [] =( 0 または ) 実数 に対して, π()

学習指導要領

多変量解析 ~ 重回帰分析 ~ 2006 年 4 月 21 日 ( 金 ) 南慶典

<4D F736F F F696E74202D2091E6824F82518FCD E838B C68CEB82E894AD90B B2E >

1 X X T T X (topology) T X (open set) (X, T ) (topological space) ( ) T1 T, X T T2 T T T3 T T ( ) ( ) T1 X T2 T3 1 X T = {, X} X (X, T ) indiscrete sp

Microsoft PowerPoint - mp11-06.pptx

オートマトン 形式言語及び演習 4. 正規言語の性質 酒井正彦 正規言語の性質 反復補題正規言語が満たす性質 ある与えられた言語が正規言語でないことを証明するために その言語が正規言語であると

Microsoft PowerPoint - 10.pptx

日心TWS

アルゴリズムとデータ構造

1999年度 センター試験・数学ⅡB

Functional Programming

頻出問題の解法 4. 絶対値を含む関数 4.1 絶対値を含む関数 絶対値を含む関数の扱い方関数 X = { X ( X 0 のとき ) X ( X <0 のとき ) であるから, 絶対値の 中身 の符号の変わり目で変数の範囲を場合分けし, 絶対値記号をはずす 例 y= x 2 2 x = x ( x

Microsoft PowerPoint - 2.ppt [互換モード]

スライド 1

<4D F736F F F696E74202D2091E6824F82538FCD8CEB82E88C9F8F6F814592F990B382CC8CB4979D82BB82CC82505F D E95848D8682CC90B69

Microsoft PowerPoint - mp13-07.pptx

OCW-iダランベールの原理

基礎統計

2014 S hara/lectures/lectures-j.html r 1 S phone: ,

Microsoft PowerPoint - 9.pptx

Microsoft PowerPoint - 9.pptx

平成 年 月 7 日 ( 土 第 75 回数学教育実践研究会アスティ 45 ビル F セミナールーム A 札幌医科大学 年 P ab, を正の定数とする 平面上において ( a, を中心とする円 Q 4 C と (, b を中心とする円 C が 原点 O で外接している また P を円 C 上の点と

<4D F736F F D208CF68BA48C6F8DCF8A C30342C CFA90B68C6F8DCF8A7782CC8AEE967B92E8979D32288F4390B394C529332E646F63>

Microsoft PowerPoint - ca ppt [互換モード]

統計的データ解析

2019 年 6 月 4 日演習問題 I α, β > 0, A > 0 を定数として Cobb-Douglas 型関数 Y = F (K, L) = AK α L β (5) と定義します. (1) F KK, F KL, F LK, F LL を求めましょう. (2) 第 1 象限のすべての点

Microsoft PowerPoint - H21生物計算化学2.ppt

Microsoft Word - 201hyouka-tangen-1.doc

Microsoft PowerPoint - DA2_2019.pptx

オートマトン 形式言語及び演習 1. 有限オートマトンとは 酒井正彦 形式言語 言語とは : 文字列の集合例 : 偶数個の 1 の後に 0 を持つ列からなる集合 {0, 110, 11110,

1.2 y + P (x)y + Q(x)y = 0 (1) y 1 (x), y 2 (x) y 1 (x), y 2 (x) (1) y(x) c 1, c 2 y(x) = c 1 y 1 (x) + c 2 y 2 (x) 3 y 1 (x) y 1 (x) e R P (x)dx y 2

Microsoft PowerPoint - LectureB1handout.ppt [互換モード]

Microsoft Word ã‡»ã…«ã‡ªã…¼ã…‹ã…žã…‹ã…³ã†¨åłºæœ›å•¤(佒芤喋çfl�)

構造化プログラミングと データ抽象

今週の内容 後半全体のおさらい ラグランジュの運動方程式の導出 リンク機構のラグランジュの運動方程式 慣性行列 リンク機構のエネルギー保存則 エネルギー パワー 速度 力の関係 外力が作用する場合の運動方程式 粘性 粘性によるエネルギーの消散 慣性 粘性 剛性と微分方程式 拘束条件 ラグランジュの未

Microsoft PowerPoint - H17-5時限(パターン認識).ppt

構造化プログラミングと データ抽象

PowerPoint Presentation

ii 3.,. 4. F. (), ,,. 8.,. 1. (75% ) (25% ) =9 7, =9 8 (. ). 1.,, (). 3.,. 1. ( ).,.,.,.,.,. ( ) (1 2 )., ( ), 0. 2., 1., 0,.

Microsoft PowerPoint ppt

スライド 1

スライド 1

untitled

untitled


A

FORTRAN( と C) によるプログラミング 5 ファイル入出力 ここではファイルからデータを読みこんだり ファイルにデータを書き出したりするプログラムを作成してみます はじめに テキスト形式で書かれたデータファイルに書かれているデータを読みこんで配列に代入し 標準出力に書き出すプログラムを作り

微分方程式 モデリングとシミュレーション

Microsoft Word - 非線形計画法 原稿

<4D F736F F F696E74202D20837E834E838D2D91E682618FCD EF97708DC58FAC89BB96E291E E B8CDD8AB B836

6回目

SAP11_03

2015年度 信州大・医系数学

() x + y + y + x dy dx = 0 () dy + xy = x dx y + x y ( 5) ( s55906) 0.7. (). 5 (). ( 6) ( s6590) 0.8 m n. 0.9 n n A. ( 6) ( s6590) f A (λ) = det(a λi)

Microsoft PowerPoint - 基礎・経済統計6.ppt

情報理論 第5回 情報量とエントロピー

Microsoft PowerPoint slide2forWeb.ppt [互換モード]

学習指導要領

線形代数とは

今回のプログラミングの課題 ( 前回の課題で取り上げた )data.txt の要素をソートして sorted.txt というファイルに書出す ソート (sort) とは : 数の場合 小さいものから大きなもの ( 昇順 ) もしくは 大きなものから小さなもの ( 降順 ) になるよう 並び替えること

微分方程式による現象記述と解きかた

Microsoft PowerPoint - prog03.ppt

Microsoft PowerPoint - statistics pptx

Microsoft Word - lec_student-chp3_1-representative

PDF


PowerPoint Presentation

Matrix and summation convention Kronecker delta δ ij 1 = 0 ( i = j) ( i j) permutation symbol e ijk = (even permutation) (odd permutation) (othe

学習指導要領

Microsoft PowerPoint - prog04.ppt

セゾン保険_PDF用.indd

数理言語

CAEシミュレーションツールを用いた統計の基礎教育 | (株)日科技研

Transcription:

前回の復習 講義の概要 chapter 1: 情報を測る... エントロピーの定義 確率変数 X の ( 一次 ) エントロピー M H 1 (X) = p i log 2 p i (bit) i=1 M は実現値の個数,p i は i 番目の実現値が取られる確率 実現値 確率 表 裏 0.5 0.5 H 1 X = 0.5 log 2 0.5 0.5log 2 0.5 = 1bit 1

練習問題の解答 講義 webページにあるデータを使い, エントロピーを計算せよ英語の文字出現頻度... 約 4.18 bit ( 値の解釈には要注意 ) 野球の優勝チームセ... 2.01, パ... 2.36, 高 ( 春 )... 4.42, 高 ( 夏 )... 4.17 相撲... 1.98, 単位はいずれも bit 表計算ソフトを使えば簡単に計算できる p i log 2 p i 2

どういう文脈で話が進んでいるか 最終目標 : 情報 の量を測る定量的指標を導入する step 1: 確率変数の エントロピー を定義 前回今回 エントロピー大 不確実さ大 step 2: 一つのニュースが持つ情報量を定義 情報量 = (BEFORE エントロピー ) (AFTER エントロピー ) step 3: 確率変数の間の相互情報量を定義 ある確率変数の値が, 他の確率変数について何を語るか X Y 3

本日の講義 ( 詳細 ) エントロピーの諸性質 ( 確率計算に関する復習 ) 関連する概念 量の定義結合エントロピー... 結合確率に対応条件付きエントロピー... 条件付き確率に対応相互情報量 各種エントロピー 情報量の性質 4

エントロピーの性質 (1) [ 性質 1] H 1 X 0 証明 : H 1 (X) = M p i log 2 p i log 2 p i=1 0 p i 1 では, ここは非負 [ 性質 2] H 1 X = 0 ある i に対し p i = 1, それ以外は p j = 0 証明 : ( ) 定義より明らか ( ) 背理法を用いて証明 5

エントロピーの性質 (2) [ 性質 3] X の取り得る値が M 通りならば... p 1 = = p M = 1 M のとき H 1 X は最大, その値は log 2 M となる 証明 : ラグランジュの未定乗数法を用いる 目的関数 :H 1 (X) (M 変数 p 1,, p M の式と考える ) 束縛関数 :p 1 + + p M 1 = 0 最大化条件 p i H 1 (X) + λ(p 1 + + p M 1 ) = 0 J. L. Lagrange 1736-1813 これから p 1 = = p M = 1 M が得られ, そのとき H 1 X = log 2 M 6

エントロピー = 不確実さ min H 1 (X) = 0 あるiに対しp i = 1, それ以外はp j = 0 何が発生するのか, あらかじめわかっている不確実な要素が, まったくない max H 1 (X) = log 2 M p 1 = = p M = 1/M どの可能性も, 等しく考えられる非常に不確実で, 振る舞いの予測がつかない エントロピー = 不確実さ = 予測の難しさ 7

エントロピー vs. 分散 不確実さの指標として, 分散 ではダメなのか? 確率変数 Xの分散 V(X) = E[ X E X 2 ] 直観的には 分散が大きい=ばらつきが大きい エントロピーの利点 (vs. 分散 ) 実現値の上で 演算 ができなくても良い X={ りんご, バナナ, いちご }... 工学的な量 と密接に関係 符号化 の性能の限界を与える 情報理論は, エントロピーの概念を中心に組み立てられている 8

エントロピーに関するまとめ 確率変数 X のエントロピー : H 1 (X) = M i=1 p i log 2 p i (bit) H 1 X 0... エントロピーの非負性 min H 1 (X) = 0... エントロピーの最小値 1 個の実現値に対して p i = 1 max H 1 (X) = log 2 M... エントロピーの最大値 p 1 = = p M = 1/M 直観的には... エントロピー大 不確実さ大 9

複数の確率変数 ここまで... 確率変数 1 個に限定 情報の伝達 を考えるには, 複数の確率変数が必要 大気の状態 自然の摂理 送信データ X 通信路 受信データ Y 気温 X 降水量 Y Y の値を知れば, X の値に関する情報が得られる =X の不確実さが減少する 10

議論すべき 情報の量 タイガースの試合結果 X 勝 or 負 友人の人格 友人の機嫌 Y 良 or 悪 友人の機嫌が良い タイガースは勝った?... ここに潜む 情報の伝達 を, 数理的に考える 1. 確率論に関する復習 2. Yの個別の値が, Xの値について与える情報量 Y = 良 が,Xの値について与える情報量 3. Yの値が, Xの値について与える情報量の期待値 11

同時確率 結合確率 P X,Y (x, y):x = x と Y = y とが同時に発生する確率 例 : 過去 100 日間の, 試合結果 (X) と友人の機嫌 (Y) の統計 X Y 良 悪 勝って, 機嫌が良かった... 45 日 勝 負 45 12 15 28 勝ったのに, 機嫌が悪かった... 12 日... P X,Y 勝, 良 = 0.45 P X,Y 負, 良 = 0.15 P X,Y 勝, 悪 = 0.12 P X,Y 負, 悪 = 0.28 同時確率, 結合確率, と呼ばれる 12

確率の周辺化 同時確率からは, 他の様々な確率を導き出せる X 勝 負 Y 良 悪 45 12 57 15 28 33 60 40 100 勝ったのは 45+12=57 日 P X 勝 = P X,Y 勝, 良 + P X,Y 勝, 悪 = 0.45 + 0.12 = 0.57 一般には, P X x = P X,Y (x, y) y D(Y) P Y y = P X,Y (x, y) x D(X)... 確率の周辺化 (marginalize) と呼ばれる操作 13

条件付き確率 P Y X (y x):x = x の条件のもとで, Y = y となる確率 X Y 勝 負 良悪 45 12 15 28 57 33 60 40 100 試合に勝った日は ( 条件 ) 一般には, P Y X y x = P X,Y(x, y) P X (x) 57 45 12 P Y X ( 良 勝 ) = 57 の中での 45 の割合 45/57 = 0.79 の確率で機嫌が良い 12/57 = 0.21 の確率で機嫌が悪い... ベイズの定理 P Y X y x と P X Y x y を混同しないこと 14

条件付き確率に関する注意 P Y X y x と P X Y x y を混同しないこと 試合に勝つ確率 P X 勝 = 0.45 + 0.12 = 0.57 機嫌が良い確率 P Y 良 = 0.45 + 0.15 = 0.60 X 勝 負 Y 良 悪 45 12 57 15 28 43 60 40 100 P Y X 良勝 = P X,Y 勝, 良 P X 勝 P X Y 勝良 = P X,Y 勝, 良 P Y 良 = 0.45 0.57 = 0.79 = 0.45 0.60 = 0.75 15

確率変数の独立性 確率変数 X, Y が独立 任意の x, y に対し P X,Y x, y 任意の x, y に対し P Y X y x 任意の x, y に対し P X Y x y = P X x P Y y = P Y y = P X (x) 独立でない 従属関係にある ( どちらかが主で, どちらかが従, というわけではない点に注意 ) 16

同時エントロピー 結合エントロピー X と Y の同時エントロピー, 結合エントロピー ; H 1 X, Y = P X,Y x, y log 2 P X,Y x, y. x D(X) y D(Y) X 勝 負 Y 良 悪 45 12 15 28 H 1 X, Y = 0.45 log 2 0.45 0.12 log 2 0.12 0.15 log 2 0.15 0.28 log 2 0.28 = 1.81bit X の値と Y の値とを同時に予測する 難しさ に相当 17

結合エントロピーの性質 補題 : H 1 (X, Y) H 1 (X) + H 1 (Y) 証明 : H 1 X = P X x log 2 P X x = P X,Y x, y log 2 P X (x) x D X x D(X) y D(Y) H 1 Y = P Y y log 2 P Y y y D Y = P X,Y x, y log 2 P Y (y) x D(X) y D(Y) H 1 X + H 1 Y = P X,Y x, y (log 2 P X x + log 2 P Y (y)) x D(X) y D(Y) = P X,Y x, y log 2 P X x P Y y x D(X) y D(Y) H 1 X, Y = P X,Y x, y log 2 P X,Y x, y 微妙に違う x D(X) y D(Y) 18

シャノンの補助定理 シャノンの補助定理,Shannon s lemma を導入 [ 補題 ] p 1 + + p M = 1, q 1 + + q M 1 を満たす非負数 p i, q i に対し, M p i log 2 q i M p i log 2 p i i=1 i=1 等号成立は, すべての i に対して p i = q i のとき 19

補助定理の証明 ( 概略 ) 左辺 右辺 = M i=1 O p i log 2 q i M + p i log 2 p i i=1 y = log e x 1 y = 1 x log e x 1 x M = p i log 2 q i i=1 M i=1 p i log e 2 = 1 log e 2 ( 0 M i=1 p i = 1 q i p i p i M i=1 M i=1 p i log e 2 ( log q i e ) p i = 1 log e 2 q i M i=1 p i q i ) = 1 log e 2 (1 等号成立 全ての i に対し q i /p i = 1 のとき M i=1 q i ) 20

結合エントロピーの性質 補題 : H 1 (X, Y) H 1 (X) + H 1 (Y) 証明 : H 1 X + H 1 Y = P X,Y x, y log 2 P X x P Y y x D(X) y D(Y) H 1 X, Y = P X,Y x, y log 2 P X,Y x, y x D(X) y D(Y) シャノンの補助定理 ( 証明終了 ) 系 : 確率変数 X, Y が独立なら H 1 (X, Y) = H 1(X) + H 1 (Y) 21

例で確かめてみる X 勝 負 Y 良悪 45 12 15 28 60 40 100 H 1 X, Y = 0.45 log 2 0.45 57 0.12 log 2 0.12 0.15 log 33 2 0.15 0.28 log 2 0.28 = 1.81bit P X 勝 = 0.57, P X 負 = 0.43 H 1 X = 0.57 log 2 0.57 0.43 log 2 0.43 = 0.99 bit P Y 良 = 0.60, P Y 悪 = 0.40 H 1 Y = 0.60 log 2 0.60 0.40 log 2 0.40 = 0.97 bit H 1 X, Y = 1.81 < 1.96 = H 1 X + H 1 Y 22

H 1 (X, Y) H 1 (X) + H 1 (Y) の意味 H 1 (X, Y)... Xの値とYの値を同時に予測する難しさ H 1 X + H 1 (Y)... Xの値とYの値を別々に予測する難しさ H 1 (X, Y) H 1 (X) + H 1 (Y) 同時に予測するほうが, 別々に予測するよりも簡単 Y の値を決めれば, X の値もある程度限定される X の不確実さが, 少し減少する Y の値の中には,X の値に関する情報が含まれている H 1 (X, Y) H 1 (X) H 1 (Y) 23

友人の機嫌と情報量 X 勝 負 Y 良 悪 45 12 15 28 友人の機嫌が良い 試合に勝った?... 友人の機嫌が, 試合結果に関する 情報を与えてくれる 友人の機嫌を知る前... P X 勝 = 0.57, P X 負 = 0.43 友人の機嫌が良いのを見た後... P Y 良 = 0.45 + 0.15 = 0.60 P X Y 勝 良 = 0.45/0.60 = 0.75 P X Y ( 負 良 ) = 0.15/0.60 = 0.25 : X = 勝 の確率 up エントロピーは? 24

個別値による条件付きエントロピー Y = yのときのエントロピーを以下で定義 H 1 (X Y = y) = P X Y x y log 2 P X Y (x y) x D(X) 前ページの例では H 1 X Y = 良 ) = 0.75 log 2 0.75 0.25 log 2 0.25 = 0.81 P X 勝 = 0.57 P X 負 = 0.43 H 1 X = 0.99 P X Y 勝 良 = 0.75 P X Y 負 良 = 0.25 H 1 X Y = 良 = 0.81 0.99 0.81 = 0.18 bit... 友人の機嫌が良い ことを知って解消された不確実さ... 友人の機嫌が良い ことから得られる情報量 25

友人の機嫌が悪いときは... P Y 悪 = 0.12 + 0.28 = 0.40 X Y 良悪 P X Y 勝 悪 = 0.12/0.40 = 0.30 勝 45 12 P X Y ( 負 悪 ) = 0.28/0.40 = 0.70 負 15 28 H 1 X Y = 悪 ) = 0.30 log 2 0.30 0.70 log 2 0.70 = 0.88 P X 勝 = 0.57 P X 負 = 0.43 H 1 X = 0.99 P X Y 勝 悪 = 0.30 P X Y 負 悪 = 0.70 H 1 X Y = 悪 = 0.88 0.99 0.88 = 0.11 bit... 友人の機嫌が悪い ことを知って解消された不確実さ... 友人の機嫌が悪い ことから得られる情報量 26

平均的 な情報量 友人の機嫌が良い 確率 P Y 良 = 0.60で発生する事象 H 1 X H 1 X Y = 良 ) = 0.99 0.81 = 0.18 bit 情報量は 0.18bit 友人の機嫌が悪い 確率 P Y 悪 = 0.40で発生する事象 H 1 X H 1 X Y = 悪 ) = 0.99 0.88 = 0.11 bit 情報量は 0.11bit Y の値がもたらす,X に関する情報量の期待値は 0.60 0.18 + 0.40 0.11 = 0.152 bit... X と Y の相互情報量 27

相互情報量, 条件付きエントロピー X と Y の相互情報量 I X; Y = P Y (y)(h X H X Y = y)) y D(Y) = H X P Y y H X Y = y) y D(Y) X の Y による条件付きエントロピー H 1 X Y = P Y y H 1 X Y = y) y D(Y) 個別値による条件付きエントロピー の期待値 28

例で確認 友人の機嫌が良い 確率 P Y 良 = 0.60 H 1 X Y = 良 ) = 0.81 友人の機嫌が悪い 確率 P Y 悪 = 0.40 H 1 X Y = 悪 ) = 0.88 条件付きエントロピー H 1 X Y = 0.60 0.81 + 0.40 0.88 = 0.838 bit H 1 X = 0.99 bit 相互情報量 I X; Y = H X H X Y = 0.99 0.838 = 0.152 bit 29

条件付きエントロピーの性質 (1) 補題 :H 1 X Y = H 1 X, Y H 1 (Y) 証明 : H(X Y) = P Y (y) P X Y x y log 2 P X Y (x y) y D(Y) x D(X) P X Y x y = P X,Y (x, y)/p Y (y) = P X,Y x, y (log 2 P X,Y x, y log 2 P Y y ) y D(Y) x D(X) = H 1 X, Y P X,Y (x, y) y D(Y) x D(X) = H 1 X, Y P Y (y) log 2 P Y (y) log 2 P Y (y) 周辺化計算 y D Y = H 1 X, Y H 1 Y 30

条件付きエントロピーの性質 (2) 前ページの補題 :H 1 X Y = H 1 X, Y H 1 (Y) 系 :H 1 X, Y = H 1 Y + H 1 X Y = H 1 X + H 1 (Y X) 証明 : H 1 X, Y は, 変数 X, Y について 対称であるため H 1 (X) H 1 (X Y) H 1 (X, Y) H 1 (Y) H 1 (Y X) 31

= 相互情報量の性質 (1) 系 :I X; Y = I(Y; X) 証明 :H 1 X, Y = H 1 Y + H 1 (X Y) = H 1 X + H 1 (Y X) より I X; Y = H 1 X H 1 X Y = H 1 Y H 1 Y X = I(Y; X) H 1 (X) H 1 (X Y) H 1 (X, Y) H 1 (Y) H 1 (Y X) Y が X について教えてくれる情報量 X が Y について教えてくれる情報量 I(X; Y) = I(Y; X) 32

相互情報量の性質 (2) p.18 の補題 :H 1 X, Y H 1 X + H 1 (Y) p.30 の補題 :H 1 X Y = H 1 X, Y H 1 (Y) H 1 X Y = H 1 X, Y H 1 (Y) H 1 X + H 1 Y H 1 Y = H 1 (X) 系 :I X; Y 0, 等号成立は X, Y が独立のとき 証明 :I X; Y = H 1 X H 1 X Y 0 Y の値を知ることで, 失うものは何もない X と Y が独立なら,Y の値を知っても得るものはない 33

相互情報量について, まとめ 右図で表現されていることが全て たとえば... 相互情報量の計算法は 3 通りある 1. I X; Y = H 1 X + H 1 Y H 1 (X, Y) 2. I X; Y = H 1 X H 1 X Y 3. I X; Y = H 1 Y H 1 Y X H 1 (X) H 1 (X Y) H 1 (X, Y) H 1 (Y) H 1 (Y X) I(X; Y) = I(Y; X) 34

本日のまとめ エントロピーと, それに関連する概念結合, 条件付きエントロピー相互情報量 35

練習問題 X: タイガースの試合結果,P X w = P X d = P X l = 1/3 Y: 阪神ファンの友人の tweet X w d l Y やったーくやしーくやしー p.13 のように同時確率の表を書き, 周辺確率も求めよ p.34 に示した 3 つの異なる方法で, 相互情報量 I(X; Y) を求めよ 36