情報の扱いのける 数学的基礎 確率 エントロピー 統計 確率分布 形式言語理論 計算量の理論 確率論 事象 e とは、ある確率変数 X の値が x であること: e: X=x 事象 e の確率を p(e), p(X=x), p(x) などと書く。 N 全事象 e1, e2, ….. , eN (つまり事象数)とすると p( e i ) 1 i1 X=a とX=b が同時に起こった場合の確率を同時確率といい、p(a,b)と書く。 条件付確率 ベイズの定理 p(a | b) p(b j | a) p(a,b) p(b) p(a | b j ) p(b j ) p(a) p(a | b j ) p(b j ) iN1p(a | b i )p(bi ) 従属性 p(A,B)>p(A)p(B) が普通だが、これはAが起こればある確からしさでBが起こるような 場合もあるから。 ←→ 排反性 仮にAは起これば必ずBも起こるならBはAに従属するといい、 p(A,B)=p(A)=p(B) 独立性 Aが起こっても次にBが起こるかどうかは影響されない場合、AとBは独立といい、。 p(A,B)=p(A)p(B) 条件付確率 p(a | b) p(a,b) p(b) C+A+B+AB=N a A C a B AB b AB AB p(a, b) p(a | b) N B AB B AB p(b) N ベイズの定理の使い方(文書分類への応用 その1) インターネット上の文書(原理的には無限個ある)がいくつかの集合に分類さ れている。ターム t を含む文書が C1とC2のどちらの分類に属するかどうか を予測したい。つまり確率 p(C1|t) と p(C2|t)を求めたい。 しかし、相手が無 限なので、数えて確率を出すわけにはいかない。 そこで、サンプルとして集めた文書集合における確率を使う。まず、文書集 合を分類し、分類 C1,C2 に属する文書がターム t を含む確率 p(t|C1), p(t|C2) は数えれば求まる。また、文書が分類 C に属する確率p(C)は、 (分類Cの文書数)/(サンプル文書集合の全文書数) p(t | C)p(C) p(C | t) により求められる。そこでベイズの定理により p(t) 右辺の分子はサンプルの文書集合から分かっている。問題は分母のp(t)で あり、これはインターネット上の全部の文書を見ないと分からない。しかし、 近似として、インターネット上でターム t が現れる確率は一定値としてもよい。 もっとも問題は p(C1|t) と p(C2|t) のどちらが大きいかを知りたいのだから、 分母は等しいので、分子だけで比較すればよい。 ベイズの定理の使い方(文書分類への応用 その2) インターネット上の文書(原理的には無限個ある)がいくつかの集合 に分類されている。ターム t を含む文書が C1とC2のどちらの分類 に属するかどうかを予測したい。すでに確率 p(C1|t) と p(C2|t)を求 めたので、次にすることは、 p(C1|t) と p(C2|t) うち最大のほうの分類を求めることである。 これは簡単なことだが、次のように書く。 C1,C2 のうち t によって分類される確率の高い分類 C-max argmax p(Ci| t) argmax p(t | Ci)p(Ci) i i argmax f(x) とは、f(x)を最大にする x を意味する ベイズの定理の使い方(文書分類への応用 その3) 今まではターム1個による分類だったが、複数のタームt1,t2,…,tn による分類に拡張しよう。 C-max=argmax p(Ci|t1,t2,.…,tn) ターム数が多いと t1,t2,.…,tn がすべて含まれる文書がサンプル文 書集合中に存在しないかもしれない。そこで、 argmax p(Ci|t1,t2,.…,tn)=argmax p(t1,t2,…,tn|Ci)p(Ci) しかし、このままでは事態は同じ。そこで、各タームの出現が独立で あるとすると argmax p(t1|Ci)p(t2|Ci)…p(tn|Ci)p(Ci) 各 p(tj|Ci) はサンプル文書集合から容易に計算できる。 母集団と大数の法則 標本と母集団: 我々が観測により得たデータはあくまでも背後にあ る膨大な確率的集合すなわち母集団の標本 (sample)である。 確率や統計は観測により得られたデータから母集団の統計的性質 を推測することである。 大数の法則 標本数が増えると、標本の平均値が母集団の平均値に近づく(確率 収束する) 問題:もし、ふたつの事象が完全に従属(例えば、姉が選んだ服を1 年後にかならず妹も選ぶから、姉の服Xと妹の1年後の服Yは従属) の場合、p(X)とp(Y)はどうような関係になるか? 平均と分散 サンプル集合における平均:母集団の期待値 E(X) xp(X x) xp(x) xX (母集団の)分散 V(X) E( (x - E(X)) ) E(X 2 ) - E(X) 2 サンプル集合における変動 サンプル集合における分散: 標準偏差: xX 2 分散 S(X) N i 1 p(x i )( x i - V(x) S(x) N -1 1 N 2 x p(x )) i i N i 1 確率分布 正規分布:最もよく使われる分布 1 ( x ) 2 /(2 2 ) n(x; , ) e 2 いろんな分布の変数Xを多数足し合わせた分布は正規分布に近づく。 (中心極限定理という) 二項分布(binominal distribution) b(r; n, p) r n-r C p ( 1 p) n r 二項分布は、赤と白の玉が適当な割合 p:1-p で入っている壷からn回玉を取り出 したとき、赤がr回、白が残りn-r回取り出される確率。 二項分布の平均値は np 、分散は np(1-p) である。 二項分布およびその極限であるPoisson分布は頻繁に使われる確立分布である。 エントロピー 事象の散らばり方あるいは random さの尺度 個々の事象(ある確率変数の個別の値)ではなく、ある確率変数の挙動全体 を測る尺度。これをビットを単位とする情報量と呼ぶ。 H(X) p(x) log 2 xX 1 p(x) こうみてもよい。 H(X) E(log 2 1 ) p(X) 問題1: 裏表が等確率ででるコインを投げる場合のエントロピーは? 問題2: 次の図のような通信路の受信側のエントロピーは?ただし、送られ p る0,1は等確率 0 0 0 1 1-p 1-q 1 q 相互情報量(エントロピー) 複数の確率変数の間にどれだけ相関(あるいは依存関係)があるかを測るために相 互情報量が定義される。 1.まったく相似な振る舞いをするなら相互情報量=0 2.まったく独立なら各々のエントロピーの和 結合エントロピー H(X,Y) p(x, y)log 2 p(x, y) xX yY 条件付エントロピー(Xの値が与えられたという条件下でのYのエントロピー) H(Y| X) p(x)H(Y| X x) p(x)[ p(y| x)log 2 p(y| x) ] xX xX p(y,x)log 2 p(y| x) yY xX yY H(X,Y) H(X) H(Y| X) 相互情報量 I(Y;X) H(Y) H(Y| X) H(X) H(Y) H(X,Y) p(x, y) p(x, y)log 2 p(x)p(y) xX, yY 問題 3:問題2の通信路の相互情報量を計算せよ。 確率分布 正規分布:最もよく使われる分布 1 ( x )2 /( 2 2 ) P( X x) n(x; , ) e 2 いろんな分布の変数Xを多数足し合わせた分布は正規分布に近づく。 (中心極限定理という) 二項分布(binominal distribution) P( X x ) b(x; n, p) n C x p x (1 p) n-x 二項分布は、赤と白の玉が適当な割合 p:1-p で入っている壷からn回玉を取り出 したとき、赤がr回、白が残りn-r回取り出される確率。 問題: 二項分布の平均値と分散を求めよ。 二項分布およびその極限であるPoisson分布は頻繁に使われる確立分布である。つま り、np=λという一定値にしたまま、nを無限大にした分布。式は、 x P( X x) e x! 問題:Poisson分布の平均と分散を求めよ。 不偏推定、一致性、有効性 確率や統計は観測により得られたデータから母集団の統計的性質 を推測することである。 ある確率変数 x の母集団における統計量を t とする。 一致性:サンプル数を大きくすると、サンプル集合から得られる t の 推定値が 真の(つまり母集団の)t に収束する。 不偏性:このとき、サンプル集合における x の値の平均が t に等し いことを不偏性という。 E(x)=t また、 この性質を満たすE(x) を不偏推定量という。 有効性:いかなる不偏推定量よりも分散が小さい推定量を有効推定 量という。 最尤推定法 確率変数Xのサンプル観測値x1,x2,…,xnが与えられたとき、Xの母集団に おける尤もらしい推定値 t を求める。 サンプルの値が独立だとすると、同時確率は次のようになる。 n p t ( x1, x 2 ,.....,x n ) p t ( x i ) L(t) i1 最尤推定法とは、L(t) (これを尤度と呼ぶ)を最大にするような t の値として 最も尤もらしい t の値 t’ とする。つまり t’= argmax L(t) 実際は、尤度のlogをとって、 t で微分し0とおいて解く。 n log L(t) log p t ( x i ) 0 t i1t 問題:コインの表がn回中x回でた場合の二項分布の表が出る確率を最尤推 定せよ。 問題:正規分布 N ( , 2 ) でサンプル観測値x1,x2,…,xnが与えられたとき の母集団の正規分布の平均値と分散を最尤推定せよ。 尤度比 (likeli hood) ふたつの仮説のうちどちらがより尤もらしいかを調べる。例えば、あ る文書 d がある分類のクラス c に属するか、属さないか ~c はその 確率の比(これを尤度比という)が予め決められた閾値より大きいか 小さいかで決める。実際は、尤度比の対数をとって計算することが多 い。 or L(d) log p(c | d) p(c | d) この式の右辺の確率をさらにベイズの定理で書き換え、計算しやす くする場合もあり。 EMアルゴリズム その1 観測されたサンプルデータから内部状態が一意に特定できない場合 には、最尤推定で母集団のパラメタ-を推定できない。そのような場 合には Expectation & Maximization: 「期待値最大化」,略して EMアルゴリズム と呼ばれる枠組みを用いる。 基本アイデア:観測データ xi について母集団のパラメタ-θをθ’に 更新したときの対数尤度の差を最も大きく増加させる。 P (x ) log P ( x i ) log P ( x i ) log i P ' '( x i ) P ( y, x i )P ( y | x i ) P ( y | x i ) log[ ' ] P ( y, x i )P '( y | x i ) y P ( y, x i ) P ( y| x i ) P ( y | x i ) log[ ' ] P ( y | x i ) log[ ] P ( y, x i ) y P '( y | x i ) y EMアルゴリズム その2 次の式が成り立つので、第2項は常に正。よって、第1項を最大化す ればよい。 Q(x) P(x)log 0 P(x) x そこで Q( , ') P ( y | x i ) log P '( y | x i ) y とおくと、第1項は Q(θ,θ’)-Q(θ,θ) となるので、結局、Q(θ,θ’) を最大化するようにθ’を 選べばよい。 EMアルゴリズム その3 定式化 1. 2. θに適当な初期値を与える θが収束するまで次のEステップとMステップを繰り返す。 Eステップ:Q(θ,θ’)を計算する。 Mステップ: argmax Q( , ') によってθを更新する。 EMアルゴリズム その4 例 混合分布モデルの推定 M P(x) i Pi ( x ) j1 NM Q( , ') P ( j| x i ) log P '( j, x i ) i1j1 これを最大化する。ラグランジュ未定乗数法という簡単な方法を用いると、s つぎのような結果が得られる。 1 ' j N jP j ( x i ) N i1M jPj ( x i ) j1
© Copyright 2024 ExpyDoc