コンピュータによる統計分析 2014 年度 美添泰人 10/21 : 確率変数の和,大数の法則,2 項分布と応用 (Reading Assignment: 統計入門 V.3, V.4) 2 変数の確率変数 参考:統計学基礎 第 3 章 (1) 結果 ω ∈ Ω に実数を対応させる関数 X(ω ), Y (ω ) を考える.F(x, y) = Pr{X < = x,Y < = y} を 同時分布 (joint distribution) の分布関数という.同時分布が与えられれば,X, Y の分布 p(x), p(y) が定められる.それを周辺分布 (marginal distribution) という.たとえば X の分布関数は F(x) = Pr{X < = x,Y < = ∞} = F(x, ∞) となる. 確率関数または確率密度関数 p(x, y) については,離散形の場合は p(x) = ∑y p(x, y), p(y) = ∫ ∑x p(x, y).連続形の場合は和の代わりに積分を用いて p(x) = ∞ −∞ p(x, y) dy とする. (2) 離散形の場合の度数分布表から p(x) = ∑y p(x, y), p(y) = ∑x p(x, y) の関係を理解すること. (3) 独立性: Ax = {ω : X(ω ) < = x}, By = {ω : Y (ω ) < = y} とする.任意の実数 (x, y) に対して Ax と By が独立となるとき,二つの確率変数 X と Y は独立という. Pr{Ax ∩ By } = Pr{Ax } Pr{By } すなわち F(x, y) = F(x)F(y) (∀x, y) 物理的な発生メカニズムが無関係であれば,独立と考えられる.同時分布と周辺分布の確率 (密度)関数を用いた p(x, y) = p(x)p(y) という条件も同等である.講義では(誤解がない限り) 確率変数を小文字で表すことにする. (4) x, y の関数 u = g(x, y) の期待値は u の確率関数 p(u) を用いて E(u) = ∑ up(u) と定義される が,E(u) = E[g(x, y)] = ∑x ∑y g(x, y) p(x, y) として求めることができる(離散形の場合.連続形 なら積分).特別な場合として x だけの関数 u = g(x) の場合には E[g(x)] = ∑x ∑y g(x)p(x, y) = ∑x g(x)p(x) と変形される.すなわち周辺分布から求めた期待値に一致する. (5) 和に関して E[g(x) + h(y)] = E[g(x)] + E[h(y)] が成り立つ.特に E(x + y) = E(x) + E(y) である. (6) 積に関して,一般には E[g(x)h(y)] ̸= E[g(x)]E[h(y)] であるが,独立の場合には等号 E[g(x)h(y)] = E[g(x)]E[h(y)] が成り立つことに注意. [ ] (7) 2 つの確率変数 x と y の共分散は cov(x, y) = E (x − µx )(y − µy ) と定義される.x と y が独立 のとき cov(x, y) = 0 となる. 1 コンピュータによる統計分析 2014 年度 美添泰人 確率変数の和(平均と分散),Bernoulli 試行列と二項分布,大数の法則 (Reading Assignment: 統計入門 V 章 3 節,4 節,VI 章 1 節,6 節;2, 3 節) 参考:統計学基礎 第 3 章 必要に応じて復習・解説する (1) ベイズの定理:Quiz の解説.期待値:賭け(くじ)の問題から一般の問題へ (2) 確率:コイン投げとカード・つぼのモデル (3) 確率変数の分散 var(X) (4) チェビシェフの不等式(意味と使い方) (5) 2 変数の確率変数(同時分布・周辺分布) 2 変数・多変数の期待値 (1) 2 つの確率変数 x と y について,E(x) = µx , var(x) = σx2 , E(y) = µy , var(y) = σy2 とする.x と y の共分散は σxy = cov(x, y) = E(x − µx )(y − µy ) と定義される. (2) x と y が独立のとき,共分散 σxy は 0 となる. (3) 分散,共分散の変形 ] [ var(x) = E (x − µx )2 = E(x2 ) − µx2 , cov(x, y) = E(x − µx )(y − µy ) = E(xy) − µx µy (4) 確率分布のイメージを描く.149 ページ(離散形),153 ページ(連続形)の図,または等高 線のイメージ. (5) x の分散は「 x と x の共分散」と形式的にみなすことができる.そのため分散を表す記号とし て var(x) = σxx を用いることもある. (6) (理論的な)相関係数は ρ (x, y) = σxy と定義される.ρ (x, y)2 < = 1 となることも,標本の場合 σx σy と同様にして確かめられる. (7) 確率変数 x と y の和 x + y の平均と分散は,次のようになる(重要). E(x + y) = µx + µy , var(x + y) = σx2 + σy2 + 2cov(x, y) (8) 特に独立のときは,期待値も分散も和になる. E(x + y) = µx + µy , var(x + y) = σx2 + σy2 x − y の期待値は E(x − y) = µx − µy . 分散 var(x − y) はどうなるか? { } { } var(x−y) = E [(x−y)−(µx − µy )]2 = E [(x− µx )−(y− µy )]2 = (9) 3 つ以上の確率変数の場合にも同様な性質が成り立つ.x1 , · · · , xn について E(xi ) = µi , var(xi ) = σi2 ,cov(xi , x j ) = E(xi − µi )(x j − µ j ) = σi j (i, j = 1, · · · , n) と書く.特に i = j のときは var(xi ) = σii となる. 1 (10) 確率変数の和 S = ∑ni=1 xi の期待値と分散は,次のようになる. n n var(S) = ∑ σi2 + 2 E(S) = ∑ µi , i=1 i=1 n−1 n ∑ ∑ σi j i=1 j=i+1 n (11) もう少し一般的に ai を定数とするとき xi の 1 次式 S = ∑ ai xi の期待値と分散は,次のように i=1 なる. n n n i=1 i=1 i=1 n S − E(S) = ∑ ai (xi − µi ) E(S) = ∑ E(ai xi ) = ∑ ai E(xi ) = ∑ ai µi , var(S) = E i=1 [{ [{ n }2 ] [{ n }{ n }] }2 ] S − E(S) = E ∑ ai (xi − µi ) = E ∑ ai (xi − µi ) ∑ a j (x j − µ j ) [ i=1 i=1 j=1 ] n n n n = E ∑ ∑ ai a j (xi − µi )(x j − µ j ) = ∑ ∑ ai a j E(xi − µi )(x j − µ j ) = ∑ ∑ ai a j σi j n n i=1 j=1 i=1 j=1 i=1 j=1 二項分布 (1) Bernoulli 試行列と二項分布 例:成功と失敗,歪んだコイン,つぼの中の玉など,独立に同一条件の実験を繰り返す. (2) コイン投げのモデル:二項分布.n 回投げて,x 回表が出る確率.記号では x ∼ B(n, p) (q = 1 − p) または x ∼ B(n, θ ) (0 < θ < 1) と表わす. ( ) n x n−x Pr(X = x) = p(x) = p q , x ( ) n x p(x) = θ (1 − θ )n−x x (3) x ∼ B(1, p) の期待値と分散. x 0 1 計 p(x) q p 1 xp(x) 0 p p x2 p(x) 0 p p 左の表から E(x) = p, E(x2 ) = p が明らかであり,こ れから var(x) = E(x2 ) − E(x)2 = p − p2 = p(1 − p) = pq が簡単に導かれる. ¯ = q = 1 − p で生じる実験を (4) 一般にある事象 A とその余事象 A¯ が,それぞれ Pr{A} = p, Pr{A} ¯ 繰り返す.1 回の実験で事象 A がおきたときは x = 1, 事象 A がおきたときは x = 0 を取る確率 変数の確率関数(密度関数) p(x) = Pr{x˜ = x} (x = 0, 1) は,次のように書ける. p(0) = px q1−x , (x = 0, 1) すなわち p(0) = q, p(1) = p である. また,その期待値と分散は前項のように容易に求められる. (5) この実験を i = 1, 2, · · · , n 回繰り返すとき,第 i 回の結果を xi = 0 または xi = 1 で表わす確率変 数を考える.当然,各 xi は独立である. (6) 上記の実験を n 回繰り返したとき,事象 A が x 回生じるとき,x は二項分布にしたがう,ある いは x ∼ B(n, p) と表わす.その確率関数は次の式で与えられる. p(x) = nCx px qn−x , 2 (x = 0, · · · , n) (7) 二項定理から,確率の和は 1 になることが確かめられる. n ∑ x=0 n p(x) = ∑ nCx px qn−x = (p + q)n = 1 x=0 また,多少の手間をかければ E(x), E[x(x − 1)], E[x(x − 1)(x − 2)] などを評価することができる. これから,期待値と分散が求められる.E(x) = np, var(x) = npq = np(1 − p) (8) xi ∼ B(1, p) (i = 1, · · · , n) の意味を考えると x1 + · · · + xn = ∑ni=1 xi は二項分布 B(n, p) に従うこ とが明らかである.独立な確率変数の和に関して,期待値と分散が和で与えられるという性質 を用いれば,x ∼ B(n, p) の平均,分散は B(1, p) の n 倍となることは直ちに導かれる. (9) 二項分布のグラフ p(x) を n, p をさまざまに変えて描き,その中心の位置,散らばり,歪みな どを比較する.特に n が大きいとき(かつ p も q も 0 に近くないとき)には,二項分布は左 右対称なベル型の分布になることを確かめる(中心極限定理, CLT) 簡単な確率の練習問題 (1) 歪んだコインで表が出る事象を A として,その確率を Pr(A) = θ (0 < θ < 1) とする. (i) r 回目に初めて表が出る確率 : 幾何分布 r ∼ G(θ ) (ii) n 回投げたとき,表が r 回出る確率 : 二項分布 r ∼ B(n, θ ) (iii) 表が r 回出るまで投げ続けて,n 回で終了する確率 : 負の二項分布 n ∼ NB(r, θ ) (2) つぼのモデル:赤い玉が R 個,黒い玉が B 個,合計で N = R + B 個入っている.よくかき混ぜ て,玉を取り出す問題 (i) 毎回元に戻しながら n 個の玉を取り出す(復元抽出 with replacement).赤玉の数 r はコ イン投げと同じ確率モデルになる.θ = R/N として r ∼ B(n, θ ) (ii) 元に戻さずに玉を取り出す(非復元抽出 without replacement). ( )( )/( ) R B N p(r) = r n−r n (3) (条件付確率を考える問題)A, B, C のいずれかとなる実験を繰り返すとき,事象 B が出る前 に事象 A が出る確率はいくらか.ただし Pr(A) = a, Pr(B) = b, Pr(C) = c とする (a + b + c = 1). 簡単な解答は Pr(A) a Pr{A ∩ (A ∪ B)} = = Pr(A | A ∪ B) = Pr(A ∪ B) Pr(A ∪ B) a + b (4) ベイズの定理の応用例:3つの箱(Bertrand の問題) 箱 B1 , B2 , B3 があり,それぞれの中身は B1 : (G, G), B2 : (S, S), B3 : (G, S) とする.ただし,G, S は,それぞれ金貨および銀貨を表す.いま,1 つの箱をでたらめに選んだとき,1 枚目が金 貨だったとすると,2 枚目も金貨である確率はいくらか. 大数の法則 (lln.R) (1) x1 , · · · , xn を無作為標本,すなわち,独立に同じ分布に従う確率変数とする(任意の分布).以下, xi の共通の期待値を µ ,分散を σ 2 とする.このとき和 S = ∑ni=1 xi の期待値と分散は E(S) = nµ , ¯ = µ , var(x) ¯ = σ 2 /n となる. var(S) = nσ 2 となる.また標本平均 x¯ = S/n の期待値と分散は E(x) 3 (2) 大数の法則 (LLN: Law of Large Numbers) は n が大きくなると x¯ は母集団の平均である µ に 近づくというものである.LLN には同一分布でない場合や独立でない場合などいくつかの命 題があるが,最も簡単な大数の法則は無作為標本 (independently, identically distributed sample, iid) に関する以下の形である. Pr{|x¯ − µ | > ε } → 0 (n → ∞) ここで ε > 0 は任意の数である. (3) 図による大数の法則の理解:1 点に集中すること. (4) 大数の法則は「どのような分布であっても成立する」点が重要である.ただし,平均や分散に 関する条件は必要である.大数の法則が成立しない確率変数の例は,余裕があれば紹介する. (5) コンピュータによるシミュレーションで,適当な確率変数を多数発生させて,その算術平均の 分布が次第に 1 点に集中していくことを観測する. コンピュータによる演習 (1) 確率分布の比較 (i) 主要な確率分布のグラフを描く (ii) 主要な確率分布について,平均,標準偏差(分散)の意味を simulation を通じて理解する. 二項分布・コイン投げ (binom-ex1.R) (1) 表が出る確率が p のコインを n 回投げて,表が r 回出る確率 : dbinom(r,n,p) (2) p = 0.5 のコインを n = 5 回投げて,表が r = 0, · · · , 5 回出る確率 :dbinom(0:5,5,0.5) (3) p = 0.3 のコインを n = 100 回投げて,表が r = 35 回以下になる確率 : cpbinom(35,100,0.3) は sum(dbinom(0:35,100,0.3)) に等しい. (4) p = 0.5 のコインを n = 5 回投げて,表が何回出るかの実験 rbinom(1,5,0.5) 実験を 1 回だけ(コイン投げは 5 回) rbinom(20,5,0.5) 実験を 20 回(コイン投げは 5 × 20 = 100 回) (5) 二項分布の確率のグラフを描く: barplot 関数の利用 正規分布 (normal-ex1.R) (1) ある集団の身長は平均が 170cm,標準偏差が 10cm の正規分布で近似されるとき,無作為に選 ばれた人の身長が 180cm を超える確率 : 1-pnorm(180,mean=170,sd=10) (2) ある試験の得点は正規分布で近似され,その平均は 500 点,標準偏差は 100 点である.800 点 を超える受験生の割合はいくらか : pnorm(800, 500,100) (3) 前問の試験で,上位 10%, 5%, 1% の受験生はそれぞれ何点を取っているか : qnorm( c(0.9,0.95,0.99), 500,100) (4) 正規分布の密度関数を描く.平均と標準偏差を変えて,形を比較する : dnorm(x, mean=0, sd=1) 4 コンピュータによる統計分析 2014 年度 美添泰人 3つの箱(Bertrand の問題)への解答 問題: 箱 B1 , B2 , B3 があり,それぞれの中身は B1 : (G, G), B2 : (S, S), B3 : (G, S) とする.ただし, G, S は,それぞれ金貨および銀貨を表す.いま,1 つの箱をでたらめに選んだとき,1 枚目が金貨 だったとすると,2 枚目も金貨である確率はいくらか. 解答: ベイズの定理を形式的に適用する.以下のような事前分布と,金貨が観測される確率を 想定することに対しては,ほとんどの人の同意を得られるであろう. P {B1 } = P {B2 } = P {B3 } = P {G | B1 } = 1, P {G | B2 } = 0, 1 3 P {G | B3 } = 1 2 これから,事後確率は P {B1 | G} = P {G | B1 } P {B1 } 1 · (1/3) 2 = = P {G} 1 · (1/3) + 0 · (1/3) + (1/2) · (1/3) 3 と求められる. 相対度数の極限では解釈が困難であることを確認する.
© Copyright 2024 ExpyDoc