少数の法則 1 はじめに 前回までに確率論で最も重要な 2 つの極限定理である大数の法則と中心極限定理を二項分布に 従う確率変数の場合について述べ、厳密な証明を与えた。これらは統計学の最も基礎となるもので ある。具体的に言えば、パラメータを 0 < p < 1 として、Nn を二項分布に従う確率変数 n k k P (Nn = k) = p q k とするとき、 Nn − p < ε = 0, lim P n→∞ n および lim P n→∞ Nn − np a≤ ≤b np(1 − p) P Nn lim =p n→∞ n b = a (1) =1 1 z2 √ e− 2 dz 2π の二つを示したのであった。 より一般の状況で証明を与えることはそれなりに高度な数学的準備を要するが、確率変数 Xi が 独立かつ同分布で1 、期待値 m と分散 v = σ 2 を持つとき、標準正規な確率変数 Z を用いて n √ Xk ∼ mn + σZ n + · · · k=1 と「漸近展開」できる。このとき、各 Xi が具体的にどのような分布をもつ確率変数であるか、離 散型であるか連続型であるか、などは全く関係がなくなる。 注意 1. 我々は Nn を、パラメータ 0 < p < 1 によって、確率が (1) で与えられる確率変数として 定義した。これは独立同分布な無限の確率変数列の存在に関する議論を避けるためであった。しか し既に注意しているように、[0, 1] 区間上には P (Xk = 1) = p, P (Xk = 0) = 1 − p となる独立な n 確率変数列 X1 , X2 , . . . : [0, 1] → {0, 1} が問題なく定義できる。その上で Nn := Xk とおくと、 k=1 Nn は二項分布に従う確率変数である。また E[Xk ] = p で V (Xk ) = p(1 − p) だから Nn = n Xk ∼ pn + √ p(1 − p)Z n + · · · k=1 が得られる。 注意 2【解釈】. 単純には X1 , X2 , . . . はそれぞれ独立に硬貨を投げたとき、表が確率 p で現われ、 √ 裏が 1 − p で現われるとき、表の出る回数は n が大きいとき pn + p(1 − p)Z n 回程度であるこ とを表わしている。 特に lim np = ∞ であって、これが「大数の法則」 (Law of Large Numbers)の名前の由来で n→∞ ある。それに対し、ポアソン2 は 1837 年に「少数の法則(Law of Small Numbers) 」と呼ばれる極 限法則を導いた。それが今回の題材で、 lim np < ∞ の場合に成立する極限法則である。もちろ んその場合、p は n によって変わる。 n→∞ 1 そうでない場合でも成立するときがある。その種の細かい条件は現在でも研究が続いている。 2 Sim´ eon Denis Poisson(1781–1840)。多面体の研究で有名なポアンソ(Louis Poinsot, 1777–1859)とは何の関係 もない。 1 2 少数の法則で考える対象 ポアソンの少数の法則(まれに「小数の法則」と記すこともあるようであるが、 「少数の法則」の 方がよい)は、 「まれに発生するような事象が何度発生するか」を議論するときに現われる普遍的 な定理である。 例えば生命保険においては現在国内では年間死者数は 2000 年からの 10 年間で約 119・117・115・ 112・111・106・109・109・109・107 万人(2009 年まで3 )でそれほど大きな増減はない。それぞ れの人の死亡原因はおおむね独立で、大数の法則が完全に効く。 一方、例えば深刻な交通事故・火災・地震など損害保険の場合はそうはいかない。例えば 10 年交 通事故を起こさなかった人が明日重大な事故を起こし、しかも一月後に繰り返すということもあり 得る。地震もそうで、100 年起こらなかったことは明日起こらない何の保証にもならない4 。1000 年ぶりに明日震度 7 の地震が起き、その 3 日後に震度 6 強の地震が起こるかもしれない。少数の法 則はこのような事象を扱う。もちろん日常においても比較的頻度の少ない事象、例えば(ある個人 に)電話のかかってくる回数、電子メールが届く回数といったものもそうであるし(10 時間メー ルが届かないことは次の 1 時間に 2 通メールが届く可能性を否定しない)、郵便局や駅の窓口、あ る店に客が来る人数もそうである。火災保険の適切な価格を算出したり、窓口の個数や店員の数を 最適化することは極めて重要である。つまり、大数の法則や中心極限定理で記述される現象が重要 であると同時に、そのような「まれな事象」について普遍的な法則が成立するのであればそれを理 解することはもちろん極めて重要である。 さて、最も易しい場合について数値実験の結果も交えながら我々の考える問題を明確にする。再 び二項分布を考えるが、Nn = k となる確率が、n ごとにパラメータ 0 < pn < 1 によって n P (Nn = k) = pn k (1 − pn )n−k k と与えられると仮定する。さらに、今は簡単のため、ある正の数 λ > 0 があって、pn = λ/n で与 えられているとしよう。 n k pn k (1 − pn )n−k = npn = λ で 注意 3【解釈】. このとき、二項分布の期待値 E[Nn ] = k k=1 ある。例えば電子メールが平均して 1 日に λ = 3 通届く人があったとする。1 日を n =24 分割 n し、各時間に電子メールが届くかどうかは独立であると考え、夜間でも昼間でも同じ確率で届く として各時間で起こる確率は同じであるとする。すると各時間ごとに確率 3/24 = 1/8 で電子メー ルが届くことになる。n = 48 分割をすれば各 30 分ごとに、n = 1440 分割すれば毎分ごとに、 n = 86400 分割すれば毎秒ごとにメールが届く確率である。このような状況で、1 日にメールが届 く回数の確率を与えるのが少数の法則である。つまり、例えば p = 3/86400(非常に小さい)とき 86400 3 86400−k ( 86400 )k ( 86397 を簡単に計算できるか。 の P (N1 日 = k) = 86400 ) k 注意 4【統計力学の観点】. 少数の法則は統計力学において基本的である。例えば理想気体(単分 子気体で、各分子間に相互作用はない)は一辺の長さ R の立方体 V の中に N 個の分子が独立に 配置されているものである。N/R3 = λ を一定に保ちながら R → ∞ を考えることは熱力学極限 (Thermodynamic Limit)と呼ばれる。この極限である領域の中に入っている気体の個数は少数の 法則で与えられる。この状況下で理想気体の状態方程式を厳密に証明することが統計力学と呼ばれ る学問の最初の問題である。 3 http://www.mhlw.go.jp/toukei/saikin/hw/jinkou/suii09/soran2-1.html 4 この講義では地震周期説の信憑性等については一切議論しない。統計学が対象とするのは因果ではない。 2 いま、具体的に λ = 10 として n = 24 とすると、次のような標本を得る。ただし、X(ω) = n (X1 (ω), X2 (ω), . . . , Xn (ω)) で Nn (ω) = Xk (ω) とし、各 Xk は P (Xk = 1) = λ/n, P (Xk = k=1 0) = 1 − λ/n とする。 • X(ω1 ) = (1, 0, 1, 0, 1, 0, 0, 1, 0, 0, 0, 0, 1, 0, 0, 1, 0, 0, 1, 0, 0, 0, 0, 0) N24 (ω1 ) = 7 • X(ω2 ) = (0, 0, 1, 1, 1, 0, 0, 0, 0, 0, 0, 1, 0, 1, 0, 1, 0, 1, 1, 1, 0, 0, 0, 1) N24 (ω2 ) = 10 • X(ω3 ) = (1, 0, 1, 0, 1, 0, 1, 1, 0, 0, 0, 0, 1, 1, 1, 0, 1, 1, 1, 1, 0, 1, 1, 0) N24 (ω3 ) = 14 • X(ω4 ) = (0, 0, 0, 0, 1, 0, 0, 0, 0, 1, 0, 1, 1, 0, 1, 1, 0, 0, 0, 1, 0, 0, 1, 1) N24 (ω4 ) = 9 • X(ω5 ) = (1, 0, 1, 1, 0, 0, 1, 1, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 0, 1, 0, 1, 0, 1) N24 (ω5 ) = 12 次に n = 48 とすると(各確率 p48 は 10/48 として)、やはりある標本は (0, 1, 1, 0, 0, 0, . . . , 0, 0, 1, 0, 0, 0, 1, 0, 0, 0, 0, 0, 1, 0, 0, 0, 1, 0, 1, 0, 0, . . ., 0, 1, 0, 0, 0, 0, 0, 1, 1, 0, 0, 1) と与えられ、N48 = 7 である。 実は今は種明かしから先に説明しているので、下図はある意味で当たり前に見えるかも知れな い。それぞれ確率 λ/n で表が出る硬貨を n 回投げたとき、それの表の出る回数(横軸)とその確 率(縦軸)をグラフにしたものである。いうまでもなく、それぞれ期待値は λ であり、また二項分 布であるから、確率が最大となる回数は λ 回である。 0.6 0.6 0.7 "5-5.dat" "5-5.dat" 0.7 "5-10.dat" "5-10.dat" 0.5 0.5 0.4 0.4 0.3 0.3 0.2 "5-20.dat" "5-20.dat" "5-40.dat" "5-40.dat" 0.6 0.6 0.5 0.5 0.4 0.4 0.3 0.3 0.2 0.2 0.2 0.1 0.1 0 0.1 0 -1 0 1 2 3 4 5 6 図 1: λ = 0.5, n = 5 0 2 4 6 8 10 12 図 2: λ = 0.5, n = 10 0.45 0.1 0 -2 0 -5 0 5 10 15 0.4 -5 0 5 10 15 20 25 30 35 40 45 図 4: λ = 0.5, n = 40 0.4 "10-10.dat" "10-10.dat" 0.35 25 図 3: λ = 0.5, n = 20 0.4 "10-5.dat" "10-5.dat" 0.4 20 "10-20.dat" "10-20.dat" "10-40.dat" "10-40.dat" 0.35 0.35 0.35 0.3 0.3 0.3 0.25 0.25 0.25 0.2 0.2 0.2 0.15 0.15 0.15 0.3 0.25 0.2 0.15 0.1 0.05 0 0.1 0.1 0.1 0.05 0.05 0.05 0 -1 0 1 2 3 4 5 6 図 5: λ = 1.0, n = 5 0 -2 0 2 4 6 8 10 12 図 6: λ = 1.0, n = 10 0.35 0 -5 0 5 10 15 0.35 0.25 0.25 0.2 0.2 0.15 -5 0 5 10 15 20 25 30 35 40 45 図 8: λ = 1.0, n = 40 0.3 "20-10.dat" "20-10.dat" 0.3 25 0.3 "20-5.dat" "20-5.dat" 0.3 20 図 7: λ = 1.0, n = 20 "20-20.dat" "20-20.dat" "20-40.dat" "20-40.dat" 0.25 0.25 0.2 0.2 0.15 0.15 0.15 0.1 0.1 0.05 0.05 0 0.1 0.1 0.05 0.05 0 -1 0 1 2 3 4 5 図 9: λ = 2.0, n = 5 6 0 -2 0 2 4 6 8 10 12 0 -5 0 5 10 15 20 25 -5 0 5 10 15 20 25 30 35 40 45 図 10: λ = 2.0, n = 10 図 11: λ = 2.0, n = 20 図 12: λ = 2.0, n = 40 3 0.45 0.3 0.25 "40-5.dat" "40-5.dat" 0.25 "40-10.dat" "40-10.dat" "40-20.dat" "40-20.dat" "40-40.dat" "40-40.dat" 0.4 0.25 0.2 0.2 0.15 0.15 0.35 0.3 0.2 0.25 0.15 0.2 0.15 0.1 0.1 0.05 0.05 0.1 0.1 0.05 0.05 0 0 -1 0 1 2 3 4 5 6 0 -2 0 2 4 6 8 10 12 0 -5 0 5 10 15 20 25 -5 0 5 10 15 20 25 30 35 40 45 図 13: λ = 4.0, n = 5 図 14: λ = 4.0, n = 10 図 15: λ = 4.0, n = 20 図 16: λ = 4.0, n = 40 n 回試行するのであるから、当然 n 回考えている事柄が起こるということも確率的には当然あり 得る。しかし今確率は pn = λ/n としているので、n を大きくしても、あまり大きな回数発生する ことはほとんどなく(それがどの程度か、ということを我々は気にする)、おおむね λ 周辺の回数 である。これが「少数の法則」と呼ばれる所以であるが、もちろん、我々はそれを徹底して厳密に 証明する。n が大きくなると pn は大変小さくなる。だから少数の法則は「極めてまれに起こる事 象の機会が何度も積み重なったときに k 回発生する確率」を記述する定理である。例えば「1000 年に一度の地震が 1 年に 2 度起きる確率5 はいくらか」 「1 年に 1 度の割合で偶然出会う二人が 1 週 間に 3 度出会う確率はいくらか」などはいずれも少数の法則に支配される。そして全日本、全世界 でそういった事象がどの程度起きるかという分析は現在非常に重要な問題となっている。 3 ポアソン分布 定義 1. 非負の整数値を取る確率変数 Z : Ω → {0, 1, 2, . . .} が P (Z = k) = λk −λ e k! となるとき、Z は(パラメータ λ の)ポアソン分布に従う、あるいは単にポアソンであるという。 命題 1. ポアソン分布は次の性質を持つ。 ∞ λk −λ (1) =1 k! e k=0 (2) (期待値) ∞ k=0 (3) (分散) ∞ k=0 k k λk! e−λ = λ k (k − λ)2 λk! e−λ = λ 証明 (1) は次の事実から直ちに分かる。 λ −λ 1=e e = ∞ λk k=0 k! e−λ (2) もそのまま計算すれば直ちにわかる。 ∞ ∞ ∞ ∞ λk λk−1 −λ λk −λ λk e−λ = λ e =λ e =λ k e−λ = k! (k − 1)! (k − 1)! k! k=0 k=1 k=1 k=0 (3) を示すために、(2) で用いた手法を応用するため次のように変形する。 ∞ k=0 k2 ∞ ∞ ∞ k=0 k=0 k=0 λk λk λk λk −λ k(k − 1) e−λ + k e−λ = k(k − 1) e−λ + λ e = k! k! k! k! 5 どうも「地震周期説」によると一度起きれば次はしばらく起きないと考えられがちであるが、ここではそれは考えない。 4 こうして右辺第一項を (2) と同じように変形して ∞ k(k − 1) k=0 ∞ 従って k=0 ∞ ∞ k=2 k=0 λk−2 λk λk −λ e = λ2 e−λ = λ2 e−λ = λ2 k! (k − 2)! k! k (k − λ)2 λk! e−λ = λ = (λ2 + λ) − 2λλ + λ2 = λ となる。 下に、いくつかの λ についてポアソン分布で与えられる確率をグラフとして与えてある(これは 確率密度ではなく本当の確率の値のグラフである)。 1 0.7 0.4 "poisson-0.1.dat" 0.3 "poisson-0.5.dat" "poisson-1.0.dat" 0.9 "poisson-2.0.dat" 0.35 0.6 0.25 0.8 0.3 0.5 0.7 0.2 0.25 0.6 0.4 0.5 0.2 0.15 0.3 0.4 0.15 0.1 0.3 0.2 0.1 0.2 0.05 0.1 0.05 0.1 0 0 0 5 10 15 20 0 0 図 17: λ = 0.1 5 10 15 20 0.2 0 0 図 18: λ = 0.5 5 10 15 0.18 0 5 10 15 20 図 20: λ = 2 0.14 "poisson-4.0.dat" 0.09 "poisson-5.0.dat" 0.18 20 図 19: λ = 1 "poisson-10.0.dat" "poisson-20.0.dat" 0.16 0.08 0.12 0.16 0.14 0.07 0.1 0.14 0.12 0.06 0.12 0.08 0.1 0.05 0.1 0.08 0.04 0.06 0.08 0.06 0.03 0.06 0.04 0.04 0.04 0.02 0.02 0.02 0.02 0 0 0 5 10 15 20 0.01 0 0 図 21: λ = 4 5 10 15 20 0 0 図 22: λ = 5 5 10 15 20 0 図 23: λ = 10 5 10 15 20 25 30 35 40 図 24: λ = 20 λ = 20 のときのグラフを見ると、やはりここでも正規分布が顔を出すことが予想できる。これ は直接証明できる。 定理 1【ポアソン分布に対する中心極限定理】. lim λ→∞ √ √ λ+a λ<k<λ+b λ λk −λ 1 e =√ k! 2π b e− z2 2 dz a √ √ 証明 基本的な方針は二項分布の場合と同様である。λ + a λ < k < λ + b λ のときには両辺 λ で割って k ∼ λ がわかる。そこでスターリングの公式から λk −λ 1 1 λk −λ e ∼ √ e = √ exp{−λ + k log λ + k − k log k} k −k k! k e 2π 2πk k−λ 1 = √ exp (k − λ) − k log 1 + λ 2π ところがテイラーの定理によって log(1 + x) = x − x2 /2 + x3 3(1+θ)3 (|θ| < |x| < 1)とかけるから、 k−λ k − λ 1 (k − λ)2 − log 1 + (1 + r(k, λ)) = λ λ 2 λ2 とできる。但し r(k, λ) → 0(k, λ → ∞)である。これを代入して整理すると 1 k(k − λ)2 k−λ (k − λ)2 + (k − λ) − k log 1 + (1 + r(k, λ)) =− λ λ 2 λ2 1 (k − λ)3 1 (k − λ)2 1 k(k − λ)2 + =− + r(k, λ) 2 λ 2 λ2 2 λ2 5 √ √ ところが今 a λ < k − λ < b λ を仮定しているから、a2 λ < (k − λ)2 < b2 λ かつ a3 λ3/2 < (k − λ)3 < b3 λ2/3 であり、k/λ → 1 と r(k, λ) → 0 を合わせると 1 (k − λ)3 1 k(k − λ)2 + r(k, λ) = 0 2 λ→∞ 2 λ 2 λ2 lim がわかり(これらは指数関数の肩にあるのだから)結局 √ √ λ+a λ<k<λ+b λ λk −λ e ∼ k! √ √ <b a< k−λ (k − λ)2 1 exp − 2λ 2πλ λ この右辺は区分求積によって求める積分に収束する(有限値)。従って両辺の極限は等しい。 注意 5. 今の中心極限定理を書き直すと lim λ→∞ √ √ λ+a λ<k<λ+b λ λk −λ e = k! b a g0,1 (z) dz = √ [λ+a λ]−λ √ λ √ λ+b λ = √ [λ+b λ]−λ √ λ √ λ+a λ 1 g0,1 (z) dz √ e 2πλ 2 − (x−λ) 2λ dx = √ λ+b λ √ λ+a λ gλ,λ (x) dx √ であることがわかる。但し最後は z = (x − λ)/ λ と変数変換した。また、第 3 項以降は見た目で は λ に依存しているが、本当は λ には依存していない。しかしこの式を見ると、λ が大きいとき √ √ のポアソン分布に従う確率変数が λ + a λ から λ + b λ の範囲をとる確率は、平均 λ で分散 λ の 正規確率変数がその範囲をとる確率とほぼ等しいことが分かる。これが図 24 の理由である(図 24 は確率のグラフであって、確率密度がガウスであることとは違いがあるように見えるが、小さな範 囲でガウスを積分することは密度関数を階段関数で近似することと同じであるから、結局グラフの 「見た目」が近くなっているのである)。 4 少数の法則 n いよいよ少数の法則を述べる。今までの例では P (Nn = k) = pn k (1 − pn )n−k のときに k pn = nλ として説明してきたが、少しだけ一般化しておく。 定理 2【ポアソンの少数の法則】. n ごとに Nn : Ω → {0, 1, 2, . . . , n} は二項分布に従い、 n P (Nn = k) = pn k (1 − pn )n−k k で与えられるとする。 lim npn = λ とすると、 n→∞ lim P (Nn = k) = n→∞ λk −λ e k! が成立する。 証明 まず λn := npn とおく。仮定は lim λn = λ である。 n→∞ k n−k n n(n − 1)(n − 2) · · · (n − k + 1) λn λn pn k (1 − pn )n−k = 1− k k! n n n k n(n − 1)(n − 2) · · · (n − k + 1) λn λn = 1− k k! n nk 1 − λnn 6 λn k = k! n 1(1 − n1 )(1 − n2 ) · · · (1 − λn 1− k n 1 − λnn λn n x n ) = n k−1 n ) であることが分かる。さてここで n → ∞ とすると → 0 であり、分子も(1 に収束する項の有 限個の積なので)1 に収束する。一方 lim (1 − e−x であるから、 lim λn = λ と併せて結 n→∞ 論を得る。 n→∞ 例 1. 不良品率が 0.002 = 2/1000 である製品を 1000 個造ったとする。このとき、不良品の個数が k 0 個である確率は十分高い精度で(パラメータ 2 の)ポアソン分布に従うと仮定できる。 20! e−2 = e−2 , 1 2 −2 1! e = 2e−2 , 2 2 −2 2! e = 2e−2 , 3 2 −2 3! e = (4/3)e−2 であるから、不良品が 3 個以下である確率は 19/3 × e−2 ∼ 6.33 . . . × 0.1353 . . . = 0.8571 . . . である。一方これを二項分布を直接計算すると(今 では計算機の力ですぐに計算できてしまう)0.8573 . . . である。そうはいうものの、少数の法則を 用いればこの計算はたやすい。なお、逆に不良品率が 2/1000 のものを 1000 個集めると、不良品 が 4 個以上入っている確率はまだ 14.2%以上残っている。これは意外だろうか?「1000 個調べて 不良品が 4 個だから不良品率はおおむね 4/1000 程度」というのは結構おかしな推論ともいえる。 √ 確率が小さいときには少数の法則が効いており、従って標準偏差 λ の程度でばらつくが、λ が小 √ さいときには λ は λ と比較して決して小さい量ではないことを肝に銘じる必要がある。[こうし て確率現象(純粋な数学)を深く理解してこそ統計の問題を理解できるのである] 5 発展 5.1 独立な確率変数の和 X と Y が独立な確率変数とすると、 P (X + Y = k) = k P (X = l)P (Y = k − l) l=0 と表わすことができる。これはサイコロ 2 つの目の和について考えればすぐに理解できるし、証明 も P (X = i かつ Y = j) = P (X = i)P (X = j) および確率の和の性質からすぐに分かることであ る。もし X と Y が実数値を取り、確率密度関数が f と g で与えられている場合には、X + Y の 確率密度関数は同じように (f ∗ g)(x) = ∞ −∞ f (y)g(x − y) dy で与えられる。f ∗ g は f と g のたたみ込み(convolution)と呼ばれ、解析学で最も重要な概念の 一つである。特に ∞ (F f )(ξ) := eiξx f (x) dx −∞ で定義される関数 F f を f のフーリエ変換というが、 F (f ∗ g) = (F f )(F g) となり、たたみ込みと通常の掛け算とはフーリエ変換によって結ばれている。特に F ( √12π e− √1 e 2π 2 − ξ2 x2 2 )= であり、この関数がフーリエ変換で不変であることは、中心極限定理成立の深い理由の 一つであると同時に、この関数が数学上最も重要である理由の一つである。 7 5.2 独立なポアソンの和 X と Y がそれぞれパラメータ λ1 , λ2 のポアソン分布に従い独立であれば、X + Y はパラメー タ λ1 + λ2 のポアソン分布に従う。より厳密に表記するならば 定理 3. ポアソン分布について次の関係が成り立つ。 k λ1 l l=0 l! e−λ1 λ2 k−l −λ2 (λ1 + λ2 )k −(λ1 +λ2 ) e e = (k − l)! k! 証明 k λ1 l l=0 l! e−λ1 k k! λ2 k−l −λ2 1 (λ1 + λ2 )l −(λ1 +λ2 ) e λ1 l λ2 k−l e−(λ1 +λ2 ) = e = (k − l)! k! l!(k − l)! k! l=0 だからである。 5.3 ポアソン過程 確率 0 の事象は生じない。少数の法則の状況は pn → 0 だから、極限状態では何も起きないよう な気がするかも知れない。しかし少数の法則によるとそのときにも確率的な現象は残り、その分布 はポアソン分布である。つまり、単位時間あたり λ 回起きるような事象があって、時間を無限に細 かく分けて瞬間ごとにそのような事象を考え、任意の時刻 t までに何度それが起こるかという問題 は数学的に意味があるし、具体的に記述できる。これは偶然によって 1 回、2 回、と発生していく ような確率現象を記述するときの普遍的な原理である。 もし X(t) ≡ X(t, ω) が時刻 t と共に変動する確率変数であるとき、X は確率過程であると呼ば れる。特に X(t) の分布がパラメータ λt のポアソン分布に従う: P (X(t) = k) = (λt)k −λt e k! となっているとき、X は(強度 λ の)ポアソン過程であるという。これは単位時間あたり λ の平均 発生回数であるようなランダムな量の連続時間に関する変化を数学的にモデル化したものである。 X(t) の値が k から k + 1 に変わるまでの時間の幅(「待機時間」)は再び確率変数であるが、この 確率変数 T は指数分布に従う(確率密度が λe−λx で与えられる)。そうしてこの分布の性質から、 待機時間はすべて独立である。 例えば、ある機械が初めて故障するまでの時間と二度目に故障するまでの時間は独立で、すべて 指数分布に従う。「1000 年に一度」の地震が起こる間隔は独立でやはり指数分布に従う(地震周期 説に従わない)。ポアソン過程は工学、自然科学、ありとあらゆる人間活動において重要な観点を 与えてくれる。待機時間をポアソン・クロックといって、そのランダムな時計が時を告げるとき、 偶然現象は発生するのである。そしてその分布は易しい指数関数で記述されている。このような単 純さは驚くほどである。 また、X(t) は常に「未来は過去と独立に変化する」ことも分かる。そのような確率過程をマル コフ過程という。ポアソン過程は、発生確率の低いものが時間と共にどのように発生していくかを 明らかにする。逆にどの瞬間も何らかの外部要因を受けて運動する場合には各瞬間で中心極限定理 が支配し、ガウス関数を密度に持つ確率過程が現われる。その中でマルコフ過程であるものをブラ ウン運動という。ポアソン過程とブラウン運動こそがこの世のありとあらゆる現象を理解する根本 の言葉である。 8
© Copyright 2025 ExpyDoc