回帰分析(Regression Analysis)

回帰分析(Regression
Analysis)
最小2乗法
決定係数


XとYの線形関係
変数xと変数yの線形関係を把握するため
に、一つの固定した傾き  と切片  をと
り、その直線を
① y    x
とおいてみる。
X:独立変数(説明変数).
Y:従属変数(被説明変数).
最小2乗法
パラメータ(Parameter, 未知の係数)  、
が定まれば、この直線が定まり、x
から y

が決定される仕組みが明らかになる。

と  を決める方法として、最小2乗
法( Least Squares Method )による当て
はめを考えよう。
推計の誤差
式①のxに第 i 番のデータ
の値を yi* とする。
*
理論値 ②
xi を代入したときのy
yi    xi
n個データ ( xi , yi )(i  1,2,  , n)について、n個の
誤差が式③によって得られる。
実際値 ③ yi    xi   i
誤差 ④
i  yi  y  yi  (  xi )
*
i
 yi    xi
誤差の2乗和(Sum of Squares of
Errors)
⑤ SSE 
n

i 1
n
2
i
  ( yi    xi )  Q
2
i 1
を最小にするような  と  の値を求める。
この方法を最小2乗法といい、その推定値
を最小2乗推定値という。
誤差を最小にする方法

SSEは と  の2変数関数の2次式であるので、
最小を求めるために 、  でそれぞれ偏微分
して0とおくと、正規方程式

Q
 2 ( yi    xi )  0

Q
 2 xi ( yi    xi )  0

となる。
極値の判定
関数f(x)において、
`
``
f (a)  0, f (a)  o
ならば
f(x)はx=aで極小となり
ならば
f (a)  0, f (a)  o
`
``
f(x)はx=aで極大となる
連立方程式の解を解く
⑥
n
y
i 1
i
n
x y
i 1
i i
n
 n    xi
i 1
n
n
   xi    x
i 1
i 1
2
i
回帰係数の計算式
式⑥を  ,  の2元連立方程式として解く
と、,  の最小2乗推定値は
⑦ b
⑧
n xi yi   xi  yi
n x  ( xi )
2
i
a  y  bx
2

S xy
S xx
最小2乗残差
回帰直線を用いてxに x i を代入したときの直線
の予測値 y
ˆi
⑨
yˆ i  a  bxi
と実際値の yi との差
⑩
ei  yi  yˆ i  yi  a  bxi
作成する。これを最小2乗残差という。
最小2乗残差の平均値と分散
残差 ei は理論的誤差  i の実現値と見な
して、n 個のデータを用いて x と y の線形
関係をよく把握したものである。残差の平
均と分散は
⑪
⑫
1 n
e   ei  y  a  bx  0
n i 1
1
1
2
2
S ee   (ei  e )   ei
n
n