Document

エコノメトリックス
第4回
2011年前期
中村さやか
今日やること
Ch. 2 The Simple Regression Model
2.5
2.6
Expected Values and Variances of
the OLS Estimators
Regression through the Origin
2.5
Expected Values and Variances of the
OLS Estimators
パラメータの推定値はどんな分布をしているか?
仮定5: 均一分散 (homoskedasticity)
Var(u|x)=σ2
⇒誤差項uの分散は説明変数の値に関わらず一定
• 単純化のための仮定(不偏性には関係なし)
• もしこの仮定が成り立たないならば、誤差項は
不均一分散(heteroskedasticity)している
2.5
Expected Values and Variances of the
OLS Estimators
Var(u|x)=σ2 ⇒ Var(y|x)=σ2
Var ( y | x)  E[{ y  E ( y | x)}2 x]
 E[ 0  1 x  u  (  0  1 x  E (u | x)) x]
2
 E (u 2 x)  Var (u | x)   2
この仮定が成り立たない例: wage=β0+β1educ+u
⇒教育年数が長いほど賃金のバラつきは大きいと考えられる
Copyright © 2009 South-Western/Cengage Learning
Copyright © 2009 South-Western/Cengage Learning
2.5
Expected Values and Variances of the
OLS Estimators
定理2.2
{xi: i=1, …, n}について条件付き分散を取ると、
Var ( ˆ1 ) 
2

n
i 1
( xi  x )
2

2
SSTx
• 誤差項の分散σ2が大きいほどパラメタの分散も大きい
• 説明変数の総変動が大きいほどパラメタの分散は小さくなる
理由1: 標本での説明変数のバラつきが大きいと被説明変
数と説明変数の関係を把握しやすく推定誤差が少なくなる
理由2: 標本数が大きいと推定誤差が少なくなる
2.5
Expected Values and Variances of the
OLS Estimators
定理2.2の証明
1
ˆ
1  1 
SSTx
n
 ( x  x )u
i 1
i
i
n


1
ˆ

Var ( 1 )  Var 
( xi  x )ui 

 SSTx i 1

1
 n


Var   ( xi  x )ui   Property VAR.2 (p.728)
2
SSTx
 i 1

1

2
SSTx

2
SSTx
n
2
(x

x
)
 i Var(ui )  Property VAR.3 (p.732)
i 1
2.5
Expected Values and Variances of the
OLS Estimators
定理2.2 続き
{xi: i=1, …, n}について条件付き分散を取ると、
2
1

x

Var ( ˆ0 )   2   n
2 
n
(
x

x
)
i 1 i


2.5
Expected Values and Variances of the
OLS Estimators
定理2.2の証明 続き
n
ˆ1 
 ( x  x )( y
i 1
i
SSTx
i
n
 y)

 ( x  x )y
i 1
i
i
SSTx
n
1
x
 ˆ0  y  ˆ1 x   yi 
n i 1
SSTx
1

x


(
x

x
)
y

y

(
x

x
)


i
i
i
i
i 1
i 1
 n SSTx

n
n
2
2
n
1

1

x
x
2
ˆ
Var (  0 )   Var ( yi ) 
( xi  x )      
( xi  x ) 
SSTx
i 1
i 1  n
 n SSTx


n
 n 1

2x n
x2
x2 
2
2
2 1

    2 
( xi  x )  
( xi  x )     

2
nSSTx i 1
i 1 SSTx
 n SSTx 
 i 1 n

n
2.5
Var ( ˆ1 ) 
Expected Values and Variances of the
OLS Estimators
2

n
( xi  x )
i 1
2

2
SSTx
2
1

x

Var ( ˆ0 )   2   n
2 
n
(
x

x
)
i 1 i


• 誤差項の分散σ2以外の部分は全てデータから計算できるが、
誤差項も σ2も直接観察できない
⇒σ2の推定値を用いてβ0とβ1の分散を推定する
⇒σ2の推定値はどうやってもとめたらよいか?
2.5 Expected Values and Variances of the
OLS Estimators
誤差 (errors)
残差 (residuals)
ui  yi   0  1 xi
uˆi  yi  ˆ0  ˆ1 xi
• 実際には観察できない
• 実際の被説明変数の値と
予測値の差として算出
• パラメタの推定値に依存
• パラメタの真の値に依存
uˆi  (  0  1 xi  ui )  ˆ0  ˆ1 xi
uˆ  u  ( ˆ   )  ( ˆ   ) x
i
i
0
E (uˆi  ui )  0
0
1
1
i
2.5
Expected Values and Variances of the
OLS Estimators
1
n
2
ˆ
残差によって誤差の分散を推定: ̂ 
u
 i
(n  2) i 1
2
Q: なぜnではなく(n-2)で割るのか?
A: OLSを推定する際の二つの制約
⇒自由度(degree of freedom, df)は(n-2)
i1 uˆi  0
n

n
x uˆ  0
i 1 i i
もしn-2個の残差の値がわかれば、上の二式を使って残りの
二つの残差の値もわかる
2.5
ˆ 2 
Expected Values and Variances of the
OLS Estimators
1
n
2
2
2
ˆ
ˆ
u

E
(

)


 i
(n  2) i 1
証明:
uˆi  ui  ( ˆ0   0 )  ( ˆ1  1 ) xi
(1)
右辺と左辺をそれぞれ 平均値で表すと
0  u  ( ˆ0   0 )  ( ˆ1  1 ) x (2)
(1)から (2)を引くと uˆi  ui  u  ( ˆ1  1 )( xi  x )
n
2
2
ˆ
ˆ
)
x

x
(
)



(

)
u

u
(

u
i 1 i
i 1 i i 1 i
1
1
n
2
n
2
n
ˆ
 2( 1  1 )i 1 ( xi  x )(ui  u )
証明(続き):

 
 
 2 E ( ˆ   ) ( x  x )(u  u )

1


第1項  E  u  2 E  u  u   E 
n



n
n
n
2
E i 1 uˆi  E i 1 (ui  u ) 2  E ( ˆ1  1 ) 2 i 1 ( xi  x ) 2

n
1
n
i 1
1
2
i 1 i
i
i
n
n
i 1 i
i 1 i

1 n 
 i 1 ui 
i 1
n

n
2



2
2 2
2
n

n

2
 n 
 2  (n  1) 2
n
n
n
第2項=i 1 ( xi  x ) 2 E ( ˆ1  1 ) 2  SSTxVar ( ˆ1 )   2

 1
第3項=  2 E 
 SST


 2
i1 ( xi  x ) ui   SST
n
 E i 1 uˆi  (n  2) 2
n
2

2
2
2
2
(
x

x
)
E
(
u
)


2

i1 i
i
n
2
2.5
Expected Values and Variances of the
OLS Estimators
回帰式の標準誤差 (standard error of the regression):
ˆ  ˆ 2
⇒不偏性は満たさないが、一致性は満たす
• 一致性: 標本数が無限大になれば真の値と推定値が一致
正式には:
Wn を標本数nの標本にもとづくθの推定値とすると、
  0 P( Wn     )  0 as n  
であるなら Wn はθの一致推定量
2.5
Var ( ˆ1 ) 
Expected Values and Variances of the
OLS Estimators
2
2
(
x

x
)
i1 i
n

2
SSTx
 sd ( ˆ1 ) 
2
SSTx


SSTx
2
2
1

x
1
x
  sd ( ˆ )  
Var ( ˆ0 )   2   n
 n
0
2 
2
n
n
(
x

x
)
(
x

x
)
i1 i
i 1 i


標準偏差の推定値は
se( ˆ1 ) 
ˆ
2
SSTx

ˆ
SSTx
2
1
x
se( ˆ0 )  ˆ
 n
n  ( xi  x ) 2
i 1
2.5
Expected Values and Variances of the
OLS Estimators
• 最小二乗法のパラメータの推定値は標準的仮定の下では不
偏性だけでなく一致性も満たす
– 詳細は5章
⇒標本数が無限に大きくなれば、推定値は真の値に限りなく近
づく
• 不偏性と一致性は別
– 不偏推定量でも一致性をみたさないものもある
– 一致推定量でも不偏性を満たさないものもある
2.6
Regression through the Origin
~
~
原点を通る回帰モデル: y  1 x
• 切片がゼロ⇒回帰直線が原点(0,0)を通る
• 例) yが所得税の税収、xが所得
⇒ 所得が0ならば税収もゼロ
最小二乗法によって切片の値を推定:
n
~ 2
Min
~ i 1 ( yi  1 xi )
1
~
~
FOC : i 1 xi ( yi  1 xi )  0  1
n



n
xy
i 1 i i
n
2
i 1 i
x
2.6
Regression through the Origin
~
~
原点を通る回帰モデル: y  1 x, 1



n
xy
i 1 i i
n
2
i 1 i
x
• 切片のあるモデルとないモデル(=原点を通る回帰モデル)
で傾きパラメタ(β1)の推定値が一致するのは、説明変数xの
平均値がゼロのときのみ
⇒もし切片がゼロでないのに原点を通る回帰モデルを推定して
しまうと傾きパラメタの推定値にバイアスが生じる
⇒切片のない回帰モデルは現実にはあまり使われない