10.時系列データの解析 time-series data • フィルタリング(filtering) *移動平均(moving average) • スペクトル解析(spectral analysis) 周波数ごとに分解する。 *理論 *Blackman-Tukey method *Fast Fourie Transform method *Maximum Entropy method 移動平均(running mean) 3 7 9 5 7 10 4 (3+7+ (7+9+ (9+5+ (5+7+ (7+10 (10+4 9)/3 5)/3 7)/3 10)/3 +4)/3 +4)/3 6.3 7 7 7.3 7 6 4 El Nino, Southern Oscillation (エルニーニョ・南方振動) SOIはタヒチとダーウィンの海面気圧の差:負 がエルニーニョに対応。(T-D) 移動平均 (running mean, moving average) M 1 yk xk i 2M 1 i M yk Lowpass Highpass M W x i M i M W i M i k i 1 重みつき平均 weighted mean Bandpass 重みつき平均 • 1-2-1 2 grid noise を消せる。 -1, +1, -1, +1, ….. 2ni xi A cos , 2 xi 1 2 xi xi 1 0 • 13ヶ月移動平均の場合: 端を1/2 にするといい。 • 1, 3, 4, 3, 1 は3の周期も消せる。 (0, 1, -1, 0, 1, -1….) ni 0,1,2,..... 重みつき平均はよりスムース 3 -3 3 -3 3 -3 3 単純 平均 1 -1 1 -1 1 -1 重み 平均 0 0 0 0 0 0 -3 周期Tの周期関数 X(t) のフーリエ級数展開 a0 2t 4t a1 cos a2 cos ......... 2 T T 2t 4t b1 sin b2 sin .......... T T a0 2nt 2nt an cos bn sin 2 n 1 T T x(t ) 2 an T 2 bn T T 2 2nt T x(t ) cos T dt 2 T 2 2nt T x(t ) sin T dt 2 フーリエ積分・逆フーリエ積分 x(t ) X ( f )e i 2ft X ( f ) x(t )e df i 2ft 1 X ( f ) X ( ), 2 2f x (t ) X ( )e it d 1 X ( ) 2 dt x (t )e it dt パワースペクトル(power spectrum) P( f ) lim T 2 1 X ( f ) T x P( f )df 2 1 2 x P( f )df 0 2 Power(ワット) は単位時間にする 仕事(=エネルギー:ジュール) エネルギー スペクトル Energy spectrum 自己相関関数 auto-correlation function C ( ) x(t ) x(t ) lim T T 2 T 2 1 x(t ) x(t )dt T auto correlation coefficient R( ) C ( ) / C (0) x(t ) x(t ) / x (t ) R(0) 1 2 周期性の検出: 自己相関係数(Auto-correlation) Detection of periodicity Wiener-Khintchine’s relation C ( ) S ( )e d , 2f i 1 S ( ) 2 自己相関関数 C(τ) C ( )e i フーリエ変換 逆フーリエ変換 d パワースペクトル S(ω)、P(f) 実際のデータの長さは有限である。 C(τ)のτを無限に大きく出来ない。 m T lag window 1 1 W0 ( ) 2 0 m m m 箱型ウィンドウと三角形ウィンドウ 「スペクトル解析」(日野幹雄) Hanning & Hamming windows Hanning & Hamming windows 「スペクトル解析」(日野幹雄) Total data N=512 実践!気候データ解析 (松山・谷本) 実践!気候データ解析 (松山・谷本) 情報量とエントロピー • ある事象がA,B2つの状態をとりうるとする。もし、前もって状 態Aが起こることがわかっていれば、すなわちAの生起確率1、 Bの生起確率0であれば、未来の不確実さはなく、新しい情報 の意味はない。 • 確率pの事象Aが生起したとすれば、これの与える情報量を IA=log2 1/p と定義する。 Pが1に近ければ、情報量は0に近いが、pが0に近ければ情 報は大きい。 • n個のとりうる状態があり、それぞれの確率をpj とすると、事象 j が生起したときに与えられる情報量は Ij=log 1/pj • 情報エントロピーは「1回の試行により得られるであろう情報量 の期待値」として次のように定義される。 H E[ I j ] p j log2 j H p( x) log p( x)dx 1 p j log2 p j pj j (7.3) 「スペクトル解析」(日野幹雄) 時系列の情報エントロピーと相関行列 「スペクトル解析」(日野幹雄) MEMー最大エントロピースペクトル • スペクトルのフーリエ変換が相関係数であるという Wiener-Khintchineの関係の制約のもとでエントロ ピーを増加させないように未知部分の自己相関係数 を推定する。 「スペクトル解析」(日野幹雄) 実践!気候データ解析 (松山・谷本) 環境解析学特論レポート(山崎分) 以下の最低1つを行うこと。 締め切り7月31日 (1) y の x への回帰直線が以下のようになることを示しなさい。 y S xy S xx x x y (2) 以下にある北極振動指数と日本の気象官署1点のある月 の気象変数(気温とか降水量とか)の相関係数を求め、有意 性を議論せよ。時系列図、散布図もつけること。 http://wwwoa.ees.hokudai.ac.jp/svnam/index.html http://wwwoa.ees.hokudai.ac.jp/svnam/SV-NAM-data.txt (3) △波のフリーリエ級数展開を求めよ。
© Copyright 2024 ExpyDoc