脳の学習機構を応用した地位指数推定モデル
ー計算神経科学からのアプローチー
 n H

z j  g w jk x k  w Hjo ,
k1

 h O
O 
y j  g w ij x k  w io 
j1

1
g(u) 
1 eu

京都府立大学大学院 農学研究科 生物生産環境学専攻
森林環境学研究室 美濃羽 靖
Today’s Menu
パターン認識と学習
モデルとNFL理論,識別問題,パラメトリックとノンパラメトリック,
学習モデル
地位指数推定モデル
背景・目的,地位指数とは,既往の研究
分析モデル
重回帰モデル(最小2乗推定)
ニューラルネットワークモデル(最急降下法)
資料・対象地
シミュレーション条件
推定結果
重回帰モデル
ニューラルネットワークモデル
•モデルとは,単にシンプルなほうが良いとか詳細なほうが良い
とかいうものではなく,そのモデルを構築するのに必要なデー
タがどれだけ揃っているか,また,そのモデルによって何を明ら
かにしたいかによって選ぶ必要がある(銅谷,2006)。
ただの昼飯はない定理(No free lunch theorem)
すべての評価関数に適用できる効率の良いアルゴリズムは存
在しない(Wolpert and Macready, 1995)。
(すべての**を満たす**は存在しない)
醜いアヒルの子定理(Ugly ducking theorem)
課題から独立した、あるいは優れた、あるいは最良の特徴量
や属性は存在しない(Watanabe, 1985)。
(醜いアヒルの子とふつうのアヒルの子の類似性,同一ではない2羽のふつう
の子のアヒルの子の類似性と等しい,ことを主張している。つまり,醜いアヒル
の子をふつうのアヒルの子から識別するようなことはどのような特徴を用いても
できない)
パターン分析における識別問題
うまく分離(分類)するた
めには識別線をどこに引
いたらよいでしょうか?
A
B
ペンを渡されたら…..
じゃあ,なぜ,こう引かないのか
大半の人はこんな
風に線を引くだろう
クラスAの周りの領域がクラスBのデータの周り
の領域より大きすぎるから
→「クラスBの汎化能力が低くなる」
最も適した識別境界を見つける
◆ パラメトリックな方法
母集団の特性を規定する母数についてある仮説を設定する。パターン
分析的には,統計的な学習データの分布を考えて識別境界を引く方法
母集団
分布型は既知(あるいは仮定)
◆
サンプル
未知データに対する予測
の信頼性をある程度,保
証できる。ただし,母集団
が既知なのは稀。
ノンパラメトリックな方法
集団の分布型(母数)について一切の仮定を設定しない。パターン分
析的に言えば,与えられた学習データをすべて正しく識別できるよう
にする方法
サンプルが母集団。未知デ
ータに対する予測は信頼さ
れない(汎化性の問題)
母集団
分布型は問わない
サンプル
3つの主な学習の枠組み
◆
(銅谷,2006)
目標出力
教師あり学習
入力に対する正しい出力が教師信号として与えられ,
実際に出した出力との誤差信号がゼロになるように
学習が行われる(パーセプトロン)。
◆
強化学習
入力
教師信号
出力
いつどこでどういう出力を出せば良いかという具体的な教師信号は与えら
れない。その代わり,実際に出してみた出力に対して,それがどれくらい
良かったかを示す「報酬信号」が与えられ,これをなるべく大きくするよ
報酬信号
うに探索的に学習が行われる,
動物や人間の試行錯誤的な行動学習の
過程のモデル
◆
教師なし学習
入力
出力
どういう出力を出すべきかは全く教えられない。それでなぜ学習できるか
というと,入力信号の統計的な分布に着目し,データをクラス分けしたり,
成分に分解したりという形で学習が行われる(クラスタリング,自己組織
化マップ,主成分分析,独立成分解析)
高次元のデータの圧縮,解析の前処理
入力
出力
背景と目的
「林地生産力」とは林地に成立
する樹木の成長。立地条件の
差異に大きく影響される
立地条件を表す情報
と
林地生産力を示す指標
とを結びつけることができれば,森
林経営計画を立案する上で非常に
有益な情報となる。
樹高情報
標高,地形,
斜面方位,
土壌環境など
地位級、地位指数とは
樹高によって表される林地生産
力を「地位指数」といい,対象地と
なる林分において基準林齢時(例
えば40年)の主林木の平均樹高
で表す。「地位級」とはこれらをク
ラス分けしたもの(地位1級、2級
etc)(南雲・箕輪,1990)。
伸長成長(樹高)は肥大成長(
直径)に比べ,立木密度の影響を
受けにくい,すなわち,間伐等の
施業の影響が生じにくいため,樹
高は林地生産力を表す指標とし
て利用される(渡辺ら,1966)。
地位指数推定についての既往の研究(これまでの流れ)
地位級の推定
収穫表の利用(竹下ら,1966;山根ら,1990)
地位指数の推定
1.現地調査から得られた地形因子・土壌因子を用いる。
解析には数量化I類(隅谷,1970)、重回帰分析(吉田,1985)
を適用
2.地形図上で地形因子を判読
50m×50mのメッシュ→重回帰分析(寺岡ら,1990)
3.数値地図50mメッシュから地形因子を判読
DEM法(村上ら,2000;Mitsuda et al.,2001)
GIS、重回帰分析
問題点
•データの中にカテゴリカルなデータが混在する
•線形と仮定している→関数型の検討が必要
(しかし,自然界の現象の多くは,非線形の微分方程式に支配される複雑
なシステムとして記述できると予想され(寅市,1993),分布型や関数型を
導くことが困難な場合が多い)
関数型を仮定することなく,モデルを組み立てら
れる方法として,ニューラルネットワークを適用
研究方法
入力データ
出力データ
GISから算出し
た地况情報
実測樹高
解析方法
1.重回帰モデル
2.ニューラルネットワークモデル
AIC,相関係数を用いたモ
デル選択
地位指数推定図
(地位級推定図)
地形因子
•Curveture:C 斜面の凹凸を示す指数
•傾斜角: S 現地にて実測
•ln(tan(傾斜角)): tanS
•ln((flow accumalation+1/400)*400): SCA 集水域積算
•Hillshade: SR 陰影起伏
Iverson(1997)より方位202°,入射角45°として算出
•Solar flux: PSI 日射量(J/m2)
Richら(1994)が開発したプログラム「SOLAR FLUX」より算出
•Wetness指数: WI 傾斜角と水分濃度を示す指数
= ln(flow accumalation /tanβ)
flow accumalation
斜面上の水分濃度を示す
(Mitsuda et. al., 2001)
調査対象地
東京大学大学院農学生命科学研
究科附属 科学の森教育研究セン
ター 千葉演習林
日本最初の大学演習林(1894年に創設)
面積: 2,171ha(人工林h865aha)
暖かさの指数: 109 〜 126 ℃
寒さの指数: 0 〜 -3 ℃
真冬の月平均気温: 4℃
真夏の月平均気温: 25℃
年平均気温: 14.2℃
年雨量: 2,000 〜 2,400 ㎜
標高: 50 〜 370 m
地質:新第三紀海成層
(部分的に第四紀非海成層)
植物相:木本類が約280種,
草本類が約800種
(うちシダ類を150種含む)
(千葉演習林パンフレット,2002)
調査データ
スギ人工林内から無作為にプロットを抽出,斜面方向に尾根から沢までの距離
を測り,20mごとに点を設置し,スギの至近木を3〜5本,樹高および胸高直径
を計測(樹高25m程度を境に,高い場合は3本,低い場合は5本)。林齢がバラ
バラなため,以下の樹高成長曲線式を用いて,40年生時の樹高を推定した。
(伊藤,2003) 。
h(t)=M(1-1.029exp(-0.0215t))(M:パラメータ,t:林齢)(白石,1985)
(サンプル数) 斜面数 = 12地点,測定点 = 60
(予測数)
71324点 (メッシュサイズ20 x 20 m)
îÕàÕ
óùò_íl
é¿ë™íl
C
S
tanS
SCA
SR
PSI
WI
ínà éwêî(SI)
ç-è¨íl
-9.3
0.0
-11.4
0.0
0.0
8.6
-0.1
5.0
ç-ëÂíl
16.6
52.8
0.2
16.7
255.0
35.2
18.5
30.0
ç•
25.9
52.8
11.6
16.7
255.0
26.6
18.6
25.0
ç-è¨íl
-6.6
14.1
-1.4
0.0
85.0
15.8
0.0
10.6
ç-ëÂíl
4.9
47.4
0.1
11.0
247.0
34.8
11.9
26.3
ç•
11.6
33.3
1.5
11.0
162.0
19.1
11.8
15.8
GISによる各地形因子データの算出結果
QuickTimeý Dz
èkǻǵÅj êLí£ÉvÉçÉOÉâÉÄ
TIFFÅià•
ÅB
ǙDZÇÃÉsÉNÉ`ÉÉǾå©ÇÈǞǽDžÇÕïKóvÇ­Ç•
Curveture
S
GISによる各地形因子データの算出結果
QuickTimeý Dz
TIFFÅià•
èkǻǵÅj êLí£ÉvÉçÉOÉâÉÄ
ǙDZÇÃÉsÉNÉ`ÉÉǾå©ÇÈǞǽDžÇÕïKóvÇ­Ç•
ÅB
SCA
QuickTimeý Dz
TIFFÅià•
èkǻǵÅj êLí£ÉvÉçÉOÉâÉÄ
ǙDZÇÃÉsÉNÉ`ÉÉǾå©ÇÈǞǽDžÇÕïKóvÇ­Ç•
ÅB
SR
GISによる各地形因子データの算出結果
QuickTimeý Dz
TIFFÅià•
èkǻǵÅj êLí£ÉvÉçÉOÉâÉÄ
ǙDZÇÃÉsÉNÉ`ÉÉǾå©ÇÈǞǽDžÇÕïKóvÇ­Ç•
ÅB
PSI
QuickTimeý Dz
TIFFÅià•
èkǻǵÅj êLí£ÉvÉçÉOÉâÉÄ
ǙDZÇÃÉsÉNÉ`ÉÉǾå©ÇÈǞǽDžÇÕïKóvÇ­Ç•
ÅB
WI
重回帰モデルによる地位指数推定
説明変数
目的変数
環境変数(地形因子etc)
n
y   (ai x i ) + b 0
i1
地位指数(実測樹高)
y : 実測樹高(目的変数)
x : 地形因子(説明変数)
a,b: パラメータ
全組み合わせの中から,統計値,相関係数などを参考にいくつか
候補となるモデルを選択する。
多重共線性の問題(Chatterjee and Price, 1981)
→相関が高い因子は,どちらかをモデルから取り除く
Stone-Weierstrassの近似定理(竹内,1989)(いかなる連続写像も多変数多項式
によって近似できる)
→冗長なモデルを構築しない
最小二乗推定(Ordinary Least Square Estimate)
Y
ei  Yi  Yˆi
Yi
重回帰分析のパラ
メータを解析的に
求める際に利用
↓
解は一意的に決定
する。
Yi


0
Residuals
Yˆ  a  bX
Xi
X
ei  Yi  Yˆi  Yi  a  bX i (i =1,2,...,n)
Select a, b to make
 ei   (Yi  a  bXi ) = 0
Select
 a, b to minimize Σei
 ( e 2 )  ( e 2 )

0
a
b
重回帰モデルによる地位指数推定図
(Multi Reg Model 1)
SI=0.561*WI-0.024*SR
+19.846
(Multi Reg Model 2)
SI=0.473*SCA-0.110*S
-0.024*SR+24.093
R=0.6870 SSE=2.455
R=0.7211 SSE=2.360
推定結果に対する問題点
(残差分析より)
6.0000
② 推定結果に偏りが見られる
(低い樹高は過大に,高い
樹高は過小に)
4.0000
é¿ë™íl-ó\ë™íl
2.0000
ó\ë™íl
0.0000
10.00
6.0000
12.00
14.00
16.00
18.00
20.00
22.00
24.00
-2.0000
26.00
4.0000
過小
-4.0000
-6.0000
① 一見,うまく推定でき
ているように思えるの
だが…
é¿ë™íl-ó\ë™íl
2.0000
é¿ë™íl
0.0000
10.00
-2.0000
12.00
14.00
16.00
18.00
20.00
22.00
24.00
26.00
28.00
過大
-4.0000
-6.0000
ほとんど中程度の地位に
なってしまう。
モデル選択,サンプリングサイズ
(Duda et.al.,
2001)
オッカム(Occam)のカミソリ:より簡単な識別器の選択
パラメトリック→χ2検定,
ノンパラメトリック→AIC (=-2*最大対数尤度+2K K:パラメータ数)
偏り-分散ジレンマ(偏り-分散トレードオフ):訓練データに対する
柔軟性の高い手続き(例えば多くの自由パラメータを持つ手続き)
は,偏りは小さくなるが分散は大きくなる傾向を持つ
D [(g( x;D) - F(x)) 2 ] = (D [g( x;D) - F(x)]) 2 + D [(g( x;D) - D [g( x;D)]) 2 ]
偏り2
分散
データ数の問題
ジャックナイフ,ブートストラップ,m重交差検証法(Duda et.al., 2001)
テストサンプル推定法(大滝ら,1998),交差検証推定法(Quinlan,1993)
ニューラルネットワークモデルによる地位指数推定
人間の脳は約1011個以上の神経細胞(ニューロン:neuron)と約1015個のシナプス
(Synapse)結合から成る巨大なネットワークで構成されている。ニューロンはシナプス結合
を通じて他のニューロンからの信号を受け取り,その総和があるしきい値を越えると発火
し,その発火した信号は軸索(Axon)を通じて他のニューロンに伝達される。このプロセス
を単純化してニューロンを簡単なモデルで表すと,ニューロンはシナプス結合の強さを示
す重み係数(シナプス荷重)としきい値およびニューロンの入出力特性関数だけで記述す
ることができる(星ら,1990)。
Brain
Neuron
脳の情報処理システムを数学的に表現すると
z1
x1
y1
zj
xn
ym
zh

 h O
n

 n H
T
T
H 
O 
y(t)  1  wixi(t)   1w x(t)    z j  g w jk x k  w jo , y j  g w ij x k  w io 
k1

i1

j1

1
1 if u > 0
g(u)

u
1u  
1
e
0 otherwise

モデル
このモデルは非常に単純であるため,コンピュータ・プログラムで容易にシミュレー
トすることができる。さらに,これらをたくさん用意し接続すると神経回路網全体のモ
デルが出来上がる。このような神経回路網のシミュレーションモデルをニューラルネッ
ト(artificial neural network),ニューラルネットを使った計算をニューロコン
ピューティング(neuro-computing)と呼んでいる(星ら,1990)。
応用範囲
学習・認識・直感・類推を得意とする。用途としては,パターン処理・運動処理・曖
昧処理・連想記憶などがある。特徴としては,並列分散処理・自己組織化機能・学習の
一般化能力・情報の分散表現性などがあげられる(星ら,1990) 。
排他的論理和の問題
ì¸óÕ
X
0
1
0
1
Y
1
0
0
1
èoóÕ
Z
1
1
0
0
期待される応用分野例(中野ら,1989)
êŽëÃÇÃèÓïÒèàóùÇ…ä÷Ǎ
ÇÈâûópï™ñÏ
Å@Å@âÊëúèàóùÅFïŽéöîFéØ ÅCå`èÛîFéØÅCâÊëúà
è kÅCïŽéöêŽê¨
Å@Å@âšê
è àóùÅFâšê
îFéØÅCòbé“îFéØÅCâšê
óùâ¾ÅCâšê
ç áê¨
Å@Å@é©ëRåæåÍèàóùÅFé©ëRåæåÍâ¾êÕÅCêŽê¨ÅCã@äBñ|ñÛ
Å@Å@â^ìÆêßå‰ÅFÉçÉ{ÉbÉgêßå‰
Å@Å@ǪÇÃëºÅFà‚ì`éqèÓïÒèàóùÅCñ°äoîªï é–âÔÉVÉXÉeÉÄÅCéYã²ÉVÉXÉeÉÄÇ…ä÷Ǎ
ÇÈâûópï™ñÏ
Å@Å@ÉGÉLÉXÉpÅ[ÉgÉVÉXÉeÉÄÅCÉfÅ[É^ÉxÅ[ÉXåüçÐ ÅCäîâøó
Å@Å@ésèÍó\ë™ÅCÉ|Å[ÉgÉtÉHÉäÉIÅCêfífÉVÉXÉeÉÄÅià„ó¦ÅCåÃ
Å@Å@ç-ìKåoòHëIë¾ÅCé©ìÆâ^çsÉVÉXÉeÉÄÅCÉvÉçÉZÉXêßå‰
Å@Å@ÉtÉ@ÉNÉgÉäÅ[ÉIÅ[ÉgÉÅÅ[ÉVÉáÉì
ǪÇÃëºÇÃï™ñÏ
Å@Å@ínãÖâ»äwÅFãCè€ó\ë™ÅCínêkîgå`ï™êÕÅCínêkó\ímÅCéëåšíTí
Å@Å@å‚äyÅEÉQÅ[ÉÄÅFÉQÅ[ÉÄÇÃêÌèpäwèKÅCâ^ê®îªíf
評価関数を最適とするようなパラメータを求める
→最急降下法(Steepest Descent Method)
t番目の入力x(t)に対する出力y(t)の二乗誤差は
E(t) 
1
1m
2
y(t)  yˆ (t)   (y i (t)  yˆ i (t))2
2
2 i=1
E(w)
で与えられる。最小二乗誤差学習では,
解析的にパラメータを求められない時
に利用
↓
解は更新回数や初期値によって異なる
1 T
E   E(t)
T t1
を最小にするような結合荷重を探す。しかし,
これらは陽に解けないので,ある適当な初期値
(初期パラメータ)からはじめて,その値を繰り返

し更新する(修正する)ことにより,最適なパラメ
ータの値を求める方法を行う。
wi (t 1) = wi (t) - 

E(w(t))
E(t)
w i

E(w(t))における
Wi方向の傾き
E(t)
wi
E(w)を最小化する場合
E(t)
wi
E(w)を最大化する場合
wi (t 1) = wi (t) + 
E(t)
wi
傾きが負→Wiを正の方向
E(w)は小さくなる

最小化の場合
w(t) w(t+1)
E(w)を時刻tにおけるE(w(t))を通るwi-E(w)平面に平行な面で切った図
入力パターン:Ii(0≦Ii≦1,i=1〜L),入力層のi番目のニューロンから
中間層のj番目のニューロンへの結合係数:Vji(j=1〜M)),中間層のj
番目のニューロンが持つしきい値:Aj,中間層からの出力値:Hj
L


1
2
H j  f Vij  Ii  A j , f (x) =
, f (x) =  f (x)  (1 f (x))
2x

i1

0
1 +exp(- )
0
入力データ
入力層
中間層のj番目のニューロンから出力層のk番目のニューロンへの結合
係数:Wkj(k=1〜N),出力層のk番目のニューロンが持つしきい値:Bk,
出力層からの出力値:Ok
M


Ok  f  W kj  H j  Bk 

j1

出力パターンOkと入力パターンIiに対応する教師信号Tk(0≦Tk≦1)と
の誤差二乗和E
1N
2
E   Tk  Ok 
2 k1
I1
I2
Vji
中間層
A1
H1
A2
と表される。これらの修正量を最級降下法によって求めていく。
AM
HM
H2
Wkj
このEが最小になるように各ニューロンの結合係数およびしきい値を修
正することで学習が進む。
中間層の結合係数およびしきい値の修正量をΔVji,ΔAjとおくと,修正 出力層 B1
前の結合係数およびしきい値をoldVji,oldAj,修正後の結合係数および
O1
しきい値をnewVji,newAjとして,
newVij  oldVij    V ji, new A j  old A j    A j
と表される。ただし,α,βはそれぞれ結合係数およびしきい値の学習係数
である。αおよびβは大きい値をとると修正量も大きくなり学習も進むが,
誤差最小の点に収束しない可能性がある。出力層についても中間層の
場合と同様に,
newW kj  oldW kj    W kj , new Bk  old Bk    Bk
IL
T1
B2
BN
O2
出力データ ON
T2
TN
教師データ
Backpropagation Method
(誤差逆伝搬法)
シミュレーション条件
ニューラルネットワークにはStepwise法のよう
な変数選択法が存在しないので
äwèKïÞñ@
ÉoÉbÉNÉvÉçÉpÉQÅ[ÉVÉáÉìñ@ÅiåÎç•
ã tì`î¿ñ@ÅjÅiRumelhart et.al.,1986)
ÉvÉçÉOÉâÉÄ
ÅuÉèÅ[ÉNÉXÉeÅ[ÉVÉáÉìî-äKëwå^ÉjÉÖÅ[ÉâÉãÉlÉbÉgÉèÅ[ÉNç\ízÉvÉçÉOÉâÉÄ(NEURO92)ÅvÅiízèÈÇÁ
ëgÇ›çáÇÌÇš
C
C:Curvature
{S, tanS}ÇÃàÍïÞ
S:åXéŒäp tanS:LN(tan(åXéŒ))
{SCA, SR}ÇÃàÍïÞ
SCA:ln((flow accumulation+1/400)*400) SR:Hliishade
{PSI, WI}ÇÃàÍïÞ
PSI:Solar flux WI:wetnesséwêî
ÉÇÉfÉã
ÇRí ÇË
ÇSàˆéqÉÇÉfÉãÅAÇRàˆéqÉÇÉfÉãÅCÇQàˆéqÉÇÉfÉã
ÉpÉâÉÅÅ[É^
ÇSí ÇË
Ö@ÅDÉø=É¿=0.3Å@ǩǬÅ@ÉAÉjÅ[ÉäÉìÉOdžÇËÅCÖAÅDÉø=É¿=0.3Å@ǩǬÅ@
ÖBÅDÉø=É¿=0.2Å@ǩǬÅ@ÉAÉjÅ[ÉäÉìÉOdžÇËÅCÖCÅDÉø=É¿=0.2Å@ǩǬÅ@
íÜä‘ëwêî
ÇSàˆéqÉÇÉfÉã 1ÅCÇQÅCÇRÅCÇTÅCÇVÅCÇX
ÇRàˆéqÉÇÉfÉã 1ÅCÇQÅCÇRÅCÇTÅCÇV
最急降下法は,誤差超曲面の最小値に
達することを必ずしも保証していない。
よって,極小値に達したままそこから抜
ÇSí ÇË
1,000âÒÅC10,000âÒÅC100,000âÒÅC200,000âÒ
け出すことができず,それ以上学習が
ÇSàˆéqÉÇÉfÉã
768
進まなくなることがある(中野ら,1989)。
ÇRàˆéqÉÇÉfÉã
1600
その回避方法として,simulated
annealing(シミュレーションによる焼き
ÇQàˆéqÉÇÉfÉã
1152
鈍し)を用いる(築城ら,1993)。
çáåv
3520
ÇQàˆéqÉÇÉfÉã 1ÅCÇQÅCÇRÅCÇT
äwèKâÒêî
ëgÇ›çáÇÌÇšêî
ëIë¾åãâ
24í ÇË
Åi = 2x3x4Åj
AICDzëää÷åWêîÇÃç-LJó«Ç©Ç¡ÇžÇ‡ÇÃǾÅiÇQí ÇËÅjÅCǪÇÍǺÇÍ
ÉÇÉfÉãï ÅiÇRí ÇËÅjÅCäwèKâÒêîï ÅiÇSí ÇËÅjÇ…íäèo
学習結果
ÉÇÉfÉã
ÇSàˆéqÉÇÉfÉã
ÇRàˆéqÉÇÉfÉã
ÇQàˆéqÉÇÉfÉã
äwèKâÒêî
AIC
íl
Åiëää÷åWêîÅj
ëää÷åWêî
ÉÇÉfÉã
íl
ÉÇÉfÉã
1,000times
-265.37
(0.7245)
C_S_SCA_SR_h1_p3a_1000
0.7645
C_S_WI_SR_h5_p3na_1000
10,000times
-270.20
(0.8084)
C_S_SCA_SR_h2_p2na_10000
0.8838
C_S_WI_PSI_h9_p3na_10000
100,000times
-322.19
(0.9786)
C_S_SCA_PSI_h9_p3a_100000
0.9786
C_S_SCA_PSI_h9_p3a_100000
200,000times
-337.62
(0.9798)
C_S_SCA_PSI_h9_p3a_200000
0.9798
C_S_SCA_PSI_h9_p3a_200000
1,000times
-265.63
(0.7175)
S_SCA_SR_h1_p3a_1000
0.7386
S_SCA_SR_h7_p2a_1000
10,000times
-267.07
(0.7793)
S_WI_SR_h2_p2a_10000
0.8169
C_S_SR_h7_p2a_10000
100,000times
-273.21
(0.8076)
S_SCA_SR_h2_p3a_100000
0.9114
C_S_PSI_h7_p2a_100000
200,000times
-276.09
(0.9252)
C_S_PSI_h7_p2a_200000
0.9256
C_S_PSI_h7_p2na_200000
1,000times
-262.94
(0.6946)
WI_SR_h1_p3na_1000
0.7072
WI_SR_h3_p3na_1000
10,000times
-262.99
(0.6945)
WI_SR_h1_p2a_10000
0.7544
C_SR_h5_p2na_10000
100,000times
-264.23
(0.7520)
S_WI_h2_p3a_100000
0.7910
C_SR_h5_p3na_100000
200,000times
-265.51
(0.7521)
S_WI_h2_p2na_200000
0.7947
C_SR_h5_p3na_200000
偏りについて((実測値ー予測値)と実測値との関係より)
黒:重回帰分析とほぼ同じ傾向を示す。
緑:若干偏りが見られる。
赤:ほとんど、偏りが見られない。
ニューラルネットワークモデルによる地位指数推定 - 2因子モデル -
①.(WI,SR)
h=1,lt=1,000
R=0.6946
最適AICモデル
②.(C,SR)
h=5,lt=200,000
R=0.7947
相関係数最高モデル
ニューラルネットワークモデルによる地位指数推定 - 4因子モデル -
③.(C,S,SCA)
h=1,lt=10,000
R=0.8838
④.(C,S,SCA,PSI)
h=9,lt=100,000
R=0.9786
6.0000
4.0000
4.0000
2.0000
2.0000
0.0000
10.00
12.00
14.00
16.00
18.00
20.00
22.00
24.00
26.00
é¿ë™ílÅ[ó\ë™íl
é¿ë™ílÅ|ó\ë™íl
6.0000
28.00
é¿ë™íl
①
-4.0000
4.0000
2.0000
2.0000
12.00
14.00
16.00
18.00
20.00
22.00
24.00
26.00
28.00
é¿ë™íl
-2.0000
é¿ë™ílÅ[ó\ë™íl
4.0000
-6.0000
16.00
18.00
-4.0000
-6.0000
6.0000
-4.0000
14.00
20.00
22.00
24.00
26.00
28.00
é¿ë™íl
-6.0000
6.0000
0.0000
10.00
12.00
-2.0000
-2.0000
é¿ë™ílÅ[ó\ë™íl
0.0000
10.00
0.0000
10.00
②
12.00
14.00
16.00
18.00
20.00
24.00
26.00
28.00
é¿ë™íl
-2.0000
③
22.00
-4.0000
-6.0000
④
考察と今後の課題
地形因子について
Wetness指数などの水分濃度を示す因子が有効。
その他の関連因子の検討
有効起伏量(地水中の大小),有効貯留容量(水の表面流に関する貯留能力),
露出度(林分における水の蒸発散量),累積流量(降雨発生時,注目地点にお
いて単位時間当たりに流れ込む地表水流量)
モデルについて
1.ニューロモデルのいくつかは使えそうである。ただし、汎化性(過学習)の問題
2.サンプルデータについて(低い樹高のサンプルが少ない)
その他
1.重回帰,ニューロ以外のモデルの利用
ex) SVM:サポートベクターマシン
機械学習モデル:Expert System, CART, C4.5
2.モデル選択の方法
ex) 交差検証法
3.サンプルデータの追加