Document

3章 システムのモデリングと分析
まとめ
4401091 山本博人
4401056 田村理遊
1
分担内容(1)







3.1
3.1
3.1
3.1
3.1
3.1
3.1
A
A
A
A
A
A
A
(1)(2)(3)
(4)
(5)
(6)
(7)
(8)
(9)
大野治宜
村山哲治
杉山崇則
山本博人
田村理遊
関洋平
藤岡 和生
2
分担内容(2)







3.1
3.1
3.1
3.1
B
B
B
B
(1)
(2)
(3)
(4)
3.1 C (1)
3.1 C (2)
3.1 C (4)
金川貴一
小倉将
田島紀幸
工保夫
山腰諒一
草間賢一
佐々木祐輔
3
3.1 A システムのモデリング
4501021 大野治宣
4
意味ネットワーク

機械翻訳や自然言語処理の分野では分
野では,分野会話の意味内容をコンピュー
タが取り扱いやすいように表現しなおす。
文や言葉が持つ意味のモデリング
知識表現
知識表現の一つにグラフを用いた意味ネットワークがある。
5
彼女はユタカが芦毛の馬に乗るのを見る。

文が持つ意味内容を命題と呼ぶ。
(ア)『彼女はユタカが芦毛の馬に乗るのを
見る。』
を例文とすれば,
(イ)『馬の毛は芦毛』
(ウ)『ユタカは(イ)の馬に乗る』
(エ)『彼女は(ウ)を見る』
の基本的な3つの命題に分けられる。
6
命題の分析


命題を「実体」,実体の「性質」,実体間の
「関係」の3つで表現する。
例文(ア)では
「実体」・・・「彼女」「ユタカ」「馬」
「性質」・・・「芦毛」
「関係」・・・「乗る」「見る」
となっている。
7
グラフの書き方

関係はある行為の述部になっている。
性質も述部として取り扱う。

述部によって結合つけられる各実体を項と
いう。
一つの命題が項になることもある。
実体・性質・関係をノードでノード間の結合関係
をアーク(リンク)で表現したグラフを意味ネット
ワークと呼ぶ。
8
意味ネットワーク
図3.1 意味ネットワークとリスト
9
リスト



情報プログラミングは一般にデータ構造と
アルゴリズムとの両方を考慮して行われる。
データ構造とはプログラム上での処理対象
の表現形式を言う。
データ構造をコンピュータのメモリに記憶さ
せる形式を記憶構造という
10
データ構造の表示

モデルがグラフで表現される場合,その
データ構造として関係表示行列などの配
列がある。
しかし,配列は大きなグラフになると効率的でなくなる。
一つの属性とそれに対応付けられた属性値との組を
フィールドとぶ。複数のフィールドが1次元的に並んだ
データ構造を線形リストと呼ぶ。
11
リストの記憶構造




リストに対する記憶構造として,単位節を用いる
方法がある。
単位節は識別符,頭部,尾部の3つのフィールド
からなる。
単位節の頭部にはレコードまたはその単位節に
接続する。ほかの単位節の格納アドレスを示す
ポインタが入る。
識別符は頭部の情報がレコードであるかポイン
タであるかを判断する
12
リストの記憶構造 Ⅱ


尾部には他の単位節へのポインタ,または空レ
コードが入る。
図1のリストの記憶構造を図2に示す。
図3.2 リストの記憶構造
13
微分方程式モデル


微分方程式による対象の状態の状態の記
述は理学や工学で馴染み深いモデルであ
る。
対象の状態変化に関係する諸要素間の相
互関係が表現されている。
14
1自由度線形システム


1自由度線形システムの運動方程式は
mX’+cX’+kX=R(t)
(3.1)
で表される。ただし,Xは運動の変位,X’は
Xの時間微分であり,m,c,kは係数,Rは
時間についてのみの関数である。
式(3,1)は励振力を受けるばね系の運動の
モデルである。
15
n自由度への応用



式(3,1)でXとRをn次元ベクトルに,m,c,kはn×
n行列に拡張する。
ベクトル・行列を用いて
X‘=AX+BR
(3,2)
ここで,X=(X,X’)Tであり,A,BおよびRは係
数でそれぞれ行列,ベクトル,スカラーに相当す
る。
式(3,2)を線形システムの状態方程式と呼ぶ
16
状態方程式の一般化


式(3,2)を一般化して
X‘=F(X,R)
(3,3)
を得る。ただし,X’=(X1,・・・,Xn)T,F=
[F1,・・・,Fn]Tである。
式(3,2)(3,3)の形式で状態のモデリングが
できるのを力学系と呼ぶ。ベクトル関数F
の要素に非線形関数が含まれる場合は,
非線形力学系と呼ばれる
17
3.1 A (4) ニューラルネットワーク
のモデル
4401086 村山哲晴
18
ニューロンとそのモデル


脳は非常に多くの神経細胞(ニューロン)
が結合したもの。
非線形力学系の例として,神経回路網
(ニューラルネットワーク)のモデルを示す。
(a) ニューロン
19
ニューロンのモデル


各ニューロンの状態は0から1までの実数値を
とる。
時刻tでのi番目のニューロンの状態Vi(t)は次
の方程式
Vi (t )  Φ[ Ui (t )]
(3.5)
dUi n
  TijVj (t )  Ii
dt
(3.6)
j 1
で記述される
20
(b)ニューロンのモデル
J番目のニューロンよりの入力
TijVj
入力の
総和
Ui
Tij:j番目のニュー
ロンからi番目の
ニューロンへのシ
ナプス荷重
状態
Vi
出力
Vi
自己バイアス
Ii
図3.5 ニューロンとそのモデル
•Uiは他のニューロンよりの入力の総和,Iiは自己バイアスと呼ばれる信号
•係数Tijはj番目のニューロンからi番目のニューロンへ伝達される信号にか
かる重みで,シナプス荷重と呼ばれる
21
ニューロンの入出力関数

ニューロンの入出力関数Φは,0から1までの値をとる単調増加関数であり
1
Φ(U )=
1  e U
(3.7)
のようなシグモイド型の関数が用いられる。
Φ
(U)
図3.6 ニューロンの入出力関数
0
U
このように入力が大きくなるにつれてニューロンの状態は1に近づき,入力
が小さくなるにつれて状態は0に近づく
22
ニューラルネットワークの状態方程式

式(3.5),(3.6),(3.7)から次式が導き出される
dVi dVi dUi

dt
dUi dt
N
 Vi (1  Vi )[ TijVj  Ii]
(3.8)
j 1

各ニューロンiについて式(3.8)を連立させたもの
が,非線形力学系としての各ニューラルネット
ワークの状態方程式となる
23
3.1 A 離散時間モデル
4401045 杉山崇則
Theory of System Design
24
連続時間モデルと離散時間モデル

連続時間モデル(continuous time model)


状態変化は時間的に連続
離散時間モデル(discrete time model)

一定のサンプル時刻ごとの状態変化を扱う
25
一般的な離散時間モデル
ある時間t+1のときの状態は,過去の時間tの
状態に依存する
X(t  1)  AX(t )  BR(t )
X(t  1)  f (X(t ), R(t ))
(3.9)
(3.10
)
26
計量経済モデル(econometric model)

現実の経済活動を離散時間的な状態変数
を考える
27
説明変数と被説明変数
y  a0  a1 x1    an xn
被説明変数
説明変数
28
外生変数と内生変数

連立方程式中で被説明変数となることが
ない変数を外生変数,それ以外の変数を
内生変数と呼ぶ。
29
タイムラグ

t期より過去の内生・外生変数も(t+1)期の
内生変数に影響を及ぼすことがある。この
時間遅れによる影響をタイムラグという
30
システム同定

モデルのパラメータ値の設定は狭義のモ
デリングとみなすことができ,システム同定
という。
31
3.1 A (7) 離散事象モデル
4401056 田村理遊
32
離散事象モデルとは


ある活動が開始したり停止あるいは終了
することを事象という。
関心の中心を事象の世紀におく動的モデ
ルを離散事象モデルという。
例)オートマトン
33
オートマトンの例





状態の集合 Q={q0,q1,q2・・・}
外部からの入力の集合 Σ
遷移関数 δ
初期状態 q0
最終状態 qF
オートマトンはこれら5つの組で表現され
るモデルである
34
改札機のオートマトン状態図
1:入力あり
切符
入力待ち
0:不正
切符
識別
0:入力なし
1:正
切符
排出
0/1
0/1
ゲート
閉
0:通過なし
1:通過あり
ゲート
開
図3.9 改札機のオートマトン
35
改札機のオートマトン状態遷移
表
0
1
q0:切符入力待ち
q1:切符識別
q2:切符排出
q0
q2
q0
q1
q3
q0
q3:ゲート開
q4:ゲート閉
q3
q0
q4
q0
入力
現在の状態
36
3.1 A (8) ペトリネット
4401047 関 洋平
37
ペトリネット(Petri net)が扱うもの
実際的な問題は,
複数の事象がランダムに並列的に同時
進行する
各事象は相互に干渉し合う
実時間の推移に対応する
離散型事象モデル
38
ペトリネットの特徴

ある事象の生起がほかの事象に波及して
いく事象駆動型のモデルである
39
ペトリネットの例



条件p1: パンの数がある
条件p2: バターの量がある
事象t1: 条件p1とp2が成立っている時点
ではパンにバターを塗るという作
業を表す
40
ペトリネットモデル
プレース
アーク
p1
t1 発火
p3
トークン
p2
トランジション
図3.11 事象の生起とそのペトリネット
41
ペトリネットの能力

システムのシミュレーションツール

システムの安全性

解析能力(実体の追跡可能)
42
参照
広島大学
http://www.infonets.hiroshima-u.ac.jp
/research/petri/
43
3.1 A (9) オブジェクト指向モデル
4400097 藤岡 和生
44
① エージェント(agent)
ある役割を担当する者のこと。
人間社会の諸活動の多様性が
エージェント組織に由来するなら,
エージェントの行動様式のモデル化は,
幅広い対象に適用可能なモデリングの
方法論に結びつく。
45
例 3.1 タクシーの配車
メジロタクシー(株)は100台のタクシーを保有している。
本社に顧客のシバタさんから配車依頼の電話が入った。
配車係は, 各車に顧客情報を流した。
何台かがシバタさん宅への到着可能時刻を返答した。
配車係は,それらの中から最も早くシバタさん宅に
到着できそうな車を選び,その車に対して
シバタさん宅への予約走行を指示するとともに,
シバタさんにタクシーの到着予定時刻を連絡した。
46
エージェントのはたらき
エージェントは,他のエージェントたちとの
相互関係の中で自らの役割を果たしていく。
1つのエージェントが受け取る連絡内容は
1種類とは限らないので,連絡内容のパターンに
よって,異なる手続き操作を実行する。
手続きを実行するうえで必要となるデータは,
エージェント自身が保持しているか,
他のエージェントより入手する。
47
② オブジェクト(object)指向
エージェントは人間である必要はない。
人間性を除外すると,エージェントの本質は,
手続きとデータとを保持し,他のエージェントと
連絡しあうモノと考えてよい。
これをオブジェクトと呼ぶ。
48
オブジェクトの機能


メッセージ(message):
オブジェクト間に交わされる連絡のこと
メソッド(method):
オブジェクトが保持する手続き操作のこと
メッセージの受け取りによって起動し,
オブジェクトが保持するデータを加工する。
49
問題を取り扱うアプローチ


オブジェクト指向(object oriented):
オブジェクトを中心にして問題を取り扱う
アプローチのこと
アクション指向(action oriented):
行為,作用などの活動を中心にして
問題を取り扱うアプローチのこと
50
例3.1のタクシー配車のモデル

アクション指向とオブジェクト指向による
2つのモデルを生成してみる。
51
アクション:
顧客より配車依頼を受ける
各車の状態をチェックする
(空走車を探す)
No
Yes
空走車の位置をチェックする
(顧客の位置に最も近い車を探す)
データ:
・各車の状態データ
(賃走,空走,予約走行)
・各車の位置データ
・顧客の位置データ
顧客先への予約走行を
1台に指示する
顧客に連絡する
(予定時刻/遅延)
(a)アクション指向モデル
顧客オブジェクト
メソッド:■配車を依頼する
データ :●顧客データ
・・・
配車
依頼
・・・
回答
メッセージ:
配車係オブジェクト
メソッド:■各車に顧客情報を流す■各社からの回答を分析する
■1台に予約走行を指示する■顧客に回答する
データ :●顧客データ●各車回答データ
メッセージ:
・・・
顧客情報
予約走行指令
回答
タクシーオブジェクト
メソッド:■配車係に回答する
■予約走行する■流し営業をする
データ :●状態データ(賃走,空走, etc.)
●位置データ●顧客データ
(b)オブジェクト指向モデル
図3.12 タクシー配車のモデル
・・・
3.1 B 階層構造
(1)故障関連樹木
4401028 金川 貴一
54
故障関連樹木(fault tree)とは




故障あるいは事故発生メカニズムを階層化した
モデルである。
対象とする事故や故障を頂上事象とし,関連す
る項目を下位事象とする。
頂上事象と下位事象を“AND”あるいは“OR”の
論理で結合していく。
それ以上展開することができない基本事象にい
たるまで結合していく。
55
故障関連樹木の基本記号
要素
AMDゲート
記号
ORゲート
事象
基本事象
図3.1 故障関連樹の基本記号
56
ANDゲートとORゲート
57
例題・電気回路
(a) 電気回路
58
電気回路の故障関連樹木
(b) FT
図3.13 電気回路の故障関連樹
59
3.1 B (2) L-システム
4401024 小倉 将
60
L-システム(1)

発生過程での細胞分裂や生物の形づくり
のモデルにL-システム(Lindenmayer
systems)がある
61
L-システム(2)

L-システムはオートマトンの1つであり,基
本的には,状態Q,書き替え規則δ,初期
状態qo(∈Q)の3つの組< Q, δ ,qo>
で表現される
62
L-システム(3)

L-システムの例として,教科書P.91の
図3.15(a)の5種類の状態に対する書き
替え規則によって,初期状態qoから,図3.
15(b)に示す二進木構造を得ることがで
きる
63
L-システム(4)

L-システムは,階層の入れ子構造によっ
て複雑な形態を生成させるので,単純さの
中に面白さを感じさせてくれるモデルであ
る。また,グラフの生成にも利用できる
64
3.1 B (3) フレーム
4401053 田島紀幸
65
フレームとは,

型にはまった状況を表現
属性および属性値の対の組によって対象
の性質が記述可能であることを言う。

各フレームに上位(もしくは下位)のフレー
ムを示すスロットを設ける
⇒リスト(階層構造)
66
フレームの基本構造
フレーム

スロット(slot)


属性(スロット名)
属性値(スロット値)


スロット1(スロット名)
側面(ファセット,facet)
暗黙の期待値(デフォ
ルト値,default value)
ファセット:データ(スロット値)
スロット2
図3.16 フレーム
67
タクシードライバーのフレーム
メジロタクシードライバーのフレーム
基本動作1
上位フレーム
メソッド:空車走行中にお客に出会えば乗車させる
値:タクシードライバー
基本動作2
給与
・
・
・
値:完全歩合給
・
デフォルト値:基本給+歩合給
・
・
・
・
給与
ユタカ君のフレーム
メジロタクシードライバーのフレーム
上位フレーム
スーパークラス
サブクラス
図3.17
フレームのよる
階層構造の表現
値:メジロタクシードライバー
値:タクシードライバー
現在の状態
給与
値:空車走行
値:完全歩合給
・
・
・
・
サブクラス
インスタンス
68
3.1 B (4) クラスとインヘリタンス
4401050 工 保夫
69
フレームとオブジェクト指向

フレームのスロットにメソッドなどを付加
⇒1つのオブジェクト
フレーム
スロット1
オブジェクト
メソッド:○○○○○
オブジェクト
スロット2

オブジェクト指向の考え方はフレームから
70
i科の学生 フレーム
スロット1
メソッド:学籍番号
スロット2
型
クラス
インヘリタンス
工 保夫 フレーム
実体
スロット1
値:4401050
スロット2
インスタンス
71
タクシードライバーのフレーム
基本動作1
メソッド:
空車走行中にお客に
出会えば乗車させる
基本動作2
スーパークラス
メジロタクシードライバーのフレーム
上位フレーム
値:タクシードライバー
サブクラス
現在の状態
値:完全歩合給
図3.17 フレームによる階層構造の表現
72
まとめ



オブジェクト指向でも,共通した性質をもつ個々
のオブジェクトを汎化してクラスを作る。
クラスに階層構造を持たせる
(スーパークラスやサブクラスなど)
インヘリタンスを利用することで体系化された,
簡明なモデリングが可能になる。
73
3.1 C 入出力のモデリング
4401088 山腰諒一
74
(1) プロダクションシステム
原理に迫らない知識 → 浅い知識
 原理に立ち入った知識 → 深い知識
(深い知識を突き詰めていくといずれ浅い
知識に出会う)

75
プロダクションルール(1)

もし~ならば,という形式を(IF-THEN
ルール) → プロダクションルール
例)プロダクションシステム
プロダクションルール
の集合
作業記憶
インタプリタ
参
照
参照
図3.18 プロダクションシステム
76
プロダクションルール(2)



プロダクションルール集合 → 問題解決の
ための専門知識が格納
作業記憶 → 問題状況のデータの格納
インタプリタ → マッチングして特定のルー
ルを選択する。最後に問題状況を更新。
77
プロダクションルール(3)



メタ知識 → 知識を制御する知識
エキスパートでは
プロダクションルールの集合 → 知識ベース
作業記憶+インタプリタ → 推論エンジン
プロダクションルール+ルールの信頼の度合
を増減させる機能+信頼の度合の小さい
ルールを改良する機能 → クラシフィアシステ
ム
78
3.1 C (2) 産業連関表
4401031 草間賢一
79
産業連関表
経済活動は循環した流れを形成している
(例)電気産業でのコンピュータの生産

生産
分配
支出
80
① 中間投入


コンピュータを製造するために必要な原材
料,部品,エネルギーを他の産業から購入
する
CPU(central processing unit)やメモリ等の
部品を,同じ電気産業内から購入すること
もある
81
② 粗付加価値


原材料を使ってコンピュータの部品や完成
品を生産し,付加価値をつける
付加価値は,賃金や企業の利潤として所
得分配される
82
③ 中間需要


生産されたコンピュータの部品は,同じ電
気産業や機械産業に販売される
完成品もOEM(original equipment
manufacturing,相手先商標製品)として取
引されることがある
83
④ 最終需要



コンピュータは,政府や民間に販売され,
耐久消費財あるいは企業の生産活動のた
めの投資財として使用される
最終財の購入費用は,政府収入や税引き
後の個人法人所得から支出される
部品や完成品は,海外にも輸出される
84
⑤ 輸入

国内需要の何割かは,輸入によって満た
される
85
産業関連表
表3.2 産業関連表
中間需要
需要
産
業
1
産
業
2
産
業
j
産
業
N
最
終
需
要
産業1
W11
W12
W1 j
W1 N
F1
X1
産業2
W21
W22
W2 j
W2 N
F2
X2
産業 i
Wi1
Wi 2
Wij
WiN
Fi
Xi
産業N
WN1
WN 2
WNj
WNN
FN
XN
粗付加価値
V1
V2
Vj
VN
生産額
X1
X2
Xj
XN
供給
中
間
投
入
生
産
額
86
産業連関表の解釈

一定期間中での国内あるいは地域内の産
業部門間の財の取引を金額表示で表す
N
W
j 1
ij
 Fi  X i
(3.14)
が成り立つ,もし Wij  aij X j が成り立つなら
(3.16)
AX+F=X
となる
87
産業連関表の解釈

各産業部門ごとの付加価値の総和
 N

  V j 


 j 1 
を国内総生産(gross domestic product)
 国内総生産は最終需要の総計
 N 
   Fi 
 i 1 
に一致する
88
2003/07/08
3.1 C (4) ニューラルネットワーク
による入出力モデル
4400055 佐々木祐輔
89
ニューラルネットワークとは

人間の脳神経メカニズムをモデル化
し,コンピュータ上で行わせようとした
もので,高度並列分散型の情報処理
の一つと言える。
90
例)荷重に対する柱体の変形の測定
ある柱体に荷重を加え,柱体の
伸び(変形)を測定する.
入力 ・・・ 荷重
出力 ・・・ 変形
91
学習標本
変形
学習標本
a
0
b
荷重-変形特性の入出力モデル
荷重
図 3.21 学習した直線?
92
ニューラルネットワークの種類

1.階層型ネットワーク

2.相互結合型ネットワーク
93
階層型ネットワーク
入力層
出力層
中間層
入力ベクトル
出力ベクトル
VO
VI
図3.22 階層型ネットワーク
94
ニューロン集合の状態ベクトル



入力層 ・・・ VI=(V1I,・・・,VpI)T
中間層 ・・・ VM=(V1M,・・・,VqM)T
出力層 ・・・ VO=(V1O,・・・,VrO)T
VMj =Φ[∑TjimIViI](j=1,・・・,q)
Vok =Φ[∑TkjOMVjM](k=1,・・・,r)
95
誤差逆伝搬法
誤差関数 ∑||VO(S)-φ(VI(S))||2
N組の入出力パターンの学習標本(VI(S),VO(S))
誤差関数が最小になるようにシナプス荷重の値を設定
ニューラルネットワークはN個の入出力パターンを学習
96