スライド 1

言語処理学会第15回年次大会チュートリアル
生成文法の考え方と検証の方法
上山あゆみ(九州大学)
http://www.gges.org/ueyama/
生得的な言語生成装置の存在
 生成文法(Generative Grammar)
Noam Chomsky (1928~
)
「私たちがどうやって言語を習得できたのか、
どうしてそんなことが可能なのか?」
×「単に真似て反復して覚えていく」
○「頭の中に生得的に、語彙を組み合わせて
文を形成する仕組みがある」
2
言語能力のモデル
(1)
(いくつかの単語の集合)
numeration
Computational
System
PF(単語を構造化した、
音関連の表示)
LF
(単語を構造化した、意味関連の表示)
3
「文法性」
 文法的な文 = Computational Systemから
生成可能な文
 非文法的な文 = Computational System
から生成不可能な文
 Computational System = 「言語としての可能
性の極限」を体現しているもの
4
生成文法の目的
 Computational System = numeration(いく
つかの"単語"の集合)から文を作る仕組み
 単語(=語彙項目)... 素性の束
 音韻素性
 形式素性
 意味素性
 Lexicon = 語彙項目の脳内データベース
5
生成文法の目的
 生成文法の目的 = Computational
Systemの仕組みを明らかにすること
(3)
 どのような素性を持った語彙項目が
 どのような操作を経て
 どのような構造が形成されるのか。
6
もし、文法性が観察できたら。。。
1.文法的な文と非文法的な文の分布を観察す
る。
2.文法的な文を生成し、非文法的な文を生成し
ないように、Computational Systemの仮説を
たてる。
3.その仮説からどのような予測が導き出される
かを考える。
4.その予測を検証する。
5.その検証の結果に基づいて、さらに研究を進
める。
7
しかし、現実は。。。
 実際に観察可能なのは、文法性ではなく、容
認可能性しかない。
↓
 容認可能性の感覚が生じるという行為の中に
直接Computational Systemが組み込まれた
モデルを考えるしかない
8
(perceived) phonetic strings
(5)
Lexicon
word recognition
Parser
frequent
patterns
numeration
formation
(formal)
features
numeration
Computational
System
PF
Phonology
(generated)
phonetic
strings
LF
Information
Extractor
Concepts
Inference
SR
Working
Memory
input/output
influence
algorithm
database
Information
Database
reference
9
γという解釈で文αが容認可能かどうか考える
(6)
判断されるべき提示文
Parser
Computational System
Information
Extractor
SR
知識状態の変化
10
提示文α と 指定された解釈γ
判断される提示文(α)
P
(7)
α:トヨタが あそこの下請けを 訴えた
C
Ⅰ
γ:「トヨタ」と「あそこ」が同じものを指示
する
11
Parser
α
α:トヨタが あそこの下請けを 訴えた
Parser (P)
 「トヨタが」は「訴えた」の項である。
C
 「あそこの」は「下請けを」に係る。
 「下請けを」が主要部である句は「訴えた」の
Ⅰ
項である。
 「トヨタ」と「あそこ」とは同じ指標を持つ。
→ numeration の形成へ
12
Computational System
α
(9)
P
numeration μ:
{トヨタ1が, あそこ1の, 下請け2を, 訴えた}
LF(μ), PF(μ)
Computational System (C)
トヨタ1が
Ⅰ
NP2
あそこ1の
訴えた
下請けを
13
SR(μ)
α
P
C
α:トヨタが あそこの下請けを 訴えた
SR1
SR2
SR3
SR4
訴えた(x2)(x1)
x1:トヨタ
x1:あそこ
x2:下請け(x1)
Information Extractor (Ⅰ)
14
LF と SR の対応
LF(μ)
トヨタ1が
NP2
あそこ1の
訴えた
下請けを
15
LF と SR の対応
LF(μ)
トヨタ1が
NP2
あそこ1の
訴えた
下請けを
16
LF と SR の対応
LF(μ)
トヨタ1が
NP2
SR3
x1:あそこ
x1
訴えた
下請けを
17
LF と SR の対応
LF(μ)
トヨタ1が
NP2
SR3
x1:あそこ
x1
訴えた
下請けを
18
LF と SR の対応
LF(μ)
トヨタ1が
x2
SR3
x1:あそこ
SR4
x2:下請け(x1)
訴えた
19
LF と SR の対応
LF(μ)
トヨタ1が
x2
SR3
x1:あそこ
SR4
x2:下請け(x1)
訴えた
20
LF と SR の対応
LF(μ)
x1
SR2
x1:トヨタ
SR3
x1:あそこ
SR4
x2:下請け(x1)
x2
訴えた
21
LF と SR の対応
LF(μ)
x1
SR2
x1:トヨタ
SR3
x1:あそこ
SR4
x2:下請け(x1)
x2
訴えた
22
LF と SR の対応
SR1
訴えた(x2)(x1)
SR2
x1:トヨタ
SR3
x1:あそこ
SR4
x2:下請け(x1)
23
LF と SR の対応
LF(μ)
SR(μ)
SR1
訴えた(x2)(x1)
SR2
x1:トヨタ
SR3
x1:あそこ
SR4
x2:下請け(x1)
トヨタ1が
NP2
あそこ1の
訴えた
下請けを
24
想定されているSRの姿
(14) 想定されているSRの姿
 SRの集積が談話全体の意味(もしくは、その人
の知識)とみなしうる。
 eventualityを表すSR-clauseとpredicationを表
すSR-clauseとから成る。
 定められた機械的な方法で、LF表示から派生可
能である。
25
観察可能なものは何か
 LF表示 ... 観察不可能
 1つの文の内容を理解する前の知識状態と
理解したあとの知識状態との差分
...原則的に、観察可能なはず。
 これはSRについての仮説をたてる材料になる。
26
研究の進め方
(15)a.<記述> 目指すSRの記述
b.<統語論> a.を生み出すような、LF
/Computational Systemの操作/
numerationについての考察
c.<語用論> b.のLFからa.のSRが出て
くるような、Information Extractorの操
作についての考察
d.<統語解析> 提示文からb.の
numerationが出てくる仕組みの考察
27
問題
 提示文の内省的な容認性判断 などというも
のをデータにしてもいいのか!?
→ 私の意見:
適正に処理しさえすれば、かまわない。
28
容認性の度合いに影響する要因
(16) γという解釈のもとでのαという提示文の容
認性の度合い
 そもそも、γの指定を満たすようなSRが出力され
たかどうか
 γの指定を満たすようなSRが出力されたとしても、
それがどの程度難しかったか
 γの指定を満たすようなSRが出力されたとしても、
それがどの程度不自然か
29
容認可能性の度合いβ
α
P
[G] = 出力がある(1)か無い(0)か
[P] = Parsingの困難度
[Ⅰ] = SRの不自然度
βは、0≦β≦1の値だとする。
C
Ⅰ
 [G] = 0 ならば、β = 0
 [G] = 1 ならば、
β = [G] — [P] — [Ⅰ]
30
[G]が 0 になる場合 → β=0
(19) a. parsingが失敗して、numerationを作れ
なかった場合
b. (parsingは成功したが)LF/PF の派
生の途中で破綻した場合
c. (parsingも成功し、LF/PFも派生した
が)SRの派生で失敗した場合
d. (parsingも成功し、LF/PFも派生し、
SRも派生したが)そのSRがγの指定を満たし
ていない場合
31
文法性と容認性の対応関係
(20) a. 文法的な文の場合には、0≦β≦1
b. 非文法的な文の場合には、β=0
 Lexicon や(Parser が参照する)frequent
patterns は非常に可塑性が高い。
↓
 むしろ、(20a) vs. (20b) という差に注目するこ
とによって、理論の検証を行うべきである。
32
検証結果パターンA
 Case A
β
文法的な文1
文法的な文2
文法的な文3
1
1
1
β
非文法的な文1
非文法的な文2
非文法的な文3
…
0
0
0
…
→ まったく予測通り
→ 問題なし
33
検証結果パターンB
 Case B
β
文法的な文1
文法的な文2
文法的な文3
0.6
0.5
0.7
β
非文法的な文1
非文法的な文2
非文法的な文3
…
0.5
0.7
0.6
…
→ まったく差がない
→ この理論に対する経験的裏づけはない
34
検証結果パターンC
 Case C
β
文法的な文1
文法的な文2
文法的な文3
…
0.5
0.3
0.4
β
非文法的な文1
非文法的な文2
非文法的な文3
0
0
0
…
→ 左右の差そのものは必ずしも大きくない
35
検証結果パターンD
 Case D
β
文法的な文1
文法的な文2
文法的な文3
…
0.8
0.7
0.6
β
非文法的な文1
非文法的な文2
非文法的な文3
0.3
0.4
0.2
…
→ 左右の差だけならば、Cと同じ
→ しかし、非文が 0 になっていない
↑致命的
36
検証結果パターンC
 Case C
β
文法的な文1
文法的な文2
文法的な文3
0.5
0.3
0.4
β
非文法的な文1
非文法的な文2
非文法的な文3
…
0
0
0
…
→ 非文がちゃんと 0 になっている
↑合格 !
37
文法性と容認性
(20) a. 文法的な文の場合には、0≦β≦1
b. 非文法的な文の場合には、β=0
非文法的な文を容認可能と感じてしまう場合
もあるものなのではないのか?
↓
それは、実は、提示文αではなく、α’を生成して
しまっている場合である。
38
判断者の要件1
 提示文αと自分が生成した文との違いに気が
つける人でなければならない。
たとえば、
a.
ジョンがメアリを誘った。
b.
ジョンをメアリが誘った。
39
 a. ジョンが批判したのは、アメリカの金融政
策をだった。
b. ジョンが批判したのは、アメリカの金融政
策だった。
 a. かなりの数の大学が、そこの医学部の改
革を考えているらしい。
b. かなりの数の大学が、その医学部の改革
を考えているらしい。
40
文法性と容認性
(18) 容認性の感覚
 [G] = 0 ならば、β = 0
 [G] = 1 ならば、β = [G] — [P] — [Ⅰ]
どちらの場合もβが 0 になってしまって、差が
出ない可能性がある。
↓
[P] や [ I ] の値が大きくなりやすい人ほど、そ
のような事態が起こりやすい。
41
判断者の要件2
 できるだけ、解析が複雑な文でもすぐに慣れ
ることのできる人、もしくは、不自然な状況を
述べたSRでも想像力をたくましくして不自然さ
が緩和されるような状況設定を自ら工夫でき
る人が望ましい
42
判断者の選別
 どういう人の容認性の感覚が理論構築の
データとしてふさわしいか?
↓
要件1を必須とし、なるべく要件2も備えた人を
集めていく。
追究の対象が「言語としての可能性の限界」で
あるからこそ、このような選別が必要となる。
43
仮説検証の手順
 仮説 H ... Computational System を形成す
る仮定の一部
→ 「感覚」との対応関係が述べられなけ
れば、検証のしようがない。
44
Claim
 Claim ...理論と感覚との橋渡しの役割をする
文(bridging proposition)
≒ 予測(prediction)
 okClaim ...何らかの解釈が可能であるという
予測
 *Claim ...何らかの解釈が不可能であるという
予測
45
Schema
 Schema ...提示文αを実際の単語をなるべく
使わない範囲で(=なるべく一般性を保ちつ
つ)、線的順序にしたがって記述したもの
 okSchema ...
okClaimを線状化したもの
 *Schema ... *Claimを線状化したもの
46
minimal pair の重要性
 対応する*SchemaとokSchemaは、可能な範
囲で同じ構文にする。
=統語解析の方法がなるべく同じになるように
工夫する。
... 言語能力の仮説の検証作業が、統語解析の
特定の仮説によって影響を受けることがない
ようにするために。。。
47
Example
 Example ... 各Schemaで指定された線的順
序にしたがって作成された実際の文
 okExample ...
okSchemaを具現化したもの
 *Example ... *Schemaを具現化したもの
← Lexicon による影響を考えて、なるべく
minimal pair にする。
48
容認可能性の調査
 Hypothesis
 Claim (仮説の予測)
 Schema (予測の線状化)
 Example (予測の線状化+語彙化)
|
実際の容認可能性と矛盾しないかどうかを調
査する
49
容認性の感覚の代表値 RV
Ex1
Speaker 1
RV(Ex1, Speaker 1)
Speaker 2
RV(Ex1, Speaker 2)
...
Speaker y
...
RV(Ex1, Speaker y)
RV(Ex1)
50
Schema の RV
Speaker 1
Speaker 2
...
Speaker y
Ex1
...
Exz
Schema1
RV(Ex1,
Speaker 1)
RV(Ex1,
Speaker 2)
...
RV(Exz,
Speaker 1)
RV(Exz,
Speaker 2)
RV(Schema1,
Speaker 1)
...
...
...
RV(Ex1,
Speaker y)
...
RV(Exz,
Speaker y)
RV(Schema1,
Speaker y)
RV(Ex1)
...
RV(Exz)
RV(Schema1)
...
RV(Schema1,
Speaker 2)
51
理論の検証
RV
okClaim
1
okSchema
1
1-1
*Claim2
*Schema2-1
*Claim3
*Schema3-1
0
0
RV
okSchema
0.7
1-2
*Schema2-2
*Schema3-2
0
0
RV
okSchema
0.6 …
1-3
*Schema2-3
0 …
*Schema3-3 0.2 …
52
結語
 言語の研究の様々な目的
↓
何をデータとするか
「そのデータで本当にその研究目的に迫って
いけるのか?」
53
言語研究の着実な進歩のために
 生成文法の説明対象=言語能力
=言語としての可能性の極限
 その追究のデータとして容認性が使えるか?
 Yes.
 a.
 b.
文法的な文の場合には、0≦β≦1
非文法的な文の場合には、β=0
 データの取り方やinformantの選別に気をつ
けて、この対立を保証できれば問題ない。
54