Presentation is loading. Please wait.

Presentation is loading. Please wait.

言語処理学会第15回年次大会チュートリアル 生成文法の考え方と検証の方法 上山あゆみ(九州大学)

Similar presentations


Presentation on theme: "言語処理学会第15回年次大会チュートリアル 生成文法の考え方と検証の方法 上山あゆみ(九州大学) "— Presentation transcript:

1 上山あゆみ(九州大学) http://www.gges.org/ueyama/
言語処理学会第15回年次大会チュートリアル 生成文法の考え方と検証の方法 上山あゆみ(九州大学) ご参加いただき、ありがとうございます。このコマでは、自分なりに、生成文法の考え方というものをなるべく科学全般の営みの中に位置づけられるよう、お話ししたいと思っています。まあ、予稿集を見ても、ひとりだけバリバリ文系なのが明らかで、ちょっと場違いなのですが、大学院生のころ、京大の長尾研でメールアカウントを使わせていただいていたのが唯一の理系とのつながりだったりします。ごくごく限られた範囲ではプログラミングもしますので、文学部の中では理系よりの面があるかもしれませんが、自分で気がついていないところで、いろいろなことを前提として話してしまっていると思いますので、ご遠慮なく質問をしていただければと存じます。なじみのない話だろうと思いましたので、予稿集にほとんど原稿のような形で載せてはあるのですが、プロジェクタのほうに要点を出しながら話を進めます。内容的にはほとんど同じです。へーえ、生成文法ってそういう話だったのか、と思っていただけると幸いです。

2 生得的な言語生成装置の存在 生成文法(Generative Grammar)
Noam Chomsky (1928~   )   「私たちがどうやって言語を習得できたのか、どうしてそんなことが可能なのか?」  ×「単に真似て反復して覚えていく」  ○「頭の中に生得的に、語彙を組み合わせて文を形成する仕組みがある」  生成文法とは、20世紀の後半に、アメリカの言語学者チョムスキー(Noam Chomsky)が提唱し始めた言語観である。それ以前の(アメリカ)構造言語学では、言語資料をどのように収集し、どのように分類・分析するか、という方法論が発達していたが、チョムスキーは、そのような方法論を批判し、何よりもまず、私たちがどうやって言語を習得できたのか、どうしてそんなことが可能なのか、ということを考えるべきであると主張した。  単に文が単語の寄せ集めだとすると、その並べ方には実に様々な順序が見られてもいいところであるにもかかわらず、実際に意図を正しく伝達できる文となると、単語の並べ方には大きな制限がある。その制限を人間の乳幼児はいともたやすく習得してしまう。当然ながら、その制限そのものを遺伝として両親から受け継いでいるとは考えられない。親が民族としてドイツ人であっても、子供が韓国語の環境で育てば、子供は韓国語を習得できてしまうからである。また、母親はよく子供に話しかけているとは言っても、(私たちが英語を習ったときのように)Lesson 1 から順序立てて教えているわけではない。単に、自分が言いたいことを言いたいときに子供に話しかけているだけである。乳幼児はそういうものを観察している間に、いつの間にかどんどん言語の仕組みを吸収していく。もちろん、はじめに言葉が出始めるまでには、かなり時間がかかるが、2語文の段階が訪れて、その期間を過ぎると、あとは一気に文の複雑さが増していく。これは「単に真似て反復して覚えていく」という考え方では、どうにも説明がつかない。頭の中に生得的に、語彙を組み合わせて文を形成する仕組みがあると考えざるをえない。 生成文法というと、言語習得というのが1つのキーワードでもあるのですが、実は、生成文法の研究の対象となっているのは、経験から学習したわけではない部分なわけです。

3 言語能力のモデル (1) (いくつかの単語の集合) numeration Computational System
PF(単語を構造化した、音関連の表示)  チョムスキーは人間が持つこの能力を言語能力と呼ぶ。そのモデルとして生成文法で提案されているのが、しばしばComputational Systemと呼ばれる仕組みである。Computational Systemとは、numeration(いくつかの単語の集合)を入力とし、それらを結合して1つの構成素にしたり(Merge)、構造関係を変えたり(Move)、組み合わせ可能かどうかをチェックしたり(Agree)、などの操作を行ったのちに、入力された単語がすべて組み込まれた、構築物としての表示を2つ—PF表示とLF表示—出力するアルゴリズムである。 LF (単語を構造化した、意味関連の表示)

4 「文法性」 文法的な文 = Computational Systemから生成可能な文
 「文法性」 文法的な文 = Computational Systemから生成可能な文 非文法的な文 = Computational Systemから生成不可能な文 Computational System = 「言語としての可能性の極限」を体現しているもの Computational Systemは、いわゆる「文」に相当する抽象的な表示を生成するメカニズムである。この仕組みから生成可能な文は文法的、生成不可能な文は非文法的と呼ばれる。このComputational Systemが人間の言語習得の謎を解く鍵であるならば、このシステムは、「言語たるもの、どのような姿がありうるか/ありえないか」という「言語としての可能性の極限」を体現しているものでなければならない。生成文法の主張に従うならば、Computational Systemは、人間の種として共通であり、適切な語彙さえ与えられれば、古今東西のあらゆる言語が生成可能なシステムでなければならないはずだからである。 一般的には、文法というと、最大多数というか、様々な揺れの中で共通した安定した部分、というイメージがあるかもしれませんが、生成文法で普遍文法というのは、実は、言語たるものの必要条件の部分なのです。その必要条件の部分に、経験だけからでは習得しえない部分が含まれるというところが肝要です。

5 生成文法の目的 Computational System = numeration(いくつかの"単語"の集合)から文を作る仕組み
 生成文法の目的 Computational System = numeration(いくつかの"単語"の集合)から文を作る仕組み 単語(=語彙項目)... 素性の束 音韻素性 形式素性 意味素性 Lexicon = 語彙項目の脳内データベース  Computational System とは、numeration、つまり、いくつかの単語の集合から、文を作る仕組みである。文の材料となるのは、(いわゆる「単語」に相当する)語彙項目である。語彙項目とは、基本的に素性の束である。 語彙項目の(脳内)データベースはLexiconと呼ばれる。すなわち、(1)でComputational Systemの入力として書かれているnumerationとは、Lexiconから抽出された語彙項目の集合である。

6 生成文法の目的 生成文法の目的 = Computational Systemの仕組みを明らかにすること (3)
 生成文法の目的 生成文法の目的 = Computational Systemの仕組みを明らかにすること (3) どのような素性を持った語彙項目が どのような操作を経て どのような構造が形成されるのか。 生成文法の目標は、Computational Systemの仕組みを明らかにすることである。この目標をもう少し具体的に述べると、(3)のように言い換えることができる。

7 もし、文法性が観察できたら。。。 1. 文法的な文と非文法的な文の分布を観察する。
1. 文法的な文と非文法的な文の分布を観察する。 2. 文法的な文を生成し、非文法的な文を生成しないように、Computational Systemの仮説をたてる。 3. その仮説からどのような予測が導き出されるかを考える。 4. その予測を検証する。 5. その検証の結果に基づいて、さらに研究を進める。  もし、文法性の違いが直接に観察できるものであるならば、言語能力の研究は、ごく普通の科学的方法にしたがって、次のように遂行できるところである。

8 しかし、現実は。。。 実際に観察可能なのは、文法性ではなく、容認可能性しかない。 ↓
       ↓ 容認可能性の感覚が生じるという行為の中に直接Computational Systemが組み込まれたモデルを考えるしかない ところが、実際に観察可能なのは、文法性(grammaticality)ではなく、容認可能性(acceptability)である。容認可能性とは「その言語を現在使っている一使用者にとって、提示された文がどのぐらい許せるか」という感覚であり、「言語としての可能性の極限」ではない。文法性というのは、上でも述べたように、Computational Systemから出力があるかどうか、という概念であるから、提示文を見て、その結果感じる容認可能性の度合い、というものとは、明らかに、その性質からして大きく異なるものである。そもそも、この容認可能性という感覚が(1)のモデルとどのように関係があるのかということから考える必要がある。この点は、生成文法に関する書物でほとんど述べられていないことであり、生成文法を理解しにくくしている要因の1つだと考えている。ことばというものは、音と意味とを仲介するものだと考えられてきた。その理解と(1)のモデルがどのように関係づけられるのかについて、私の意見を具体的に紹介していきたい。

9 (perceived) phonetic strings
(5) Information Extractor Computational System input/output influence database algorithm reference Information Database (perceived) phonetic strings Working Memory Concepts  Lexicon LF SR (formal) features frequent patterns numeration Phonology PF (generated) phonetic strings Inference Parser word recognition formation  生成文法では、「文という音」のベースとなるPF表示と「文の意味」のベースとなるLF表示は、どちらもComputational Systemの出力であり、一方が他方の入力になっているわけではない。その点で、これは、「言いたい意味」が「文という音」に変換されたり、「文という音」から「その文の意味」が伝わる、というような伝統的な言語観とは根本から異なっている。Computational Systemの理論の検証に容認可能性の感覚が使えるためには、容認可能性の感覚が生じるという行為の中に直接Computational Systemが組み込まれたモデルを考えるしかない。  私は、文αが(γという解釈のもとで)容認可能かどうかを判断する際、(5)のようなモジュールが関わっていると考えている。

10 γという解釈で文αが容認可能かどうか考える
(6) 判断されるべき提示文 Parser Computational System Information Extractor SR 知識状態の変化 (5)を、ここでの議論に関係が深い部分だけを抜き出して簡略化すると、(6)のようになる。

11 γ:「トヨタ」と「あそこ」が同じものを指示する
提示文α と 指定された解釈γ 判断される提示文(α) (7) α:トヨタが あそこの下請けを 訴えた γ:「トヨタ」と「あそこ」が同じものを指示する ここでは1つ1つのモジュールの働きを詳しく論じることができないが、たとえば、(7)のような提示文αと指定の解釈γが与えられたとして、簡単に説明していく。

12 「トヨタ」と「あそこ」とは同じ指標を持つ。
Parser α α:トヨタが あそこの下請けを 訴えた Parser (P) 「トヨタが」は「訴えた」の項である。 「あそこの」は「下請けを」に係る。 「下請けを」が主要部である句は「訴えた」の項である。 「トヨタ」と「あそこ」とは同じ指標を持つ。 → numeration の形成へ  まず、αは(単語認識と並行して)Parserへの入力となる。ここでのParserとは、一般の使い方とは異なり、入力である提示文αに対して、その人が獲得してきた語彙・構文知識に基づいて、パターンマッチングによってnumeration形成に役立つ情報P(a)を割り出すシステムを指している。ParserとP(a)の具体的な内容については現在検討を進めているところであるが、結果として、たとえば(8)のような情報が得られることを期待している[1]。 [1] P(a)は、純粋な計算によって出された結果というよりは、言語使用者がいくつかの可能性から意思を持って(もしくは無作為に)選択した結果であると考えている。結果に矛盾が出た場合のみ、選択のやり直しが行われることになる。  ここでは、(5)ないしは(6)のようなモデルを考えているので、解析の際に直接「文法を参照する」わけではない。むしろ、生得的な生成機構(すなわちComputational System)があるからこそ、どのような入力(numeration)のときにどのような出力(SR/PF)が得られるかということについてのデータが多数集まり、それをもとにして、出力情報の一部から入力を推測するための「知恵」を蓄えていくことができると考えている[1]。Parserの仕組みそのものは、生成文法の目的の中には入っていない。しかし、解析可能性を調べることがComputational Systemの仕組みの解明につながる可能性もある。もし、Computational Systemが決して生成しないパターンがあったとすると、そのようなパターンが「知恵」として蓄えられるはずがない。したがって、どうしても解析できない入力があれば、その理由がComputational Systemにある可能性があるのである。もちろん、その不可能性がParserの処理システムそのものに原因がある場合も考えられるので、解析不可能性が言語能力解明にとっての決定的なデータとは言えない。 [1] (5)の図では、「frequent patterns」というモジュールに、この「知恵」が蓄えられており、Parserがその知識を用いながら入力文を解析すると想定している。いわゆる語学の習得とは、その言語用のLexiconとfrequent patternsを、正確に、かつ、数多く蓄える行為ということになる。 文の最後まで行っても特に破綻がなければ、解析は成功したとみなされ、この情報に基づいて、Numerationが形成される[1]。 [1]  P(α)がNumerationを完全に決定する必要はない。むしろ、Parserの出力に基づいてNumerationが一意に決定されないという状態のほうが普通かもしれない。足りない情報は、Numerationが形成される際に、自由に補われる。P(α)の情報の質が良ければそれだけ、Numerationを効率よく形成できるだけである。  Numerationにおいては、音として具現される単語だけでなく、少なからぬ数の機能範疇や抽象的な素性が必要となる。これらがNumerationの形成において単に恣意的に選択されるのならば、聞いたとおりの文が出力されるようなNumerationを形成するのは不可能に近いかもしれない。しかし、P(α)において、どの単語がどこに係っているかという関係等が示されれば、Numerationにどのような要素が必要かということを、かなりの精度でしぼりこむことができるはずである。

13 Computational System α (9) numeration μ: {トヨタ1が, あそこ1の, 下請け2を, 訴えた} P
{トヨタ1が, あそこ1の, 下請け2を, 訴えた} LF(μ), PF(μ) トヨタ1が NP2 訴えた あそこ1の 下請けを Computational System (C)  Parserが出力したP(a)に基づいて、numeration μが形成され、それがComputational Systemへの入力となる。簡略化すると、たとえば(9)のようなnumerationがありうるだろう。 (9) numeration m:{トヨタ1が, あそこ1の, 下請け2を, 訴えた} (9)の指標は、最終的に指示物との対応関係を示すことになるものである。指標そのものは形式素性の1つであり、Lexiconから語彙が選ばれてnumerationが形成されるときに付される。どの指標がつくかは、原則的には自由とするが、(8)のように、P(a)に指定が盛り込まれている場合もある。  Computational Systemによってnumeration mから派生される2つの表示を、ここではLF(m), PF(m)と表すことにする。ここでの例示としては、LF(m)とPF(m)を特に区別する必要はないだろう。

14 SR(μ) SR1 訴えた(x2)(x1) SR2 x1:トヨタ SR3 x1:あそこ SR4 x2:下請け(x1) α
α:トヨタが あそこの下請けを 訴えた SR1  訴えた(x2)(x1) SR2   x1:トヨタ SR3   x1:あそこ SR4   x2:下請け(x1) Information Extractor (Ⅰ)  LF表示そのものは、語彙(すなわち言語表現)が構造化されたものであり、それそのものを「情報」と同一視するわけにはいかない。そこで、文が表している情報の表示をSR(Semantic Representation)と呼ぶことにし、LFをSRに変換する(=LF表示から情報を読み取る)Information Extractorというモジュールがあると考えておく。LFとは語彙が構造化されたものであるのに対して、SRは情報の部品となる概念(Concept)が構造化された情報表示である。つまり、Lexiconとは別にConceptsというデータベースがあり[1]、Information Extractorは、LFをもとにして、主にConceptsの要素からなる構造表示を作るものである[2]。この場合のLF(m)が入力となるSR(m)は、(11)の4つのSR-clauseの連言であると考えている。 [1] 人間は、何か安定して取り出したい性質/関係が特定されると、それに具体的な単語で「命名」したくなるものであるし、新しい単語にふれた場合、それがどのような概念に対応するのかがわからないと、なかなか落ち着かない。つまり、LexiconとConceptsは、原則的に、対応関係があると言ってよいと考えている。仮にConceptsの中のそれぞれの概念に通し番号がつけられているとし、その番号が、対応する単語にも付されていると考えると、(2)の「意味素性」とは、Conceptsの中で対応する概念の持つ通し番号ということになる。Information Extractorの中では語彙が概念に置き換わるが、その操作は、この通し番号によって可能になる。  仮想的には、対応することばのない概念が単位として認識されることは可能かもしれないので、Conceptsのすべての要素についてLexiconに対応物があるかどうかは難しい問題である。しかし、ここでの説明としては、言語表現を使わずにConceptsの中身を論じることは不可能なので、以下では便宜的に、すべての概念には、対応する言語表現があるという仮定で話を進めていく。 [2] 本文では、日本語表現に下線を引くことによって、それに対応する概念を表している。 SR4は、「x1がx2を訴えた」というeventualityを表すSR-clauseである。これに対して、SR1, SR2, SR3は、(12)のようなpredicationの形式をしている。 (12) xn:α これは、単純に「xnはαである」と読み下しても構わないが、厳密には、(13)の略記であり、「xnというentityとαの間に何らかの関係がある」という意味で用いている[1]。 (13) ∃R R(xn, α) [1] ここで、あえて「何らかの関係がある」という形にしているのは、指示物と概念との対応には、様々な認知的な関係づけがありえるのに対して、言語という仕組みは、その1つ1つの関係づけの違いに関しておおむね無頓着であると考えられるからである。(11)のSR3が表示しており情報は「x2は、何か(z)がx1の下請けであるというeventualityと関係がある」ということになる。これを、私たちは日常的に「x2はx1の下請けである」と理解している。また、(11)のSR1, SR2では、右辺が(下線が引かれていないことからわかるように)言語表現であるため、それぞれ「x1は、"トヨタ" という言語表現と関係がある」「x1は、"あそこ" という言語表現と関係がある」という情報になる。これは、「x1は、"トヨタ" や "あそこ" という言語表現で指しうるものである」という理解につながる。

15 LF と SR の対応 LF(μ) トヨタ1が NP2 訴えた あそこ1の 下請けを
LF表示から SR を派生させる規則は、ここではあらためて述べないが、概略、次のように、ごく local な mapping 規則の繰り返し適用によって派生可能であると考えている。たとえば、このようなLFがある場合:

16 LF と SR の対応 LF(μ) トヨタ1が NP2 訴えた あそこ1の 下請けを
まず、ここに注目したとする。これは、1番という指示物が「あそこ」という表現で表されていることを示すものであるから、

17 LF と SR の対応 SR3 x1:あそこ x1 LF(μ) トヨタ1が NP2 訴えた 下請けを
ここから、SR3 のような SR-clause が生まれる。感覚的には、LF表示から「表現」をはぎとったと考えてもよい。実際に指示物となっていたのは1番のものであるから、樹形図には、その指示物である x1 が残る。

18 LF と SR の対応 SR3 x1:あそこ x1 LF(μ) トヨタ1が NP2 訴えた 下請けを
次にこの部分に注目すると、これは、つまり、2番の指示物は、1番の下請けである、ということが述べられているわけであるから、

19 LF と SR の対応 x2 SR3 x1:あそこ SR4 x2:下請け(x1) LF(μ) トヨタ1が 訴えた
ここから、SR4のような SR-clause が生まれる。そして、これは2番の指示物についての話だったのであるから、先ほどと同様、樹形図の元の位置にはx2が残る。

20 LF と SR の対応 x2 SR3 x1:あそこ SR4 x2:下請け(x1) LF(μ) トヨタ1が 訴えた
同様に、今度はこの部分に注目すると、これは、1番の指示物が「トヨタ」という表現によって言及されているので、

21 LF と SR の対応 x1 x2 SR2 x1:トヨタ SR3 x1:あそこ SR4 x2:下請け(x1) LF(μ) 訴えた
ここから、SR2のような SR-clause が生まれ、樹形図の元の位置には x1 が残される。

22 LF と SR の対応 x1 x2 SR2 x1:トヨタ SR3 x1:あそこ SR4 x2:下請け(x1) LF(μ) 訴えた

23 LF と SR の対応 SR1 訴えた(x2)(x1) SR2 x1:トヨタ SR3 x1:あそこ SR4 x2:下請け(x1)
SR1 が派生される。これで、LF が示していた構成的な意味内容をすべて写し取ったことになり、樹形図はもはや残っていない。

24 LF と SR の対応 SR1 訴えた(x2)(x1) SR2 x1:トヨタ SR3 x1:あそこ SR4 x2:下請け(x1) SR(μ)
トヨタ1が NP2 訴えた あそこ1の 下請けを SR1  訴えた(x2)(x1) SR2  x1:トヨタ SR3  x1:あそこ SR4  x2:下請け(x1) LF と SR は、このように対応している。あらためて定式化しなくとも、SRの構成がLFによって決定されていること、そして、SRがLFから機械的な方法で派生されうることは明らかだと思う。

25 想定されているSRの姿 (14) 想定されているSRの姿 SRの集積が談話全体の意味(もしくは、その人の知識)とみなしうる。
eventualityを表すSR-clauseとpredicationを表すSR-clauseとから成る。 定められた機械的な方法で、LF表示から派生可能である。 SR-clauseの書き方そのものも、まだ今後の課題がたくさんあるが、基本的な方向としては次のような点を重要視し、ある程度、直観的にもわかりやすいものを目指している。  では、このようなモデルを念頭においた上で、言語能力についての研究をどのように進めていくべきなのか、論じていきたい。

26 観察可能なものは何か LF表示 ... 観察不可能 1つの文の内容を理解する前の知識状態と理解したあとの知識状態との差分
...原則的に、観察可能なはず。 これはSRについての仮説をたてる材料になる。  上で述べたように、LF表示そのものは観察不可能である。これに対して、1つの文の内容を理解する前の知識状態と理解したあとの知識状態との差分は、観察可能なものであると想定していいだろう。その差分は、その文のSRから直接/間接にもたらされたはずであり、それが期待される解釈γと食い違わないかどうかの判断が求められていることになる。その結果から逆算して、LFの構造やComputational Systemの中の操作、そしてLexiconの中の指定に関して仮説を立てることが可能になる。

27 研究の進め方 (15)a. <記述> 目指すSRの記述
b.<統語論> a.を生み出すような、LF/Computational Systemの操作/numerationについての考察 c.<語用論> b.のLFからa.のSRが出てくるような、Information Extractorの操作についての考察 d.<統語解析> 提示文からb.のnumerationが出てくる仕組みの考察  このようにして研究を進めるとなると、ある構文を取り上げた場合、具体的には、(15)のような、いくつかの種類の考察が関わってくる[1]。 [1] もちろん、出発となっている観察は、様々な認知的な作用が働いた上での感覚に基づいているのであるから、LF表示から直接派生されるSRがどのような姿であるべきかは、少しずつ仮説を立てながら試行錯誤していくしかない。統語論によって仮定されているLF表示が本当に望むSRに結びつくと考えてよいのか、その点を常に確認しながら進むことが必要だろう。その構文について、まず叩き台となる分析ができたところで、提示文の条件を様々に変化させ、どのような場合に、期待されるSRの派生がはばまれるのかという条件を調べ、そのような効果を生む仮説を構築し、検証していくのである。

28 問題 提示文の内省的な容認性判断 などというものをデータにしてもいいのか!? → 私の意見: 適正に処理しさえすれば、かまわない。
→ 私の意見: 適正に処理しさえすれば、かまわない。 しかし、そもそもの出発点となる観察が、ある文が持つとされるSRが、それが期待される解釈γと食い違わないかどうかという、きわめて主観的な判断に基づいているということに対して、しばしば批判がある。これが、提示文の内省的な容認性判断と呼ばれるものである。同じ文を提示しても、人によって判断がまったく同じにはならないのが普通であり、ときには、同一人物であっても聞き方やタイミングによって判断が異なる場合もある。判断を聞かれた本人にとっても、非常にもやもやとした、明らかでない感覚を持つことが多いのに、その不確かな返答に基づいて理論が構築されていると考えると、生成文法研究全体に対して不信感を抱いても不思議はないかもしれない。  しかし、私は、文の容認性の感覚というものも、適正に扱われさえすれば、言語能力の解明のためのデータとみなすことができると考えている。まず、ここでの考え方に基づくと、容認可能性のゆれというものがどのように解釈できるのかということから説明していく。

29 容認性の度合いに影響する要因 (16) γという解釈のもとでのαという提示文の容認性の度合い
(16) γという解釈のもとでのαという提示文の容認性の度合い そもそも、γの指定を満たすようなSRが出力されたかどうか γの指定を満たすようなSRが出力されたとしても、それがどの程度難しかったか γの指定を満たすようなSRが出力されたとしても、それがどの程度不自然か  上のようなモデルにおいて、「γという解釈のもとでのαという提示文の容認性の度合い」というものは、次の(16)から決定されると考えたい。

30 容認可能性の度合いβ [G] = 出力がある(1)か無い(0)か [P] = Parsingの困難度 [Ⅰ] = SRの不自然度
容認可能性の度合いβ  α [G] = 出力がある(1)か無い(0)か [P] = Parsingの困難度 [Ⅰ] = SRの不自然度 βは、0≦β≦1の値だとする。 [G] = 0 ならば、β = 0 [G] = 1 ならば、 β = [G] — [P] — [Ⅰ] そこで、たとえば、(17)のような3つの指標を仮定し、提示文αがγという解釈のもとでもたらす容認性の感覚βというものを(18)のように定式化する。(この感覚は、0以下は0と、1以上は1として知覚されると仮定しておく。)

31 [G]が 0 になる場合 → β=0 (19) a. parsingが失敗して、numerationを作れなかった場合
b. (parsingは成功したが)LF/PF の派生の途中で破綻した場合 c. (parsingも成功し、LF/PFも派生したが)SRの派生で失敗した場合 d. (parsingも成功し、LF/PFも派生し、SRも派生したが)そのSRがγの指定を満たしていない場合  [G]が 0 になるケースとしては、(19) の4種類が考えられるが、どの場合もβは0となる。

32 文法性と容認性の対応関係 (20) a. 文法的な文の場合には、0≦β≦1 b. 非文法的な文の場合には、β=0
Lexicon や(Parser が参照する)frequent patterns は非常に可塑性が高い。            ↓ むしろ、(20a) vs. (20b) という差に注目することによって、理論の検証を行うべきである。 これに対して、βが0よりも大きい値になりうるのは、[G]が1のときに限られる。これはつまり、βの値そのものは、人によって、そして、その時々によって変わりうるものであるが、必ず(20)のような対応関係はある、という考え方である[1]。 [1] (20b)が成り立つかどうかという点に疑問を抱く場合もあるかもしれない。その点については、次節で議論している。 Lexiconやfrequent patternsは、非常に可塑性の高いデータベースである。したがって、極端な場合には、1つの実験中に適応が起こって[P]や[I]の値が減り、結果として、文法的な文に対する容認可能性が上がる可能性もありうる。それに対して、非文法的な文に対する容認可能性が上がることは予測されない。そこを仮説の検証の手がかりとするのである。すなわち、(20)を仮定するならば、Computational Systemの仮説の検証というものは、その理論から出力不可能な文(=非文法的な文)の容認可能性がおしなべて0であり、その理論から出力可能な文(=文法的な文)の容認可能性が必ずしも0ではない、ということを示すことによって成し遂げられることになる。

33 検証結果パターンA Case A → まったく予測通り → 問題なし β 文法的な文1 1 非文法的な文1 文法的な文2 非文法的な文2
文法的な文2 非文法的な文2 文法的な文3 非文法的な文3  もちろん、問題は、文の容認可能性には、非常に「揺らぎ」が大きいということである。仮にCase A (21)のようになっている場合ならば、何の問題もなく「その理論は経験的に裏づけられている」と結論づけられるだろうし、 → まったく予測通り → 問題なし

34 検証結果パターンB Case B → まったく差がない → この理論に対する経験的裏づけはない β 文法的な文1 0.6 非文法的な文1
0.5 文法的な文2 非文法的な文2 0.7 文法的な文3 非文法的な文3 Case B (22)のようになっている場合には、(okと*の間に、まったく差が見られないのだから)誰しも「その理論に対する経験的な裏づけはない」とみなすだろう。 → まったく差がない → この理論に対する経験的裏づけはない

35 検証結果パターンC Case C → 左右の差そのものは必ずしも大きくない β 文法的な文1 0.5 非文法的な文1 文法的な文2 0.3
文法的な文2 0.3 非文法的な文2 文法的な文3 0.4 非文法的な文3 では、Case C の場合はどうだろうか。注目してほしいのは、このCのパターンと次のDのパターンの違いである。 → 左右の差そのものは必ずしも大きくない

36 検証結果パターンD Case D → 左右の差だけならば、Cと同じ → しかし、非文が 0 になっていない ↑致命的 β 文法的な文1
0.8 非文法的な文1 0.3 文法的な文2 0.7 非文法的な文2 0.4 文法的な文3 0.6 非文法的な文3 0.2 それぞれの容認性の値の差は、Case C (23)とCase D (24)では同じである。その意味では、どちらも「そこそこ違いがある」とみなしていい結果のように思うかもしれないが、ここでの考え方に従えば、Case CとCase Dとでは、大きく意味合いが違っている。上で述べたように、非文法的な文の容認性の値はゼロよりも上がるはずはない。したがって、Case D (24)のような結果であれば、その理論はどこかが間違っているということになる。 → 左右の差だけならば、Cと同じ → しかし、非文が 0 になっていない ↑致命的

37 検証結果パターンC Case C → 非文がちゃんと 0 になっている ↑合格 ! β 文法的な文1 0.5 非文法的な文1 文法的な文2
文法的な文2 0.3 非文法的な文2 文法的な文3 0.4 非文法的な文3 それに対して、文法的な文であっても、容認性の値が上がらない理由はいくらでも考えうる。したがって、Case C の結果は、言語能力に関するその理論の予測をくつがえしているとは言えないのである。 先ほどのCase D と、この Case C との違いは、grammaticality という概念がそもそも Computational System から出力されるかされないか、という、二者択一の概念であるということから来ている。容認性の違いについて説明する理論を目指しているのならば、容認性に差があるかどうか、という点が注目点になるかもしれないが、文法性の違いについて説明する理論を目指しているのならば、容認性の違いは直接説明の対象ではないのである。 → 非文がちゃんと 0 になっている ↑合格 !

38 それは、実は、提示文αではなく、α’を生成してしまっている場合である。
文法性と容認性 (20) a. 文法的な文の場合には、0≦β≦1 b. 非文法的な文の場合には、β=0 非文法的な文を容認可能と感じてしまう場合もあるものなのではないのか? それは、実は、提示文αではなく、α’を生成してしまっている場合である。  さて、上で述べたように、ここで鍵になっている考え方は(20)である。 このような非対称性を想定しているからこそ、文法的な文の場合の容認性が一定でなくても理論の検証が可能であるという主張である。 このような非対称性を想定しているからこそ、文法的な文の場合の容認性が一定でなくても言語能力に対する仮説の検証が可能であるという主張である。  しかし、非文法的な文を容認可能と感じてしまう場合はある、という意見があるかもしれない。実際、私たちの日常生活では、相手の言った文がちょっと変な場合でも、よっぽどでなければ聞きとがめないかもしれない。それにもかかわらず、ここでの実験では、「本当は変だけれども(=[G]は0だけれども)聞き返すほどではない文」と「本当にわけがわからない文」のどちらも容認可能性の値βは0であるとしている。その理由は、前者がましに思えるのは単に、「相手が本当に言いたかったことは何か」が推定しやすいというだけだと考えているからである。(5)のモデルで説明しよう。つまり、実際には、αに対するparsingが失敗したとしても、相手が何かを言い間違っただけだと仮定すれば、いわばαをα’に修正した上でparsingをしなおすことができるかもしれない[1]。その上でちゃんとSRが派生して容認性の感覚が得られたとしても、それは、α’という文についての容認性の感覚であったり、αからα’を思いつくことの容易さを表す感覚であったりするだけで、これをαについての容認性判断とみなしていいはずがない。 [1] たとえば、「今、誰かがこの部屋の中を入ってきたら」と聞いても「今、誰かがこの部屋の中に入ってきたら」と脳内修正してしまったり、「その本の最初のページをあくと」と聞いても「その本の最初のページをあけると」としてしまったりするのではないだろうか。

39 判断者の要件1 提示文αと自分が生成した文との違いに気がつける人でなければならない。 たとえば、 a. ジョンがメアリを誘った。
b. ジョンをメアリが誘った。  本来、上のようなことは、自分が出力したPFとαを注意深く比較することのできる話者ならば、気がついてしかるべき事態である。当然のことながら、提示文と異なる文についての容認性判断を理論構築のためのデータとみなすわけにはいかないので、言語能力の追究の目的で容認性の感覚を調査する場合には、PFとαの違いを見過ごさない人を選ぶ必要があることになる。これは、いわば新聞や雑誌の校正係に求められるのと似た能力であり、日常生活のコミュニケーションでは、むしろ邪魔になるかもしれない能力であるが、言語能力の追究のためには欠かせない[1]。 [1] 具体的にどのようにして選別するかは、今、模索中であるが、たとえば、判断の対象となる提示文を口頭で繰り返させて正しく言えるかどうか、というだけでもチェックになるだろうし、もしくは、次のようなペアが同じ文でないことを正しく指摘できるかどうか、というテストも有効だろうと考えている。 (i) a. ジョンがメアリを誘った。 b. ジョンをメアリが誘った。 (ii) a. ジョンが批判したのは、アメリカの金融政策をだった。 b. ジョンが批判したのは、アメリカの金融政策だった。 (iii) a. かなりの数の大学が、そこの医学部の改革を考えているらしい。 b. かなりの数の大学が、その医学部の改革を考えているらしい。

40 a. ジョンが批判したのは、アメリカの金融政策をだった。
b. ジョンが批判したのは、アメリカの金融政策だった。 a. かなりの数の大学が、そこの医学部の改革を考えているらしい。 b. かなりの数の大学が、その医学部の改革を考えているらしい。

41 [P] や [ I ] の値が大きくなりやすい人ほど、そのような事態が起こりやすい。
文法性と容認性 (18) 容認性の感覚 [G] = 0 ならば、β = 0 [G] = 1 ならば、β = [G] — [P] — [Ⅰ] どちらの場合もβが 0 になってしまって、差が出ない可能性がある。 [P] や [ I ] の値が大きくなりやすい人ほど、そのような事態が起こりやすい。  また、(18)にしたがうと、[P]や[I]の値が大きくなる場合には、[G]が1であっても0であってもβの値がほとんど0になって差が出ないことになる。

42 判断者の要件2 できるだけ、解析が複雑な文でもすぐに慣れることのできる人、もしくは、不自然な状況を述べたSRでも想像力をたくましくして不自然さが緩和されるような状況設定を自ら工夫できる人が望ましい [P]や[I]の値が大きくなるというのは、たいてい、提示文で用いる語彙の組み合わせ等がふさわしくないのが原因なので、これは、研究者の側で提示文を慎重に準備することで、ある程度は防ぐことができるだろう。しかし、調べたい内容によっては、どうしても提示文が非常に複雑で普段使わないような文になる場合がよくあり、そのような場合には、[P]や[I]の値が大きくなりにくい人(つまり、解析が複雑な文でもすぐに慣れることのできる人、自分にとって新しい用法の語彙もすぐに習得できる人、もしくは、不自然な状況を述べたSRでも想像力をたくましくして不自然さが緩和されるような状況設定を自ら工夫できる人)が望ましいことになる。  これは、分析者にとって都合のいい話者を選ぶということではない。上で述べたように、ここでの考え方に基づくと、仮説の検証作業においては、文法的な文のβの値が低いことよりも、非文法的であるはずの文のβの値が0ではないということのほうが深刻である。つまり、全体的に許容範囲の狭い話者を調査したほうが「仮説にとって深刻な結果」は出にくいことになり、本文で言っているような「許容範囲の広い話者」を調査の対象としたほうが、むしろ、検証のハードルが上がるのである。

43 判断者の選別 どういう人の容認性の感覚が理論構築のデータとしてふさわしいか? ↓ 要件1を必須とし、なるべく要件2も備えた人を集めていく。
追究の対象が「言語としての可能性の限界」であるからこそ、このような選別が必要となる。  容認性判断をしてもらう人を選別するという考え方は、別の目的を持った研究の場合には許されないかもしれない。たとえば、現在の日本語の姿をなるべくありのままとらえることを目的としている研究の場合には、調査の対象をかたよりなくサンプリングすることが求められるだろう。しかし、それでわかるのは、「相手が誰であっても安全にコミュニケーションが成り立つ範囲」についての情報であり、生成文法で追究しているような「言語としての可能性の限界」がどこにあるかということではない。

44 仮説検証の手順 仮説 H ... Computational System を形成する仮定の一部
→ 「感覚」との対応関係が述べられなければ、検証のしようがない。  以上のような考え方に立つと、何かComputational Systemにおける仮説(以下、Hとする)を検証したい場合の手順は次のようになる。  その仮説H自体はComputational Systemの内部のものなので、これだけでは「感覚」との関係が述べられておらず、経験的な検証のしようがない。Hがどのように解釈の違いに影響を与えるかを考察して初めて検証することができるようになる[1]。 [1] モデル/理論というものは、仮説の集合から成るものであるから、厳密には、1つの仮説だけ取り出してClaimを作ることは不可能である。しかし、たとえば、n個の仮説から成る理論T0がある場合、そのHnだけを検証することはできないとしても、T0とT1を比べることは可能であり、また、T0とT2を比べることもできる。 (i) T0 = {H1, H2, ... Hn-1, Hn} T1 = {H1, H2, ... Hn-1} T2 = {H1, H2, ... Hn-1, Hq} 以下の説明は、(i)で言うならば、T0とT1を比べている場合だと考えてほしい。

45 Claim Claim ...理論と感覚との橋渡しの役割をする文(bridging proposition)
≒ 予測(prediction) okClaim ...何らかの解釈が可能であるという予測 *Claim ...何らかの解釈が不可能であるという予測 そのような、理論と感覚との橋渡しの役割をする文(bridging proposition)のことを以下ではClaimと呼ぶことにしたい。この意味でのClaimは、理論の「予測(prediction)」と呼ばれるものに相当する。Claimには、何らかの解釈が可能であるという予測と、何らかの解釈が不可能であるという予測とがありうるので、前者をokClaim、後者を*Claimと呼ぶことにする。1つの仮説Hから複数のokClaimや*Claimが導かれるのも珍しいことではないだろう。

46 Schema Schema ...提示文αを実際の単語をなるべく使わない範囲で(=なるべく一般性を保ちつつ)、線的順序にしたがって記述したもの okSchema ... okClaimを線状化したもの *Schema ... *Claimを線状化したもの  もちろんのことながら、Claimだけでは検証はできない。容認性判断において手がかりになるのは提示文αと指定の解釈γだけであるのに対して、ClaimはLFに関する条件を述べているだけだからである。そこで検証したいLFが派生させられるような提示文の条件をまとめたものをSchemaと呼ぶことにする。Schemaとは、αを実際の単語をなるべく使わない範囲で具体的に記述したものである。それぞれのClaimに対して、いろいろなSchemaが想定しうるはずである。

47 minimal pair の重要性 対応する*SchemaとokSchemaは、可能な範囲で同じ構文にする。
=統語解析の方法がなるべく同じになるように工夫する。 ... 言語能力の仮説の検証作業が、統語解析の特定の仮説によって影響を受けることがないようにするために。。。  ClaimをSchemaにする際には、Parserに関する仮説がおおいに影響する。したがって、今、問題となっている言語能力の仮説の検証作業が、統語解析の特定の仮説によって影響を受けることがないように気をつけなければならない。そのための方法の1つは、統語解析の方法がなるべく同じになるように、*SchemaとokSchemaをなるべく同じような構文にするということである。すべてのClaimに対して、共通の構文で作られたSchemaを1つのSchema群と呼ぶことにしよう。言語能力の仮説の検証作業のためには、なるべく統語解析の方法が安定した構文でSchema群を作成することが望ましい[1]。 [1] また、逆に、言語能力の仮説が検証されていけば、別の新しい構文がどのように解析されているかという分析も進むことになる。そのようにして「統語解析の方法が安定した構文」が増えていけば、それだけ仮説の検証の可能性が広がることになる。

48 Example Example ... 各Schemaで指定された線的順序にしたがって作成された実際の文
okExample ... okSchemaを具現化したもの *Example ... *Schemaを具現化したもの ← Lexicon による影響を考えて、なるべくminimal pair にする。  そして、そのSchemaのそれぞれに対応して、いくつもの具体的なExampleが作れるはずである。ClaimをSchemaにする際には、Parserに関する仮説が影響したが、SchemaをExampleにする際には、Lexiconに関する仮説がおおいに影響する。したがって、ここでも同様に、Lexiconにおける制限がなるべく同じになるように、対応する*ExampleとokExampleは、可能な範囲で同じ語彙を用いたほうがいいということになる。言語能力の仮説の検証作業のためには、なるべく意味や用法が安定した語彙を用いることが望ましい[1]。 [1] ここでも、脚注12と同様のことがあてはまる。言語能力の仮説が検証されていけば、さまざまな語彙がどのような特性を持っているかという分析も進むことになる。そのようにして「意味や用法が安定した語彙」が増えていけば、それだけ仮説の検証の可能性が広がることになる。

49 容認可能性の調査 Hypothesis Claim (仮説の予測) Schema (予測の線状化) Example (予測の線状化+語彙化)
|  実際の容認可能性と矛盾しないかどうかを調査する  1つ1つのExampleは、提示文として容認性判断の対象になるものであり、これで、ようやく言語能力の仮説が、具体的に測りうる対象に結び付けられたことになる。Claimは理論の予測である。しかし、その予測は、SchemaやExampleに対応づけられて初めて、検証可能な予測になるのである。

50 容認性の感覚の代表値 RV Ex1 Speaker 1 RV(Ex1, Speaker 1) Speaker 2
... Speaker y RV(Ex1, Speaker y) RV(Ex1)  以上のような準備ができた上で、1つ1つのExampleの容認性の値を調べていく。ただし、同じExampleであっても、話者によって、そして、同じ話者でもその時々によって、感覚が異なる場合が多いので、それぞれの提示文に対する容認性の感覚の代表値RV(representative value)を求めることになる。たとえば、同じExampleをx回ずつy人の話者に答えてもらったとしよう[1]。まず、そのx回の回答からRVを求めることによって、(25)のように、そのExampleのそれぞれの人にとってのRV(例えば、(25)のRV(Ex1, Speaker 1))が定まり、それに基づいて、さらに、話者の違いを超えたExampleのRV((25)の場合ならRV(Ex1))を求めることができる。 [1] 話者によって、それぞれの回答がすでに自分の中で何回も反芻した上での「代表値」である場合もあれば、あっさりとそのとき感じたままを答えている場合もあるだろうが、そのこと自体は、ここでの考え方の問題にはならない。前者のタイプの話者が多ければ多いほど、そのRVのxの値が増えることになり、それだけ精密度が増す、ということになる。

51 Schema の RV Ex1 ... Exz Schema1 Speaker 1 RV(Ex1, Speaker 1)
RV(Exz, Speaker 1) RV(Schema1, Speaker 1) Speaker 2 RV(Ex1, Speaker 2) RV(Exz, Speaker 2) RV(Schema1, Speaker 2) Speaker y RV(Ex1, Speaker y) RV(Exz, Speaker y) RV(Schema1, Speaker y) RV(Ex1) RV(Exz) RV(Schema1) このような調査を同じSchemaに対するz個のExampleすべてに行っていくと、「それぞれの話者ごとの、すべてのExampleのRV」すなわち「それぞれの話者ごとの、そのSchemaのRV」(例えば、(26)のRV(Schema1, Speaker 1))を出すこともでき、「そのSchemaのRV」((26)の場合のRV(Schema1))を出すこともできる。

52 理論の検証 RV okClaim1 1 0.7 0.6 … *Claim2 *Claim3 0.2 okSchema1-1
*Schema2-2 *Schema2-3 *Claim3 *Schema3-1 *Schema3-2 *Schema3-3 0.2 このようにして、すべてのSchemaのRVを求めていくと、たとえば(27)のように、その結果をまとめることができるようになる。 この(27)を、たとえば(21)-(24)のCase A~Dなどに照らし合わせることによって、今、判定の対象になっていた仮説Hが経験的に妥当と言えるかどうかを評価していくことになる。新たに仮説Hを提案する場合には、どのようなClaim-Schema-Exampleを用いて、どのような調査結果が出たかということを付すのが常態になれば、生成文法の研究も着実な進歩を見込めるはずである。

53 結語 言語の研究の様々な目的 ↓ 何をデータとするか 「そのデータで本当にその研究目的に迫っていけるのか?」
        ↓   何をデータとするか   「そのデータで本当にその研究目的に迫っていけるのか?」  ことばには様々な側面があり、だからこそ、言語の研究には様々な目的がある。ある言語の現在の姿をとらえる・現在では話されていない過去の言語の姿を再構築する・時代による変遷をとらえる・地域による違いをとらえる等々。当然のことながら、何をデータとするかは、それぞれの研究の目的によって異なってくる。問題は、その研究目的のための直接のデータが手に入りえない場合である。そういう場合には、手に入るデータをなんとか利用していくしかないが、その場合、そのデータで本当にその研究目的に迫っていけるのかという問いがつきまとう。

54 言語研究の着実な進歩のために 生成文法の説明対象=言語能力 =言語としての可能性の極限 その追究のデータとして容認性が使えるか? Yes.
  =言語としての可能性の極限 その追究のデータとして容認性が使えるか? Yes. a. 文法的な文の場合には、0≦β≦1 b. 非文法的な文の場合には、β=0 データの取り方やinformantの選別に気をつけて、この対立を保証できれば問題ない。  生成文法が説明の対象にしているのは、言語能力という側面である。これは、「言語たるもの、どのような姿がありうるか/ありえないか」という「可能性の極限」を問題にするものである。ここで取り上げたのは、その目的のために、容認可能性という、きわめて主観的なものをデータとしてしまっていいのか、という問題であった。  ここでは、文法性というものが容認可能性を決定する要因の1つであり、(20)のような非対称性が認められる限り、容認可能性の分布を手がかりにして文法性の分布に迫ることは不可能ではない、ということを主張してきた。 (20) a. 文法的な文の場合には、0≦β≦1 b. 非文法的な文の場合には、β=0 そして、(20)を保証するためには、データの取り方、なかでも、容認性判断をしてもらう人の選別を非常に厳密に行なう必要があるということを強調した。  以上、具体的な現象の分析を論じるというよりは、生成文法の目的を再確認し、どのように考えれば、容認性という感覚をデータとして用いることが正当化できるのかを論じてきた。生成文法の研究目的は、「言語としての可能性の極限」という非常に抽象的なものである。だからこそ、経験的基盤の有無ということに敏感にならなければ、すぐに机上の空論になってしまいかねない。仮説を提案するたびに、上のようなステップを踏まなければならないとしたら、大変手間がかかることになるが、その手間は、かえって着実な進歩につながるのではないだろうか。また、HypothesisをClaimにする過程で意味論的な考察が必要となり、ClaimをSchemaにする過程で言語解析的な考察が必要となり、SchemaをExampleにする過程でそれぞれの語彙についての考察が必要となる。生成文法が直接、説明対象としているのは、言語の様々な側面のうちのごく一部に過ぎないが、その部分の姿が明らかになっていくことは、とりもなおさず、言語の研究全体にとっても意味のあることだと信じてやまない。


Download ppt "言語処理学会第15回年次大会チュートリアル 生成文法の考え方と検証の方法 上山あゆみ(九州大学) "

Similar presentations


Ads by Google