• Tidak ada hasil yang ditemukan

PDF Pattern Lattice を使った ヒトの 言語知識と処理のモデル化

N/A
N/A
Protected

Academic year: 2023

Membagikan "PDF Pattern Lattice を使った ヒトの 言語知識と処理のモデル化"

Copied!
10
0
0

Teks penuh

(1)

Pattern Lattice を使った ( ヒトの ) 言語知識と処理のモデル化

黒田 航

NICTけいはんな研究所 言語基盤グループ

長谷部 陽一郎

同志社大学/NICT Modified on 03/15, 01/15, 16, 17/2009; Created on 01/12/2009

1 はじめに

§2で研究背景と基礎理論を,§2.3で実装の一例 を解説し,§3で理論的問題を議論する.

2 パターンの理論の必要性

2.1 言語の創造性を再考する

N. Chomskyが生成文法の枠組み[2]の中で提唱

し,その後,多くの研究者に受け入れらた幾つか のテーゼの一つに,(1)の言語の創造性のテーゼが ある:

(1) a. ヒトは自分が聞いた/読んだことのない 新しい表現を聞いた/読んだ時に,それを 理解できる.

b. ヒトは自分が聞いた/読んだことのない 新しい表現を作り出せる.

Chomskyは(1)を説明するために生成文法を考

案したと主張している.だが,(1)を説明する1)の に,本当に生成文法は必要だろうか?少なくともヒ トの記憶に関して別の見方を取り,(2)にあるよう な仮説を想定する限り,生成文法と同じくらい信憑 性のあるモデルを考えることは(理論的には)難し くない:

(2) 極端(に豊か)な記憶の仮説2)

a. ヒトは思い出せない(=意識の中に呼び 出せない)ような記憶を膨大に蓄積して いる.

b. 意識的に思い出せない多くの記憶も,適 当な刺激があれば思い出せる3)

この論文は同一著者のNLP15での発表論文の増補版であ る.主に字数制限で書けなかった部分を追加している.

1)本稿では追求しないが,(1a)(1b)は同列に扱うことは できない.実際,これらの間には驚くべき非対称性があ る.ヒトが(1a)の意味で創造的なのは妥当な想定かも知 れないが,ヒトの産出は実際にはかなり保守的であり,ヒ トが(1b)の意味で創造的であるかどうかは疑問が残る.

2)詳細は[28]を参照されたい.

3)これは,思い出し/想起が抑制の解除によって起こるとい

要するにヒトは経験したことをすべて(暗黙知と して)記憶しているが,そのほとんどが思い出せな い状態にある(経験の内容は「覚えるは易し,思い 出すは難し」(easy to store, hard to recall/retrieve)と いう奇妙な特性をもつ).

(2)を想定する限り,(1a)の問題は,次のような 記憶ベースの言語の知識系と処理系を考えることで 解決できる見こみがある:

(3) a. ヒトは自分が聞いたことのない表現eを 聞いた/読んだ時に,それを理解できる のは,eと同一ではないが,それと部分 的に一致する(つまりeに「似た」)表現 の集合e01,e02, . . . ,e0nを(その自覚はない が)覚えていて,eの意味を,e01,e02, . . . , e0nの意味を組み合わせて構築している.

b. ヒトは今までに自分が聞いた/読んだこ とのない,新しい表現eを作り出せるの は,eで言うべき意味を,e01,e02, . . . ,e0n の意味m01,m02, . . . ,m0nを組み合わせて構 成でき,それに見合うようにe01,e02, . . . , e0nを統合できるからである.

(3a) は ([4] の よ う な 枠 組 み に 限 ら ず),今 の 言 語 処 理 が 明 示 的 ,暗 示 的 に 置 い て い る 想 定 で ある.例えば機械翻訳の分野で用例/事例ベース の (機 械) 翻 訳 (example-based (machine) transla- tion: EB(M)T) [8, 15] や 記 憶 ベ ー ス の (機 械) 翻 訳(memory-based (machine) translation: MB(M)T) [16]という形で実装されている処理系はいずれもこ の想定の下で行われている.だが,(3b)は(3a)ほ ど一般的には了解されていない.この非対称性は奇 妙である.

同じことを別の視点で記述するとこうなる:現在 の言語処理の主流は事例基盤であるが,過去をふり 返ると,90年代に文法基盤モデルから事例基盤モ うモデルがありえるということである.思い出しを抑制 の解除としてモデル化するのは一般的ではないが,この 可能性は[13,§6.5]でも示唆されているし,計算モデルと して[19]EMILEも存在する.

(2)

デルの移行があったことがわかる.それまでの言語 処理では文法基盤の研究が主流だった(アナロジー

翻訳[15, 16]はその嚆矢である).その理由は二つ

ある:消極面では規則基盤の処理の限界が見え,積 極面では大規模コーパスが利用可能になり,統計的 手法が分野を席捲した.

だが,言語処理を産出(production)時の処理と受

領(reception)時の処理に分けた時,うまく行ってい

るのは後者のみである.実際,統計処理と互換性の ある事例基盤の言語産出のモデルは,今の時点で明 確なモデルとしては存在していない.本発表の狙い は事例集合のPattern Lattice (PL*)の理論によって この空隙を埋めることにある4)

(3b)でも(3a)でも本質的な条件は,効率の良い 類似例の検索である.これを可能にするのは何か?

—これがPL*を使って示そうとすることである.

2.2 事例と事例集合のパターンのラティス

§2.2.1で事例の定項の変項化という操作を定義

し,その定義の下に§2.2.3で単一事例eのパター ンラティスPL(e)を定義する.その定義を,続く

§2.2.5で事例集合を扱えるように一般化する.

2.2.1 事例の定項の変項化の定義

事例eを適切にT(e)= [t1,t2, . . . ,tn]に分割する モデルが与えられているとする(この理論が満足す べき条件については§3.1.2で後述する).この仮定 の下で,T の適当な定項tiを変項Xで置換する操作 をtiXによる変項化と定義し,この操作の産物を eから派生したパターン(patterns derived frome)と 定義する.例えばe=「彼は歌って踊った」の分割 は(適当な分割のモデルMの下では)T(M,e)= [彼, は,歌っ,て,踊っ,た]であり,5番目の部分「踊っ」

Xで変項化したものは「彼は歌ってX た」とい うパターンである.変項X のタイプに制約を設け るかどうかは独立の問題とする.

2.2.2 言語情報の内部表現に関する想定

知覚された言語情報は内部表現(mental represen-

tations)に変換され,処理・維持される必要がある.

内部表現は,言語学や言語処理では言語表現の解析

(parses)と同一視されるのが通例であるが,私たち

はモデル化の出発点として,解析が(再利用の可能 性を最大にするために)次の特徴をもつべきである

4)もう一つの動機は第一著者が協力者と一緒に進めてい る複層意味フレーム分析(MSFA)を使った意味タグづけ [32]で,状況の記述と優先して対応づけるべき超語彙パ ターンをなるべく効率良く見つけたいという希望である.

これは非線型表現のデータベース化[23]の効率化とも関 係する.

と考える:5)

(4) a. 最小限の事前知識で盲目的に/機械的に 実行可能(intelligence-free);

b. 再 分 析 (=解 析 の や り 直 し) 不 要 (reanalysis-free).

私たちは§2.2.1で定義したパターンがこれらの

条件を満足する内部表現であると考える.

2.2.3 単一事例eのパターンラティスPL(e)

§2.2.1の変項化の定義の下で,事例eのパターン

ラティスPL(e)を次のように定義する:

(5) a. eの分割の結果をT(e)= [t1,t2, . . . ,tk] とする.T(e)の要素を再帰的に単一の 変項で変項化し,得られたパターンのべ き集合をP(e)とする.

b. 次のis-a関係の下でのP(e)の半順序集 合をeのパターンラティスPL(e)と定義 する.

c. pi,pj∈P(e)であるパターン pin番 目の要素pi[n]とパターンpjn番目の 要素pj[n]との関係で,i)pi[n] =pj[n]で あるか,ii) pj[n]が変項ならば,[piis-a pj]である.

PL(e)の頂点(top)はk個の変項のみからなるパ

ターンで,PL(e)の底(bottom)はk個の定項のみか らなる事例=eである.

豊かな事例記憶の想定の下では,パターンは事例 集合へのインデックスになっていればよい.別の言 い方をするとパターンはスキーマとして事例とは独 立に自律的な内容をもっている必要はない(その内 容は常に事例集合の値の期待値として与えられる).

2.2.4 パターンのランクとPL(e)の部分集合への

分割

パターンpに含まれる定項の数をpのランクと 定義する.例えばp= [彼,は,X,て,X,た] (i.e., [彼, は,V1,て,V2,た] is-a p)のランクは4である.

ランクは定項の数でPL(e)を部分集合に分割す る.一般にek個の部分に分割される時,PL(e) の Rank 0 は k 個 の 変 項 の み か ら な る パ タ ー ン X X···X (= top)のみをもつ集合,Rankk{e(=

bottom)}である.

5)句構造はこれらの条件(特に(i)の条件)を満足しない.例 えば句構造解析では[A B C]をパースするのに[A [B C]]

[[A B] C]の曖昧性を解消する必要があるが,パターン

を使った表現では[A B C][A B C]のままであり,問題 の曖昧性は「解消」の必要がない.

(3)

2.2.5 事例集合のパターンラティスPL*

PL(e)は一つの事例eのパターンラティスであ

る.PL(e)はeと分割数が同じ事例と互換性がある

が,異なる分割数のPLとは互換性がない.この点 は次の仕方で異なる長さのパターンを統合すること で解決できる:

(6) 変項の再帰的単純化:6) 任意の連続したl個 の変項列X と連続したl−1個の変項列X0 について,[X0is-aX]が成立する.

事例集合E={e1,e2, . . . ,en}のパターンラティ

スPL(E)を参照の便宜のため,PL*で表わす7)

2.3 PL*の試験的実装: Pattern Lattice Builder

§2 のPL*の定義に基づいて PL*の処理システ ム Pattern Lattice Builder (PLB) を 試 作 的 に 実 装 し ,http://www.kotonoba.net/rubyfca/

patternで公開した.i) 一行に一事例 (要素分 割はスペース挿入で指定)でN行までの入力を受け つけ,PL*を可視化する(上記のWebサーバー上で のNの上限は30個だが,ローカルインストールで は自由に変更できる).その際,

(7) a. ii)指定した事例に寄与するis-aリンク

を色づけする;

b. iii)同一ランク内でパターンのもつ事例

数のzスコアを求め,それを色温度に変 換した(これにより,生産的=データの説 明力の高いパターンをそうでないパター ンから区別できる)8)

の機能をもたせた.図1 に{, は, 歌っ,た; 彼, は,踊っ,た;彼,は,歌っ,て,踊っ,た;彼,は,踊っ, て,歌っ,た}を与えた時のPLBの出力例を示す.

Rank 3では[彼 は た]の生産性がもっとも高く,

それに続くのが[彼 歌っ た]と[彼 踊っ た]で あることがわかる.

2.4 PL*上の統語処理と意味処理

ランクがkの実例eは,ランクがk−1の(超)語 彙的パターンp1,p2, . . . ,pkの重ね合わせ(=素性の 論理和)である.従って,ep1,p2, . . . ,pkから非 排他的に意味的,音韻的資源を継承する.これはe の意味処理の際に,ランクが低い超語彙的パターン の方がランクの相対的に高い(超)語彙的パターン

6)PLBの実装ではl個の変項を一つの変項に置換するとい う簡略形で実装している.

7)なお,PL*の底は事例ではない.

8)ここでzスコアを利用するという案は出口雅也からの示唆 による.色温度への変換に使用したのはhttp://www.

graphviz.org.doc/info/colors.htmlrdbu9 color scheme (区間の幅は0.5z).

よりも実例に「近く」,その分だけ影響が強いこと を意味している(§3.2.3で例を示す構文効果の原因 はこれだと考えられる).

残念ながら,本稿ではPL*上での意味処理の詳細 に立ち入る十分な余裕はない.興味がある方は[30]

を参照されたい.しかし,本稿の範囲内でお必要最 低限のことは言及しておきたい.

2.4.1 超語彙的単位の状況喚起の記述

私たちがPL*を使った記述したいと考えたのは 超語彙的単位(superlexical units)による状況喚起の 効果である.MSFAを使った意味タグづけの仕事

[33, 32]などから,次の特徴が一般に成立すること

がわかっている[31]:.

(8) 言語の単位(e.g.,形態素,語,句,文,連文) が状況を喚起する力は(ある程度の大きさま では)その大きさに比例する(従って,状況の 喚起力は形態素より語の方が強く,語よりも 句の方が強く,句よりも文の方が強い). これは次のことを含意する:

(9) どんなに精緻なものであっても,語の意味記 述を積み重ねて行くだけでは,十分な文の意 味記述には到達できない可能性がある.

PL*はこの「経験的な問題」をもっとも直接的な 形で解決するために考案された.PL*上での意味処 理には次の特徴がある:

(10) 一般に,事例eの意味の記述にランクがiの (超)語彙的パターンの意味が必要になるの は,ランクがi+1の超語彙的パターンによ る記述が不充分である場合に限る.

別の言い方をすると,超語彙的単位の意味記述が 十分であれば,語彙的単位の意味記述は不要だと言 うことであり,これが[17]の言うIdiom Principle や[18]の言う言語表現の定型性(formulaicness)の 基盤である9)

2.4.2 PL*が暗黙に表わしているもの

ここで注意が必要なのは次の点である:

(11) a. ランクkの超語彙的パターンの意味は,

(全部でk個ある)のランクk−1の超語 彙的パターンの意味で十分に表現され ているとは限らない(従って,超語彙的

9)Idiom Principleや定型性は記述的一般化=経験則であり,

それが成立するメカニズムは不問になっていることに注 意されたい.言語の知識がPL*で記述されるようなもの であるということが,これらが成立する条件を特定して いる.

(4)

図1 Rank 0, Rank 1, . . . , Rank 6のパターンの個数は,おのおの1, 6, 22, 38, 31, 12, 2 (合計112)である

(5)

パターンの意味は語の意味には還元でき ない).

b. PL*は事例eの意味計算(と音韻計算)の 際の資源の利用の優先順位を表わしてい

る: PL*のノードはランクが低いほど(つ

まり事例寄りであるほど)貢献度が高く,

ランクが高いほど(つまり語彙的である ほど)貢献度が低い.

§3.2.3で(11a)の例を見る.

(11)はPL*の理論の帰結であると同時に,それは 言語の認知科学がPL*の理論を必要とした理由でも ある.

2.4.3 PL*は何を表わしているか

(11)の前提として,私たちはPL*がオンラインの 解析結果であるのではなく,それがヒトの言語の知 識それ自体であると考える.私たちが提案するPL 基盤の言語の知識のモデルは,文法は可能な限り小 さく,辞書/事例記憶の役割が可能な限り大きいよ うなモデルである10)

2.4.4 PL*基盤の処理はヒトの脳の中ではどうや

って実現されているか?

この点に関して,次のように問うことは無意味で はないだろう:一人の個人の全言語的知識を記述す るような大規模なPL*を実装するにはどんなシステ ムが必要か?

PL*基盤の処理システムは高度な並列性を必要と し,検索トリックがないとうまくゆかない.この点 で,普通の計算機上で,ヒトの言語知識全体を表現 するような大規模なPL*の効果的な実装は非常に困 難であることを私たちは進んで認める.だが,それ は大規模なPL*の実装が不可能だということではな い.少なくともそれはヒトの脳によっては実現され ていると考える必要がある11).ヒトが行なってい る驚くべき効率の記憶検索を十分にうまく説明する モデルなら,それが可能になるはずである.幸い,

非常に魅力的なヒトの想起の計算モデルが[19]に よって提案されている.彼の提案するEMILEモデ ルはPL*の実装の最良の候補であるように思う.

2.4.5 PMAとの関係

今となってみると,第一著者が提案したPattern Matching Analysis (PMA) [9, 10]はPL(e)のRank

10)もう一点,スキーマ(schemas)の役割も可能な限り小さ い.実際,このモデル化ではスキーマには事例集合の効果 的なインデクスとして機能する以上のことは要求されて いない.別の言い方をすると,スキーマは生成的な装置で はない.

11)次の点は進んで認めるべきである:ヒトの長期記憶には限 界がなく,多くの記憶が抑制によって想起を妨げられて いるだけである[13, 19].

1のパターンの組合わせで事例eの統語構造を記述 するものであったことがわかる.それは統語構造を 記述するのに十分だが,構文効果を説明するのに は十分ではないことがわかる12).構文効果の説明 はRankが低い=定項の数の多い超語彙的パターン からの意味継承が,Rankの高い=定項の少ないパ ターンからの意味継承に優先するという条件があ る場合にのみ成立する.そういう意味では,PMA

はPattern Latticeの理論に吸収されていると言って

良い.

3 議論

PLには実装に拠らない不利点と利点とがある.

これらについておのおの論じる.

3.1 PL*基盤の記述の不利点

3.1.1 分割数の増大と組合わせ爆発

Pattern Latticeを使った最大の難点は,おそらく

(A)組合わせ爆発に起因する記憶と処理の非効率 性,並びに(B)規模の拡大可能性(scalability)の問 題である.

PL(e)のノード数は,en個の分割をもつ場合,

2nである.PLの複雑性Cは,eごとの分割の数 k,分割の異なり数lで決まるが,lよりkに依存す る度合いが強い.分割数が大きくなると組合わせ爆 発が起こる.

事例の分割数kに計算論的な上限があるという事 実は,言語処理の観点から見る限り難点でしかない が,言語の認知科学の観点から見ると,逆に重要な 含意をもつ.

3.1.2 処理範囲の最適化

今のところ十分な根拠を示すことはできないが,

組合わせ爆発に関連して一つ,興味深いと思われる 点がある:

(12) 特にeの分割数とPL(e)の複雑性の対応に は,(分割数が7を境にして) (相転移に似た) 質的変化がある.

分割数kは多ければ良いというわけではなく,課 題に応じて最適値が決まるようである.経験的に は,単文の項構造を記述するのに十分な被覆率を確 保するには7個(=[3, 1, 3])の分割が必要で,頻度 は低い少し複雑な場合を取り入れるためには9個

(=[4, 1, 4])の分割が必要になるという感じである.

具体的に言うと,PL(e)を構成する全パターンのう ち,意味をもつという直観が容易に得られるパター ンの比率rを考えると,文節数が7個を超えると,

12)これは[31]で指摘した.

(6)

rが急に低くなるように思える13).これは依存関係 の候補を見つけるための窓が,標的の左(=過去)に

3個(か4個),右(=未来)に+3個(か+4個) ぐらいのスパンにあるということである.この観察 は今のところ主観的なものにすぎないが,将来的に は7個を境に本当にそのような変化があるのかを検 証したい.

3.1.3 分割の最適化と処理の複層化

分割数/計算の複雑性の自然な上限が存在するな らば,それは言語単位の時間的幅/処理の深さに応 じて,最適な分割が,異なったレベルに幾つか併存 することが理論的に必然化するとも考えられる.例 えば(M)語の内部構造=形態論での分割の最適化,

(S)文の内部構造=狭義の統語論での分割の最適化,

(D)話の内部構造=広義の統語論での分割の最適化 は別のものであり,かつ,おのおのが言語の処理レ ベルに対応していると考えられる14).分割単位の 恣意性は,PL*の理論の弱点というより,処理の複 層化された分割の複数の最適化を保証する利点であ ると考えるべき可能性が残される15)

3.1.4 段階を踏んだパターンの獲得

組合わせ爆発は機械上の言語処理で問題になるば かりでなく,言語獲得においても深刻な問題とな る.だが,別の見方をすると,言語獲得の際に子供 がどうやって組合わせ爆発を問題を回避しているか という形で,言語獲得の謎を解明する契機になる可 能性もある.

語彙的パターン(=R1のパターン)とランクの低 い超語彙的パターン(e.g., R2, R3)は,分割数の影 響を強く受けず,それらは分割数が大きい場合でも 流用可能であることに注意されたい.これから,子 供はランクの低い語彙的,超語彙的パターンを先に 獲得し,それをランクの高い,複雑な事例に流用す るという戦略を取っている可能性が考えられる.こ

13)この数に不思議な数7 [14]との関係を読み取るのは,必 ずしも牽強付会とは言えないだろう.

14)扱う現象のタイプによって,形態素規模の分割が妥当な 場合,語句規模の分割が妥当な場合,文=節規模の分割が 妥当な場合があるということは言語学では経験的に知ら

れている(それはしばしば言語理論のモジュール化の正当

化の理由になる).だが,この理由は自明ではない(普遍 文法(UG)をもち出し,それが元から幾つかのモジュー

ル群(e.g.,形態論モジュール,統語論モジュール,談話モ

ジュール)に分れていると言ったたところで,それは何の 説明でもない).

15)日本語に関して言うと,M, S, Dレベルでの助詞の機能分 化がありそうだ:と」て」で」た」だ」は 述語間の共起関係(Dレベル)を,が」を」などは述 語内の要素間の共起関係(Sレベル)を,な」の」(と

に」)は,句内の要素間の共起関係(Mレベル)をエン コードしているようだ.

れは規模の拡大可能性を保証する「最初は少なく (starting small)」[5, 3]の原理に従っていると考え られる.

以上の理由から,PL*では分割単位の認定の問題 を,eの分割数kの決定の問題から意図的に独立さ せない.

3.2 PL*基盤の記述の利点

PLの利点は(以上の不利点と引換えにではある が)少なくとも(13)に示した,互いに関連しあった 利点をもつ:

(13) a. ヒトの言語処理の記述と説明において,

言語学的理論(aka先入観)の干渉を最小 限にできる(少なくとも句構造は不要で あり,極端なことを言うと品詞ラベルも 不要).

b. 構文効果[6, 7, 34, 20]に代表される超語 彙的パターン/非線型表現[23, 22]の意 味貢献を非アドホックに,体系的に記述 可能

3.2.1 言語処理での「文法」の役割の最小化

PL*基盤の処理システムでは,「文法」の役割は 極小化されている.極論すると,PL*基盤の処理シ ステムは「辞書」だけで動いていると言っても良い (明らかに句構造はない).そればかりか,品詞ラベ ルすら無用化されている(少なくとも変項の実現値 は意味的に制約されるので,品詞の上での制約は (あっても困らないが)必要不可欠ではない).しか し,記述に必要な般化は十分に起こっており,効果 的な選択制限の記述すら可能である.

実際,この特徴の派生的な効果として,池原ら

[23, 22]が進めてきたパターン翻訳で非線型パター

ンを自動的に発見することが可能である16). 3.2.2 PL*基盤の記述は「バカバカしい」か?

言語学者の中には,PL*を使った言語の知識の記 述を「バカバカしい」と感じる人が少なくないとい うことは想定内である.彼らがそう思う理由はわか らないわけではないが,これはモデル化の出発点と 目標地点の違いである.私たちはヒトの言語の知識

=文法をモデル化する際に,それをヒトの言語の処 理から独立させないという条件を設けた(文法を記 述するとしても,計算機上での実装可能性が保証さ れていない記述は幾らでも可能だからである).文 法的知識の最小限化はその設定の自然な帰結であ り,それが一部の研究者にとって「バカバカしく」

見えるのは理解に難くない.それは「有意義な一般 化を表現していない」ように見える.だが,PL*基

16)Pattern Latticeの理論化の動機の一つはこれであった.

(7)

盤のモデルが有意義な一般化を表現しているかど うかは,言語学者の直観的評価に基づいて決まるこ とでなく,ヒトの言語処理上の妥当性に基づいて決 まることである.この際に私たちが強く意識するの は,文法が何であるかに関する先入観を排するべき であるという点である.私たちが提案したモデル が,その最大の内在的困難である規模の拡大可能性 を満足し,かつ記述的に妥当な理論的予測を行なう ならば,どんなにバカバカしく見えようと,それは 妥当なモデルとして評価されるべきである.

3.2.3 構文効果の説明の実例

李[34]は(14)の用法でニ格名詞句を認可するの は「消え(る)」の語彙的な意味ではないと論じてい る:17)

(14) a. 患者が診察室に消えた

b. テールランプが(暗)闇に消えた c. エルフの船が光の中に消え. . . d. ヒュウガが地割れに消えた

構文上の意味は[N1がN2にV]というパターン に帰着できるわけではない.(15)は移動の意味はも たない:

(15) a. 彼が知人に会った

b. 子供が親に似ている(のは当然だ) 李の結論は,構文上の意味の担い手は抽象的な パターン[N1がN2にV]ではなく,[[Human]が [LocationSpace]にV]のような,N1, N2の意味 クラスに言及するもう少し具体的なパターンだとい うものである.

意味クラスは(i)事例集合を通じて(分布類似度 の高いクラスとして)獲得される,(ii)意味クラスは (有限集合に限って言うと)値の集合で表現できると いう二点を考えると,PLは明示的に[N1がN2に V]のような「格パターン」のNの意味クラスに言 及してはないが,それが表わすのと同じタイプの一 般化を表現できる.そればかりでなく,PLベース の記述では,パターン間の階層的関係を明示的,か つ体系的に記述できるという利点がある.実際,次 のことがPL*の定義から予測され,事実は予測の通 りだと思われる:

(16) パターンを構成する変項は,ランクが高いほ

ど(e.g.,R=1, 2)潜在的意味クラスとの対応

が弱く,ランクが低いほど意味クラスとの対 応が良い.

17)同じ「消え」という動詞が使われているが,語義は同一で はない.語義は「消滅し」や「消失し」との交替条件と相 関している.

(17) 構文「効果」は(16)の想定の下で作用する 超語彙的パターンの変項の補完の産物であ る18)

3.3 [XがYにV]のPL*の一部 図2に(18)のPL*を示す: (18) a. 彼 が 部屋 に 消え た

b. 彼 が 部屋 に 入っ た c. 彼 が 部屋 に 入っ て 消え た

(18)の文は超語彙的パターン5-2 [彼 が 部屋 に た] (とその親である4-1 [彼 が 部屋 に ])を共有し ている点に注意されたい.(18a)の解釈が(18b)と

(18c)の解釈に関連づけられるための十分条件を記

述している.

4 終わりに

4.1 課題と将来への展望

PLBにデータベースをもたせ,超語彙的パター ンのデータベース化を行いたい.これにより十分な 被覆率をもった超語彙的パターン/非線型表現=構文 のデータベースが得られる可能性が現実的なものと なる.

4.2 幾つかの応用可能性19)

可能性を思いついただけで実装されてないが,

PL*には幾つかの応用があるように思う.

4.2.1 対訳アラインメントの高精度化

対訳関係にある(e,e0)のPL*を構築し,PL(e)と PL(e0)との間で対訳関係が取れるパターンの集合 を特定する.この対応づけは統計翻訳で使われてい るフレーズテーブルの対案(か少なくとも改良案) になる.今のところは人手でやるしかないかも知れ ないが,この作業を半自動化できれば機械翻訳の精 度は向上するように思う.自動獲得されたフレーズ テーブルは,言語学者の観点から見るとまだまだ精 度が低いように思うし,取り出される単位が恣意的 であるように見える.

4.2.2 コーパス事例の単純化

新聞コーパスであれ,他の分野のコーパスであ れ,多くの場合に実例は複雑すぎる.実例をそのま

18)例えば,図15-2 [彼 は 歌っ て た]の空所に[踊っ] 補完するのは,日本人を母語にする話者には特に難しい ことではない(が,十分な事例記憶をもたない非母語話者 には難しい可能性がある).このような種の補完が暗黙に 起っていることで構文効果が生じると説明すれば,具体 的な語に言及しない抽象的構文(e.g., [N1N2V]) 移動の意味をもっている/エンコードしているという(過 剰般化に繋がる)想定はしなくて済む.

19)2009/01/17に追加.

(8)

図2 (18)のPL*:色温度が高いものが同一ランク内で相対的に説明力のあるパターン

(9)

ま言語資源として使うには,幾つかの点で効率が悪 い.実際,単語規模のデータベースと実例のデータ ベースの中間レベルには,句のデータベースなど があってよいはずである(換言表現のデータベース

[21, 35, 36]などは,この規模の言語資源として意

図されているのだと思う).それとは別の方向性と して,既製のコーパスの事例がすべて単文化された もの,謂わば「単純化コーパス」があれば便利だと 考えている人は少なくないと思う.もちろん,これ を実現するための技術困難はそれなりにある(苦労 の割には見返りが少ないのでNLP関係者はこの仕 事に誰も手をつけていないのだと思う).

PL*は常に,複文を重文を単純化したパターンが 含まれる.それらを高精度と他の有用性の低いパ ターンから区別できれば,単純化コーパスを(半) 自動的に構築できる(ただし,これには分割の多い PL*が効率的に扱えるようになっていないといけな いので,ここには「卵が先か,鶏が先か」という悪 循環があるかも知れない).

4.3 言語の創造性は「豊かな事例記憶」の随伴事象 本発表で私たちは(3)の記憶ベースの言語知識 のモデル化として事例集合のPattern Lattice (PL*) を提案した20).PLは事例基盤の言語処理で有用な データ構造に基礎を与えるだけでなく,理論言語学 で用法基盤アプローチ(Usage-based Approach)と 呼ばれる枠組み[1]にも理論的基礎を提供すると考 えられる.

最後に用法基盤/事例基盤モデルは次の重要な含 意をもつことを指摘して本論文を終えることにし たい:

(19) (3)で特徴づけた記憶ベースの言語知識と処

理のモデル化が正しいならば,

a. 言語の創造性は豊かな記憶の産物の随伴 事象である;

b. 表層形に関するスキーマ的知識(e.g.,コ ロケーション)が深層にあると想定され る概念構造と同じ位か,あるいはそれよ りも重要である.

(19b)の重要な帰結の一つはいわゆる概念メタ

ファー(Conceptual Metaphor) [11, 12, 24, 25]は支 持者から期待されているほど体系的でも,事実に対 する説明力もないということだが,この論文では詳 細には立ち入らない.関心のある読者は[26, 29, 27]

に当られたい.

20)第一著者が開発したPattern Matching Analysis (PMA) [9,

10, 31]は,記憶ベースの記述モデルの具現化の一つとし

て構想された.

参考文献

[1] M. Barlow and S. Kemmer, editors.2000. CSLI Pub- lications, 2000.

[2] N. Chomsky. Aspects of the Theory of Syntax. MIT Press, Cambridge, MA, 1965.

[3] C. M. Conway, M. R. Ellefson, and M. H. Chris- tiansen. When less is less and when less is more:

Starting small with staged input. InProceedings of the 25th Annual Conference of the Cognitive Science So- ciety, pp. 270–275. Mahwah, NJ: Lawrence Erlbaum, 2003.

[4] W. Daelemans and A. van den Bosch.Memory-based Natural Language Processing. Cambridge Unversity Press, Cambridge, UK, 2005.

[5] J. L. Elman. Learning and development in neural net- works: The importance of starting small. Cognition, Vol. 48, No. 1, pp. 71–99, 1993.

[6] A. D. Goldberg. Constructions: A Construction Grammar Approach to Argument Structure. Univer- sity of Chicago Press, Chicago, IL, 1995.

[7] A. E. Goldberg. Constructions at Work. New York:

Oxford, 2006.

[8] J. Hutchins. Example-based machine translation:

A review and commentary. Machine Translation, Vol. 19, pp. 197–211, 2005.

[9] K. Kuroda. Foundations of PATTERN MATCHING

ANALYSIS: A New Method Proposed for the Cogni- tively Realistic Description of Natural Language Syn- tax. PhD thesis, Kyoto University, Japan, 2000.

[10] K. Kuroda. Presenting the PATTERN MATCHING

ANALYSIS, a framework proposed for the realistic de- scription of natural language syntax. Journal of En- glish Linguistic Society, Vol. 17, pp. 71–80, 2001.

[11] G. Lakoff and M. Johnson. Metaphors We Live By.

University of Chicago Press, 1980. [邦訳:『レトリッ クと人生』(渡部昇一ほか 訳).大修館.].

[12] G. Lakoff and M. Johnson. The Philosophy in the Flesh. Basic Books, 1999.

[13] J. L. McGaugh. 記憶と情動の脳科学:「忘れにくい 記憶」の作られかた(B1514).講談社, 2006. Transla- tion ofMemory and Emotion: The Making of Lasting Memories, Columbia University Press, 2003.

[14] George A. Miller. The magical number seven, plus or minus two.The Psychological Review, Vol. 63, No. 2, pp. 81–97, 1956.

[15] S. Sato. A mimd implementation of example-based translation on cm. In RWC Technical Report, TR- 9401, pp. 35–36, 1994. [citeseer.ist.psu.

edu/sato94mimd.html.

[16] S. Sato and M. Nagao. Toward memory-based trans- lation. InProceedings of COLING-90, Helsinki, Fin-

(10)

land, pp. 247–252, 1990.

[17] J. M. Sinclair. Corpus, Concordance, Collocation.

Oxford University Press, 1991.

[18] A. Wray.Formulaic Language and the Lexicon. Cam- bridge University Press, Cambridge/New York, 2002.

[19] 月元敬. 抑制に基づく記憶検索理論の構成. 風間書 房, 2008.

[20] 中本敬子,李在鎬,黒田航. 日本語の語順選好は動詞 に還元できない文レベルの意味と相関する:心理実 験に基づく日本語の構文研究への提案. 認知科学, Vol. 13, pp. 334–352, 2006.「文理解」特集号. [21] 乾健太郎,藤田篤. 言い換え技術に関する研究動向.

自然言語処理, Vol. 11, No. 5, pp. 151–198, 2004.招 待論文.

[22] 池原悟,阿部さつき,竹内奈央,徳久雅人,村上仁一. 意味的等価変換方式のための重文複文の統語的意味 的分類体系について. 情報処理学会研究報告, Vol.

2006-NL-176, pp. 1–8, 2006.

[23] 池原悟, 徳久雅人, 村上仁一, 佐良木昌, 池田尚志, 宮崎正弘. 非線形な重文複文の表現に対する文型 パターン辞書の開発. 情報処理学会研究報告, Vol.

NL-170, No. 25, pp. 157–164, 2005.

[24] 鍋島弘治郎. 領域を結ぶのは何か:メタファー理論 における価値的類似性と構造的類似性. 日本認知言 語学会論文集第3巻, pp. 12–22.日本認知言語学会 (JCLA), 2003.

[25] 鍋島弘治郎.黒田の疑問に答える:認知言語学からの 回答.日本語学, Vol. 26, No. 3, pp. 54–71, 2007.

[26] 黒田航. 概念メタファーの体系性,生産性はどの程 度か? 日本語学, Vol. 24, No. 6, pp. 38–57, 2005.

[27] 黒田航. メタファー理解の状況基盤モデルの基本 的な主張: 概念メタファー理論との比較を通じた 解題. http://clsl.hi.h.kyoto-u.ac.jp/

˜kkuroda/papers/smmc-in-a-nutshell.

pdf, 2007.

[28] 黒 田 航. 徹 底 し た 用 法 基 盤 主 義 の 下 で の 文 法 獲 得: 「 極 端 に 豊 か な 事 例 記 憶 」の 仮 説 で 描 く 新 し い 筋 書 き. 月 刊 言 語, Vol. 36, No. 11, pp. 24–34, 2007. 原 典 版: http://clsl.hi.

h.kyoto-u.ac.jp/˜kkuroda/papers/

la-with-rich-memory-full%.pdf.

[29] 黒 田 航. 鍋 島 氏 か ら の 反 論 に 対 す る 幾 つ か の 異 論. http://clsl.

hi.h.kyoto-u.ac.jp/˜kkuroda/

papers/reply-to-nabeshima-07-ab%

ridged-v1-sc.pdf, 2007.

[30] 黒 田 航. な ぜ 超 語 彙 的 パ タ ー ン が 語 彙 的 パ タ ー ン よ り も 重 要 な の か?: 構 文「 効 果 」の 記 述 の た め の 基 礎 理 論 の 提 示. http://clsl.hi.

h.kyoto-u.ac.jp/˜kkuroda/papers/

constructions-as-bias-so%urces.pdf, 2008.

[31] 黒 田 航, 中 本 敬 子. 文 彩 を 生 じ さ せ る(語 の) 意

味 の 相 互 作 用 の 実 体 は 何 か?: MSFA と PMA を 使 っ た 語 彙 的 意 味 記 述 と 超 語 彙 的 意 味 記 述 の 統 合. In Proceedings of the 24th Annual Meeting of the Japanese Cognitive Science Soci- ety (JCSS), pp. 424–429, 2007. [URL: http:

//clsl.hi.h.kyoto-u.ac.jp/˜kkuroda/

papers/msfa-meets-metaphor-jcss%

24-submitted.pdf].

[32] 黒田航,李在鎬,渋谷良方,井佐原均.複層意味フレー ム分析(の簡略版)を使った意味役割タグづけの現 状: タグづけデータから派生する言語資源の紹介 を中心に. 言語処理学会14回大会発表論文集, pp.

ab–cd, 2008.

[33] 黒田航,李在鎬,渋谷良方,河原大輔,井佐原均. 自動 獲得された大規模格フレーム辞書の精度向上を見込 んだ人手評価.言語処理学会第13回年次大会発表論 文集, pp. 1054–1057, 2007.

[34] 李在鎬. 他動詞のゆらぎ現象に対する「構文」的ア プローチ. 言語科学論集, Vol. 7, pp. 1–20, 2001.

[35] 藤田篤,乾健太郎. クラス指向事例収集による言い換 えコーパスの構築. 自然言語処理, Vol. 13, No. 3, pp.

133–150, 2006.

[36] 藤田篤,降幡建太郎,乾健太郎,松本裕治.語彙概念構 造に基づく言い換え生成—機能動詞構文の言い換 えを例題に.情報処理学会論文誌, Vol. 47, No. 6, pp.

1963–1975, 2006.

Referensi

Dokumen terkait

ておらず,ほとんどの発話で丁寧語を用いていた ことがわかった。また森の5つの謙譲語は全て 「~ていただく」の変化形であったことがわかっ た。選んだシーンの設定状況次第で登場人物の尊 敬語や謙譲語の使用頻度が異なる可能性は大いに ある。しかしそれでも学習者にとって意外だった ことは,里中が上司と話す際も尊敬語・謙譲語は 使わず丁寧語を使い続けていたことであり,課の

 インプット仮説 Krashen, 1985: 言語習得には,大量の 理解可能なインプットが必要  アウトプット仮説 Swain, 1985: アウトプットは,学習者 が意味の処理から構文の処理へと向かうことを助ける インタラクション仮説 Long, 1996: インタラクションは, インプットとアウトプットによって学習者に修正の機会を