Pattern Lattice を使った ( ヒトの ) 言語知識と処理のモデル化 ∗
黒田 航
NICTけいはんな研究所 言語基盤グループ
長谷部 陽一郎
同志社大学/NICT Modified on 03/15, 01/15, 16, 17/2009; Created on 01/12/2009
1 はじめに
§2で研究背景と基礎理論を,§2.3で実装の一例 を解説し,§3で理論的問題を議論する.
2 パターンの理論の必要性
2.1 言語の創造性を再考する
N. Chomskyが生成文法の枠組み[2]の中で提唱
し,その後,多くの研究者に受け入れらた幾つか のテーゼの一つに,(1)の言語の創造性のテーゼが ある:
(1) a. ヒトは自分が聞いた/読んだことのない 新しい表現を聞いた/読んだ時に,それを 理解できる.
b. ヒトは自分が聞いた/読んだことのない 新しい表現を作り出せる.
Chomskyは(1)を説明するために生成文法を考
案したと主張している.だが,(1)を説明する1)の に,本当に生成文法は必要だろうか?少なくともヒ トの記憶に関して別の見方を取り,(2)にあるよう な仮説を想定する限り,生成文法と同じくらい信憑 性のあるモデルを考えることは(理論的には)難し くない:
(2) 極端(に豊か)な記憶の仮説2)
a. ヒトは思い出せない(=意識の中に呼び 出せない)ような記憶を膨大に蓄積して いる.
b. 意識的に思い出せない多くの記憶も,適 当な刺激があれば思い出せる3).
∗この論文は同一著者のNLP15での発表論文の増補版であ る.主に字数制限で書けなかった部分を追加している.
1)本稿では追求しないが,(1a)と(1b)は同列に扱うことは できない.実際,これらの間には驚くべき非対称性があ る.ヒトが(1a)の意味で創造的なのは妥当な想定かも知 れないが,ヒトの産出は実際にはかなり保守的であり,ヒ トが(1b)の意味で創造的であるかどうかは疑問が残る.
2)詳細は[28]を参照されたい.
3)これは,思い出し/想起が抑制の解除によって起こるとい
要するにヒトは経験したことをすべて(暗黙知と して)記憶しているが,そのほとんどが思い出せな い状態にある(経験の内容は「覚えるは易し,思い 出すは難し」(easy to store, hard to recall/retrieve)と いう奇妙な特性をもつ).
(2)を想定する限り,(1a)の問題は,次のような 記憶ベースの言語の知識系と処理系を考えることで 解決できる見こみがある:
(3) a. ヒトは自分が聞いたことのない表現eを 聞いた/読んだ時に,それを理解できる のは,eと同一ではないが,それと部分 的に一致する(つまりeに「似た」)表現 の集合e01,e02, . . . ,e0nを(その自覚はない が)覚えていて,eの意味を,e01,e02, . . . , e0nの意味を組み合わせて構築している.
b. ヒトは今までに自分が聞いた/読んだこ とのない,新しい表現eを作り出せるの は,eで言うべき意味を,e01,e02, . . . ,e0n の意味m01,m02, . . . ,m0nを組み合わせて構 成でき,それに見合うようにe01,e02, . . . , e0nを統合できるからである.
(3a) は ([4] の よ う な 枠 組 み に 限 ら ず),今 の 言 語 処 理 が 明 示 的 ,暗 示 的 に 置 い て い る 想 定 で ある.例えば機械翻訳の分野で用例/事例ベース の (機 械) 翻 訳 (example-based (machine) transla- tion: EB(M)T) [8, 15] や 記 憶 ベ ー ス の (機 械) 翻 訳(memory-based (machine) translation: MB(M)T) [16]という形で実装されている処理系はいずれもこ の想定の下で行われている.だが,(3b)は(3a)ほ ど一般的には了解されていない.この非対称性は奇 妙である.
同じことを別の視点で記述するとこうなる:現在 の言語処理の主流は事例基盤であるが,過去をふり 返ると,90年代に文法基盤モデルから事例基盤モ うモデルがありえるということである.思い出しを抑制 の解除としてモデル化するのは一般的ではないが,この 可能性は[13,§6.5]でも示唆されているし,計算モデルと して[19]のEMILEも存在する.
デルの移行があったことがわかる.それまでの言語 処理では文法基盤の研究が主流だった(アナロジー
翻訳[15, 16]はその嚆矢である).その理由は二つ
ある:消極面では規則基盤の処理の限界が見え,積 極面では大規模コーパスが利用可能になり,統計的 手法が分野を席捲した.
だが,言語処理を産出(production)時の処理と受
領(reception)時の処理に分けた時,うまく行ってい
るのは後者のみである.実際,統計処理と互換性の ある事例基盤の言語産出のモデルは,今の時点で明 確なモデルとしては存在していない.本発表の狙い は事例集合のPattern Lattice (PL*)の理論によって この空隙を埋めることにある4).
(3b)でも(3a)でも本質的な条件は,効率の良い 類似例の検索である.これを可能にするのは何か?
—これがPL*を使って示そうとすることである.
2.2 事例と事例集合のパターンのラティス
§2.2.1で事例の定項の変項化という操作を定義
し,その定義の下に§2.2.3で単一事例eのパター ンラティスPL(e)を定義する.その定義を,続く
§2.2.5で事例集合を扱えるように一般化する.
2.2.1 事例の定項の変項化の定義
事例eを適切にT(e)= [t1,t2, . . . ,tn]に分割する モデルが与えられているとする(この理論が満足す べき条件については§3.1.2で後述する).この仮定 の下で,T の適当な定項tiを変項Xで置換する操作 をtiのXによる変項化と定義し,この操作の産物を eから派生したパターン(patterns derived frome)と 定義する.例えばe=「彼は歌って踊った」の分割 は(適当な分割のモデルMの下では)T(M,e)= [彼, は,歌っ,て,踊っ,た]であり,5番目の部分「踊っ」
をXで変項化したものは「彼は歌ってX た」とい うパターンである.変項X のタイプに制約を設け るかどうかは独立の問題とする.
2.2.2 言語情報の内部表現に関する想定
知覚された言語情報は内部表現(mental represen-
tations)に変換され,処理・維持される必要がある.
内部表現は,言語学や言語処理では言語表現の解析
(parses)と同一視されるのが通例であるが,私たち
はモデル化の出発点として,解析が(再利用の可能 性を最大にするために)次の特徴をもつべきである
4)もう一つの動機は第一著者が協力者と一緒に進めてい る複層意味フレーム分析(MSFA)を使った意味タグづけ [32]で,状況の記述と優先して対応づけるべき超語彙パ ターンをなるべく効率良く見つけたいという希望である.
これは非線型表現のデータベース化[23]の効率化とも関 係する.
と考える:5)
(4) a. 最小限の事前知識で盲目的に/機械的に 実行可能(intelligence-free);
b. 再 分 析 (=解 析 の や り 直 し) 不 要 (reanalysis-free).
私たちは§2.2.1で定義したパターンがこれらの
条件を満足する内部表現であると考える.
2.2.3 単一事例eのパターンラティスPL(e)
§2.2.1の変項化の定義の下で,事例eのパターン
ラティスPL(e)を次のように定義する:
(5) a. eの分割の結果をT(e)= [t1,t2, . . . ,tk] とする.T(e)の要素を再帰的に単一の 変項で変項化し,得られたパターンのべ き集合をP(e)とする.
b. 次のis-a関係の下でのP(e)の半順序集 合をeのパターンラティスPL(e)と定義 する.
c. pi,pj∈P(e)であるパターン pi のn番 目の要素pi[n]とパターンpjのn番目の 要素pj[n]との関係で,i)pi[n] =pj[n]で あるか,ii) pj[n]が変項ならば,[piis-a pj]である.
PL(e)の頂点(top)はk個の変項のみからなるパ
ターンで,PL(e)の底(bottom)はk個の定項のみか らなる事例=eである.
豊かな事例記憶の想定の下では,パターンは事例 集合へのインデックスになっていればよい.別の言 い方をするとパターンはスキーマとして事例とは独 立に自律的な内容をもっている必要はない(その内 容は常に事例集合の値の期待値として与えられる).
2.2.4 パターンのランクとPL(e)の部分集合への
分割
パターンpに含まれる定項の数をpのランクと 定義する.例えばp= [彼,は,X,て,X,た] (i.e., [彼, は,V1,て,V2,た] is-a p)のランクは4である.
ランクは定項の数でPL(e)を部分集合に分割す る.一般にeがk個の部分に分割される時,PL(e) の Rank 0 は k 個 の 変 項 の み か ら な る パ タ ー ン X X···X (= top)のみをもつ集合,Rankkは{e(=
bottom)}である.
5)句構造はこれらの条件(特に(i)の条件)を満足しない.例 えば句構造解析では[A B C]をパースするのに[A [B C]]
と[[A B] C]の曖昧性を解消する必要があるが,パターン
を使った表現では[A B C]は[A B C]のままであり,問題 の曖昧性は「解消」の必要がない.
2.2.5 事例集合のパターンラティスPL*
PL(e)は一つの事例eのパターンラティスであ
る.PL(e)はeと分割数が同じ事例と互換性がある
が,異なる分割数のPLとは互換性がない.この点 は次の仕方で異なる長さのパターンを統合すること で解決できる:
(6) 変項の再帰的単純化:6) 任意の連続したl個 の変項列X と連続したl−1個の変項列X0 について,[X0is-aX]が成立する.
事例集合E={e1,e2, . . . ,en}のパターンラティ
スPL(E)を参照の便宜のため,PL*で表わす7).
2.3 PL*の試験的実装: Pattern Lattice Builder
§2 のPL*の定義に基づいて PL*の処理システ ム Pattern Lattice Builder (PLB) を 試 作 的 に 実 装 し ,http://www.kotonoba.net/rubyfca/
patternで公開した.i) 一行に一事例 (要素分 割はスペース挿入で指定)でN行までの入力を受け つけ,PL*を可視化する(上記のWebサーバー上で のNの上限は30個だが,ローカルインストールで は自由に変更できる).その際,
(7) a. ii)指定した事例に寄与するis-aリンク
を色づけする;
b. iii)同一ランク内でパターンのもつ事例
数のzスコアを求め,それを色温度に変 換した(これにより,生産的=データの説 明力の高いパターンをそうでないパター ンから区別できる)8)
の機能をもたせた.図1 に{彼, は, 歌っ,た; 彼, は,踊っ,た;彼,は,歌っ,て,踊っ,た;彼,は,踊っ, て,歌っ,た}を与えた時のPLBの出力例を示す.
Rank 3では[彼 は た]の生産性がもっとも高く,
それに続くのが[彼 歌っ た]と[彼 踊っ た]で あることがわかる.
2.4 PL*上の統語処理と意味処理
ランクがkの実例eは,ランクがk−1の(超)語 彙的パターンp1,p2, . . . ,pkの重ね合わせ(=素性の 論理和)である.従って,eはp1,p2, . . . ,pkから非 排他的に意味的,音韻的資源を継承する.これはe の意味処理の際に,ランクが低い超語彙的パターン の方がランクの相対的に高い(超)語彙的パターン
6)PLBの実装ではl個の変項を一つの変項に置換するとい う簡略形で実装している.
7)なお,PL*の底は事例ではない.
8)ここでzスコアを利用するという案は出口雅也からの示唆 による.色温度への変換に使用したのはhttp://www.
graphviz.org.doc/info/colors.htmlのrdbu9 color scheme (区間の幅は0.5z).
よりも実例に「近く」,その分だけ影響が強いこと を意味している(§3.2.3で例を示す構文効果の原因 はこれだと考えられる).
残念ながら,本稿ではPL*上での意味処理の詳細 に立ち入る十分な余裕はない.興味がある方は[30]
を参照されたい.しかし,本稿の範囲内でお必要最 低限のことは言及しておきたい.
2.4.1 超語彙的単位の状況喚起の記述
私たちがPL*を使った記述したいと考えたのは 超語彙的単位(superlexical units)による状況喚起の 効果である.MSFAを使った意味タグづけの仕事
[33, 32]などから,次の特徴が一般に成立すること
がわかっている[31]:.
(8) 言語の単位(e.g.,形態素,語,句,文,連文) が状況を喚起する力は(ある程度の大きさま では)その大きさに比例する(従って,状況の 喚起力は形態素より語の方が強く,語よりも 句の方が強く,句よりも文の方が強い). これは次のことを含意する:
(9) どんなに精緻なものであっても,語の意味記 述を積み重ねて行くだけでは,十分な文の意 味記述には到達できない可能性がある.
PL*はこの「経験的な問題」をもっとも直接的な 形で解決するために考案された.PL*上での意味処 理には次の特徴がある:
(10) 一般に,事例eの意味の記述にランクがiの (超)語彙的パターンの意味が必要になるの は,ランクがi+1の超語彙的パターンによ る記述が不充分である場合に限る.
別の言い方をすると,超語彙的単位の意味記述が 十分であれば,語彙的単位の意味記述は不要だと言 うことであり,これが[17]の言うIdiom Principle や[18]の言う言語表現の定型性(formulaicness)の 基盤である9).
2.4.2 PL*が暗黙に表わしているもの
ここで注意が必要なのは次の点である:
(11) a. ランクkの超語彙的パターンの意味は,
(全部でk個ある)のランクk−1の超語 彙的パターンの意味で十分に表現され ているとは限らない(従って,超語彙的
9)Idiom Principleや定型性は記述的一般化=経験則であり,
それが成立するメカニズムは不問になっていることに注 意されたい.言語の知識がPL*で記述されるようなもの であるということが,これらが成立する条件を特定して いる.
図1 Rank 0, Rank 1, . . . , Rank 6のパターンの個数は,おのおの1, 6, 22, 38, 31, 12, 2 (合計112)である
パターンの意味は語の意味には還元でき ない).
b. PL*は事例eの意味計算(と音韻計算)の 際の資源の利用の優先順位を表わしてい
る: PL*のノードはランクが低いほど(つ
まり事例寄りであるほど)貢献度が高く,
ランクが高いほど(つまり語彙的である ほど)貢献度が低い.
§3.2.3で(11a)の例を見る.
(11)はPL*の理論の帰結であると同時に,それは 言語の認知科学がPL*の理論を必要とした理由でも ある.
2.4.3 PL*は何を表わしているか
(11)の前提として,私たちはPL*がオンラインの 解析結果であるのではなく,それがヒトの言語の知 識それ自体であると考える.私たちが提案するPL 基盤の言語の知識のモデルは,文法は可能な限り小 さく,辞書/事例記憶の役割が可能な限り大きいよ うなモデルである10).
2.4.4 PL*基盤の処理はヒトの脳の中ではどうや
って実現されているか?
この点に関して,次のように問うことは無意味で はないだろう:一人の個人の全言語的知識を記述す るような大規模なPL*を実装するにはどんなシステ ムが必要か?
PL*基盤の処理システムは高度な並列性を必要と し,検索トリックがないとうまくゆかない.この点 で,普通の計算機上で,ヒトの言語知識全体を表現 するような大規模なPL*の効果的な実装は非常に困 難であることを私たちは進んで認める.だが,それ は大規模なPL*の実装が不可能だということではな い.少なくともそれはヒトの脳によっては実現され ていると考える必要がある11).ヒトが行なってい る驚くべき効率の記憶検索を十分にうまく説明する モデルなら,それが可能になるはずである.幸い,
非常に魅力的なヒトの想起の計算モデルが[19]に よって提案されている.彼の提案するEMILEモデ ルはPL*の実装の最良の候補であるように思う.
2.4.5 PMAとの関係
今となってみると,第一著者が提案したPattern Matching Analysis (PMA) [9, 10]はPL(e)のRank
10)もう一点,スキーマ(schemas)の役割も可能な限り小さ い.実際,このモデル化ではスキーマには事例集合の効果 的なインデクスとして機能する以上のことは要求されて いない.別の言い方をすると,スキーマは生成的な装置で はない.
11)次の点は進んで認めるべきである:ヒトの長期記憶には限 界がなく,多くの記憶が抑制によって想起を妨げられて いるだけである[13, 19].
1のパターンの組合わせで事例eの統語構造を記述 するものであったことがわかる.それは統語構造を 記述するのに十分だが,構文効果を説明するのに は十分ではないことがわかる12).構文効果の説明 はRankが低い=定項の数の多い超語彙的パターン からの意味継承が,Rankの高い=定項の少ないパ ターンからの意味継承に優先するという条件があ る場合にのみ成立する.そういう意味では,PMA
はPattern Latticeの理論に吸収されていると言って
良い.
3 議論
PLには実装に拠らない不利点と利点とがある.
これらについておのおの論じる.
3.1 PL*基盤の記述の不利点
3.1.1 分割数の増大と組合わせ爆発
Pattern Latticeを使った最大の難点は,おそらく
(A)組合わせ爆発に起因する記憶と処理の非効率 性,並びに(B)規模の拡大可能性(scalability)の問 題である.
PL(e)のノード数は,eがn個の分割をもつ場合,
2nである.PL∗の複雑性Cは,eごとの分割の数 k,分割の異なり数lで決まるが,lよりkに依存す る度合いが強い.分割数が大きくなると組合わせ爆 発が起こる.
事例の分割数kに計算論的な上限があるという事 実は,言語処理の観点から見る限り難点でしかない が,言語の認知科学の観点から見ると,逆に重要な 含意をもつ.
3.1.2 処理範囲の最適化
今のところ十分な根拠を示すことはできないが,
組合わせ爆発に関連して一つ,興味深いと思われる 点がある:
(12) 特にeの分割数とPL(e)の複雑性の対応に は,(分割数が7を境にして) (相転移に似た) 質的変化がある.
分割数kは多ければ良いというわけではなく,課 題に応じて最適値が決まるようである.経験的に は,単文の項構造を記述するのに十分な被覆率を確 保するには7個(=[3, 1, 3])の分割が必要で,頻度 は低い少し複雑な場合を取り入れるためには9個
(=[4, 1, 4])の分割が必要になるという感じである.
具体的に言うと,PL(e)を構成する全パターンのう ち,意味をもつという直観が容易に得られるパター ンの比率rを考えると,文節数が7個を超えると,
12)これは[31]で指摘した.
rが急に低くなるように思える13).これは依存関係 の候補を見つけるための窓が,標的の左(=過去)に
−3個(か−4個),右(=未来)に+3個(か+4個) ぐらいのスパンにあるということである.この観察 は今のところ主観的なものにすぎないが,将来的に は7個を境に本当にそのような変化があるのかを検 証したい.
3.1.3 分割の最適化と処理の複層化
分割数/計算の複雑性の自然な上限が存在するな らば,それは言語単位の時間的幅/処理の深さに応 じて,最適な分割が,異なったレベルに幾つか併存 することが理論的に必然化するとも考えられる.例 えば(M)語の内部構造=形態論での分割の最適化,
(S)文の内部構造=狭義の統語論での分割の最適化,
(D)話の内部構造=広義の統語論での分割の最適化 は別のものであり,かつ,おのおのが言語の処理レ ベルに対応していると考えられる14).分割単位の 恣意性は,PL*の理論の弱点というより,処理の複 層化された分割の複数の最適化を保証する利点であ ると考えるべき可能性が残される15).
3.1.4 段階を踏んだパターンの獲得
組合わせ爆発は機械上の言語処理で問題になるば かりでなく,言語獲得においても深刻な問題とな る.だが,別の見方をすると,言語獲得の際に子供 がどうやって組合わせ爆発を問題を回避しているか という形で,言語獲得の謎を解明する契機になる可 能性もある.
語彙的パターン(=R1のパターン)とランクの低 い超語彙的パターン(e.g., R2, R3)は,分割数の影 響を強く受けず,それらは分割数が大きい場合でも 流用可能であることに注意されたい.これから,子 供はランクの低い語彙的,超語彙的パターンを先に 獲得し,それをランクの高い,複雑な事例に流用す るという戦略を取っている可能性が考えられる.こ
13)この数に不思議な数7 [14]との関係を読み取るのは,必 ずしも牽強付会とは言えないだろう.
14)扱う現象のタイプによって,形態素規模の分割が妥当な 場合,語句規模の分割が妥当な場合,文=節規模の分割が 妥当な場合があるということは言語学では経験的に知ら
れている(それはしばしば言語理論のモジュール化の正当
化の理由になる).だが,この理由は自明ではない(普遍 文法(UG)をもち出し,それが元から幾つかのモジュー
ル群(e.g.,形態論モジュール,統語論モジュール,談話モ
ジュール)に分れていると言ったたところで,それは何の 説明でもない).
15)日本語に関して言うと,M, S, Dレベルでの助詞の機能分 化がありそうだ:「∼と」「∼て」「∼で」「∼た」「∼だ」は 述語間の共起関係(Dレベル)を,「∼が」「∼を」などは述 語内の要素間の共起関係(Sレベル)を,「∼な」「∼の」(と
「∼に」)は,句内の要素間の共起関係(Mレベル)をエン コードしているようだ.
れは規模の拡大可能性を保証する「最初は少なく (starting small)」[5, 3]の原理に従っていると考え られる.
以上の理由から,PL*では分割単位の認定の問題 を,eの分割数kの決定の問題から意図的に独立さ せない.
3.2 PL*基盤の記述の利点
PLの利点は(以上の不利点と引換えにではある が)少なくとも(13)に示した,互いに関連しあった 利点をもつ:
(13) a. ヒトの言語処理の記述と説明において,
言語学的理論(aka先入観)の干渉を最小 限にできる(少なくとも句構造は不要で あり,極端なことを言うと品詞ラベルも 不要).
b. 構文効果[6, 7, 34, 20]に代表される超語 彙的パターン/非線型表現[23, 22]の意 味貢献を非アドホックに,体系的に記述 可能
3.2.1 言語処理での「文法」の役割の最小化
PL*基盤の処理システムでは,「文法」の役割は 極小化されている.極論すると,PL*基盤の処理シ ステムは「辞書」だけで動いていると言っても良い (明らかに句構造はない).そればかりか,品詞ラベ ルすら無用化されている(少なくとも変項の実現値 は意味的に制約されるので,品詞の上での制約は (あっても困らないが)必要不可欠ではない).しか し,記述に必要な般化は十分に起こっており,効果 的な選択制限の記述すら可能である.
実際,この特徴の派生的な効果として,池原ら
[23, 22]が進めてきたパターン翻訳で非線型パター
ンを自動的に発見することが可能である16). 3.2.2 PL*基盤の記述は「バカバカしい」か?
言語学者の中には,PL*を使った言語の知識の記 述を「バカバカしい」と感じる人が少なくないとい うことは想定内である.彼らがそう思う理由はわか らないわけではないが,これはモデル化の出発点と 目標地点の違いである.私たちはヒトの言語の知識
=文法をモデル化する際に,それをヒトの言語の処 理から独立させないという条件を設けた(文法を記 述するとしても,計算機上での実装可能性が保証さ れていない記述は幾らでも可能だからである).文 法的知識の最小限化はその設定の自然な帰結であ り,それが一部の研究者にとって「バカバカしく」
見えるのは理解に難くない.それは「有意義な一般 化を表現していない」ように見える.だが,PL*基
16)Pattern Latticeの理論化の動機の一つはこれであった.
盤のモデルが有意義な一般化を表現しているかど うかは,言語学者の直観的評価に基づいて決まるこ とでなく,ヒトの言語処理上の妥当性に基づいて決 まることである.この際に私たちが強く意識するの は,文法が何であるかに関する先入観を排するべき であるという点である.私たちが提案したモデル が,その最大の内在的困難である規模の拡大可能性 を満足し,かつ記述的に妥当な理論的予測を行なう ならば,どんなにバカバカしく見えようと,それは 妥当なモデルとして評価されるべきである.
3.2.3 構文効果の説明の実例
李[34]は(14)の用法でニ格名詞句を認可するの は「消え(る)」の語彙的な意味ではないと論じてい る:17)
(14) a. 患者が診察室に消えた
b. テールランプが(暗)闇に消えた c. エルフの船が光の中に消え. . . d. ヒュウガが地割れに消えた
構文上の意味は[N1がN2にV]というパターン に帰着できるわけではない.(15)は移動の意味はも たない:
(15) a. 彼が知人に会った
b. 子供が親に似ている(のは当然だ) 李の結論は,構文上の意味の担い手は抽象的な パターン[N1がN2にV]ではなく,[[Human]が [Location∨Space]にV]のような,N1, N2の意味 クラスに言及するもう少し具体的なパターンだとい うものである.
意味クラスは(i)事例集合を通じて(分布類似度 の高いクラスとして)獲得される,(ii)意味クラスは (有限集合に限って言うと)値の集合で表現できると いう二点を考えると,PLは明示的に[N1がN2に V]のような「格パターン」のNの意味クラスに言 及してはないが,それが表わすのと同じタイプの一 般化を表現できる.そればかりでなく,PLベース の記述では,パターン間の階層的関係を明示的,か つ体系的に記述できるという利点がある.実際,次 のことがPL*の定義から予測され,事実は予測の通 りだと思われる:
(16) パターンを構成する変項は,ランクが高いほ
ど(e.g.,R=1, 2)潜在的意味クラスとの対応
が弱く,ランクが低いほど意味クラスとの対 応が良い.
17)同じ「消え」という動詞が使われているが,語義は同一で はない.語義は「消滅し」や「消失し」との交替条件と相 関している.
(17) 構文「効果」は(16)の想定の下で作用する 超語彙的パターンの変項の補完の産物であ る18).
3.3 [XがYにV]のPL*の一部 図2に(18)のPL*を示す: (18) a. 彼 が 部屋 に 消え た
b. 彼 が 部屋 に 入っ た c. 彼 が 部屋 に 入っ て 消え た
(18)の文は超語彙的パターン5-2 [彼 が 部屋 に た] (とその親である4-1 [彼 が 部屋 に ])を共有し ている点に注意されたい.(18a)の解釈が(18b)と
(18c)の解釈に関連づけられるための十分条件を記
述している.
4 終わりに
4.1 課題と将来への展望
PLBにデータベースをもたせ,超語彙的パター ンのデータベース化を行いたい.これにより十分な 被覆率をもった超語彙的パターン/非線型表現=構文 のデータベースが得られる可能性が現実的なものと なる.
4.2 幾つかの応用可能性19)
可能性を思いついただけで実装されてないが,
PL*には幾つかの応用があるように思う.
4.2.1 対訳アラインメントの高精度化
対訳関係にある(e,e0)のPL*を構築し,PL(e)と PL(e0)との間で対訳関係が取れるパターンの集合 を特定する.この対応づけは統計翻訳で使われてい るフレーズテーブルの対案(か少なくとも改良案) になる.今のところは人手でやるしかないかも知れ ないが,この作業を半自動化できれば機械翻訳の精 度は向上するように思う.自動獲得されたフレーズ テーブルは,言語学者の観点から見るとまだまだ精 度が低いように思うし,取り出される単位が恣意的 であるように見える.
4.2.2 コーパス事例の単純化
新聞コーパスであれ,他の分野のコーパスであ れ,多くの場合に実例は複雑すぎる.実例をそのま
18)例えば,図1の5-2 [彼 は 歌っ て た]の空所に[踊っ]を 補完するのは,日本人を母語にする話者には特に難しい ことではない(が,十分な事例記憶をもたない非母語話者 には難しい可能性がある).このような種の補完が暗黙に 起っていることで構文効果が生じると説明すれば,具体 的な語に言及しない抽象的構文(e.g., [N1がN2にV])が 移動の意味をもっている/エンコードしているという(過 剰般化に繋がる)想定はしなくて済む.
19)2009/01/17に追加.
図2 (18)のPL*:色温度が高いものが同一ランク内で相対的に説明力のあるパターン
ま言語資源として使うには,幾つかの点で効率が悪 い.実際,単語規模のデータベースと実例のデータ ベースの中間レベルには,句のデータベースなど があってよいはずである(換言表現のデータベース
[21, 35, 36]などは,この規模の言語資源として意
図されているのだと思う).それとは別の方向性と して,既製のコーパスの事例がすべて単文化された もの,謂わば「単純化コーパス」があれば便利だと 考えている人は少なくないと思う.もちろん,これ を実現するための技術困難はそれなりにある(苦労 の割には見返りが少ないのでNLP関係者はこの仕 事に誰も手をつけていないのだと思う).
PL*は常に,複文を重文を単純化したパターンが 含まれる.それらを高精度と他の有用性の低いパ ターンから区別できれば,単純化コーパスを(半) 自動的に構築できる(ただし,これには分割の多い PL*が効率的に扱えるようになっていないといけな いので,ここには「卵が先か,鶏が先か」という悪 循環があるかも知れない).
4.3 言語の創造性は「豊かな事例記憶」の随伴事象 本発表で私たちは(3)の記憶ベースの言語知識 のモデル化として事例集合のPattern Lattice (PL*) を提案した20).PLは事例基盤の言語処理で有用な データ構造に基礎を与えるだけでなく,理論言語学 で用法基盤アプローチ(Usage-based Approach)と 呼ばれる枠組み[1]にも理論的基礎を提供すると考 えられる.
最後に用法基盤/事例基盤モデルは次の重要な含 意をもつことを指摘して本論文を終えることにし たい:
(19) (3)で特徴づけた記憶ベースの言語知識と処
理のモデル化が正しいならば,
a. 言語の創造性は豊かな記憶の産物の随伴 事象である;
b. 表層形に関するスキーマ的知識(e.g.,コ ロケーション)が深層にあると想定され る概念構造と同じ位か,あるいはそれよ りも重要である.
(19b)の重要な帰結の一つはいわゆる概念メタ
ファー(Conceptual Metaphor) [11, 12, 24, 25]は支 持者から期待されているほど体系的でも,事実に対 する説明力もないということだが,この論文では詳 細には立ち入らない.関心のある読者は[26, 29, 27]
に当られたい.
20)第一著者が開発したPattern Matching Analysis (PMA) [9,
10, 31]は,記憶ベースの記述モデルの具現化の一つとし
て構想された.
参考文献
[1] M. Barlow and S. Kemmer, editors.2000. CSLI Pub- lications, 2000.
[2] N. Chomsky. Aspects of the Theory of Syntax. MIT Press, Cambridge, MA, 1965.
[3] C. M. Conway, M. R. Ellefson, and M. H. Chris- tiansen. When less is less and when less is more:
Starting small with staged input. InProceedings of the 25th Annual Conference of the Cognitive Science So- ciety, pp. 270–275. Mahwah, NJ: Lawrence Erlbaum, 2003.
[4] W. Daelemans and A. van den Bosch.Memory-based Natural Language Processing. Cambridge Unversity Press, Cambridge, UK, 2005.
[5] J. L. Elman. Learning and development in neural net- works: The importance of starting small. Cognition, Vol. 48, No. 1, pp. 71–99, 1993.
[6] A. D. Goldberg. Constructions: A Construction Grammar Approach to Argument Structure. Univer- sity of Chicago Press, Chicago, IL, 1995.
[7] A. E. Goldberg. Constructions at Work. New York:
Oxford, 2006.
[8] J. Hutchins. Example-based machine translation:
A review and commentary. Machine Translation, Vol. 19, pp. 197–211, 2005.
[9] K. Kuroda. Foundations of PATTERN MATCHING
ANALYSIS: A New Method Proposed for the Cogni- tively Realistic Description of Natural Language Syn- tax. PhD thesis, Kyoto University, Japan, 2000.
[10] K. Kuroda. Presenting the PATTERN MATCHING
ANALYSIS, a framework proposed for the realistic de- scription of natural language syntax. Journal of En- glish Linguistic Society, Vol. 17, pp. 71–80, 2001.
[11] G. Lakoff and M. Johnson. Metaphors We Live By.
University of Chicago Press, 1980. [邦訳:『レトリッ クと人生』(渡部昇一ほか 訳).大修館.].
[12] G. Lakoff and M. Johnson. The Philosophy in the Flesh. Basic Books, 1999.
[13] J. L. McGaugh. 記憶と情動の脳科学:「忘れにくい 記憶」の作られかた(B1514).講談社, 2006. Transla- tion ofMemory and Emotion: The Making of Lasting Memories, Columbia University Press, 2003.
[14] George A. Miller. The magical number seven, plus or minus two.The Psychological Review, Vol. 63, No. 2, pp. 81–97, 1956.
[15] S. Sato. A mimd implementation of example-based translation on cm. In RWC Technical Report, TR- 9401, pp. 35–36, 1994. [citeseer.ist.psu.
edu/sato94mimd.html.
[16] S. Sato and M. Nagao. Toward memory-based trans- lation. InProceedings of COLING-90, Helsinki, Fin-
land, pp. 247–252, 1990.
[17] J. M. Sinclair. Corpus, Concordance, Collocation.
Oxford University Press, 1991.
[18] A. Wray.Formulaic Language and the Lexicon. Cam- bridge University Press, Cambridge/New York, 2002.
[19] 月元敬. 抑制に基づく記憶検索理論の構成. 風間書 房, 2008.
[20] 中本敬子,李在鎬,黒田航. 日本語の語順選好は動詞 に還元できない文レベルの意味と相関する:心理実 験に基づく日本語の構文研究への提案. 認知科学, Vol. 13, pp. 334–352, 2006.「文理解」特集号. [21] 乾健太郎,藤田篤. 言い換え技術に関する研究動向.
自然言語処理, Vol. 11, No. 5, pp. 151–198, 2004.招 待論文.
[22] 池原悟,阿部さつき,竹内奈央,徳久雅人,村上仁一. 意味的等価変換方式のための重文複文の統語的意味 的分類体系について. 情報処理学会研究報告, Vol.
2006-NL-176, pp. 1–8, 2006.
[23] 池原悟, 徳久雅人, 村上仁一, 佐良木昌, 池田尚志, 宮崎正弘. 非線形な重文複文の表現に対する文型 パターン辞書の開発. 情報処理学会研究報告, Vol.
NL-170, No. 25, pp. 157–164, 2005.
[24] 鍋島弘治郎. 領域を結ぶのは何か:メタファー理論 における価値的類似性と構造的類似性. 日本認知言 語学会論文集第3巻, pp. 12–22.日本認知言語学会 (JCLA), 2003.
[25] 鍋島弘治郎.黒田の疑問に答える:認知言語学からの 回答.日本語学, Vol. 26, No. 3, pp. 54–71, 2007.
[26] 黒田航. 概念メタファーの体系性,生産性はどの程 度か? 日本語学, Vol. 24, No. 6, pp. 38–57, 2005.
[27] 黒田航. メタファー理解の状況基盤モデルの基本 的な主張: 概念メタファー理論との比較を通じた 解題. http://clsl.hi.h.kyoto-u.ac.jp/
˜kkuroda/papers/smmc-in-a-nutshell.
pdf, 2007.
[28] 黒 田 航. 徹 底 し た 用 法 基 盤 主 義 の 下 で の 文 法 獲 得: 「 極 端 に 豊 か な 事 例 記 憶 」の 仮 説 で 描 く 新 し い 筋 書 き. 月 刊 言 語, Vol. 36, No. 11, pp. 24–34, 2007. 原 典 版: http://clsl.hi.
h.kyoto-u.ac.jp/˜kkuroda/papers/
la-with-rich-memory-full%.pdf.
[29] 黒 田 航. 鍋 島 氏 か ら の 反 論 に 対 す る 幾 つ か の 異 論. http://clsl.
hi.h.kyoto-u.ac.jp/˜kkuroda/
papers/reply-to-nabeshima-07-ab%
ridged-v1-sc.pdf, 2007.
[30] 黒 田 航. な ぜ 超 語 彙 的 パ タ ー ン が 語 彙 的 パ タ ー ン よ り も 重 要 な の か?: 構 文「 効 果 」の 記 述 の た め の 基 礎 理 論 の 提 示. http://clsl.hi.
h.kyoto-u.ac.jp/˜kkuroda/papers/
constructions-as-bias-so%urces.pdf, 2008.
[31] 黒 田 航, 中 本 敬 子. 文 彩 を 生 じ さ せ る(語 の) 意
味 の 相 互 作 用 の 実 体 は 何 か?: MSFA と PMA を 使 っ た 語 彙 的 意 味 記 述 と 超 語 彙 的 意 味 記 述 の 統 合. In Proceedings of the 24th Annual Meeting of the Japanese Cognitive Science Soci- ety (JCSS), pp. 424–429, 2007. [URL: http:
//clsl.hi.h.kyoto-u.ac.jp/˜kkuroda/
papers/msfa-meets-metaphor-jcss%
24-submitted.pdf].
[32] 黒田航,李在鎬,渋谷良方,井佐原均.複層意味フレー ム分析(の簡略版)を使った意味役割タグづけの現 状: タグづけデータから派生する言語資源の紹介 を中心に. 言語処理学会14回大会発表論文集, pp.
ab–cd, 2008.
[33] 黒田航,李在鎬,渋谷良方,河原大輔,井佐原均. 自動 獲得された大規模格フレーム辞書の精度向上を見込 んだ人手評価.言語処理学会第13回年次大会発表論 文集, pp. 1054–1057, 2007.
[34] 李在鎬. 他動詞のゆらぎ現象に対する「構文」的ア プローチ. 言語科学論集, Vol. 7, pp. 1–20, 2001.
[35] 藤田篤,乾健太郎. クラス指向事例収集による言い換 えコーパスの構築. 自然言語処理, Vol. 13, No. 3, pp.
133–150, 2006.
[36] 藤田篤,降幡建太郎,乾健太郎,松本裕治.語彙概念構 造に基づく言い換え生成—機能動詞構文の言い換 えを例題に.情報処理学会論文誌, Vol. 47, No. 6, pp.
1963–1975, 2006.