井出 薫
20世紀中盤、イギリスで活躍した哲学者オースティンは、言語とは世界を記述する記号ではなく、言語行為の道具であると捉え、言語行為論を展開した。世界の記述や陳述も、人間社会における行為の一つだから、その考察は理に適っている。 彼の議論を引用すると、言語による行為は、発語行為、発語内行為、発語媒介行為という三つの相からなる。発語行為は文法的かつ意味的に適切な言葉を発することを意味する。これにより相手は話しかけられていることを認識する。発語内行為は言語行為の中核で、たとえば「明日、私は指定の場所に必ず行きます。」と言う場合、私は、私の明日の行動を予測しているのではなく、「約束」という行為を遂行している。そして、ここで言語によるコミュニケーションの最重要課題が遂行されたことになる。発語媒介行為は、発語行為と発語内行為を通じて、言葉には直接現れない付随的な効果を表す。たとえば、上の例文では、相手に「君も必ず来るように!」という暗黙の強制を意図している場合がある。そして、相手もその意図を察して必ず行かないとならないと悟る。ただし、これを理解するには、言葉が発せられた状況を適切に理解している必要がある。 オースティンの言語行為論には色々と異論もあるが、言葉の実質的な意味を捉えるうえで貴重なモデルを提供していると言ってよい。少なくとも、意味を理解していると言えるためには、この三つの相、発語行為、発語内行為、発語媒介行為を理解できることが欠かせない。 さて、人工知能は言葉の意味を理解できるかという問題がしばしば話題に上る。しかし、「言葉の意味の理解」について共通した基準はない。チューリングテスト(注1)は、ある意味、この問いへの答えと言えなくもない、しかし、チューリングテストに合格するだけでは不十分と思われる。それはサールの中国語の部屋(注2)の議論が示唆している。それでは、どのような状態が実現すれば、言葉の意味を理解していると言えるだろうか。 (注1)被験者は、それぞれコンピュータと人間と接続された2台のテレタイプで、両者と会話する。どちらがコンピュータかは被験者からは分からない。いろいろな質問や会話をしてどちらがコンピュータかを当てる。これがチューリングテストで、正答率が50%近くまで落ちてきたら、つまりチューリングテストで、コンピュータと人間の区別がつかなくなったら、コンピュータは思考をしていると考えてよいというのが、チューリングのアイデアだった。考えるということと、言葉の意味を理解することとは違うかもしれない。しかし、言葉の意味を理解できない者が考えることができるとは思えない。考えるとは、多くの場合、言葉を使って自問自答することだからだ。それゆえ、チューリングの考えでは、チューリングテストに合格するコンピュータは言葉の意味を理解していることになる。 (注2)中国語を全く知らない男が部屋にいる。部屋のポストから、次々と紙に書いた中国語の文章が投函される。男は、それを規則に従い、中国語の意味も分からないままに、英語に翻訳し、それをポストから外に出す。中国語の部屋はあたかも中国語を英語に翻訳しているように見える。だが、そこには、中国語の理解は存在しない。中国語の部屋の思考実験で、サールは既存の人工知能は規則に従っているだけで、意味を理解していないということを示唆した。尤も、サールの議論は異論も多く、部屋に居る中国語を知らない男だけではなく、部屋全体で考えるべきだという批判や、変換規則は膨大で人間がそれを全て調べて正しい英語を作り出すことは不可能であり、このような非現実な状況を以って人工知能は意味を理解していないという結論を出すことは出来ないという批判などがある。しかし、サールの指摘どおり、ただ中国語を規則に従って英語に翻訳しているだけでは、意味を理解しているとは言い難い。 ここで、言語行為論が議論の役に立つ。言語行為の三つの相を人間はすべて理解している。発語媒介行為は相手の性格や状況を熟知していないと人間でも理解できないことはある。だが、適切な環境におり、適切な情報が与えられていれば、たいてい人間は発語媒介行為を理解する。では、人工知能は三つの相をすべて理解することができるだろうか。発語行為を理解することはすでにできている。では、発語内行為はどうだろう。先の例では、それは約束することであった。だがそれを理解するとはどういうことだろう。約束を果たす、または約束を反故にすることができるということを意味する。人工知能にそのようなことができるだろうか。現時点ではできない。当たり前のことだが、移動できない人工知能ではこの約束を果たすことはできない。それゆえ、必然的に移動可能なロボットが必要となる。尤も、ロボットが自身である必要はない。知能は固定した人工知能にあるが、その指令で外部の(知的機能はない又は低い)ロボットを動かすのでもよい。だが、現状ではロボットにできることは著しく限られており、発語内行為を理解しているという域には達していない。(注3)また、ロボットが進化しても、発語内行為を理解する域に達するには、様々な課題がある。それは人間とロボットでは身体(ハードウェア)が決定的に異なり、どこまで行っても、人間とロボットでは理解の質が異なる可能性があるからだ。発語内行為の理解が困難である限り、発語媒介行為の理解も困難となる。逆に、発語内行為の理解が進めば、あとはフレーム問題の適切な解決をみれば、自動的に発語媒介行為を理解できることになる。 (注3)上の例では、「私はその場所にはいけない。」と回答すれば、約束を果たすことはできないと相手に誠実に応えたことになり、実質的に、約束を果たすことになるという異論があるかもしれない。だが、それは違う。たとえ、この場はそれで凌げても、代替策を提示できないと意味を理解しているとは言えない。 このように、言語行為論に基づき、人工知能による言語理解を論じることは有意義で、また工学的な目標設定にも役立つだろう。この方向で研究が進むことを期待したい。 了
|