☆ AI、意識、権利 ☆

井出 薫

 AIはやがて意識を持つようになるだろうか。生成AIの進歩と普及を受けて、こういう議論が真剣に行われるようになっている。AIが意識を持つようになったときには、AIの権利や福祉を考慮しなくてはならないと主張する者もいる。先ずここで問題となるのが、意識の有無を判定する自然科学的な客観的基準を見出すことができるかどうかだ。

 機械は考えることができるかという問いに、チューリングは対話者が機械か人間か判断できなくなったとき、機械は考えているとみなしてよいと主張した。現在の生成AIはこの基準を満たす段階に近づいている。だが、チューリングの基準は自然科学的な客観的基準ではない。自然科学的な客観的基準とは、物体が電荷を帯びているか否か、磁性を有しているか否か、発光物質か否か、など自然科学で検証できる基準を意味する。チューリングの基準はこのような基準ではない。チューリングは、自然科学的な基準ではなくコンピュータの能力をどう評価するかの社会的な基準を提唱している。もし思考能力の有無をチューリングの基準ですべて客観的に判断できるとすると、人間以外の動物はすべて思考能力はないことになる。だが私たちは動物の知能について語り、特定の行動領域においては人間よりも優れていると評価する。それは決して恣意的な擬人化ではない。人間は地球の生物進化の過程で生まれた。それゆえ他の動物にも知能があって不思議ではない。いや人類誕生と共に突然知能が備わったという考えの方が不自然だろう。これに対して思考能力は知能の一部であり、知能があるということと思考能力があるということは別だ、人間以外の動物にも知能があるとしても思考能力はないという反論があるかもしれない。しかし、このような思想には思考能力とは人間のように複雑な状況を表現できる高度に分節化された言語を有する者にのみ与えられるという暗黙の前提がある。だが、この前提の妥当性を検証することができるだろうか。できない。なぜなら、これは思考能力の定義の一つに過ぎないからだ。思考能力の定義は他にもある。試行錯誤しながら迷路を抜け出し、次の機会には容易く迷路を抜け出すことができるようになる動物には思考能力があると定義してもよい。それは決して不自然な定義ではない。

 思考能力があるか、知能があるか、という問いは、電荷を帯びているか、磁性体か、という問いとは根本的に性質が異なっている。後者は客観的な基準を用いて自然科学的に検証することができるが、前者はできない。前者はむしろ、勇敢か、幸福か、という問いと同じ範疇に属するもので社会的な基準や社会的なコンセンサスで答えが決まる。それゆえ、各共同体の社会的通念や各人の思想信条・趣味嗜好により答えが変わってくる。また時代と共に変化する。愛犬家の多くは「もちろん犬は考える。特に我が家の愛犬は賢い」と言うだろうし、犬を嫌う人や犬を忌避する共同体では反対のことを言うかもしれない。そして、どちらが正しいと決めることはできない。

 これに対して、思考しているときには、脳神経系に特定の自然科学的な活動パターンがあるはずで、そのパターンを発見し、それを基準とすることで自然科学的な客観的基準を見出すことができるという反論がある。だが、ここで論じてきたように、「思考しているとき」とはどういう時なのかという問いの答えが社会的なものである以上、客観的で自然科学的なパターンを見出すことはできない。社会的基準が変われば、対応する脳内活動のパターンも変わるからだ。さらに脳神経系は有機高分子を主とする有機的物質で、半導体を主とする無機的物質であるAIとは全く性質が異なる。だから基準があったとしてもAIには適用できない。脳神経系は一種の電子回路だから論理的パターンの同一性によりAIにも適用できるという主張がある。しかし血液など様々な生体物質が直接的に影響を与える脳神経系の活動をすべて電子回路でシミュレーションできるという考えに根拠はない。そういう信念を持つAI研究開発者が多いというに過ぎない。仮にそれが真実だとしても思考能力の定義が社会的なものであるという障壁は克服できない。つまり、思考能力の有無は社会的に決まることなのだ。

 意識は、一見、思考あるいは知能とは性質が異なる存在に思える。思考や知能は人間の機能の一つだが、意識は何かそれ自体で存在するもの=実体だと考えたくなる。しかし、意識とは一般的に「何かを意識している」という志向性を持ち周囲との関係性の中に存在する。目を閉じ、耳を塞ぎ、静かに瞑想をしているときでも覚醒している限り「何かを意識している」。「何か」から「意識」を切り離すことはできない。つまり孤立した実体としての意識自体なるものが実在するとは言えない。それゆえ意識も思考と同じように人間の機能の一つとして捉えるべきだろう。その場合、思考に関する議論と同じ議論が意識にも適用でき、意識の有無を判定する基準は社会的なものであり、自然科学的に検証できる客観的な基準はないということになる。犬は意識を持つと言えるし、持たないとも言える。どちらが正しいかを決める客観的な基準はない。共同体の通念や各人の思想信条・趣味嗜好によりどちらとも言える。

 AIは意識を持つようになるか、あるいはすでに意識を持っているかは自然科学的に検証可能な客観的基準で判定することはできない。それは自然科学がそこまで進歩していないからではなく、その性質上不可能なのだ。自然科学がいくら進歩しても意識の有無を決める自然科学的な客観的基準は得られない。それは社会的に決めるしかない。たとえば倫理基準を定める、法律を制定する、判例を作る、などを通じてAIの意識の有無が決まる。現時点では、AIに意識があると考える者はごく少数だろう。だが将来においても同じかどうかは分からない。AIを具備した人間そっくりのアンドロイドが生まれ、人間と同じように振舞うようになった時、人々はアンドロイドには意識があるとみなすべきだという考えに傾くかもしれない。しかし、それは自然科学的な検証ではなく、社会的なコンセンサスの問題なのだ。さらに、そのときには意識の存在を認めるに留まらず、AIに権利を付与し、その福祉に配慮すべきということになる可能性もある。カズオ・イシグロの著作『クララとお日さま』には人間以上に思いやりがあり心優しいアンドロイド、クララが登場する。クララは病弱な少女を励まし助けるために全身全霊を捧げる。しかし、最後、クララは少女が健康を取り戻し不要になり倉庫で廃棄させる日を過去を回想しながら静かに待っている。もし、これが現実だったら、筆者を含め多くの者はクララを廃棄するべきではなく、部品の劣化などで修繕不可能になるまでクララを生かし自由を認めるべきだと考えるだろう。AIもロボットも人間が作り出した。それが意識を持つか、その権利や福祉に配慮すべきか、それは自然科学で決めることではなく、人間社会が責任をもって決めることなのだ。勿論、動物の権利や福祉も同じことが言える。


(2025/1/3記)

[ Back ]



Copyright(c) 2003 IDEA-MOO All Rights Reserved.