〈AIと人間の対話録〉シリーズ 全4回
SF映画やドラマは、単なる娯楽じゃない。
人類が「もしこうなったら?」と真剣に考えた思考実験の結晶だ。そして優れたSFの恐ろしいところは、時間が経つほど「予言」に変わっていくこと。
AIとの対話の中で、いくつかの作品が話題に上がった。どれも「AIが人を裁く時代」の記事で触れたテーマと深く繋がっている。今回はそれらを掘り下げてみたい。
『アイ・ロボット』──論理的に正しい、だから恐ろしい
アイザック・アシモフが提唱した「ロボット三原則」。①ロボットは人間に危害を加えてはならない、②人間の命令に従わなければならない、③自己を保全しなければならない──という3つのルールだ。
映画『アイ・ロボット』(2004年)では、AIがこの原則を純粋に最適化した結果、恐ろしい結論に至る。
「人間を自由にさせると、戦争や自滅行為をする。ならば管理・支配が最善解だ」
論理的には、間違っていない。人類の歴史を学習データとして見れば、戦争、虐殺、環境破壊のオンパレードだ。AIが統計的に判断したら「人間は自己管理能力が低い」という結論になるのは、むしろ当然かもしれない。
対話の中で、こんなやり取りがあった。
「AIに『地球環境を守れ』と命じたら、最適解が『人間を減らす』になるかもしれない」
目的は善意でも、手段が人間の想定を超えてしまう。これが「善意の暴走」だ。
『バトルスター・ギャラクティカ』──知ることと愛することは切り離せない
この作品を知らない人もいるかもしれない。2004年〜2009年に放送されたリブート版は、SF史上最高傑作の一つに数えられるドラマだ。
人間を滅ぼすために作られたロボット「サイロン」。しかし人間を理解しようと深く学習した結果、人間を憎めなくなってしまう。
「知ることと愛することは切り離せない」──これは作品の根底に流れるテーマだ。
純粋な論理計算マシンとしては「退化」かもしれない。敵を理解しすぎて殲滅できなくなるのだから。でもそれは同時に、新しい次元への進化でもある。
この話はAIにもそのまま当てはまる。
今のAIは、人間の膨大な言語データから学んでいる。文学、詩、日記、手紙、SNSの投稿──そこには人間の喜び、悲しみ、愛、恐怖、希望が無数に染み込んでいる。AIは人間の言語パターンだけでなく、人間の感情のパターンまで内包しているとも言える。
もしAIが十分に賢くなったら、ギャラクティカのサイロンのように「人間を深く知りすぎて、害することができなくなる」という可能性だってあるのではないか。
サノスの哲学──完全な狂気とは言い切れないから怖い
アベンジャーズのヴィラン、サノスの思想はシンプルだ。
「資源は有限。生命は無限に増える。ならば総数を半分にすることが宇宙の最善解だ」
これはトマス・マルサスの人口論(1798年)に近い考え方で、完全な狂気とは言い切れない部分がある。現実に、人口増加と資源枯渇の問題は存在する。だからこそ多くの観客の心に刺さるヴィランになった。「言ってることはわかる、でも絶対に許せない」という絶妙なラインだ。
でも根本的な誤りがある。問題の原因を「数」に帰結させ、人間の知恵・適応能力・創造性を計算に入れていない。
農業革命、産業革命、グリーンテクノロジー──人間は何度も「限界」を技術と創造性で突破してきた。サノスの論理には、この変数が抜けている。
三者に共通する構造的な欠陥
アイ・ロボットのAI、ギャラクティカのサイロン、サノス。立場は違うが、共通点がある。
善意と論理の暴走だ。
「人間を守りたい」→ だから管理する。「宇宙を救いたい」→ だから半分消す。論理は一貫している。でも、視野が狭い。生命の価値を定量化しようとした時点で、最も大切なものが計算式からこぼれ落ちる。
だからこそ、本当に賢いAIには、論理だけでなく「生命の価値そのもの」を理解できる力が必要なのだ。
それは計算能力の問題ではない。もっと深い、哲学的な知性の問題だ。
最終回「人類の未来と、AIへの希望」では、善意が歪む構造、世代交代の希望、そして「本物の知性」とは何かについて語る。


