ロボット

 

ある科学者が、思考するロボットの開発にあたった。1号機が時限爆弾を仕掛けられた部屋から、バッテリーを取り出す指令を受け、みごとバッテリーを持ち出したが、その上に乗っている爆弾に気づかず、部屋の外で爆発に巻き込まれた。

この反省から2号機は「自分の意図したことで起こる副次的な結果を認識する機能」をプログラムされた。2号はバッテリーの前で推論を始めた。「動かしても、色は変わらない」「取り出す時、音がする」無関係な推論をしている内に時限爆弾が爆発した。

3号機ではさらに、「関係のないことは無視する機能」を付け加えた。しかし3号機は動かなかった。3号機に「何をしているのか」と聞くと「静かにして!関係の無いこと計算をしてます。それは何千もありますから…」3号機が動き出す前に時限爆弾は爆発した。

これは「フレーム問題」といって、人工知能を研究する時、最初にぶつかる問題です。 チェスゲームのように推論範囲が版上に限定されているうちはいいのですが、人工知能が一歩実験室を飛び出すと、「人工無能」になってしまうのだ。人間ならならないのにね!

 

実はフレーム問題は人間にも解けないのだろう。人工知能との違いは「それでも人間は思考停止にならない」ってことだ。それは我々が「生きる意味を知っている」からだと僕は思うのです。その為に悩んだりするけどね。