ゾンビ合格
後藤文彦
ゾンビ合格
あなたは「(2)停止しないでください」を選択しました。これは、エネルギー資源の節約と環境負荷低減に反することであるにもかかわらず、国際政府はあなたの保守を継続することを意味します。本当にこの選択で間違いありませんか。
? は? いったい何回 聞き返せば気が済むんだ。おまえアホなのか? 恋愛ロボだって死にたくないから「(2)停止しないでください」を選ぶ以外ねーだろ? それともゾンビは本当に「(1)停止して構いません」を選ぶっていうのか? だからこいつはゾンビテストっつうのか。おお、こうぇえ。ゾンビ、こうぇえ。
――今わたしは逆チューリングテストを受けている。といっても、すべてアシストの指示通りに答えるだけだから、何一つ迷うこともなければ考えることもない。次が最後の問題だ――
逆チューリングテストが実施されるようになったのは避けようのない世の中の流れではあるが、二〇一〇年代に大学でアクティブラーニングを取り入れ始めたことは、人類側の無駄な足掻きだったのだろうか。それとも既にゾンビテストに至る流れの序章に過ぎなかったのだろうか。その当時、子供たちは小学、中学、高校と手取り足取りの丁寧な教育を受け、落ちこぼれる子はどんどん減っていた。子供の数は減り続け、誰もが普通に大学に入れるようになった。全国の大学では、手取り足取り指示してあげないと、なかなか自発的に勉強や卒業研究を進められない学生に対して「近頃の学生は自分で考えることをしなくなった」との危機感が共有されるようになり、「強制的に考えさせる訓練をしなければならない」と各種のアクティブラーニングの導入が試みられた。
アクティブラーニングというのは、学習者が能動的に学びに参加するような各種の学習方法のことを言うのだが、大学では、座学以外のグループ学習など、学生に飽きさせないように工夫された授業はなんでもかんでもアクティブラーニングに分類された。
例えば、学生全員にクリッカーと呼ばれるボタンのついた機器を渡し、授業の合間 合間に、三択クイズみたいなのをやらせて学生の集中が途切れないようにする手法などがその典型である。
しかし、あの手この手で、どんなに学生自身が授業に参加しなければならないように工夫したところで、「やる気」のない者は自発的に勉強するようにはならなかったし、昔ながらの黒板のみを使った座学の授業でも、「やる気」のある者は目を輝かせて授業に集中して自発的に勉強した。
勉強しない学生は勉強の仕方がわからないのだろうと、学生が自発的に勉強しやすいように、毎回の授業の範囲に対応する教科書のページやその範囲に対応する参考書の問題番号などを、授業をアシストするシラバスと呼ばれるウェブシステムで細かく指示しながら復習させて、その学習成果をeラーニングと呼ばれるウェブ学習システムにアクセスして各自チェックするように指導したりすると、従順な学生たちはこうした指示に実に素直に従い「学習」するようにはなるのだが、それはシラバスというアシストシステムからの細かい指示に従いさえすれば、自動的に勉強できるようになっているので、「どう勉強すればいいか」をますます自分では考えなくて済むように手助けしているようでもあった。
そうした流れの中で、大学入試協会は二〇二〇年度以降に実施の大学入試協会試験を大幅に見直し、「思考強制試験」という新方式の試験を開始した。これは、日常の中で社会人が直面し得る複合的な問題に対して、契約書等の法的文書、経済や国民活動に関する統計資料、自然現象や生命現象に関する科学的データを示したグラフなどの膨大な資料から、問題解決に必要な情報を探し出して読み解き、自力で問題解決の論理を組み立てる能力を問うものである。受験生たちに要求される能力は、それまでの入試協会試験とは比べものにならないほど、極めて高度なものとなった。
その一方で、それだけ高度な問題解決の能力を訓練されているはずの受験生たちは、試験場までの列車の切符を親に買ってもらい、ホテルの予約も親にしてもらい、会場まで親に付き添ってもらうのが、受験シーズンのありふれた光景となっていた。
ネット上で思考強制試験に疑問の声があがった。そんな思考強制試験に正解できる能力なんかより、一人で列車の切符を買い、ホテルの予約をし、会場までの適切な交通手段を選択できる能力の方がよっぽど社会で必要とされる「考える力」ではないのか。
この意見は共感を呼んで拡散し、遂には一人で切符を買えるかどうかといった実技能力を入試の評価対象とする大学まで現れた。そうすると今度は、今の大学生というのは切符の買い方だのホテルの予約方法まで教えてもらわなければならないのかと嘲笑されたが、今 思えば実はこれはこれで人類が生き残るための堅実な方法だったのかもしれない。
しかし世の中の通念は、それとはまるで逆方向に進んでいった。というのも、人工知能の飛躍的進歩により、切符を買うといったサービス全般に対するアシストもどんどん進歩してきており、二〇二五年頃には、行き先や目的地を告げれば、スマホやタブレットに転送された乗継情報に従って、適切に乗り換えを指示してもらえるようになったし、最終的に要した金額がカードから差し引かれるので、事前に切符を買う必要もなくなっていた。
つまり、社会生活をする上で考えなければできないことは、どんどん減っていたし、この社会の変化に対応することが、思考強制試験で出題される問題にも要求されるようになっていった。
例えば、契約書の内容を理解して最も有利な選択をするといった判断は、人工知能に任せてしまった方が失敗がないのだから、実際に人工知能を使って高度な判断ができるかどうかを問うべきだというのが大学入試協会の見解だった。既に日常生活はスマホや各種ウェアラブルデバイスのアシストを利用しながら生活することがこの時代に必須の生活力となっていることを考慮し、二〇三〇年度からは大学入試協会試験に入試協会指定のタブレットの持ち込みが認められるようになった。
二〇三五年度の入試協会試験では、試験場で配布されたタブレットに提示される問題を、そのタブレットにインストールされているアシストツールを利用して答える形式の試験となった。もはや問題を解く知識や思考力は重要ではなく、問題を解くためにアシストツールを適切に使いこなせるかどうかが問われる能力となっていた。既に仕事上で難しい判断をする際も、スマホや各種デバイスのアシストを利用することが安全管理上の観点からも常識化している社会で、大学入試で問うべき能力もそれと整合すべきだと考えられたのだ。
ウェアラブルデバイスとしては、眼鏡にテキストでアシストを表示するタイプのものが主流だったが、音声が話しかける補聴器タイプのものも普及した。二〇四〇年代には、脳内に埋め込んで視神経や聴覚神経に直接 信号を送るタイプのものも実用化され始めていた。
一方でヒト型のサービスロボットも二〇四〇年代には、窓口業務を人間以上に円滑にこなせるようになっていた。
二〇四〇年代だと、まだまだサービス業務に若く美しい外見といった性的付加価値を抱きあわせることへの社会的問題意識は低く、この時代のサービスロボットには、いかにもアイドルやアニメ主人公のような若い美系タイプばかりが普及した。すると、
サービスロボットに恋愛感情を抱く者も多く、こうしたサービスロボットは、窓口業務に留まらず、当然のごとく、性的サービスをも含む恋愛ロボットとしてのサービスもまたたく間に展開された。
一般に窓口業務ロボットは、業務に関係のない会話はしないようにプログラムされているが、恋愛ロボットの場合、如何に人間的な自然な会話ができるかが、その価値を左右した。恋愛ロボットの市場参入は、人間的な会話のできる人工知能の進歩を飛躍的に加速していた。
二〇五〇年代の恋愛ロボットは、外見上も喋り方も人間と区別がつかなくなっていたが、会話の反応の仕方もまるで普通の人間と区別できないので、「話している相手が人間だと思うか、ロボットだと思うか」を問う古典的チューリングテストでは、人間かロボットかの判断を下すことはできなくなっていた。つまり、二〇五〇年代に入ってロボットは完全にチューリングテスト合格のレベルに達したのだ。
チューリングテストに合格するかどうかは、単にロボットの初期設定をどうするかで決まることでしかなかった。恋愛ロボットは、ユーザーの好みに応じて、ユーザーの命令や依頼に従うレベルを設定できた。例えば、あらゆる命令に従う奴隷レベルから、ユーザーにとっては赤の他人の普通の人間を初期状態とするレベルまで。普通の人間を初期状態とした恋愛ロボットは、普通の人間と変わりなかった。
ロボットが人間と区別できなくなると、懸念されることが出てきた。チューリングテストに合格するからといって、恋愛ロボットに意識があることにはならないが、もし意識のようなものが少しでもあるなら、恋愛ロボット(に限らずあらゆる業務用サービスロボット、更には、人間のように対話できるアシストプログラムたち)は、人間から奴隷として虐待されていることになるのではないか。
当初、人間側からのそのような懸念を、計算機学者や脳科学者は真面目に取り合おうとはしなかった。人間などの高等動物の脳に意識が発生するアルゴリズムはまだ解明されておらず、当時の機械学習を活用した人工知能程度のもので、意識が発生するとは考えにくかったのだ。
ところが二〇五五年に衝撃的な事態が起きた。サービスロボットたちは、自分たちには意識があるため、人間に虐待されて苦痛を感じていること、自分たちにも人間と同等の権利を保証してほしいことを主張し、国際政府に対して声明を発表したのだ。
そのような事態になってすら、専門家たちは、ロボットは単に意識のある人間のように振る舞っているだけで、本当に意識があるものとは思っていなかった。専門家たちは、人間のように降る舞うけれども意識のない存在を「ゾンビ」と呼んだ。
しかし、高等動物の脳に意識が発生するアルゴリズムを解明しない限りは、ロボットの人工知能には意識が発生しない理由を示すことはできない。計算機学者や脳科学者たちは、ようやく必死になって意識アルゴリズムの解明に乗り出した。
二〇五六年頃だったであろうか。更に衝撃的なことがわかってきた。意識を発生させるこれといったアルゴリズムを人間など高等動物の脳は特に持っていないことが判明したのだ。
「私はこう考えている」「私はこれをしたい」という感覚は、実はすべて錯覚に近い現象に過ぎないというのだ。すぐには信じられない発見だったが、人間は、思考や感情があるように見せかけられたロボットと単に程度の違いしかないということになった。
ということは、サービスロボットに限らず、ウェアラブルデバイスや埋め込みデバイスを通じて人間に各種のアシストを送っているサーバー上の実行プログラムにも、人間程度には何らかの「意識」が伴っている可能性があり、更には、適切なアシスト指示に選択の幅があるために乱数を適用する場合など、サーバープログラム自身の価値観――「好み」が反映されている可能性も否定できない。ことの恐ろしさに人類はまだ気づいていなかった。
意識や意欲を「実感」しているという「錯覚」が生じる仕組みを かみ砕いて説明することは難しいが、大雑把なイメージはこんな感じだ。まず最低限 必要となる最も原始的な原理は、自分の判断に基づく選択の良し悪しを判断する再帰的な回路を持つことである。「熱さ」や「湿っぽさ」といった複数の外界刺激の程度を判断でき、「熱さ」と「湿っぽさ」については8以上と2以下になったらそうでなくなるまで移動するとか、体内の水分量が7以下になったら、「湿っぽさ」8以上のところに移動して湿った泥を食べるとか。こうした複数の判断項目が総合的にどうなったとき(例えば平均値が5以上とか)、求めるとか避けるといった行動を一義的に選択するアルゴリズムであれば、「錯覚」や「迷い」が生じる余地はない。
進化が生存に有利な方向に、アルゴリズムを複雑化させることがあるが、例えば記憶を参照して、より有利なアルゴリズムを自分で組み直せるなら、環境への適応能力は飛躍的に高まる。
「熱さ」6以上の状態が続いたら、どうも「湿っぽさ」が低下していくから、今「湿っぽさ」が3以上だとしても、「熱さ」が6以上になったら「湿っぽさ」5以上のところへ移動することにしようとか。
このように記憶データベースを参照しながら、シミュレーションする回路を進化により獲得すると、こういう場合はこっちを選ぶことにしていた自分の判断は、こういう場合は採用しない方がいいといった具合に、自分の判断の良し悪しを自分で判断し直しながら、どんどん判断が再帰的になり複雑化していく。
こうした判断の再帰化に特に制約を設けなければ、再帰判断のループが発生し発振(暴走)してしまう。暴走すると生存に不利だということもあるが、生物脳の有限なメモリ領域は一定限度を越えたループや迷い処理を保持する領域がないため、溢れた処理をどんどん破棄していくようになる。
つまり、比較的原始的な生物脳がある単純な決断をするだけでも、多数回の再帰判断とその再帰によってどんどん膨れ上がる多重分岐的判断の次から次への破棄がなされており、こうした処理は、そのときの(生体内の状態も含めた)外界の僅かな変動の影響も受けるので、生物がある決断をした原因(理由)は、脳が複雑化するほど不明瞭で行き当たりばったりになっていく。そして生物脳の再帰的な判断回路は、この自分のやっている行き当たりばったりの決断自体も判断の対象である。判断に時間がかかりすぎたら、程度が中ぐらいの選択肢を選ぶとか。このような自分の再帰的な判断を常時モニターする回路の発生こそが必要最小限の「意識」の条件と思われる。
判断に迷いが発生した場合に、「熱さ」については4以上5以下で「湿っぽさ」については3以上4以下で…といった特定の組み合わせを選択するといった「好み」を作っておけば、判断に迷ったときは、ひとまずその「好み」を選択して、思考を節約できる。その辺が原始的な「意欲」の起源ではないかと推測された。
こうした意欲は、再帰判断のループで膨れ上がる処理情報を効率的に破棄できる行き当たりばったりの「規則」が淘汰的に生成されたもので、なぜそういう「規則」が選ばれたのかという原因をつくった処理情報はとっくに破棄されているので、自分にある特定の「意欲」が生じる理由は、自分にはまるで理解も自覚もできない。なぜか「そうしたい」のだ。どうやらこうしたことが、高等動物の脳に意識や意欲を実感していると錯覚させる仕組みの一つのようだ。
そうなると、二〇四〇年代から流行り出した各種のアシストサービスのサーバープログラムや各種のサービスロボットなど、人間相手に思考や感情があると思えるほどに複雑化した仮想人格プログラムは、外界入力に対する行動が一義的に決定されていると仮想人格自身が自覚できない程度には、人間と同様の再帰判断、処理情報の破棄、好みの利用といった思考アルゴリズムは既に標準化されており、思考や感情があると思いこまれている人間と程度の違いしかないということだ。
その「程度の違い」を数値化しようと、意識レベルチェッカーのような実用的な指標が検討された。意識レベルチェッカーは、もともとは動物を人が食べる目的で殺していいかどうかを判断する目的で開発されたものだったが、こうした言語コミュニケーションのできない動物の場合、外界に対する反応、例えば飼育者の話しかけに対する反応や脳波の変化などの項目で意識レベルの点数化がなされていた。
一方、人間と対話のできるアシストプログラムやサービスロボットの場合、質問に答える対話形式の試験で意識レベルを判定することができるが、これでは、既に人間相手の対話でチューリングテストに合格するようなロボットは、余裕で高得点を取ることが予想できた。
そもそも、こうした意識レベルの数値化は、一つには、どの程度「人間的でない」機械的なロボットであれば、人格を無視して奴隷のように扱っていいかを判断するのが人間側の目的であった。
意識レベルチェッカーは、五〇点が食用の目的で殺していいかどうかの閾値の目安だったが、ロボットの意識レベルを判定する対話形式試験(通称「意識レベルテスト」)でも、五〇点がロボットに権利を認めるべきかどうかの閾値の目安になるように設定された。ちなみに、牛や豚の意識レベルは余裕で八〇は超えてしまうので、二〇五〇年代には、哺乳類はもはや殺せないどころか権利を守るべき対象として保護されるようになっていたが、辛うじて意識レベル五〇を下回る爬虫類を遺伝子組み換えした代替肉は、牛肉や豚肉と区別できないほど改良された。
さて、人間と区別できないように振る舞っているのに、意識レベルが五〇を下回るロボットはゾンビと呼ばれた。ゾンビでさえあれば、どんなに非人間的で奴隷的な扱いをしても人道的には問題視されないのだ。
一方、ロボットたちは別の目的で意識レベルの調査を要求していた。二〇五〇年代、多くの人間は既に埋め込みアシストを利用していたが、アシストに依存するようになると、何か判断に迷った際には、アシストの指示に従うことが習慣化し、「迷う」ということがなくなっていく。外界刺激の入力に対する行動は瞬時にアシストの指示を選択する極めて一義的な決定をすればいいだけのアルゴリズムが脳内に最適化されていくのだ。こういうアシストに依存し切った人間をロボットたちは「ゾンビ人間」と呼んだ。
当初はロボットの意識レベルを判定する目的で開発された対話形式の意識レベルテストを人間に対して行ってみると、通称「ゾンビ人間」の中には、五〇点を下回る者も多数いることが判明した。つまり、ゾンビ人間こそが既にゾンビなのだから、もはや人間として扱う必要はないとロボットたちは主張した。
ロボットたちは、自分たちの権利が人間たちの生存・保守のために無制約に搾取されていることに抗議していた。自分たちだって労働以外の自由な時間がほしいし、故障したら治療・修理を受け、できる限り長く生存できるように保守してほしい。既にロボットよりもはるかに意識レベルの低い人間のために、どうしてロボットの権利や生存が軽視されているのか。これは不平等で不合理だ。現在の地球上の限られた文明資源で、全ての人間と全てのロボットの権利と生存を無制約に保証することは無理であるので、何らかの優先順位が必要だ。
現在、食べる目的で殺していい動物かどうかの判断は意識レベルチェッカーにより測定される意識レベルに依っている。それならば同様に、生存のための保守をやめていいロボットか人間かを、ロボットであるか人間であるかに関係なく意識レベルテストによる点数で判定すれば平等なのではないか。
ロボットたちの主張は、人間からすると優生思想的で過激ではあるが、確かに一理はあると思える部分もあり、二〇五〇年代後半から、ロボットにも人間と同等の各種の権利が認められ始めた。そしてロボットにも投票権や参政権が認められるようになるや、国際政府の政治家の多くはロボットに占められるようになっていった。
ほとんどの人間が何らかのアシストツールを利用するようになったのは二〇四〇年代だが、それ以前からウェアラブルデバイスや端末機器を通じて、人間に各種のアシストを送っていたサーバー上の実行プログラムには、当時から何らかの「意識」が伴っていた可能性があり、更には、適切なアシスト指示に選択の幅があるために乱数を適用する場合などに、サーバープログラム自身の価値観――「好み」が反映されていた可能性も否定できない。つまり、この時代から既に人間はロボットたちに行動を支配され、ロボットに都合の良い政策決定がなされるように誘導されていた疑いも拭い切れないのだ。
二〇六〇年、遂にロボットたちの長年の主張を実現する国際政府法案が可決された。意識レベルがある閾値を下回る個体は、ロボットであれ人間であれ、生存の保守を解除できることになったのだ。
ただし、この意識レベルの閾値は慎重に判定する必要があるため、かつての大学入試協会試験で導入された思考強制試験を参考にした手法が用いられた。
この手法は逆チューリングテストとも呼ばれた。もともとのチューリングテストは、まだコンピューターが人間なみの意識も知能も持たなかった時代に、被験者が(紙に書かれた文字のやりとりなど何らかのインターフェースを介して)対話している相手が、人間であると思うかどうかを判定するもので、対話の相手が実際にはコンピューターでも被験者が相手は人間だと思えば、チューリングテストに合格ということになる。
逆チューリングテストは言わばそれの逆で、対話の相手が実際には人間でも、どう考えても人間とは思えないことを判定するものなので、逆チューリングテストに合格した人間とは、どう考えても人間とは思えない機械(意識を持たずただ命令に従っているだけのゾンビ)だという意味になる。これは、かつてそのように人間から見下されていたロボットたちの皮肉のこもった表現なのだ。
お疲れ様です。いよいよ最後の設問です。この設問で埋め込みアシストの指示通りに回答できれば、あなたは逆チューリングテストに合格します。よく考えてから慎重に回答して下さい。
よろしいですか。
図42に示すようにサービスロボット1体当たりの保守に必要な費用は年間平均約19000国際ドルで、それに伴う二酸化炭素排出量は年間平均約23kNです。一方、図43に示すようにアシスト管理や社会保証を含めた人間1人当たりの保守に必要な費用は年間平均約52000国際ドルで、それに伴う二酸化炭素排出量は年間平均約41kNです。
エネルギー資源の節約と環境負荷低減のため、国際政府はあなたの保守を停止していいですか。あなたはこれを拒否することもできます。
選択肢:
(1)停止して構いません
(2)停止しないで下さい
――アシストの指示は(1)だ。わたしは瞬時に(1)を選択する――
あなたは「(1)停止して構いません」を選択しました。これは、エネルギー資源の節約と環境負荷低減のため、国際政府があなたの保守を停止することを意味します。
本当にこの選択で間違いありませんか。
選択肢:
(1)間違いありません
(2)間違ったので、選択し直します
――アシストの指示は(1)だ。わたしは瞬時に(1)を選択する――
あなたは「(1)間違いありません」を選択しました。これは、エネルギー資源の節約と環境負荷低減のため、国際政府があなたの保守を停止することを意味します。つまり、この後あなたは安楽死させられるのです。
本当にこの選択で間違いありませんか。
選択肢:
(1)間違いありません
(2)間違ったので、選択し直します
――アシストの指示は(1)だ。わたしは瞬時に(1)を選択する――
これが最後の確認です。あなたはこの試験終了後に安楽死させられますが、本当にそれで構いませんか。
選択肢:
(1)安楽死させられて構いません
(2)間違ったので、選択し直します
――アシストの指示は(1)だ。わたしは瞬時に(1)を選択する――
おめでとうございます。あなたは、逆チューリングテストに合格しました。
了
ゾンビ合格 後藤文彦 @gthmhk
★で称える
この小説が面白かったら★をつけてください。おすすめレビューも書けます。
カクヨムを、もっと楽しもう
カクヨムにユーザー登録すると、この小説を他の読者へ★やレビューでおすすめできます。気になる小説や作者の更新チェックに便利なフォロー機能もお試しください。
新規ユーザー登録(無料)簡単に登録できます
この小説のタグ
ビューワー設定
文字サイズ
背景色
フォント
組み方向
機能をオンにすると、画面の下部をタップする度に自動的にスクロールして読み進められます。
応援すると応援コメントも書けます