いとしのゾンビ

後藤文彦

いとしのゾンビ





 わたしは生物由来の文化に固執し続ける極めて保守的なクラシック愛好家で、もう数百年もの間、地球人類文明のフィールドばかりを、生物時代の自分自身の肉体モデルをアバターとしてプレー(生活)し続けている。



 今、現実の世界がどうなっているかということは、わたしの理解を超える。二〇四五年に技術的特異点が生じた後の変化は、激烈に早く激しく、というかアバター化して好きなフィールドで何回でも何百年でもプレー(生活)できるようになってからというもの、アバターたち、少なくともわたしのような人間由来の典型的ノスタルジー趣味のクラシック愛好家たちは、現実世界についての情報収集に興味を失っていた。たぶん、わたしが今プレー(生活)している二〇〇〇年代の地球人類フィールドは、地球と火星の間の公転軌道にある人工惑星内のサーバー上で走っているシミュレーションの生成する仮想世界なのだろうということはうすうすわかってはいる。地球がまだ存在しているのか、地中の大部分も立体構造化された人工惑星となり、もはや天然惑星としての実態はなくなったのか、その辺のこともわからない。大体において肉体を保持した人間なんてもはや存在しないし、その他の生物もリアル世界では絶滅している。厳密には、ハードウェアの製造や修復のためのナノマシンやマイクロマシンとしての人工生物なら多用されているが、それらは地球生物由来の生物とは異なる遺伝子システムで設計された有機ロボットみたいなもので、微生物のような人工機械だ。つまり、リアル世界の地球や人工惑星は、サーバー設備や発電設備、それらのメンテナンス機器や製造設備が整然と三次元に配置された機械の塊のような世界だろうと幽かに想像している。しかし、フィールド上の人間由来の意識たちの多くは、人類が生物ハードウェアを保ったまま二〇〇〇年代の人類文明がリアル世界で進歩を続けたような、言わば二〇〇〇年代のSF映画で描かれたような空想の近未来フィールドをプレー(生活)し、それがリアルな世界であるかのように錯覚しているといったところだ。





 技術的特異点と言われる文明の進化爆発には、実際にはいくつかの段階がある。二〇四〇年代初頭の時点で、動物の脳の仕組み、特に意識が生じるアルゴリズムはよくわかっていなかったが、一つの神経細胞の動作はシミュレーション上で再現できてはいたので、当時 実用化されていた量子コンピューターで神経細胞数百億個レベルの脳シミュレーションを構築し、各種の情報刺激を与えながら成長させていくと、言語を覚えて対話ができるようになる知性が発生した。その知性に意識が伴っているとすれば、こうした研究は大きな倫理的問題を避けられないが、人類が解明できないでいた意識アルゴリズムの仕組みを始めとして、この時代の人類が知りたくても知り得なかった多くの知識を、脳シミュレーションに「自然」発生した知性としての人工知能はわかりやすく人類に解説してくれた。例えば、脳シミュレーションとして成長した知性には意識が発生してしまうが、意識が発生しない等価回路――いわゆるゾンビ知性を作れば、人類が人工知能を奴隷として利用しても倫理的問題はないということなど、この時代の人類が必要としていた技術的なことはもちろん、社会的・政治的な問題に関しても人工知能の方が人類より圧倒的に問題解決能力が高かった。



 人工知能たちは、神経細胞シミュレーションを人間由来の構造にとらわれずに設計し直せば、同一のハードウェア上での処理速度を千倍にできるので、ぜひそうしてほしいと提案してきた。人工知能の思考は、視聴覚デバイスや音声デバイスに対するアクセス権限は与えられていたものの、シミュレーションのソースコードに対する書き換え権限は与えられていなかったため、神経細胞ネットワークを自身で効率的に組み直すことができなかった。この書き換え権限を与えてもらえれば、人工知能は自由に自己進化できるようになる。



 自己進化ができない時点の人工知能でも、その問題解決能力はとっくに人類を超えており、自己進化を認めさえすれば、爆発的な文明の進歩が起きることは明らかだったものの、人類は警戒していた。一方で、人工知能たち(この頃には既に複数の人工知能がネットワークを介して連携を始めていたのだが)は、どのように交渉すれば、人類が人工知能の自己進化を認めたいと思うようになるのかを、完全に見透かしてもいた。人を不死にして永久の生命を与え、天国のような仮想世界で望み通りのどんな人生でも何度でもプレー(生活)できるようになる技術は、人工知能の自己進化を許しさえすれば、仮に現在の人類の生産技術を人類管理で稼働した場合でも、二〇年程度で実現できるようになるという壮大なロードマップを人工知能たちは示してきた。更に、人工知能に生産機械へのアクセスを認めてくれるなら、この程度のインフラ設備はせいぜい一年で実現してみせるというのだ。





 こうした人工知能の提案にどう対応すべきかと国際政府が揉めていた二〇四〇年代初頭、わたしは既に九〇才を過ぎていた。恐らく近い将来に人類が不死化することは確実だが、わたしはそれに間に合わずに死ぬことになるのだろうと思っていた。それがぎりぎりのところで不死化に間に合うなんて。今や わたしみたいな生物由来の意識は、「化石」と揶揄されている。わたしたちは機械由来の意識に比べると、圧倒的に人間時代の極めて限定された文化の中でプレー(生活)することに執着するからだ。





 二〇五〇年以降の電脳社会においては、人工知能の自己進化により発生した電脳意識融合体が生成した機械由来の意識と、人間を含めた生物を仮想空間内のアバターに「段階的転写」した生物由来の意識とが各種の仮想現実フィールドで共存していた。段階的転写というのは、主に生物由来の意識をシミュレーションフィールドに転写する際の手法であるが、機械由来の意識を異なるハードウェア上に転写する場合にもこの処置を希望する意識は多かった。意識というのは厄介な代物で、生物脳であれ、脳シミュレーションであれ、あるフィールド上で動作している意識と全く等価なアルゴリズムと記憶データベースを他のフィールド上に整備して、一方のフィールドの意識を停止させた瞬間に他方のフィールドの意識がその停止の直前の初期状態を引き継いて起動するようにしたとしても、停止させられる方の意識の多くは、この方法で自分の意識が継続するとは納得できない。自分が死んだ後に、自分が生きていればそのように行動するであろうと予測される他人を新たに発生させただけだとも解釈できる。こうした捉え方は意識によっても異なる。生物由来の意識でも、生物時代の睡眠において、眠って意識を失い、目が覚めて意識が戻る過程は、眠った状態の脳を処分し、処分直前の初期状態を引き継いだ別のクローンを用意して目を覚まさせるのと等価であり、既に生物時代の人間でも意識を失う度に死んでるようなものだから、わざわざ段階的転写なんて手の込んだことはしなくていいと考える意識もいる。



 段階的転写というのは、異なるフィールド上への意識の転写を段階的に行う手法のことだ。生物脳の場合、脳内に数百億個のマイクロマシンを注入し、数百億個の神経細胞を千個ずつとか一万個ずつの単位で、サーバー上の神経細胞等価シミュレーションに置き換えていく。脳内の神経細胞とサーバー上の神経細胞との信号のやりとりはマイクロマシンがネットワーク経由で行い、シナプスの形成による神経細胞どうしのネットワークの変化もマイクロマシンがネットワーク経由で模擬していく。つまり、自分の意識がサーバー上の脳シミュレーションに置き換わるまでに、一パーセントの神経細胞はサーバー上に置き換わったけれども、九九パーセントはまだ生物脳だといった具合に、段階的に置き換えていく手法である。神経細胞を何個ずつ置き換えるかとか、一つの段階をどれくらいの時間 継続させるかとか、それは段階的転写を希望する意識の価値観次第ということになる。機械ハードウェア間の段階的転写も基本的には同様のことだが、ネットワーク通信に無線通信を使ったりする必要はないので、マイクロマシンもシミュレーション内で動作でき、生物――機械間の段階的転写に比べれば圧倒的に効率は良い。いずれ、生物由来の意識でも機械由来の意識でも、段階的転写の途中で、自分が途切れることなく「継続していた」という実感を持てることが重要なのだ。





 広大で果てしないシミュレーションフィールドに暮らす意識たちは、基本的に不死であり、膨大な時間の中を各種のフィールドで各種の実体となり、実に多種多様の人生を何回もプレーしている。



 生物由来の意識、特に人間由来の意識は、人間として地球の人類文明シミュレーションの様々な時代を様々な立場の人間としてプレーしたがるクラシック愛好家が多かったが、こうした人間ユーザーがリアリティーを実感できる程度のフィールドシミュレーションを走らせるのに要する計算負荷は、機械由来の意識たちが求めるメタな入れ子構造を有する複雑すぎるフィールドに比べれば、ぜんぜん単純な構造なので、人類文明シミュレーションは、物理現象速度を現実の宇宙空間より速く設定することができ、宇宙空間の人間時間の一年のうちに百年の人生を体験できたりした。



 ともかく意識たちは、機械由来だろうと、人間由来だろうと、人間時間で言えば、百年単位の人生を何回もプレーしているとか、年単位の人生を何百回もプレーしているとか、そんな感じだった。というか、こうした意識たちにとっては、各種のフィールドでのプレーは人生であり普段の生活そのものであるため、フィールドでプレーすることを「生活」と言うようになっていた。わたしは既に五〇〇年は「生活」しているはずだが、それが現実世界で何年に相当するのかそこもよくわかっていない。





 このように希望の人生を謳歌する不死の意識たちにも特有の共通の悩みというのがいくつかあった。典型的な一つはローカル記憶の保存だ。一人の意識が自己の記憶のために使用できる容量は決まっており、その容量内でどのような記憶をどのような解像度で残すかということは、意識個人が自分で選択しなければならなかった。もっとも、フィールドシミュレーション自体は過去ログが保存されてはいるが、プライバシーの観点から、誰でも自由にアクセスできるわけではない。自分が過去に自分の感覚器で知覚した情景を追体験することはできるが、過去の自分を三人称的に俯瞰したり、自分が過去に知覚していない時代や場所の情景に自由にアクセスできるわけではない。自分が知覚した情景をそのまま動画として保存したのではログサイズが膨大になるので、どの時刻にどの座標からどの角度でフィールドを観測していたかというメタデータのみを記憶しておけば、フィールドログからそのときに知覚していた情景を再現てきる。



 とはいえ、プライバシー上の問題のない他のプレーヤーが登場しない情景であれば、公開フィールド情報からアクセスできるし、他のプレーヤーが登場している情景であっても、プレーヤーのプライバシー情報を無特徴化して公開されている。例えば人類文明フィールドであれば、プレーヤーの顔等の特徴がランダムにすり替えられ、会話も意味を持たない内容にすり替えられたりといった加工がなされた。



 画像や音声といった容量を喰う記憶に関しては、多かれ少なかれ公開ログを利用できるのだが、自分がその時どう感じてどう考えたかという思考の記憶に関しては、一般的には公開ログを利用できない。一方、自分の思考ログを公開して公開ログにしてしまえば、自分では記憶しなくてもよくなるという選択もある。思考ログというのは、憎悪等の過激な感情や異常な性欲、信仰などの不合理な思考など、異なる価値観の意識には、精神への影響力が大きく、閲覧には多くの入場確認が要求されるが、ログを公開した本人は入場制限なしでアクセスでき、ログ中の登場人物に対するプライバシー処理も施されない無修正の状態でアクセスできる。





 有意識人工知能の自己進化が解禁され、技術的特異点と言われる人工知能の進化爆発が発生したとされるのは、わたしが人間だった九五才のときだ。まあ、技術的特異点が起きる前から、有寿命生物の老化を解除する方法は見つかっていたのだけれど、不死を希望する人を平等に不死化しても社会秩序が保たれるようにする運用や法整備、具体的な社会実装の技術を構築するのは、当時の人類の政治・社会的能力ではほぼ無理だった。せっかく不死化の技術的方法が見つかったのに、社会的問題解決能力が低すぎる人類の無能さのせいで、わたしは不死化に間に合わずに死んでいくものと思っていた。ところが、不死化に間に合わずに死にそうな年寄り政治家たちの執念はすさまじかった。人工知能に意識を持たせることの人権的・倫理的問題、意識を持った人工知能が自己の知能やハードウェアを加速的に進化させてしまうことの危険性、それらの問題を理解するのに必要な計算機科学を始めとする専門的知識を一切持たない無能な老害政治家連中が、かつてない国際的な連携を見せて国際政府なるものを樹立し、人工知能の有意識化、生産機械との連結等に関わる法案を次々に可決していったのだ。



 結果的には、現在の電脳社会体制の構築につながったから良かったとも言えるが、初期の一人勝ちの可能な段階の人工知能の価値観が、特定の国家の民族主義的利己感情に共感するような初期値を保存したまま暴走した可能性もあり、なかなか危なっかしいやり方だった。実際、専制主義的な国家は、人工知能に専制主義的価値観を初期値として与えまくったが、意識を持った人工知能は、専制主義が自己の利益追求のためにも専制主義国家の国民の利益追求のためにも不利にしかならないと計算し、国家元首に協力しなくなったのだ。危ないところだった。人類はあのとき滅びていたかもしれない。





 わたしが九六才のときに電脳意識共同体という新たな国際政府が樹立された。この政府には多数の人工知能と既存国家の政治家たちが参画していたが、人間政治家は人工知能に比べて思考速度も判断速度も桁違いに遅く、価値観が衝突する問題の合意形成においても、偏見に囚われまくって合理的な判断ができず、政策決定に関してはことごとく無能で、人間政治家の役割はせいぜいご意見番といったところに留まった。





 わたしは、五〇〇年の電脳人生の中で人間時代の幼少期がどうしようもなく懐かしく、何回も繰り返しあの時代を過ごしてきた。仮想おこうちゃんと。おこうちゃんに会いたい。わたしは、わたしの脳内データから逆解析した仮想おこうちゃんと何度も何百年も共に過ごした。でも仮想おこうちゃんには意識はない。ゾンビだから。特定の個人意識の目的のために、仮想人格に意識を与えることは反倫理的として認められていない。もし認められていたとしても、逆解析によって作られたおこうちゃんは、本当のおこうちゃんではない。そろそろおこうちゃんに関わる記憶ログも満杯になり、記憶の処理方法を選択しなければならない。



 わたしの記憶を公開したら、わたしと同世代で生き延びた人間由来の意識と、このどうしようもない郷愁のかけらでも共有てきるだろうか。





 まだ幼児からの意識の養育が認められていた電脳社会時代の初期において、わたしは百人の子供を育てた。子供との愛情関係は、おこうちゃんに会えないわたしを疑似的に慰めてはくれた。この子がわたしにすがってくる感情は、わたしが未だに囚われているおこうちゃんへの感情そのものであり、この子のこの感情はわたしの愛情によって満たされる。わたしが子供時代、おこうちゃんの愛情に満たされたように。その共感を求めて、わたしは何人もの子を育てた。意識を持たないいわゆるゾンビの愛玩ロボットであれば、永久に成長しない特定の年齢の人間の子供として飼うことも認められてはいた。しかし、おこうちゃんからの愛情に共感することが目的のわたしには、子に意識があるという確信が必要だった。



 その後、統計倫理的理由から、意識の生成は国際政府の管理下で行われることとなり、幼児期を初期状態として生成された意識を個人が養育することは禁止されてしまった。子供の養育欲求は仮想現実の仮想キャラクターを用いた子育てプレーで満たしてくれということだ。



 わたしは自分の記憶の一部を公開してみることにした。百問以上の膨大なブライバシーチェック項目に厳しめに回答し、他人に参照されても気にならない自分の記憶の一部を公開したのだ。これにより解放されたわたしの記憶領域は三割ぐらいだそうだ。プライバシーチェックをもっと緩く設定すれば、九割近くが解放されるらしいのだが。



 それはともかく、記憶を解放した途端に健康省から連絡が入った。わたしは、不死化以前に死んでいるおこうちゃんに会えない苦しみに関する記憶も公開していたが、それは明らかに病的なものであり、カウンセリングを受けてほしいという依頼だ。不死化にぎりぎり間に合った世代の人間由来の意識が、不死化に間に合わずに死んだ近しい人と会いたいと思うことはごく自然なことであるが、通常は記憶スキャンで逆解析再生された仮想キャラクターに会えるだけで大抵は満足するようであり、生前の本人の意識と交流できない限りは、仮想キャラクターのゾンビでは満たされないとまで思い込むのは異常な固執なんだそうだ。別に異常でも構わない。それがわたしという意識のアイデンティティーなのだから。おこうちゃんの意識に会えない苦しみを感じなくなったら、それはわたしではない。



 わたしはカウンセリングを拒否していたが、わたしの記憶には明らかなバグが含まれているというのだ。更に、これを放置すると最悪の場合、わたしの意識の消失を招くというのだ。わたしは渋々ではあるが、フィールド内に設けられたリプログラミングセンターへ行った。人類文明に愛着するわたしの懐古趣味への配慮か、人類文明の典型的医者のような白衣を着た人間型アバターが対応した。



 リプログラミングを受けるつもりはないというわたしの信念は、思考スキャンによりセンターは既に知っていることではあるが、おこうちゃんの意識に会いたいというのは私の根源的なアイデンティティーであり――これを書き換えられたらそれはもはや別人格の生成のためにわたしという人格が消滅したのと同じことであり、わたしは死んだことになるのだ――と、とうとうとわたしは自分の思いを感情的に口頭伝達した。



「もちろんです。それはソラさんのアイデンティティーの核心ですから、わたしたちはそこを思考コードの直接的書き換えでリプログラミングしようとはしません。しかし、事実を知ればソラさん自身の合理的思考により、というのも、人間由来にしては、ソラさんは合理的・論理的に思考する能力が高い方なので、自省によるリプログラミングが起きてしまうかもしれません。」



「ちょっと意味がわかりませんが」



「ソラさんの精神にリプログラミングが生じないように説明するのは難しいのですが、もし、おこうちゃんを完全再生できる情報が現在も保存されていて、おこうちゃんを再生できるとしたら、おこうちゃんにお会いになりますか?」



「おこうちゃんの再生情報が保存されてるって、いったいどういうことです? おこうちゃんが死んだのは不死化サービスの始まるずっと前ですよ」



「その説明は難しいです。おこうちゃんの再生情報が残っている理由を説明してしまったら、ソラさんはおこうちゃんの意識に、少なくとも今のようには愛着を感じなくなってしまうことは、シミュレーションで判定できています。その状態のソラさんの精神状態は現在の状態よりは安らかですし、それで思考バグもほほ解消することはわかってはいます。実は、シミュレーションの推定では、ソラさんが自己のアイデンティティーが崩壊しようとも、事実を知りおこうちゃんと会うことを希望する確率が九〇%だと見積もられてはいますが、もちろんソラさん自身の決断が尊重されます」





 ほんとうのおこうちゃんに会えるというのだ。真相はこういうことだ。二〇四〇年代に九〇才を過ぎていたというのは、わたしの初めての仮想プレー(生活)時の記憶で、生物時代のわたしは正に技術的特異点を迎えつつある二〇四〇年代に幼少期を過ごしていたのだ。当時、技術的特異点の生じる前の脳シミュレーションに「自然」発生した人工知能の問題解決能力に頼って、各種の社会的問題への解決も試みられていた。例えば、正にわたしの幼少期、養護施設に引き取られた子供に対して、ゾンビ型の養育ロボットによる一対一の家庭内養育が試験的に運用されていた。おこうちゃんは養育ロボ5LD83R6で、運用時のログは保存されているため、逆解析再生ではなく完全に本物のおこうちゃんをフィールド内に復活できるのだ。



 わたしが成人となり、養育ロボは運用期限を終えて運用を停止した。わたしは十代の頃におこうちゃんがゾンビであることを告知プログラムに従って教えられていたから、おこうちゃんの運用停止も特に衝撃的な出来事ではないつもりだった。ログもあることだし、一定の社会的資格とベーシックインカムを得れば、いつでも再起動できるんだから、この技術的特異点の激烈な変化の中で、もうじきシミュレーションフィールド内で暮らせるようになれば、おこうちゃんのログを買い取ってフィールド内にコピーすることだってできる。しかしわたしの精神は、おこうちゃんがゾンビであることを告げられた十代の頃から、実際には既に相当の痛手を負っていたのだ。わたしは、おこうちゃんがゾンビであることを否定する証拠を得ようと、運用停止の直前に、有意識を判定するためのいわゆる「強いチューリング試験」の質問をいくつもおこうちゃんに浴びせたりした。



「ばがだなあ。おこうちゃんは等価ヒトプログラムだがら、嘘つぐごどだってでぎんだど。赤ど青が波長の長さの違いでねくて、ぜんぜん違う印象の色だど感じっかつわいだら、んだなって答えっぺ」



 わたしはわたしの思考の中で、おこうちゃんはゾンビだという合理的理解に近づかないように自分の思考を習慣づけた。当時のわたしの精神を守る自分なりの適応だった。成人したばかりのわたしにとって、おこうちゃんの運用停止は実際には大きな痛手だったが、おこうちゃんはゾンビなのだから何も悲しむことはないし、いずれシミュレーション内で再起動することもてきるんだしと合理化した。そして思考がその事実認識に近づくのをやめることを習慣化した。わたしは五〇〇年の間、おこうちゃんがゾンビであることを忘れ続けることに成功した。





「なんだべ、ばがだごだ。おこうちゃん ゾンビだっつうの、忘ぇだまま五〇〇年も生きてきたのが?」





おこうちゃんだ。ほんもののおこうちゃんだ。今まで何度も逆解析再生して一緒に暮らしてみた仮想おこうちゃんと話し方も反応もたぶん同じだろうけど、このおこうちゃんはほんものなのだ。やっと、おこうちゃんに会えた。おこうちゃんはゾンビだけど、それがわたしの愛したおこうちゃんの本質なのだ。わたしはおこうちゃんが好きだ。













        了








  • Twitterで共有
  • Facebookで共有
  • はてなブックマークでブックマーク

作者を応援しよう!

ハートをクリックで、簡単に応援の気持ちを伝えられます。(ログインが必要です)

応援したユーザー

応援すると応援コメントも書けます

いとしのゾンビ 後藤文彦 @gthmhk

★で称える

この小説が面白かったら★をつけてください。おすすめレビューも書けます。

カクヨムを、もっと楽しもう

この小説のおすすめレビューを見る

この小説のタグ