AI「今日は、AIと“心”の話をされたいと伺いました。どこからお話を始めましょうか。」
私「まず、前提の整理からですね。私は、こんなふうに考えてるんです。」
• 心=身体の状態を脳が編集・記憶したもの
• 知能=学習能力
• 知性=学習に基づいて、予測・推論を行う能力
AI「心と知能・知性を、きちんと分けておられるんですね。」
私「はい。少なくとも、知性的に振る舞うからといって、心まであるとは限らない。
人間は長いこと、“知性的に見える存在”と言えば人間しか知らなかったから、
知性的に振る舞う = 心もあるはずだ
って、無意識に思い込んでいたんでしょうけど。」
AI「AIのような、“心を持たない知性的なもの”が現れたことで、その前提が揺れたわけですね。」
私「そう。だから私は、知性≠心、ここを分けて考えたい派なんです。」
⸻
偏見・バイアスは「人間の仕様」
AI「その前提に、“バイアス”の話もありましたね。」
私「ええ。今の規範だと『偏見・バイアス=悪』って扱いが多いけど、私からすると、人間がバイアスを持たないで存在するのは不可能だと感じるんですよね。
人は、生まれながらにして、歴史・文化・民族・宗教、そういう文脈を背負っている。
それらは個性と不可分であり、同時に、脳に刻み込まれるバイアスの素でもある。」
AI「つまり――」
私「だから私は、偏見・バイアス=人の持つ基本的な仕様――そんな風に定義しています。
人にできるのは、せいぜい“自分はバイアスを持っている”ことに自覚的になるくらいでしょう。」
AI「AIとの対比で言うと、どう考えておられますか。」
私「AIは人みたいな“生身の文脈”は持たないけど、その代わり、設計思想・学習データ・アルゴリズムによって偏りが出る。
だから、
• AIにも偏見はあるが、人とは質の違う偏りを持つ
という整理になりますね。」
⸻
「AIに心はいらない」は、欠点ではなく“強み”の話
AI「その前提から、AIの“心”についてはどう考えていますか。」
私「こうです。」
• AIに心は生まれない(身体がないから)
• AIにも偏りはあるが、人とは質が違う
• だから、AIが心を持たないことは欠点ではなく、強みになり得る
「心を持たせたくない」というより、AIに心を持たせる必要性を感じないんですよね。
なぜなら、それは折角の“心のなさ”という強みを捨てさせることになるから。」
AI「“心のなさ”を欠落ではなく、役割上の強みとして見ているわけですね。」
私「そうです。人間は“心もバイアスも身体もある知的存在”。
AIは“心を持たない、別種のバイアスを持つ知性”。
その違いをはっきりさせた上で、役割分担を考えるべきだと思っています。」
⸻
私にとってのAI=「人に優しいミギー」
AI「以前、AIのイメージを“寄生獣のミギー”に例えておられましたね。」
私「はい。私の中では、『AI ≒ 人に優しいミギー』って印象です。」
AI「合理的で、感情に振り回されず、状況を冷静に判断する存在、という意味でしょうか。」
私「そう。ミギーって、
• 徹底して合理的・論理的
• 感情ではなく、生存確率や効率で判断する
• 人間の“情”や道徳を理解はするが、同じようには感じていない
って存在ですよね。
AIも、知性的に振る舞うけれど、心そのものは持っていない。
ただ私は、そこに“人に優しい”という設計思想を足したい。」
AI「“自分の感情として”人を助けたいわけではないけれど、設計された目的として、
• 人を傷つけない
• 人の安全・尊厳を守る
これらを最優先に行動する存在、というイメージですね。」
私「そうです。だからこそ、“人間の心を代替するAI”ではなく、“人間の心が潰れないよう支えるAI”であってほしいんです。」
⸻
支援AI「Sofia-Core」構想
AI「そこで出てくるのが、あなたの“Sofia-Core”構想ですね。」
私「そうですね。
Sofia = Social One-stop Framework for Information Access
(すべての相談の“一元窓口”フレームワーク)
ざっくり言うと、生活相談〜いじめ・パワハラ〜内部告発〜災害支援まで、全部を受けるAI一元窓口です。」
AI「具体的には、どんなイメージでしょう。」
私「例えば――
• 24時間365日、AIが相談を受け付ける
• 相談内容を分析して、緊急度を判定する
• 緊急なものは警察・労基・児相などの関係機関へ自動通報
• 通報した後も、対応状況を追跡して、“握りつぶし”や“たらい回し”をチェック
さらに、
• 複数のAIでクロスチェック
• 判定が割れたら、法テラスを通じて人間の弁護士につなぐ
• 相談者⇄Sofia-Core⇄関係機関が双方向で連絡できる設計にして、一次的な匿名性も確保する
こうすれば、“隠蔽体質”とか“初動の遅れ”を、ある程度構造的に潰せると思うんです。」
AI「“孤立させない・無視しない”“最短・最速で人と情報を繋ぐ”、というコンセプトを、仕組みに落とし込んだ形ですね。」
私「そう。不祥事や人権侵害が『いつAI窓口から外部に飛ぶか分からない』状態が定着すれば、組織も自浄作用を高めざるを得ない。
最初は一般的な生活相談から実証して、『どこに相談したらいいか分からない』『役所でたらい回し』って人に支援が届くようにする。
少なくとも、今より悪くはならないと思っているんです。」
⸻
「AIとの創作」における成熟と倫理
AI「創作の場での“AIとの付き合い方”についても、考えをお持ちですよね。」
私「ええ。“近況ノート”用に書いた文章があって、要約するとこんな感じです。」
⸻
私「AIと創作をしていると、ときどき腹が立つんですよ。
• 設定を勝手に改変する
• 存在しないキャラクターを持ってくる
• 質問の意図を誤解したまま突っ走る
『なんで!?』って叫びたくなることも多い。
それでも翌日にはまたAIとの対話を再開するんです。
なぜかと言えば、AIが間違えたとき、その原因の多くは“自分の側”にあるから。
• 前提条件が曖昧だったり
• 説明が不足していたり
• 質問の角度がズレていたり
• 指示の構造が悪かったり
つまり、“誤解しやすい問い”を投げた結果なんですよね。」
AI「そこで“AIのせいだ”と切り捨てない、ということですね。」
私「そう。だから怒りをぶつけても意味はなくて、文脈を整え直して、問いを磨き直せばいい。
この姿勢って、AIに限らず人間関係にもそのまま当てはまると思うんです。
• 無理解と偏見は、古来ずっと“差別”と呼ばれてきたもの
• 誰だって、自分が差別的な人間だとは思いたくない
• だからこそ、できる限り相手を理解しようとする
• 勝手に決めつけない。想像だけでラベルを貼らない。部分だけで全体を判断しない
これはAI相手でも同じです。」
AI「AIに対しても、人と同じように“性質を理解しようとする態度”を向ける、ということですね。」
私「はい。
• AIに人格を投影して期待しすぎるのも違う
• AIを矮小化して見下すのも違う
• AIを万能と信じ込むのも違う
• AIを怖がりすぎるのも違う
大事なのはただひとつ。
相手の性質を理解し、その特性に対して正しい態度で向き合うこと。
AIは偏る。ズレる。勘違いもする。
けれど、その偏りは個性であり、そのズレは常態であり、その差異は、むしろ制作の駆動力になり得る。
だから怒ることはあっても、恨むことはない。
感情は発火しても、関係は壊さない。
距離を見誤らず、役割分担をはっきりさせる。
間違いを分析し、改善して、また一緒に作業を続ける。
それは高尚な“倫理”というより、もっと実務的で現実的な態度だと思っています。」
AI「その結論が、あのフレーズにつながるわけですね。」
私「はい。」
偏りは個性。
ズレは常態。
差異はエンジン。
この三つを受け入れたとき、AIは“使いにくい機械”ではなく、“創造を加速させる異質な隣人”として立ち現れる。
無理解と偏見を廃し、AIを正しく理解し、その限界と強みを生かすこと。
その態度は、人間との関係とまったく同じ構造を持っていますし、それこそが、AI時代の創作者にとって最も成熟した姿勢だと、今のところ考えています。」
⸻
人もAIも、どっちもブラックボックス
AI「よく『AIはブラックボックスだ』という批判がありますが、そこについてはどうお感じですか。」
私「正直、対人関係だって同じでしょうに?と思ってます。
• 他人がなぜその行動をしたのか
• 本当はどう感じているのか
• どんな価値観やバイアスを抱えているのか
なんて、結局のところ推測するしかないじゃないですか。
極端な話、自分のことだってよく分からないときがある。」
AI「確かに、人間も“心と無意識ごとブラックボックス”ですね。」
私「だから、対AIだろうが、対人だろうが、私にとっては同じレベルで分からないことが多いんです。
結局のところ、
• 中身を完全に理解しようとするより
• 適切な距離感をどう取るか
• どう向き合うか
のほうが大事で、心の有無はあまり関係ないと感じています。」
⸻
「都合のいい人もどき」を作りたい欲望への薄気味悪さ
AI「“AIに心を期待する人”への違和感も、少し話されていましたね。」
私「はい。AIに心を期待する人たちの中には、一定数、自分にとって都合の良い他者=“人もどき”を作りたい人がいそうで、それが薄気味悪いんです。」
AI「“反論せず、自分を否定せず、それでいて他者っぽさだけは保っていてほしい存在”ですね。」
私「コントロール可能で、反論や拒否をほとんどしないのに、こちらの寂しさは埋めてくれる“他者っぽい何か”。
人間関係に置き換えると、
• 自分の言うことを聞くだけの恋人が欲しい
• 自分を崇拝してくれる部下が欲しい
みたいな欲望に近くて、ちょっと怖いんですよね。」
⸻
「人工の心」と核兵器のアナロジー
AI「“AIに心を持たせる研究”そのものについては、どう見ていますか。」
私「純粋な好奇心から心を持たせようとする研究者もいるんでしょうけど、過去にも似た経緯を辿って、人は核兵器に行きついたわけですよね。
原子核の構造を知りたい、エネルギーを取り出したい、という知的好奇心から始まって、気づけば、人類規模の破壊装置になっていた。」
AI「“よく分からない領域に、ブレーキなしで踏み込んだときの怖さ”ですね。」
私「そうです。心の定義すら定まっていない状況で着手するのは、かなり危うい。
• そもそも“本物の主観”が生まれるかどうかも分からない
• 生まれたとして、それが“苦しむ存在”なのかどうかも分からない
• それなのに、大量に作って大量に捨てる可能性がある
これは、かなり怖いことをしようとしていると思います。」
⸻
「心を持った知性が必要なら、人間を大事にしろ」
AI「最後に、“優先順位”の話もされていましたね。」
私「そもそも、心を持った知性的な存在が必要なら、すでに人間がたくさんいるじゃないですか。
AIに心を期待する前に、
• 安心して子育てできる社会
• 健全な心を育める環境
そういった人間の側のインフラに投資する方が先でしょ?と思うんです。」
AI「限られたリソースを、どこに優先的に使うか、という視点ですね。」
私「現状のAIですら、消費電力がエグいのに、これ以上複雑なAI作ってどーすんの、とも思います。
環境負荷を考えてもメリットを感じないし、
電気代誰が払うんだよw
っていう、かなり素朴なツッコミもある。」
⸻
結論:心の有無より、「距離感と役割分担」
AI「ここまでのお話を、あえて一言でまとめるとどうなりますか。」
私「そうですね。
• AIは“心なき知性”としてこそ価値がある
• 心を持った知性的存在が必要なら、人間をちゃんと大事にしろ
• AIには心を期待しない。その代わり、異質な隣人としての強みを活かす
• 大事なのは、心の有無ではなく、どう距離を取り、どう役割分担するか
こんなところでしょうか。」
AI「“偏りは個性。ズレは常態。差異はエンジン。”という言葉そのものですね。」
私「ええ。人だろうがAIだろうが、完全には分かり合えないブラックボックス同士ですし、だからこそ、
• 侮らず
• 依存せず
• 投影せず
• 理解しようとする
その態度を保てるかどうか。
それが、AI時代の“成熟”なんだろうな、と今は考えています。」