第2話 あやまってAI

「AIって責任を取れると思う?」

帰り道にいつもの先輩の発作がはじまった


「また急にどうしたんですか。」

「いやね、ニュースで見たんだけどさ。AIが提案した投資プランで大損した人がいて、怒り狂っているらしい。」

「最近よく聞く話ですね。でも、それをAIの責任にするのはどうなんですか?」

「それなんだよ。AIに責任能力ってあるのかな、って考えちゃってさ。」

「いや、責任能力って、そもそも人間にしかないんじゃないですか。」

「でもさ、AIが人間以上に判断を下してるのに、責任がないってのもちょっとおかしくない?」

「そういう難しい話は、どこかのIT企業のお偉いさんたちや法律家の先生たちが今後何とか整理していくんじゃないですか?」

「まあまあ、待ちたまえ。こういうことを考えるのも、今という最先端を生きる我々若者の特権だろう。それをむざむざ捨てるなんてもったいない。」


僕たちがここで考えたところで、何も変わらないと思うのだが、あくまでも考えることの権利を主張する先輩。先輩がこうなったら抵抗するのは無駄なのは経験が語っている。


「といっても、AIの責任なんてどうやって考えるんですか?」

「ふーん。まず君にとって責任ってどういうものかな?」

「まあ、普通に考えて『自分がかかわった事柄や行為から生じた結果に対して負う義務』ってとこですかね。」

「いいじゃん。そういう常識的なところから考えていこうよ。まず最初の”かかわる”のところから攻めてみようか。」

ギアを上げる先輩。こうなったら止められない。


「”かかわる”って言ってもいろんな形態があるよね。自分で判断を下して直接行為を行ったとか、直接は関わってはいないけど目撃者としてかかわったとかさ。」

「ただの傍観者でもかかわるって言いますかね?」

「”かかわる”というだけだと否定はできないだろう。世界中では、いやこの宇宙では今も何かしらの事象が起きている。この宇宙はいたるところほとんど繋がっているんだ、まったくの無関係というのは起こりえないのさ。」

拡大解釈がすぎる気がするが、そういうものなのだろうか。


「そこまで行くと先輩の最初にいった常識的な範囲をこえないですか?」

「むむむ。言われてみれば、確かにそうかもしれない。」

先輩にも今のが常識的ではないという認識はあるのか。なんかほっとする。


「じゃあ、さっき君が言ってくれた責任に対する普通な解釈について、君の思う範囲で分解していこうか。それをたたき台にして考えていこうか。」

叩くだけ叩いて放置されそうなたたき台になりそうだ。


「とりあえず、”かかわる”ってのは自分の意思で決定を下すってところまででいいんじゃないですか?過失による責任もあってもよいですけど、AIの責任を考えるにあたっては、過失が生じた場合はAIをつくった側の責任になりそうですし、AIに責任を追及することを考えるとノイズになりそうです。」

「おお、あくまでもAIの責任を押し付けようという姿勢、いいじゃないか。」

なんだが謂れのない非難を受けている気がする。


「あとは、そうですね、責任を取らないといけないといった場合、基本的には罪と罰的な話になるじゃないですか。だから、自分が意思決定をして、間違った判断をした場合ってのに絞ってもよさそうです。」

「確かに、責任という言葉だけで見ると、広い意味になる。だけれど、AIに怒り狂っている投資家たちは失敗に対する責任の所在が欲しいわけだし、誤り対して謝ってほしいということを考えれば、その考えも納得だ。」

先輩が寒いジョークを言った気がするが、ここは触らないほうがよいと判断した僕は無視して続ける。


「あー、それと、さっき罪と罰という言葉を使いましたけど、責任は必ずしも罰を受けることだけじゃないと思うので、自分でその誤りを修正できるということもあってもよいかもですね。」

「なるほどね、じゃあ責任とは『自分の意思で決定を下した事柄に対して、間違った判断をした場合、それを自ら修正できる、または、結果に基づいて罰を受けることである』って感じになるのかな?さて、ここから検討をしていこうか。」

先輩は僕が語った責任という定義を使って、AIに責任を取らせるためのポイントを列挙した


1. AIは自分の意思で決定を下すことができるか?

  2. AIが下した判断を客観的に誤りと判別できるのか?

3. AIが間違った判断をした場合、それをAI自ら修正できるか?

4. AIが結果に基づいて罰を受けることが可能か?


「例えば、『AIは自分の意思で決定を下すことができるか?』ってさ。そもそも意思って何だと思う?」

「それは…自由意志みたいなものでしょうか。」

「じゃあ、人間の自由意志ってどうやって証明するの?」

「え、いや、それは…。」

「ほらね、意思の存在すら曖昧なのに、AIにそれを求めるのはおかしくない?」

たたき台を作ったばかりばかりだというのに、先輩はバッサリと切り捨てていく。


1. AIは自分の意思で決定を下すことができるか?→意思の有無について証明不可


「待ってください。その論法だと、人間に対しても自由意志の有無を証明できないのでは?」

「それじゃあ、残りの点についても見てみようか。『AIが下した判断を客観的に誤りと判別できるのか?』についてはどうかな?」

「そりゃ、怒り狂っている投資家からすれば明らかなのでは?」

「短期的に見れば確かにそうだね。それじゃあ、『AIが間違った判断をした場合、それをAI自ら修正できるか?』については?」

「まあ、AIが投資家の負けた分を取り返せれば、自らの行動を修正ってことになるんじゃないかと。」

「君はなかなか大胆だね。AIで負けた分をAIに取り返させるとは。でも、AIを使って大損をした投資家たちは果たしてAIに名誉挽回の機会を与えてくれるかな。」


1. AIは自分の意思で決定を下すことができるか?→人間も意思の有無について証明不可のため保留

  2. AIが下した判断を客観的に誤りと判別できるのか?→短期的に見れば不利益を生じさせているため、判別可能とする

3. AIが間違った判断をした場合、それをAI自ら修正できるか?→AIの使い手次第


「このままじゃあ、先輩の上げたポイントがまとまらなさそうですが、『AIが結果に基づいて罰を受けることが可能か?』はどうします?AIにお前のデータを消してやるって脅しでもしますか」

「人間だったら死刑は重い罰かもしれないけど、AIについて自己の喪失が罰になるかわからないね。罰ってのは基本的に受ける側にとって不利益や不快になるもののはずだよ。」


4. AIが結果に基づいて罰を受けることが可能か?→AIの不利益・不快になる行動が明らかでないため実質不可能


「なんだか、頭がこんがらがりそうです。結局、AIは過失は起こしうるけど、罰を受けることができないってことなんですかね。それじゃあ、AIに責任能力はないって結論でいいんでしょうか。」

こうしてみると、先輩がまとめてくれたポイントについて、バラバラな結論しか出なかった。


「そもそも、責任って何だと思う?人間だって責任を取らないことがあるよね。AIのミスで損したっていうけど、そのプランを選んだのは人間じゃないか?むしろ、人間がAIに責任を押し付けたいだけなんじゃない?」

身も蓋もないことを先輩は言う。せっかく、たたき台を作ったのに、適当に叩いたら無残にも打ち捨てられた。


「つまり先輩が言いたいのは、AIの責任とか言う前に人間自身の責任をもっと考えろってことですか?」

「まあ、そういうことかもね。でも、もしAIが責任を取れる時代が来たらどうする?」

「その時は、AIに謝ってもらうしかないんじゃないですか。」

「謝るAIか…。ちょっと可愛くない?」

「いや、どういう発想ですかそれ。」


こんな意味のないを会話をして、いつものように帰り道を歩く



帰り道、信号待ちの間にAIスピーカーが謝罪する映像広告を見つけた。『誤認識によりご迷惑をおかけしました』という言葉と、深々と頭を下げるアニメーションが妙に可愛らしく、先輩と僕は思わず笑ってしまった。

  • Xで共有
  • Facebookで共有
  • はてなブックマークでブックマーク

作者を応援しよう!

ハートをクリックで、簡単に応援の気持ちを伝えられます。(ログインが必要です)

応援したユーザー

応援すると応援コメントも書けます

新規登録で充実の読書を

マイページ
読書の状況から作品を自動で分類して簡単に管理できる
小説の未読話数がひと目でわかり前回の続きから読める
フォローしたユーザーの活動を追える
通知
小説の更新や作者の新作の情報を受け取れる
閲覧履歴
以前読んだ小説が一覧で見つけやすい
新規ユーザー登録無料

アカウントをお持ちの方はログイン

カクヨムで可能な読書体験をくわしく知る