ロボット三原則の実装はありえるか?


SF好きな方であれば、御大アイザック・アシモフが作中で提唱した「ロボット三原則」をご存じだろう。


 ・ロボットは人間に危害を加えてはならない。また、人間へ及ぶ危険を看過してはならない。


 ・ロボットは人間の命令に服従しなければならない。ただし、その命令が前項に反する場合は、この限りではない。


 ・ロボットは前項の指示に反しない限り、自分自身を守らなければならない。


という、倫理コードというか行動原則のようなものだ。


もちろん、これは古典SF小説の中のお話であって、現実世界でこう言った「倫理コード」的な物をあらゆるロボットの設計製造における『基盤』として埋め込むことはあり得ないだろう。


SF世界であれば、ロボット三原則的な仕組みがブラックボックス化されて装着を義務化される、という展開もあり得るだろう。しかし仮に、ハードコーディングで埋め込まれている物に、後からバグや脆弱性が発見されたら、それも怖い。


実際のところ上記の三原則は「抽象的でフワッとした指令」なので、どのように実装して守らせるかによって、その行動基準には製品ごとに大きな乖離が生まれるし、すぐに矛盾した状態や、解釈しうる可能性の爆発的増大に陥って、ロボットの行動停止を招いてしまうに違いない。


まあ、アシモフはそれをネタにして、「ロボットが不可解な行動を取った >>> 実は三原則の解釈が原因だった!」といった展開で、ロボットものSF小説を書いたのであるが、現実世界では『人間の定義』など、永遠に議論の素材にしかならないだろうと思う。


「人間を守る」といったファジーな概念を理解し、その範囲を自ら定めて実行できるとすれば、それこそもう「シンギュラリティ以降」の自己拡張可能な知性であろう。


であれば、その知性体に首輪と鎖を付けるのか、現生人類と同じように法律と社会的倫理の範疇で行動してくれることを期待するのかは、社会倫理というか、信用する・しないの問題となる。


だが、以前のコラムでも書いたが、「なぜ答がそうなったかを検証できない」機械学習に基づいてAIに導き出された解法を受け入れるのであれば、それはすでに信用しているとしか言いようが無い。


従って現実の未来では、作業支援ロボットであれ、移動支援ロボット(自動運転車)であれ、人命重視や服従性は、もっと表層の行動アプリケーションレベルでしか実装されることは無いはずだ。


言い換えると、上記に限らずロボット(つまりAI)の行動原則的な物は、機械学習と知識適用のアルゴリズムを中心としたフレームワーク、SF的に言えば『思考エンジン』的な物に改変不能なコードとして埋め込まれることは決して無く、最終製品の開発者の胸先三寸でどうにでもなる、ということになるだろう。


もちろん、企業の生み出す製品には製造物責任(PL)などがついて回るので、一般市場向けの営利企業には無責任なことは出来ない。

それに、これに起因する問題が複数起きれば、行動制限の法制化などの動きにも繋がっていくだろう。


だが、そこに『普遍的な倫理観の共有』などという幻想は存在しない。


それがエラーであれ故意であれ、なにか不測の事態が起きた時に、「ロボット三原則的な物が有効であることを前提とした推理」など現実社会ではあり得ないわけで、その調査は単純に安全装置の実装ミスなのか、ハッキングなどによって意図的な故障状態が生み出されたのかを解明することに焦点が絞られる。


以前のコラムで、「航空機が重大な事故を起こすと、その原因が解明されるまで同型機がすべて飛行停止になる可能性がある」と書いたが、将来はロボットが『人身事故』を起こした場合にも、同じような措置が取られて、こんなニュースが流れるかも知れない。


ー 『先日、重大な人身事故を発生した○○社製の作業支援ロボット”XXX-XXモデル”の事故原因が不明なことから、経済産業省では調査委員会を設置すると共に、事故原因が究明されるまで、同型ロボットの活動停止措置を取ることを発表しました』 ー


これが利用箇所の少ない建設重機ロボットならともかく、一般向け作業支援ロボットだったりすると、下手をすると民間航空機よりも経済への影響は大きそうだが、さてはて、経済原理もうかればいいのみでドライブされるロボットメーカーがどの程度の慎重さを持って市場へ製品を送り出すかは、甚だ心許ない気がする。


いや、それを決めるのは自動運転車と同じく、保険会社だろうか?


 - - - - - - - - - - - - - - - - - - - - - - - - 


< 広く普及しているハードウェアの、取り替え不可能な中核に深刻な脆弱性が発見されたケースでは、最近一連の「CPUのバグ」騒動が有名だ。>


< ブラックボックス装備の義務化と言えば、20世紀の終わり頃に物議を醸した、政府のみが解読キーを持つ通信暗号装置「クリッパーチップ」の騒動を思い出す。個人的には、この手のセキュリティシステムに関する強制的な仕様統一や管理の一元化は、それがどんなに善意であっても最悪の結果しか生み出さないだろうと思える。>


< つまるところ、AIの活動原則に倫理コード的な物が埋め込まれるわけがない現実的な理由は、兵器利用うんぬんといった思想的な物では無く、単純に「システム要件として定義不可能だから」だろう。>

  • Twitterで共有
  • Facebookで共有
  • はてなブックマークでブックマーク

作者を応援しよう!

ハートをクリックで、簡単に応援の気持ちを伝えられます。(ログインが必要です)

応援したユーザー

応援すると応援コメントも書けます

新規登録で充実の読書を

マイページ
読書の状況から作品を自動で分類して簡単に管理できる
小説の未読話数がひと目でわかり前回の続きから読める
フォローしたユーザーの活動を追える
通知
小説の更新や作者の新作の情報を受け取れる
閲覧履歴
以前読んだ小説が一覧で見つけやすい
新規ユーザー登録無料

アカウントをお持ちの方はログイン

カクヨムで可能な読書体験をくわしく知る