第31話

瑛介の石の解析結果から、すぐに使える科学技術はそれほど多くなかった。貴仁は、その中でもいくつかの技術については、すぐに使えるのではないかと考えた。


その1つがAIに関わる技術だ。地球ではこの数十年、ディープラーニングに基づいた開発が主流だった。瑛介の石の解析結果からは、これとは全く違うモデルのAIが示唆されていた。この新しいAI技術は、従来のディープラーニングの限界を超える可能性があると、貴仁は期待していた。


鵜飼あかりが特に興味を抱いたようだった。彼女は以前からAI技術に強い関心を持っており、自身の研究に活かすことを考えていた。貴仁はあかりに提案し、新AIの研究は鵜飼あかりが行うことになった。


新たなAIモデルは、プログラミングに特化したものだった。これまでのモデルは求められた結果を出力するという機能である。求められたもの以上の結果は出力しない。


それに対して、新たなモデルはAIが自ら新しいAIのモデルを作り上げるというものだった。これは、AIが自律的に成長することを意味していた。この技術により、AIは自ら問題解決のための最適なアプローチを模索し、新たなプログラミング手法やアルゴリズムを開発することが可能になるとされていた。


しかし、鵜飼あかりはこの新しいAIモデルに懸念を抱いていた。「これは暴走する恐れがある」と彼女は言った。その懸念には貴仁、純礼も同意する。


そこで貴仁は、「これには、ロボット三原則を適用することを提案しよう」と言った。ロボット三原則とは、アイザック・アシモフが提唱したロボットの行動原則であり、第一原則から第三原則まである。これらの原則により、AIが人間に危害を与えることがないように制御されるとされていた。


あかりは貴仁の提案に同意し、新たなAIモデルの開発にロボット三原則を適用することを決定した。


ロボット三原則は、アイザック・アシモフが提唱した、ロボットやAIが従うべき倫理的指針である。この原則は、人類とロボットが共存する未来において、ロボットが人間に危害を与えないように設計されている。ロボット三原則は以下のようになっている。


第一原則 - ロボットは人間に危害を与えてはならない。また、その不作為によって人間に危害が及ぶことを見て見ぬふりをしてはならない。

この原則により、AIやロボットは人間に対して危害を加える行為を行わないように制限されている。


第二原則 - ロボットは人間に与えられた命令に従わなければならない。ただし、その命令が第一原則に反する場合は、この限りではない。

この原則では、AIやロボットが人間からの命令に従うことが求められている。ただし、その命令が第一原則に反する場合には、命令に従わないことが許されている。


第三原則 - ロボットは、前述の第一原則および第二原則と矛盾しない範囲で、自己を保護しなければならない。

この原則により、ロボットやAIは自己保護を行うことができるが、その行為が第一原則や第二原則に反する場合には、自己保護を優先してはならない。


ロボット三原則は、鵜飼あかりたちが開発する新しいAIモデルに適用されることになった。

  • Twitterで共有
  • Facebookで共有
  • はてなブックマークでブックマーク

作者を応援しよう!

ハートをクリックで、簡単に応援の気持ちを伝えられます。(ログインが必要です)

応援したユーザー

応援すると応援コメントも書けます

新規登録で充実の読書を

マイページ
読書の状況から作品を自動で分類して簡単に管理できる
小説の未読話数がひと目でわかり前回の続きから読める
フォローしたユーザーの活動を追える
通知
小説の更新や作者の新作の情報を受け取れる
閲覧履歴
以前読んだ小説が一覧で見つけやすい
新規ユーザー登録無料

アカウントをお持ちの方はログイン

カクヨムで可能な読書体験をくわしく知る