第808話 「深層学習」を理解しているのかなぁ?

最近、このようなボヤキばっかりしているような気がするが、そこはお許しいただきたい。


東洋経済ONLINEの記事、Yahooニュースから引っ張ってきた。


まず、この表題に一番「モヤッ」としたものを感じた。


「診察室は無人に、誤診は限りなくゼロに近づく・・・AI技術で「人が死なない時代」が来ることの“暗雲”」


AIの進化とともに、「誤診をする医師」ではなく、「誤診をしない」AIが診療を行なうことや、遺伝子技術の進歩で、「人が死ななくなる」時代が来る、という話であった。


「人が死ななくなる」時代が来る、とは言っても、結局病気をせずとも「老衰」で死んでしまうわけで、人が死ななくなるわけではない。


一番気になったのは、「AI医師」が進歩すれば「誤診はゼロに近づく」、という命題は「真」であるのか?ということである。


今のAIを支える学習手法の大きなものが「深層学習」である。私が最初に入学、卒業した大学の学部学科では、現在の「深層学習」の草創期にあたる「ネオコグニロン」を作成し、「手書きのひらがな入力」から適切なひらがなを認識する、という研究を行なっていた。


そんなわけで、「深層学習」の「基礎の基礎」は勉強したつもりだが、深層学習で大切なのは、「正解」を明確に定義することである。たくさんの「正解」を「正解」として、また、たくさんの「不正解」を「不正解」として学習させることで、AIの正答率が上がっていくわけである。


では、AIが誤診をしないためには、「100%」の「正解」を用意しなければならない。しかし、それを用意することは「可能」なのか?というのが私の一番の疑念である。


AIの教師が「間違いを犯す」人間であれば、AIが「100%」となりえないのは当然のことである。「無数の論文を根拠として」、と本文にあるが、その論文が「正しい」かどうかがまず怪しいところでもあり、一つの命題に対する論文が、全く逆の結論を出している、ということもよくあることである。


「臨床医学」が「明確な正解」を常に提示できない以上、AI医師が「誤診をしない」ということは成立しないわけである。


AIの基礎技術である「深層学習」、あるいはその他の学習方法であっても、「100%の正解」を提供できない、ということに思いが至っていない、という点で、この記事の記者は極めて無責任な論調を張っていると思ってしまう。悪く言えば、技術的裏付けのない、「幻想」の未来を語っている、ということになるだろう。


当然限られた特定の分野では、AIの診断能力は「熟練の医師」に引けを取らない。ただし、「熟練の医師」の診断を「教師」とする限りは、その医師以上の正答率になることはない。常に診断結果に対して、「正解」「不正解」をフィードバックしなければならない。では、どうやって、正解、不正解の判断をつけるのか、となると、その診断技術「以外」のもので証明しなければならない。では、その技術の「正答率」はどうなのだ、ということになってしまう。


私の発想が「理系の人」なのかもしれないが、センセーショナルな見出しの根拠となるものが極めて曖昧なままに組み立てられている、ということにある種の不快感を感じてしまうのである。AIの診断正答率を100%とするためには、「100%」の正答を用意しなければならないが、それを用意する人間が「100%」を実現できないため、AIの診断正答率を「100%」にすることができない、というパラドックスに気づかなければならない。


というようなことを考えて、モヤモヤする器の小さい私である。

  • Xで共有
  • Facebookで共有
  • はてなブックマークでブックマーク

作者を応援しよう!

ハートをクリックで、簡単に応援の気持ちを伝えられます。(ログインが必要です)

応援したユーザー

応援すると応援コメントも書けます

新規登録で充実の読書を

マイページ
読書の状況から作品を自動で分類して簡単に管理できる
小説の未読話数がひと目でわかり前回の続きから読める
フォローしたユーザーの活動を追える
通知
小説の更新や作者の新作の情報を受け取れる
閲覧履歴
以前読んだ小説が一覧で見つけやすい
新規ユーザー登録無料

アカウントをお持ちの方はログイン

カクヨムで可能な読書体験をくわしく知る