第29話 流行りのChatGPTは果たして本物か

 今流行り始め、あちこちの企業からOpenAIを使ったチャット系ツールがリリースされていますが、まあ、猫も杓子も。という感じです。

乗り遅れるな!とばかりに、いろんなベンチャー企業がエンジェル投資家や企業からの投融資を受けて、出てくるわ、出てくるわ。という事態になっています。


 ですが。


 ChatGPTがやっている機械学習だの、深層学習だのは最近始まった話でもなく、かなり昔からやっていたわけです。

それが、一見『会話が出来ている』ように見える、ことから、大ブームになった訳です。



 これは、ものすごーく大雑把に言えば、知識データベースに、ニューラルネットワークを使った統計的ラベリングと紐づけをして、そのユーザーインターフェースに会話型の物をくっつけたシロモノです。

この会話部は強化型の機械学習を受けています。


 この会話型インターフェース部分が従来では難しかったわけですが、人間が機械学習の途中に介在してやり、補正すること、修正することによる、「強化学習」によって、飛躍的に性能が上がったというのが、現在の状態です。

深層学習は通常、人間が手を出せません。そこに手を入れられるようにした、というのが新しい理由わけです。



 ここで、私も最初は騙されましたが、AIは言葉の「意味」は。(ここがとても重要です)


 非常に多くの統計的データによって、この文章に当て嵌まる単語はこれであるという、『』に基づいて文章の組み立てが行われています。

ここが、ミソです。この単語、この文章のこの単語の先には、この単語が来ることが圧倒的に多いという、統計データに基づいた『推測』が行われて、穴埋め問題を解決します。


 それで、「穴埋め問題が大得意」。


 ただし、その知識が統計データによってかなり高いパーセンテージで裏付けられてること。というのが必要条件です。

なので、機械学習によって得られた統計データが、使用において確信できるほどには高くはない、或いはかなり少ない、もしくは全くない単語、またはユースケースに出会うと、簡単にミスを犯します。


その場合は、埋めるべき単語は、周辺の似たような属性をラベリングされているモノがニューラルネットワークによって選ばれているようです。

文章は、ある程度乱数が使われており、毎回同じ答えを返さない様にしている、ということを開発者も答えていましたので、確定度合いが低い物を選択するときは、本当に似たような属性を持つ言葉が、ランダムに選ばれるようです。


その結果として、嘘をまるで、板に水を流すかの如く流暢に会話に混ぜてきます。

50億だかのパラメータを持っているそうなので、生成する文章自体は文法的には、ほぼ間違えたりしないのですが、中に使われた単語が(意味論的に、あるいは事実に基づいて)正しいかどうかは、全く別の話です。そのために文章に大きな矛盾が生じたりします。


 生成された文章の真偽の判定は、思っているほど容易ではありません。

自分が知らないから、検索エンジンに訊ねているのに、そこで流暢な嘘を吐かれては打つ手がない。

という大きな問題があります。今後、大問題になっていくでしょう。

 どうやって調べるかですが、多くの人が当てにしているWikiペディアが、ChatGPTの出す嘘で修正されまくったら、もう打つ手がありません。なにしろ、一見して本当のように見えるからです。これは編集者を極めて限定して直していくしかなくなります。内容を監視するモデレータがパンクする可能性のほうが極めて高いでしょう。


 そもそも検索において、それっぽい答えを出され、参考データとして参照先を提示されても、それが最適なものかどうかは、実際に全て訪れて見てみないと分からない、というのと、リンクが切れていた場合、その情報は正しいかどうかの判定が難しくなります。


このために、本来の正しい運用方法は、社内デスクのヘルプとか、アプリの作業アシスタント、などでしょう。

この場合は、持っているべき知識が限定されるけれども、その知識について、深い情報を持たせる事が出来るからです。



 これは、現在のOpenAIだけではなく、ニューラルネットワークで作られた会話エンジン付きAI。はい。

そもそも、意味を理解しながら動くとかいうモデルではありません。

これは、純粋にだからです。


 実はコア部分がなぜ、結果としてそのように動いているのかを、完全に詳細な説明をできる人はいないようです。それが専門家でも、です。

そこだけはブラックボックスです。実際に動いているけど、説明不能な部分があるようです。


そのために、今後もこのアルゴリズムを使い続ける限りにおいて、AIは『意味を理解する』事はありません。

一見、そのように見えているだけです。


 『意味が解って』文章を組み立てている事と、『』をして、文章を組み立てている事には、本当に天地の差があります。

そこにはが存在してるのです。その点だけは、常に強く認識しておく必要があります。


 この大流行がいつまで続くのか。ちょっと興味はあります。

 急速に萎んでしまっても、不思議ではないし、応用される範囲が限定されるかもしれないし、それはそれで正しいとか思うのです。

 今の、無秩序な機械学習と、このAI氾濫はまずいよな。とは思っていますが。


追記:インターネットにニュースを提供しているサイト(新聞社)が、別の会社がOpenAIを使ってニュースを流しているのを訴え始めました。

データをお金も払わずにクローリングして、それで深層学習に使って、Chatに最新ニュースを流すのは、違法だろうということです。


 すでに画像生成AIが58億枚もの絵、それは各種の写真とアニメ、同人の絵、ネットに上げられている各種の絵サイトから無断でデータをクローリングして、深層学習に使ったことが裁判になっており、一部の裁判はもう結果が出ていて、生成AIを作った側が敗訴。

写真や絵の権利者が訴えた物はデータベースから削除、という感じです。

OpenAI系もそういう裁判が起こる可能性はかなりあり、欧州ではAIに相当に制限を掛ける方向です。


 これを日本はどう考えるのか。ChatGPT使えないやつは今後は生き残れない。みんなマスターせよ。みたいな煽り記事が大分みられますし、ビジネスでChatGPTを使った結果、作業時間が短縮され、質が大幅に向上!などと擁護に必死です。

しかし、それは作業の内容とか、どういうものを提出しているのかに左右されることです。


教育でChatGPTを使うほうがいいと言っている人達は、それによる結果には責任を負わないから、言いたい放題でしょうね。


人間は安きに流される。答えを教えてくれるコンピュータがあれば、上手な質問の仕方さえ覚えれば、それでいいという、極めて偏った学習を人間のほうがしてしまい、人間の知性が明らかに劣化していくという事実に、想像が回らないのでしょう。

(ナビと最新地図が常に携帯にあり、GPSが常に現在位置を正確に教えてくれるために、もう紙の地図を用意している人が相当減ったことや、そもそも地図が読めない人まで出ています。色々とAI化が進むとAI禍が必ず起きると私は断言します。)


AIが作ってくれる未来は、もっと明るい物だっただろうに、未完成の物を世の中に放出してしまったために、これからは混乱、混沌の時代がやって来そうです。

  • Twitterで共有
  • Facebookで共有
  • はてなブックマークでブックマーク

作者を応援しよう!

ハートをクリックで、簡単に応援の気持ちを伝えられます。(ログインが必要です)

応援したユーザー

応援すると応援コメントも書けます

新規登録で充実の読書を

マイページ
読書の状況から作品を自動で分類して簡単に管理できる
小説の未読話数がひと目でわかり前回の続きから読める
フォローしたユーザーの活動を追える
通知
小説の更新や作者の新作の情報を受け取れる
閲覧履歴
以前読んだ小説が一覧で見つけやすい
新規ユーザー登録無料

アカウントをお持ちの方はログイン

カクヨムで可能な読書体験をくわしく知る