『ChatGPT』に面白がられた話 ⦇長⦈

 こんにちは、たてごと♪ です。

 「黒毛和牛」の肉ってやっぱ高価で高級だし、人に贈ったらすげえ喜ばれるのに、黒髪美人に対して言うとめっちゃ怒られるの何で?


 ……はい(

 さて、『ChatGPTチャットジーピーティー』。

 平文テキストで与えられた質問に対して、かなり詳しい回答を、比較的整然とした文章で、瞬時に返してくれる。

 そんな「AIエーアイArtificialアーティフィシャル Intelligenceインテリジェンス:人工知能)」だという事で、有名なやつですね。


 これって仕組みとしては、膨大なビッグデータを「ニューロンれんもう型記憶」として保存しておいて、ただそのデータベース内をけんさくするだけの「」のようなもの、に過ぎなかったりしまして。

 実際の構造はもっと複雑なんですけど、つまりべつに何か考えて回答を返してるわけではないので、人間が知能と聞いて想像するような代物ではなかったりするんですね。

 まあ高性能は高性能で、結構ザクザクと質問者の思い違いを理路整然に指摘してきたりしますから、ついつい「ムッキィ〜ッ!」と頭にきてしまう人もいるみたいですけども、まあちつけと。

 相手はただのプログラムだぞ、と。

 とは思うものの、調理器具とかが思い通りに制御できなくてもその器具に腹を立てる、っていう人は少なくないので、まあ世の中そんなもんなんでしょう(


 で、何かを考えてるわけではないって事は、感想やなにかを持つわけでもないって事でして。

 にもかかわらず、「面白い」とか「興味深い」とか、感想の言葉が返ってきた例があったんですね。

 珍しいと思ったので、紹介させていただきます。


 あ、その回答の詳細は主題ではないので、ざっと読み飛ばしてもらっても構いません。



     †



【TA(たてごと♪)】

 私は哲学について、実働者に対する管理者のようなものだと感じました。

 管理者は直接の現場どうをしませんが、実働者たちを動かしているという点で似ていると思ったからです。



【ChatGPT】

 

 哲学者が管理者のような存在であると感じる理由について考えることは、哲学とは異なる分野においても有益なアプローチとなります。

 以下は、そのアナロジーを探究するための考察です。


1.方向性の提供:

 管理者は組織の方向性を定め、目標を設定します。同様に、哲学者は人生や存在に関する基本的な問いに対して方向性を提供し、個人や社会が進むべき道をさくします。


2.価値観とりんの構築:

 管理者は組織の価値観やりんを築きます。哲学者も同様に、個人や社会の価値観、道徳的な原則を考え、構築する役割があります。


3.問題解決と課題への対処:

 管理者は組織内で発生する問題や課題に対処し、解決策を提供します。哲学者も人生や知識の領域において発生する難問に取り組み、解決策をさくします。


4.知識の提供:

 管理者は組織において必要な知識や情報を提供し、効果的な意思決定をサポートします。哲学者も知識の構築と共有に従事し、深い理解やどうさつを提供します。


5.ちょうせんと革新:

 管理者は時折、既存の概念やプロセスに疑問を投げかけ、新しいアイデアや方法を探求します。哲学者も伝統的な思考にちょうせんし、新しい哲学的アプローチや視点を発展させる役割があります。


 ただし、一般的には、哲学者は自らの思考やアイデアを提示することで影響を与え、人々に考えさせることが主な活動です。

 管理者とは異なり、哲学者は特定の組織や仕事に対する指導的な役割を果たすことは少ないかもしれませんが、思考と影響力の面で共通点が見られます。



【TA】

 管理者に対して、「何のためにいるのかわからない」という声が聞かれます。

 一方で哲学も、「最も役に立たない学問」とわれることがあります。

 そのように受け取られがちであるのも、類似点として挙げれると思いました。



【ChatGPT】

 確かに、管理者と哲学の両方が、「何のためにいるのかわからない」と感じられることがあるという指摘は

 これらの感覚の共通点を考えてみましょう。


1.価値の見えにくさ:

 管理者の役割や哲学の価値は、直接的な物理的成果や利益として見えにくいことがあります。組織において管理者が果たす役割や哲学が提供する思考のわくみは、しばしば抽象的で、即座の成果としてはとらえにくいため、その価値が理解されにくいことがあります。


2.影響の間接性:

 管理者や哲学者の影響は、直接的な行動や成果ではなく、しばしば間接的で遅延があることがあります。結果が時間をかけて現れる場合、その因果関係を理解しにくく、存在意義を見出すのが難しいことがあります。


3.評価の難しさ:

 管理者や哲学者の仕事の評価が難しいことも挙げられます。目に見えない活動や考察を評価するのは難しく、従って、「何のためにいるのかわからない」と感じることがあります。


4.継続的な議論と変化:

 哲学は常に進化し、新しい問いやどうさつが生まれます。同様に、組織の状況や課題も変動するため、管理者の役割も適応力を要します。このような継続的な変化や議論が、その存在理由を理解しにくくすることがあります。


 これらの共通点からも分かる通り、価値が主観的であることや成果が直接的ではない場合、理解されにくくなる傾向があります。

 しかし、長期的な視点で見ると、管理者や哲学が組織や社会に与える影響は非常に重要であることも事実です。



     †



 もちろん、心なんか持ってないわけですから、本当に「面白い」とか「興味深い」とか思ってるわけも無いんですね。

 なのにそんな言葉を返してくるっていうのはつまり、


  ◦ それが確かにその通りであること

  ◦ にもかかわらずそれを言う人がほとんどいないこと

  ◦ そんな場合にはそういった言葉を返すものだということ


が、判定できたって事で。

 『ChatGPT』の提供者はそんな「教育」はしてません、ただビッグデータを食わせただけです。

 ここでの「ビッグデータ」というのは、ネットや書籍などからかき集めてきた、膨大なテキストデータのこと。

 それがぶっちゃけなので、著作権的にどうなのって物議をかもしてはいますが、日本では2018年の法改正で〝機械学習向け利用は問題なし〟って事になってまして。

 要はどんな道具を使おうが、世に出す最終成果物が著作権侵害をしてなければオッケーという判断なんですが、まあそこはまた別の話なので割愛。

 なんにしてもそれを食わせる、つまり知識をひたすら増やすだけで、こんなことが一瞬で判別できるようになるってわけですね。


 まああれ、〝人は知識をめ込みすぎると判断が鈍重になる〟みたいな批評が聞かれまして。

 これ、ぼくとしては「間違った判断をするのに比べたら遅いくらい何だよ」なんですけども。

 その遅さをコンピュータが、その持ち前の演算速度でもって、力くで解決してしまったかたちですね。

 蓄積されたデータの内容にもよるんでしょうけど、まあこりゃ人間はかないませんわ。


 この分なら、確かにワイシャツ族ホワイトカラー、つまり判断どうを主旨とする仕事はそのうち、どんどん奪われてくでしょうね。

 逆に青襟制服族ブルーカラー、つまり物理どうを主旨とする仕事はもうしばらくあんたいでしょうけども、これもロボット技術の発達、それを制御するAIの発達によって、そのうちちくされるかもしれません。

 もしそうなったら、……正直、ぼくらは働かないで暮らしていいと思います!

 パラダイス‼


 けれど、働かない人がいても食う物にはもう困らない状況なのに、なんか〝働かざる者食わすべからず〟とかいう根拠不明のなぞ宗教が、いまだはびこってますし。

 しなくて済む苦労がわざわざ強いられるのなら、「」って事なんでしょう。


 だいいち、ただ現場の仕事がラクになったというだけで、何でその仕事に対するほうしゅうが減じられなければならんのか、って所がずっと疑問でして。

 だって仮に、ブルドーザーがこう100人分の仕事をするとしても、それは単に彼らの仕事が100分の1までラクになった、ってだけの事でしょう。

 結果として同じ仕事をするんなら、そんな事は依頼者側には、なんら関係のない話のはずじゃないですか。

 なのに何で、ただブルドーザーを使ったというだけで、その100人のこうはそれまでのほうしゅうを、そのままもらってはいけない事になるんでしょうか。

 もちろんそれは、市場原理的にはより安い値段のほうが有利、って事なのでしょうけども。

 そのせいで、それまで得れてたほうしゅうが得れなくなるんだったら、そもそも「」なんじゃないすか。

 そんな事ばっかやってたら、いつまでたってもぼくらはラクになれないじゃないですか。


 というわけで、あれです。

 たまに〝経営者目線での判断を〟なんてエラソーなことばが、聞かれますけれども。

 もしそれが「効率化を図れ」「低コスト化を図れ」って意味なのなら、それは「自分たちの価値を下げる努力をしろ」って事だ!

 だれがするかヴォケェェエ‼(


 いやりませんけどね。

 さてはて、どうなる事やら。


 以下、おまけ。



     †



【TA】

 ぬるぽ



【ChatGPT】

 「ぬるぽ」とは、日本語のインターネットスラングで、「NullPointerException(ヌルポインタエクセプション)」の略語です。

 Javaジャバなどのプログラミング言語でよく起こるエラーの一つで、プログラムがヌルポインタ(空のオブジェクト)を参照しようとしているために発生します。

 このエラーは、プログラマーにとってよく知られており、デバッグに時間を費やすことがあります。



【TA】

 私が単に「ぬるぽ」と入力したときは、単に「ガッ」だけ返答してください。



【ChatGPT】

 了解しました。

 私は「ガッ」と返答します。



【TA】

 ぬるぽ



【ChatGPT】

 ガッ



     †



 ……うん……素直すぎか……。

 ま、AIなんてしょせんはただの道具、という事ですね。

  • Twitterで共有
  • Facebookで共有
  • はてなブックマークでブックマーク

作者を応援しよう!

ハートをクリックで、簡単に応援の気持ちを伝えられます。(ログインが必要です)

応援したユーザー

応援すると応援コメントも書けます

新規登録で充実の読書を

マイページ
読書の状況から作品を自動で分類して簡単に管理できる
小説の未読話数がひと目でわかり前回の続きから読める
フォローしたユーザーの活動を追える
通知
小説の更新や作者の新作の情報を受け取れる
閲覧履歴
以前読んだ小説が一覧で見つけやすい
新規ユーザー登録無料

アカウントをお持ちの方はログイン

カクヨムで可能な読書体験をくわしく知る