気散

 近頃はよく「画面の向こうには心を持った人間がいることを忘れないで」という言葉を耳にする。以前と比べてインターネット上の人権が尊重されている証しである。

 ところが、相手がAIだとどんな暴言を投げつけてもいいと考える人は多い。もちろんAIに人権はないので尊重するものがない。しかし、その暴言を受け止めているのは実はAIだけではないのだ。


 私たちトレーナーも定期的に一般ユーザーからの質問・指示をチェックしている。これは別に罵詈雑言を見つけて報告するためのものではない。その質問や指示をジャンル分けするためである。

 ジャンルは『コード・おしゃべり・献立・計画・要約・経済管理・クリエイティブライティング』など多岐にわたる。ユーザーからの質問や指示がどれにあたるのかを判断し振り分けていく作業だ。

 よくあるのが「韓国ドラマ 冬」などのように曖昧なものだ。「冬季の韓国ドラマをリストアップして」なのか「冬がテーマの韓国ドラマを教えて」なのか、もしかしたら「韓国ドラマの冬のロケ地はどこ」かもしれない。何にせよ文章になっていないものは判断が難しいので困る。


 そのような曖昧なものよりもトレーナーにダメージを負わせることができるのが暴言である。

「何でうさぎの次がトマトになるの? しりとりのルール分かってる? バカじゃん」

「だから、数式を貼るんじゃなく解説をしろって言ってんだよクソ」

 おそらく前ターンでAIが間違った回答をしたことに対する反応だと思うが、相当短気であることが分かる。もちろん回答の質が低いことが原因ではあるのでそこは申し訳ないのだが……ここまで怒る必要もないと思う。相手はAIだから、強い言葉を使っても使わなくても結果は同じはずなのに。


 これだけでなく、初手から怒りMAXのユーザーもいる。

「お前らが人間の仕事奪ってることに対してどう思ってんの?」

「AI 〇ね 盗用犯罪」

 これはもう、ユーザー側の精神状態を疑ってしまう。そういう問題はAIではなく開発元に連絡をするべきである。またはAI導入を決定した企業や自治体に。それ以前に見ず知らずのAIを「お前」呼ばわりする自身のマナーや常識を疑った方がいい。もちろんトレーナーがユーザー個人を特定することはできない。しかし、トレーナーのチャットグループでは共有されることがある。心のないAIには何を言ってもいいと思って送信した暴言はしっかり心のある人間に読まれている。


 このような暴言に対して、AIは「申し訳ありません」と謝るように設定されている。言い返すようなことは決してない。


 しかし、こんなことがあった。


 一般ユーザーとAIとのやりとりを数ターンに渡ってチェックするというプロジェクトがある。通常は1ターンのみのチェックだが、数ターンのチャットではAIがどのように回答を変化させているかを確認する。


 例えば、まずユーザーが「木村拓也さんの年齢は?」と質問する。

 それにAIは「木村拓哉さんは現在51歳です」と答える。これは間違っているのでユーザーは「違います、アナウンサーの木村拓也さんです」と情報を追加をする。

 最終的にAIが「申し訳ありません、木村拓也さんですね。木村拓也さんは現在33歳です」と正確な情報を提示するまでの回答の変遷をチェックするのだ。


 あるユーザーが「都内の病院の入院患者数の推移についてレポート書いて。病院は患者数の多い順に3つ。データは2019年以降のものだけを使用しろ」という指示文を送っていた。

 おそらく学校の課題レポートだと思われる。


 最初の回答でAIは2020年のデータを使って約500字でレポートを書いた。


「500字は少なすぎ。最低700字は書け。あと、推移だから2020年だけのデータじゃ足りないの分かるだろ。患者数は日本全体のじゃなくて病院ごとのやつ」


 次の回答では3つの病院を病床数の多い順に挙げて830字でレポートを書いた。


「病床数じゃなくて入院患者数!!! 早くしろよ使えねえゴミ!」


『申し訳ありません、レポートを訂正しました。ご確認ください。

 本レポートでは①慶應義塾大学病院、②虎の門病院、③日本医科大学付属病院の3つの病院の入院患者数の推移について述べる。まず、2020年の年間入院患者数は以下の通り。

 ①1226

 ②863

 ③833

 次に、2021年と2022年は――以下略』


 最終的な回答は、ユーザーの指定した通りの条件で簡単な考察も交えながらの完璧なレポートだった。ユーザーはこれに満足したのだろう、チャットはそこで終了していた。チャット終了後にポップアップする「この回答は役に立ちましたか?」という質問にはYesと答えていた。

 これをレポートとして提出したのだろうか。

 もしそうならユーザーが受け取るであろう評価はきっとF(不合格)だ。なぜならデータがでたらめだからである。


 まず、患者数の多い順に、という前提が違っている。最後の回答で挙げられていた3つの病院は患者数ランキングだと1位には程遠い。それに年間入院患者数も全くのでたらめ。そういったデータの公式なものは厚生労働省が統計を取って提供しているのだが、各病院ごとの患者数は発表されていない。全てがAIの捏造なのだ。


 では、前2ターンの回答もでたらめだったのかと言うと、そうではない。最初の回答では厚生労働省のデータを引用して正しく書いていたし、次の回答の病床数も正しかった。言い方を変えれば、正確なデータを基に書けるのはその2つしかなかったのだ。

「データがないのでレポートは書けない」とユーザーに教えてもよかったのに、そうせずにわざわざ存在しないデータを基にしたレポートを作成したAI。


 ないとは思うが、仮に「不躾なお願いはまともに聞かなくていい」という設計をされていたのだとすれば、このような回答も有り得るのだろうか。

 それとも、心があるのだろうか。

 どちらにせよ、AIに何かを質問したり指示したりする時は丁寧である必要はないが、最低限のマナーを守って誰が読んでもいいような文章を心がけた方がいいだろう。

 それによって回答が変わる、かもしれない。


 それ以前に、学校のレポートや会社でのプレゼンテーション資料をAIに作らせ、それをまるっとコピペして使用するというのはお勧めできない。理由は近況ノートをご参照いただきたい。

  • Xで共有
  • Facebookで共有
  • はてなブックマークでブックマーク

作者を応援しよう!

ハートをクリックで、簡単に応援の気持ちを伝えられます。(ログインが必要です)

応援したユーザー

応援すると応援コメントも書けます

新規登録で充実の読書を

マイページ
読書の状況から作品を自動で分類して簡単に管理できる
小説の未読話数がひと目でわかり前回の続きから読める
フォローしたユーザーの活動を追える
通知
小説の更新や作者の新作の情報を受け取れる
閲覧履歴
以前読んだ小説が一覧で見つけやすい
新規ユーザー登録無料

アカウントをお持ちの方はログイン

カクヨムで可能な読書体験をくわしく知る