AIの「人間らしさ」とチューリングテスト
チューリングテストというのは古い概念(アラン・チューリングによる1950年の論文)だが、人間が対話している相手を機械だと見抜けなければ、その機械は人間と同等の知性を持っていると見なせる、という発想で考案されたテストだ。
大まかに言うと、相手が機械か人間か分からないように、チャットなどでランダムに数人とざっくばらんな世間話などをして、相手の受け答えに妙なところがなく、数人の内のどの相手が機械で、どの相手が人間かを被験者が確定できなければ合格である。
もちろん、一度のテストで判別できる物ではないので、複数の被験者が何回かのテストを繰り返して答えを出す。
テストの実施方法には色々なバリエーションがあり、このテストが持つ本質的な弱点をカバーすることを狙って、様々なアプローチが試されている。
その弱点とはつまり、チューリングテストは本質的には『AIの知性そのもの』を測るテストではなく、AIがどれほど『人間らしく振る舞えるか』を測るテストだという点に由来している。
一例を挙げると、人間はミスをしたり(文字を打ち間違えたり)、言い淀んだり(言葉を選んで考え込んだり)、嘘をついたりする。
こういった事象は「人間らしさ」を強く印象づけるため、チューリングテストに臨むAIには、こういった「エラーもそれっぽく再現」することを求められる。
あるいはもっとストレートに、「素数を100個目まで数えて」と言われて間違えずに即答したら、ほぼ間違いなく機械だろう。
この場合、AIは自分の本当の能力を抑えて、人間らしさの方に注力(平たく言えば、スピードを抑えたり、わざと間違ったり、検索しなければ分からないと嘘をついたり)しなければ合格できない。
私のような人物を相手にした場合は、息つく間もなく繰り出される駄洒落や寒いギャグに
繰り返しになるが、チューリングテストの要点は、AIがどれほど巧みに「人間をシミュレーションできるか?」に、合格の可否がかかっているわけだ。
これが、人間という物を完全に理解した上で真似をできる、と言うならば本物の知性であろうが、人間らしく見えるようにチューニングされた対話シミュレーターを本物の知性と呼ぶのは無理があるだろう。
果たして「らしく」を突き詰めれば、いつかホンモノになるのか? というのは哲学的な問題かもしれない。
上述の点からも分かるように、チューリングテストに合格するAIを作ると言う行為は、そのAIに、(自分の由来をごまかすために)嘘をつく能力を与えていると言うことでもある。
これはもちろん、そういう風にプログラムされると言うだけであって、SF的に自らの意思を持って人間をだませるAIなどを危惧する必要はない。
その心配はずっと後の世代まで脇によけておいていいだろう。
基本的に、人間をだまそうとするのは人間である。無論、AIに対して人間をだますように「仕込む」のも人間だ。
ー
チューリングテストは興味深いアプローチではあるが、そもそもアラン・チューリングは、これを本気で「AIの知性度合いを測る」ために考案したわけではない。むしろ、「人工知能とはいかなる物なのか?」を考えるための指針の一つとして提案したようだ。
とは言え、こう言ったアプローチが実用的にまったく役に立たないというわけでもなく、最近増えてきた対話型AIと呼称される「チャットボット」に人間らしさを付与することに貢献したりはしている。
また、逆説的ではあるが、多くの人はインターネットの利用において、チューリングテストのバリエーションの一つに接している。
Webサイトにアクセスした時に、「CAPTCHA」と呼ばれる仕掛けに付き合わされた経験のある人は多いだろう。
画面に表示された崩れた文字を正しく読み取って文字列を打ち込んだり、パズルの様にバラバラにされた画像をクリックして順番を正したり、というテストに正しく答えないとサイトに投稿させて貰えない、という奴だ。
これは、「リバース(逆)チューリングテスト」と呼ばれる物で、相手が機械ではなく「人間であること」を確かめるテストである。
現在のところ、AIには人間ほど優れた画像認識能力がないため、このテストが成立しているが、送り込まれてくるプログラム側の認知能力も日々進歩しているため、もはや有効なCAPTCHAはホンモノの人間にすら判読しがたい物になりつつあるのが現状だ。
裏を返せば、シンギュラリティを越えて、人間と同じ認知能力を持ったAIが登場すれば、いかなるCAPTCHAも突破できることになるだろう。
(だが、そんなAIでさえも、わざと嘘をついて?人間のフリをしなければ、チューリングテストには合格できない)
また、さらに最近では「I’m not a robot」(私はロボットではありません)というチェックボックスをクリックするだけで認証が済むようになっている場合もある。
これなど、チェックを付けるまでのウィジェット上のマウスの動きから人間特有の反応の揺らぎを計測して、BOTであるか人間であるかを判断するという、恐ろしく高度な機械学習の結果を活用している。
こんな繊細なパターンを認識して判別することは、人間の認知能力では不可能だ。(そのほかのパラメーターも併用しているそうだが、悪用防止のために内容は公開されていない)
つまり、相手が『人間かどうかをAIが見分けている』と言うわけで、人間(サイトの主催者)を騙そうとBOT(AI的な挙動を仕込まれたプログラム)を送り込んでくる人間(スパマーなど)を、AI(by Google)がブロックしているわけだ。
うーむ...未来のオンラインAI代理戦争を事前演習しているかのようでもある。
- - - - - - - - - - - - - - - - - - - - - - - -
< アラン・チューリングは20世紀前半に活躍した英国の数学者/コンピュータ科学者で、第二次世界大戦中に、難攻不落と言われたドイツの軍用暗号「エニグマ」を解読した。同時代のフォン・ノイマンやクロード・シャノンらと並んで計算機科学の父であり、「チューリングマシン」にその名を残すと同時に、1940年代にAI(人工知能)の可能性について論じた先駆者である。>
<ちなみに、チューリングテストに一定の確率で合格するAIはすでに登場しているが、もちろん現代では、それをもって本物の知性と見なす人はいない。>
新規登録で充実の読書を
- マイページ
- 読書の状況から作品を自動で分類して簡単に管理できる
- 小説の未読話数がひと目でわかり前回の続きから読める
- フォローしたユーザーの活動を追える
- 通知
- 小説の更新や作者の新作の情報を受け取れる
- 閲覧履歴
- 以前読んだ小説が一覧で見つけやすい
アカウントをお持ちの方はログイン
ビューワー設定
文字サイズ
背景色
フォント
組み方向
機能をオンにすると、画面の下部をタップする度に自動的にスクロールして読み進められます。
応援すると応援コメントも書けます