「AIだからマチガイないと思うの。だってAIなんでしょ」


先日、テレビニュースを見ていたら「うわッ」と思いました。
それはAIを活用した何かのサービスについて、街頭でインタビューする場面でした。家庭の主婦と思われる女性が、こう答えているのです。

「これ、AIだからマチガイないと思うの」

この時、こう思いました。

「うわッ! これが普通の反応なんだなぁ。でもそりゃ、そう思うよね」

chatGPTを使った人はわかると思いますが、AIは実によく間違えます。

数ヶ月前、charGPTに『永井孝尚が書いた「100円のコーラを1000円で売る方法」について教えてください』と聞いた時も、『永井孝尚は「100円のコーラを1000円で売る方法」を書いていません』という回答が戻ってきて「おいおい。違うよ」と思いました。(先ほど念のためchatGPTで試してみたら、なぜか直っていましたが…)

先日6月12日に行った永井経営塾のゲストライブで、元Microsoftシニアプロジェクトマネジャーの板垣政樹さんをお招きして話し合ったときにも、この「AIよく間違う問題」が話題になりました。

そもそもAIはウソを付こうと思っていません。
AIが間違えるのは、AIの仕組みのためです。

AIは、世の中のある大量の情報を集めて、その中からパターンを見つけます。
そして質問に対して回答候補をいくつか作って、質問への整合性が高い順に答えます。
でも集めた情報の中に答えがあることもあれば、情報が間違っていたり、情報はなかったりすることもあります。
だから正解率が100%のこともあるし、10%だったり0.1%のこともあります。

AIはこんな仕組みで、決して「わかりません」とは言わずに、単に回答候補を並べるだけなのです。

でも普通の人は、こんなAIの仕組みは知りません。
だからこう思うわけです。

「この答え、AIだからマチガイないと思うの。だってAIなんでしょ」

普通の人はAIに100%正解を期待するわけです。

今はまだAIがそれほど一般的ではないので、笑い話で済みます。

でもAIが本格的に普及する近い将来、実はよく間違うAIを「AIだからマチガイない」と思うことは、実に危ういことです。

確かにAIによる自動運転のように、100%に限りなく近い絶対的な正確さが求められるAI活用場面もあります。

一方で、自動運転のようにパターン化できる状況とは異なり、答えが色々あったり、そもそも答えがない状況もあります。たとえば自分の将来の進路だったり、人間関係の問題です。

そのような答えがない状況こそ、私たちはいろいろと考え続けて、場合によってはAIを相談相手にしたりしながら考え続けつつ、自分なりの答えを見つけていく必要があります。

しかしそんな時に、自分で考えずにAIに思考を丸投げし、返ってきた答えを「AIだから正しい」と信じることは、実に危ういことです。

今後、AIを活用したサービスを売り物にする会社も増えていきます。
サービス提供者はともすると「AIは間違うこともありますよ」なんてやぶ蛇なことは言わずに、「AIが答えるので、人間よりも安心です」ということを売り物にする可能性が高いでしょう。これはこれで、問題ですよね。

AIが普及していく近い将来で必要なのは、この「AIは実はよく間違う仕組みになっている」というAIリテラシーを高めることではないかと思った次第です。

  

■当コラムは、毎週メルマガでお届けしています。ご登録はこちらへ。