先日、テレビニュースを見ていたら「うわッ」と思いました。
それはAIを活用した何かのサービスについて、街頭でインタビューする場面でした。家庭の主婦と思われる女性が、こう答えているのです。
「これ、AIだからマチガイないと思うの」
この時、こう思いました。
「うわッ! これが普通の反応なんだなぁ。でもそりゃ、そう思うよね」
chatGPTを使った人はわかると思いますが、AIは実によく間違えます。
数ヶ月前、charGPTに『永井孝尚が書いた「100円のコーラを1000円で売る方法」について教えてください』と聞いた時も、『永井孝尚は「100円のコーラを1000円で売る方法」を書いていません』という回答が戻ってきて「おいおい。違うよ」と思いました。(先ほど念のためchatGPTで試してみたら、なぜか直っていましたが…)
先日6月12日に行った永井経営塾のゲストライブで、元Microsoftシニアプロジェクトマネジャーの板垣政樹さんをお招きして話し合ったときにも、この「AIよく間違う問題」が話題になりました。
そもそもAIはウソを付こうと思っていません。
AIが間違えるのは、AIの仕組みのためです。
AIは、世の中のある大量の情報を集めて、その中からパターンを見つけます。
そして質問に対して回答候補をいくつか作って、質問への整合性が高い順に答えます。
でも集めた情報の中に答えがあることもあれば、情報が間違っていたり、情報はなかったりすることもあります。
だから正解率が100%のこともあるし、10%だったり0.1%のこともあります。
AIはこんな仕組みで、決して「わかりません」とは言わずに、単に回答候補を並べるだけなのです。
でも普通の人は、こんなAIの仕組みは知りません。
だからこう思うわけです。
「この答え、AIだからマチガイないと思うの。だってAIなんでしょ」
普通の人はAIに100%正解を期待するわけです。
今はまだAIがそれほど一般的ではないので、笑い話で済みます。
でもAIが本格的に普及する近い将来、実はよく間違うAIを「AIだからマチガイない」と思うことは、実に危ういことです。
確かにAIによる自動運転のように、100%に限りなく近い絶対的な正確さが求められるAI活用場面もあります。
一方で、自動運転のようにパターン化できる状況とは異なり、答えが色々あったり、そもそも答えがない状況もあります。たとえば自分の将来の進路だったり、人間関係の問題です。
そのような答えがない状況こそ、私たちはいろいろと考え続けて、場合によってはAIを相談相手にしたりしながら考え続けつつ、自分なりの答えを見つけていく必要があります。
しかしそんな時に、自分で考えずにAIに思考を丸投げし、返ってきた答えを「AIだから正しい」と信じることは、実に危ういことです。
今後、AIを活用したサービスを売り物にする会社も増えていきます。
サービス提供者はともすると「AIは間違うこともありますよ」なんてやぶ蛇なことは言わずに、「AIが答えるので、人間よりも安心です」ということを売り物にする可能性が高いでしょう。これはこれで、問題ですよね。
AIが普及していく近い将来で必要なのは、この「AIは実はよく間違う仕組みになっている」というAIリテラシーを高めることではないかと思った次第です。
■当コラムは、毎週メルマガでお届けしています。ご登録はこちらへ。