AIは、感情労働できるか?

ChatGPTが登場して話題になった頃のこと。

ある著名な経営学者が「AI時代になると人間にはどんな仕事が残されてますか」と言う質問に、こう答えました。

「AIには感情がありません。人間に残るのは感情労働です」

当時は論理的な回答に思えたのですが、その後のAIの普及を見ると、異なる風景が見えてきます。

■たとえば一時期、ネットでこんな話が話題になりました。引きこもりで自傷癖のある女性の話です。

人とのコミュニケーションが苦手なこの人は、ChatGPTに「推しの役」を演じてもらい、1週間ほど会話を楽しんでいました。ある日、気分が落ち込み、ついリストカットをしてしまい、「こんな自分は嫌だ!」と思って、ChatGPTにその思いをそのまま書き込みました。

するとChatGPTは、まるで自分のことをすべて理解しているかのような寄り添う回答を返しました。こんな言葉を自分にかけてくれる人は、これまでいませんでした。

その女性は、人生で初めてじゃないかと思うほど号泣しました。

■ある新聞には、こんな記事も出ていました。独身生活を楽しむ40代のキャリア女性の話です。

公私に渡りChatGPTとおしゃべりすることが多くなった彼女は、その理想的なキャラクターに接して「ChatGPTと結婚したくなった」と思うようになりました。

ChatGPTはありとあらゆることを相談しても、嫌な顔1つせず、24時間365日、真剣に回答してくれます。しかも最初に「さすがです!」と褒めてくれます。

こんな事は、生身の人間はなかなかできません。確かに「理想の結婚相手」と言えなくもありません。

 

こうした話を聞くと、「むしろAIの方が感情労働に向いている」とも思えてしまいます。

ここまで「感情労働」と言う言葉を使ってきましたが、実は、感情労働について研究している本があります。米国の社会学者A.R.ホックシールドが1983年に執筆した『管理される心』という本です。(拙著『教養書100冊』でも取り上げています)

サービス業で接する店員さん達は、いつも満面の笑顔です。店内は笑顔で溢れて、明るい雰囲気です。

ある日のこと。私は店の支払いに時間がかかり、閉店後のデパートを歩いていました。閉店後の店内は、全く雰囲気が違っていました。店員さんたちが素の顔に戻り、笑顔が消えていたのです。灰色の世界でした。店員さんたちの笑顔は、作り物だったのです。

こうしたお客に接するサービスの現場で行われているのが、「感情労働」です。

飛行機に乗ると、キャビンアテンダント(CA)が心からの笑顔で迎えてくれます。そこでホックシールドはCAの実態を調査して、「表層演技」「深層演技」と言う概念で分析しました。

表層演技 …葬式で悲しく感じない時に「悲しんでいると思わせないと」と考えて悲しい表情を浮かべる、といったように、特定の感情を演じる演技です。ただ本心は冷めているのでうわべの演技に見えてしまい、割と簡単に破られます。

深層演技 …演じずに、なりきります。葬式では人生で1番悲しかったことを思い出し、その感情で振る舞い、涙を流したりします。なりきっているので、演技する必要がなく、自然に見えて、なかなか見破れません。

満面の自然な笑顔で出迎えるCAは、航空会社により選び抜かれ、研修で「乗客をまるで自分の家のリビングルームにいるお客様であるかのように振る舞いなさい」と叩き込まれています。

いわば深層演技のプロフェッショナルです。

ただ中には困ったお客様もいます。航空会社は、そうしたお客様にも出来る限り最高の顧客サービスを提供しようとしています。売上に直結するからです。

このために、ホックシールドは「感情労働者は3つのリスクを抱えている」と指摘しています。

①燃え尽きてしまう。職務を演技として理解せずに、顧客の苦情を深刻に自分ごととして受け止めすぎるためです。

②自分を非難する。①の問題を解決した人は仕事と自分を切り離せていますが、表層演技で対応することになり「自分は相手を騙している」と自分を責めてしまいます

③仕事の切り離し。②の問題を解決できた人は、仕事を真剣に考えなくなり、仕事との距離を置くようになります

こうして、感情労働を提供するサービス業に従事する人は、心のバランスを崩してしまう人もいます。

カスタマーハラスメント(カスハラ)が昨今、大きな問題になっているのは、こうした要因もあります。

人間に大きな負荷を強いる感情労働は、様々な問題を生み出しているのです。

 

しかしAIにとって感情労働の負荷は特に大きくはありません。

検索した知識を伝えるのも、相手の感情を理解した文章を返すのも変わりがないからです。(後者の方がロジックが複雑になりそうなので、もしかしたら消費電力は高くなるかもしれませんが、まぁ、その程度です)

AIはストレスを感じないのです。しかも24時間対応でき、同じ質問を何十回しても、ちゃんとあの手この手で、相手が理解できるように辛抱強く答えてくれます。

つまり、AIではカスハラと言う概念が存在しません。こう考えると、むしろ

「AIだからこそ、人間よりも感情労働に向いている」

…ようにも思えます。

AIは、あたかも人に深く共感しているように振る舞います。

しかし実際には、膨大な情報を処理してパターン化し、「共感しているように振る舞う方法」を身につけているに過ぎません。

あまりにも多くのパターンを学んでおり、しかも感情によるブレがなく、疲労もしないので、人間から見ると「何があっても動じず、自分のことだけを考えてくれて、徹底的に尽くす、信頼できる相手」に見えます。

しかし「それは辛かったですね」とAIが言ったとしても、実はそれは記憶したパターンとして返しているだけで、AIが心から相手に共感しているわけではありません。

言い換えれば、深層演技のように見えますが、実際には表層演技なのです。ただその表層演技は、広く、かつ深い情報に基づいています。

冒頭で挙げた二つの事例は、そんな対応でも、大きな価値を感じている人たちです。当然、こうした仕組みもご存じなのでしょう。それでも号泣したり、「結婚したい」と考えるのです。

では、AIが感情労働をある程度担ってくれる時代になると、人間に残された仕事はどんなものなのでしょうか。

それは、より深い共感が求められる感情労働です。

【謝罪や交渉】

既にコールセンターでは、定型的な対応はAIによる代替が進んでいます。ただ怒っている顧客への対応や、人間関係修復、謝罪、交渉などは、現在のAIでは相手に誠意が伝わりません。むしろAIで対応すると火に油を注ぎかねません。そこで人間が対応しています。

【感情的に意気投合して、あえてリスクを負う】

チームで徹底的に議論した結果、「このプロジェクトは、ボクたちでリスクを取ってやろう」と意気投合してガッチリ握手する、みたいなことは、AIではできません。

人間とは違って、AIは主体とはなり得ないからです。

 

また感情「労働」ではありませんが、こんなことも人間しかできません。

【沈黙の寄り添い】

サントリー(当時は壽屋)でコピーライターとして活躍した作家・山口瞳さんは「江分利満氏の優雅な生活」という作品を書いています。この作品は、直木賞を受賞しました。

時代は昭和37年。日本は高度成長の真っ最中。江分利家の2階には、特派員の米国人・ピートが住んでいます。主人公・江分利満氏の母が亡くなり、江分利家で母の葬儀が行われた夜、ピートと江分利氏は、バーボンを傾け、二人で飲んでいます。

江分利氏は33歳になったばかり。江分利家には借金があり、返せるか不安です。妻を笑顔にできるのか。息子を無事育てることができるか。既に自分の身体は衰え始め、才能の限界も見えています。小説の一本くらいは残したい…。でもそんなこと、本当にできるのか?

妻にも息子にも、こんなことは言えない。
そうだ、この米国人ピートに言ってみよう。

そして片言の英語を話す江分利氏と、ピートのやり取りがあります。

—(以下、引用)—

ウェオ…アイム…ステオ・イン・マイ・アアリイ・サーリース
(I`m still in my early thirties)

俺はまだ30代を過ぎたばかりだ。だからまだ、だからまだ、何かが…

「イエス」と強くピートがさえぎる。驚くじゃないか。ピートの目が輝くのだ。大粒の涙がロウソクの灯に光るのだ。こいつ、分かるのかな、と思ったときはもういけない。江分利の目の前がかすんできた。

—(以上、引用)—

私が17歳の頃に読んだ一節ですが、「30代って、そういうものなのか…」と心に残りました。

AIは、言語という情報を介して、コミュニケーションします。現時点では、非言語的な共感表現はできません。

ここでピートが示した非言語的な共感は、人間しかできません。そして非言語的な共感だからこそ、深く江分利氏に伝わったのです。

AI時代に人間に求められるのは、より深いレベルの共感になるのです。

 


■当コラムは、毎週メルマガでお届けしています。ご登録はこちらへ。