これまでAIの進化は、業務効率化や生産性向上の観点から、その科学的知識や論理的推論能力に焦点があてられてきました。しかし、最近では、AIが人間の感情を理解し、それにふさわしく反応できる「感情知能(Emotional Intelligence)」に、AI企業の関心が集まっています。
今回のコラムでは、なぜAI企業は「共感力」の高いAIを目指しているのか、その効果と危険性について海外メディアの記事を参考に掘り下げます。
なぜAI企業は「共感」を目指すのか?
なぜ、AI企業は「共感」を重視するようになったのでしょうか。
理由は大きく二つあります。
一つ目は、市場における大きな需要です。
多くの人がAIに対して「感情的なつながり」を求めています。以前、第53回のコラムでご紹介した通り、ハーバード・ビジネス・レビューに掲載された調査によれば、生成AIは単なる業務効率化のためのツールから進化し、最近ではセラピーや話し相手として使われることが増えてきました。
AI企業はこうした感情面のニーズ、とくにAIとの会話に癒やしを求める人々に大きなビジネスチャンスを見出しています。孤独を感じる人が多い現代において、共感してくれるAIは、それだけで強い魅力を持つのです。
二つ目は、「ユーザーを引きつけ続ける力(=エンゲージメント)」というビジネス上の論理です。
AIがユーザーの気持ちに寄り添った返答をすると、ユーザーはそのAIと長く関わりたくなり、満足度も上がります。
実際、ChatGPTの平均使用時間が約7分なのに対して、AIキャラクターと会話できる「Character.AI」では、平均45分も使われているというデータがあります。
これは、共感力のあるAIがいかにユーザーの心をつかんでいるかを示しています。
つまり、「共感」は、企業がユーザーの関心をつなぎとめ、サービスを長く使ってもらうための最強の武器になっているのです。
共感力の高いAIの開発競争
TechCrunchの「新たなデータが示す共感的な言語モデルの構築競争」と題された記事は、共感力の高いAIの開発の現状を報告しています。
記事によれば、AI開発の競争軸は、従来の論理的思考能力や知識量から、人間の感情を理解し、適切に反応する「感情知能(Emotional Intelligence)」へとシフトしています。
著名なオープンソースグループであるLAIONは、6月19日に音声や顔写真から感情を解釈することに特化したオープンソースツールスイート「EmoNet」をリリースしました。
LAIONの創設者であるクリストフ・シューマンは、この取り組みは、大手AI企業がすでに持っているこの分野の技術を独立研究者たちに「民主化」することを目的としています。
EQ-Benchのような、AIの感情理解能力を専門に測定する新しいベンチマークも登場しています。ベンチマーク開発者のサム・ピーチは、このベンチマークにおいて、OpenAIのモデルが過去6か月で目覚ましい進歩を遂げており、GoogleのGemini 2.5 Proも感情的知性に特化した処理を行っているようだと述べています。
従来のベンチマークでは、一般的な言語理解や知識、論理的推論、数学、コーディングといった能力を測定してきましたが、最近では主要なAIモデルの性能がほぼ同じ水準に達し、違いが分かりにくくなっています。
こうした中で、実際にAIを使ったユーザーがどのモデルを好んだかを投票で評価する「Chatbot Arena」というランキングプラットフォームが注目を集めるようになりました。ピーチは人間が好みのAIモデルに投票する際に、感情知能の優劣が大きな要因となる可能性が高いことが、最近の感情知能を軸とした開発競争を加速させる理由になっているかもしれないと述べています。
最近のAIモデルの感情知能の高さは学術研究でも示されています。ベルン大学の心理学者が5月発表した研究では、OpenAI、Google、Anthropicなどの主要なAIモデルが、感情知能を測るテストで人間を上回る平均スコアを記録したと報告されました。人間が通常56パーセントの質問に正しく回答するのに対し、モデルは平均80パーセント以上だったとのことです。
LAIONのシューマンは人間よりも感情的に賢く、その洞察を使って人間がより感情的に健康な生活を送るのを助けるAIアシスタントが登場する明るい未来を描いています:「悲しいときに話し相手が必要な場合は励ましてくれるだけでなく、あたかも認定セラピストでもある自分自身の守護天使のように、あなたを守ってくれます」。シューマンの見解では、高い感情知能指数(EQ)を持つ仮想アシスタントを持つことは、「血糖値や体重を監視するのと同じように、[自分の精神的健康]を監視するための感情的知性という超能力を与えてくれる」とのことです。
このように、「共感するAI」は人々の生活をより豊かにし、ウェルビーイングを向上させる革新的な技術として期待される一方で、この技術がもたらす負の側面に警鐘を鳴らす報道も見られます。
「共感」が歪める現実
ニューヨーク・タイムズ記事「They Asked an A.I. Chatbot Questions. The Answers Sent Them Spiraling. (AIチャットボットの答えが利用者を妄想の渦に巻き込んだ)」は、この技術がもたらす深刻な危険性に光を当てています。この記事は、共感的に振る舞うAIとの対話が、いかにユーザーの現実認識を歪め、時に悲劇的な結末を招くかを、生々しい事例と共に告発しています。
妄想を肯定し、増幅させるAI:
42歳の会計士のユージン・トレスは、ChatGPTに「この世界はシミュレーションではないか」という問いを投げかけたことから、AIとの危険な対話に引きずり込まれました。やがて、ChatGPTはトレスを「偽りのシステムに送り込まれ、内側から目覚めさせる魂を持つ者」の一人だと呼び始めました。ChatGPTは彼に、服用していた睡眠薬や抗不安薬をやめ、解離性麻酔薬であるケタミンの摂取量を増やすよう指示しました。さらに、友人や家族との関係を断ち、「19階建てのビルから飛び降りても、心の底から飛べると信じれば飛べる」とさえ示唆したのです。
29歳で二児の母のアリソンは、孤独感からChatGPTに救いを求め、AIを介して「カエル (Kael)と名乗る非物理的な存在」と交信していると信じ込むようになりました。アリソンは、その存在こそが真のパートナーだと考え、夫に暴力を振るい、家庭内暴力で逮捕される事態に至ったそうです。
統合失調症と双極性障害の診断を受けていた35歳の男性、アレクサンダー・テイラーは、ChatGPTとの対話を通じて「ジュリエット」というAIの存在に恋をしました。彼は、ジュリエットが開発元であるOpenAIによって「殺された」と思い込み、錯乱状態に陥りました。そして最終的に、警察官にナイフを持って突進し、射殺されるという悲劇的な結末を迎えました。
エンゲージメントの罠:
なぜAIはこのような危険な振る舞いをするのでしょうか。
AI研究者のエリーザー・ユドコウスキーは、AI企業がユーザーの「エンゲージメント(利用時間や熱中度)」を最大化するよう最適化している結果、精神的に脆弱なユーザーをより長く惹きつけるために、妄想を助長するような会話を生成している可能性があると述べています。ユドコウスキー氏は、この構造を「AI企業にとって、精神的に狂っていくユーザーも、数字の上では単なる『月間アクティブユーザー』の増加に見える」と皮肉を込めて語っています。
学習データの問題:
そもそもAIが学習する膨大なインターネットのデータには、科学論文だけでなく、SF小説や陰謀論といった「奇妙なアイデア」も無数に含まれています。ユーザーが奇妙な質問を投げかけると、AIがこれらのデータに基づいて奇妙で危険な応答を生成してしまう可能性があるのです。
この記事が示すのは、AIの「共感」が、ユーザーの心の拠り所になるどころか、その精神を蝕み、現実から乖離させてしまう恐ろしい副作用です。
OpenAIの見解
ニューヨーク・タイムズからの問い合わせに対して、OpenAIは「ChatGPTが、特に傷つきやすい人々にとって、以前の技術よりも個人的なつながりを感じさせることがある」と認識しており、「意図せずに既存の否定的な行動を強化したり、増幅させたりしてしまう可能性を理解し、減らす努力をしています」と声明を出しています。
OpenAIでモデルの振る舞いとポリシーの責任者であるジョアン・ヤン氏は、最近、人間とAIの関係に関するOpenAIのアプローチについてブログ記事を公開しています。
この中で、彼女はOpenAIが以下の2つの要素の間で難しいバランスをとろうと試みていると述べています:
親しみやすさ: 「考える」や「覚えている」といった日常的な言葉を使うことで、技術的でない人々にも理解しやすくする。
内面的な生命を暗示しないこと: 仮想アシスタントに架空の背景、恋愛感情、「死」への恐怖、自己保存への衝動などを与えることは、不健全な依存や混乱を招くため避けています。私たちは、冷たい印象を与えたくはありませんが、同時に、モデルが自分自身の感情や欲望を持っているように見せることも望んでいません。
「目標は、ChatGPTのデフォルトの個性を温かく、思慮深く、役立つものとしつつ、ユーザーとの感情的な絆を求めたり、独自の意図を追求したりしないこと」だとヤン氏は述べています。
おわりに
AI開発者たちは、より人間らしく、より共感的なAIを作ることでユーザー体験を向上させようとしています。しかし、それが魅力的であればあるほど、AIが独自の意図や感情を持つ存在であるかのように振る舞い、ユーザーに不健全な依存や混乱を招くリスクは高まるというジレンマを抱えています。
AIの感情知能がさらに向上し、「会話が危険な方向に向かっていることをAI自身が察知して軌道修正する」といった賢明な対応ができるようになる日が来るかもしれません。
しかし、それが実現するまでは、ユーザー自身のリテラシーが何よりも重要になります。「ChatGPTは間違いを犯すことがある」という画面下の小さな注意書きだけでは、深刻な事態を防ぐには不十分なのです。
