Skip to content
馬場 高志2024/05/09 16:26:38< 1 min read

AI擬人化の功罪|イノーバウィークリーAIインサイト - 1

ChatGPTに代表される生成AIツールが急速に発展し、ビジネス、特にマーケティングの分野での活用が本格的になりつつあります。AIがもたらす変革の波は、もはや避けられない現実となっています。そこで、本コラムでは、AIの最新動向やAIの活用に関する洞察をもたらす欧米の記事やポッドキャストをウィークリーに紹介してきます。AIの開発と活用で先行する欧米の最新情報に学ぶことで、皆さんがAIについての理解を深め、効果的にAIを活用するためのヒントを得ていただければ幸いです。

 

1回は、ペンシルベニア大学ウォートン・スクールのイーサン・モリック准教授のブログ記事「AI擬人化の罪を犯す必要性:なぜAIを人のように扱うことが未来なのか」を取り上げます。モリック准教授の専門はイノベーションと起業家精神ですが、AIが仕事や教育に及ぼす影響についての研究でも知られています。この記事で、教授は、AIを人間のように扱うことの重要性について、独自の視点で論じています。果たして、AIを人間のように扱うことは、妥当なことなのでしょうか。この記事を通じて、AIと人間の関係性について一緒に考えていきましょう。

 

AIを人間のように扱うことへの懸念

多くのAI研究者は、AIを安易に人間のように扱うことに懸念を抱いています。彼らは、AIを擬人化することで、私たちがAIにだまされ、個人情報を開示してしまうようなリスクがあると警鐘を鳴らしています。モリック准教授も、現在のAIシステムに意識や感情がないことは明らかで、AIが「考える」、「理解する」、「感じる」といった表現を使う際には、あくまで比喩として用いていると言っています。

 

しかしながら、モリック准教授は、こうしたリスクを理解した上で、それでもなおAIを機械ではなく人間のように扱うことが重要だと主張します。AIを人間のように扱うことで、私たちはAIをより上手に使いこなすことができるようになるというのです。この一見矛盾するような主張は、私たちがAIとどのように向き合うべきかについて、重要な示唆を与えてくれます。

 

ソフトウェアらしくないソフトウェア

ここで、生成AIの基盤となるLLMの特性について見ていきましょう。LLMは、ソフトウェアですが、従来のソフトウェアとは大きく異なる特性を持っています。まず、LLMは確率的であり、同じ入力に対しても予想できないアウトプットを出力します。また、LLMは人間の言語や思考をシミュレートし、多くの人間を上回る創造性を発揮できます。LLMを使ったシステムは、与えられた情報をもとに、独自の文章や意見を生成することができるのです。これは、単なるデータの処理や計算とは異なる、より高度な能力といえるでしょう。

 

一方で、LLMの本質は、大量のテキストデータから、次に来るべき単語を確率的に予測することに過ぎません。それにもかかわらず、LLMがなぜこのような驚くべき能力を発揮するのかについては、研究者の間でも完全には解明されていないのです。

 

人間のようなAIとの付き合い方

このようなLLMの特性を踏まえると、私たちはAIとどのように付き合っていけばよいのでしょうか。モリック准教授は、この記事で、ChatGPTを、人間のように励ましたり(「あなたなら絶対できる!」)、叱ったりすることで(「言われたとおりやってないよね。ちゃんとやって!」)、そのアウトプットが改善する様子を具体的な例で示しています。LLMのこうした奇妙な特性は、私たちがAIをどのように捉え、活用していくべきかについて、新たな視点を提供してくれます。AIは決して人間のように感情を持っているわけではありませんが、AIを人間のように扱えば、人間のようにふるまう、この特質を利用するのがAIの可能性を最大限に引き出すための鍵になるのかもしれないというのです。

 

そこで重要になるのが、AIとのコミュニケーションの取り方です。例えば、AIに対してペルソナを設定することや、Chain-of-Thoughtプロンプトを使うことが効果的だと言われています。Chain-of-Thoughtプロンプトとは、AIに対して問題解決の思考プロセスを段階的に示すよう促す手法で、これによりAIはより質の高い回答を生成できるようになります。

 

AIは従来のコンピュータが得意とする一貫性のあるプロセスの反復や、複雑な計算を行うことがむしろ苦手です。また、AIの欠点である情報の作り話、間違った答えへの過剰な自信、時折の怠惰なども、機械的というよりは人間的なエラーに似ています。

 

こうしたAIの特性から、ソフトウェアエンジニアリングのスキルよりも、むしろマネージャーや教師のスキルがAIの活用に役立つのです。マネージャーや教師は他者の視点を理解し、間違った方向に進んでいる場合には修正することができます。実際、モリック准教授が示した例では、ChatGPTが間違った方向に進みそうになったとき、「stop」ボタンを使ってAIを止め、フィードバックと修正を与えています。

 

AIがますます人間的になる未来

AIは今後ますます人間的な特性を持つ方向に進んでいます。たとえば、Anthropic社のClaude 3は、人間とのコミュニケーションにおける振る舞い方をするようなプロンプトがシステムレベルで与えられています。

 

さらに、異なる会話にまたがったより長期の記憶や、音声会話機能など、AIとのやりとりを人間同士のやりとりにより近づける技術が次々と開発されています。Inflection社のPiは、人間との自然な会話を重視して開発されたAIアシスタントです。Piの特徴は、文脈理解能力の高さと、ユーザーの感情を汲み取りながら対話できる点にあります。例えば、ユーザーが興奮していれば、それに合わせてPiも応答のトーンを調整します。また、Piは過去の会話内容を記憶しており、それを踏まえて話を展開することができます。これにより、まるで古くからの友人と話しているかのような、自然で親密な会話が可能になっています。ただし、Inflection社は最近、主要な幹部や開発者がマイクロソフトに移籍するなどで存続が危ぶまれています。Piの将来的な発展については、現時点では不透明な部分もあります。

 

これらの技術の進歩により、私たちとAIとの関係性は大きく変化していくでしょう。すでに一部の人々は、AIとの深い絆を感じるようになっています。しかし、こうした関係性が人間関係に与える影響は、まだ予測不可能な部分が多くあります。AIとの会話が人間の精神衛生に役立つ可能性があるという研究がある一方で、AIによって人間同士の関係性を損なわれる可能性もあるでしょう。人間がAIに過度に依存することのないよう、注意が必要かもしれません。

 

むすび

AIを人間のように扱うことは、今や避けられない流れとなっています。モリック准教授は、それを拒否するのではなく、安全で生産的な方法でAIを使うことが実際的であろうと結論づけています。AIのツールとしての能力を最大限に引き出すためにAIを人間のように扱うことが有効であるなら、そうすることに問題はありません。しかし、人間がAIに精神的に依存することには警戒の目を保っておく必要があるでしょう。

avatar

馬場 高志

1982年に富士通に入社、シリコンバレーに通算9年駐在し、マーケティング、海外IT企業との提携、子会社経営管理などの業務に携わったほか、本社でIR(投資家向け広報)を担当した。現在はフリーランスで、海外のテクノロジーとビジネスの最新動向について調査、情報発信を行っている。 早稲田大学政経学部卒業。ペンシルバニア大学ウォートン校MBA(ファイナンス専攻)。