OpenAIやAnthropicなど最先端AIモデルの開発企業は、人間の博士号取得者よりも賢いシステムを可能にする、より大規模で強力なAIが近い将来に登場すると確信しています。OpenAIのサム・アルトマンCEOとClaudeのダリオ・アモデイCEOは、いずれも最近発表したエッセイで、超知能を持つマシンがもたらす未来について自信をもって語っています。
本当にAGI(汎用人工知能)やASI(人工超知能)は実現するのか、実現するとしても、その時期がいつかは、見解が分かれるところです。
今回はペンシルべニア大学ウォートン・スクールのイーサン・モリック准教授の「今ある未来: 超知能より遙かに前に生まれるAIの衝撃(The Present Future: AI's Impact Long Before Superintelligence)」と題されたブログ記事を紹介します。この記事でモリック准教授は、AGIやASIの到来を待たずとも、また、仮にAIの進化が今ストップしたとしても、現在のAIは、私たちの仕事や社会に大きな変化をもたらすだけの能力をすでに持つに至っていると主張しています。
今のAIにできること:マルチモーダルとツール使用
最新のAIモデルは、テキスト、画像、音声など様々な種類のデータを処理・生成する「マルチモーダル」な能力を備えています。また、 コーディングを行い、コンピューターを操作し、インターネットにアクセスすることなどもできるようになりました。例えば、 10月23日に発表されたClaude 3.5 Sonnetの「コンピューター使用」機能は、PCのスクリーンに表示された内容を理解し、カーソルを動かし、アイコンをクリックし、アプリを起動し、ウェブにアクセスし、テキストをするなど、人間のようにコンピューターを直接操作できます。
まだ、こうした機能は常に完璧に機能する訳ではなく、ハルシネーション(AIが事実に基づかない情報を生成する現象のこと)の問題も残っています。 しかし、欠陥があるにせよ、現在のAIの能力が、すでに役に立つ分野はたくさんあります。
モリック准教授は、この記事でこのような最新のAIの能力を活用する実験をいくつか紹介しています。
AI監視:メンターか?看守か?
最初の例では、Claudeに建設現場のYouTubeビデオを与え、「あなたは建設現場の動画を見ています。現場を監視し、安全性に関する問題、改善できる点、コーチングの機会を探してください」というプロンプトを与えました。何も特別な学習はさせておらず、Claudeの「コンピューター使用」機能をそのまま使っているだけです。Claudeは、自律的にPCを操作し、数秒ごとにスクリーンショットを撮り、これを「観察」し、作業員の保護具の着用状況、資材の配置、作業パターン、潜在的な危険などを分析し、それぞれについてコメントを生成しました。
下記のビデオ(速度を上げている)で、Claudeがこの作業を行っている様子を見ることができます。
https://x.com/emollick/status/1853255574843982241
さらに、モリック准教授はClaudeに 「あなたの結論は何ですか?観察結果を残務リストとしてまとめてください」 とプロンプトしました。するとAIは、動画全体から発見した多数の問題点に対して「推論」を適用し、優先順位付けを行い、問題に対処する方法について論理的な推論を行い、それらをまとめたスプレッドシートを作成しました(下図)。
さらにClaudeは、「残務の完了を確認するための追跡システムを作りましょうか」と提案してくれました。モリック准教授が同意すると、下記の作業リストを担当者の欄まで含めて作成してくれました(下図)。
モリック准教授は、ここで指摘された問題は、ビデオの内容を概ね正しく反映しているように見えるが、ハルシネーションを含んでいる可能性も高いので、こうしたシステムを完全に信頼することは危険だと見ています。しかし、潜在的に危険な環境を監視する人が現場にいない場合や、指導や助言が不足している場合、このように潜在的な危険を指摘し注意を促すAIは、大変役立つツールとなり得るだろうと言っています。
しかし、AI監視が企業や政府によって至るところに設置されれば、それはプライバシー侵害や過剰な管理、AIによる誤った判断による不当な評価など、倫理的な問題を生じるかも知れません。
モリック准教授は、AI監視技術が人間の安全を守り、能力向上を支援する「メンター」のような存在になるか、あるいは「パノプティコン(18世紀に受刑者を効率的に監視するために考案された円形の刑務所施設)」のように人々を監視し、管理するツールになるかは、AIをどのように使うかについての企業や政府の選択にかかっていると述べています。
ECサイトのUX調査:有能なインターンとしてのAI
Claudeのコンピューター使用機能は、ウェブサイトの操作、フォーム入力、取引処理など、これまで人間がコンピューターで行ってきた多くの業務を自動化できます。 さらに、Claudeは単純な自動化にとどまらず、定性的な評価や問題の特定を行うことができます。次の例では、Claudeに「Walmartのウェブページにアクセスし、何かを買おうとしている初心者のユーザーのようにテストしてください。次に、Amazonに行って同じことをしてください。あなたの調査結果をドキュメントにレポートとしてまとめてください..」と指示しました。
Claudeは各ウェブサイトにアクセスし、ユーザーの役割を演じて商品を検索し、購入するというシミュレーションを行いました。 そして、説明的なレポートと要点をまとめたテストレポートの2つのレポートを作成しました。 モリック准教授は、これらのレポートは、深い洞察というほどではありませんが、ハルシネーションはなく、かなりしっかりとした内容となっていると評価しています。
AIはすでに、課題を与えられれば、それを素早くうまく実行し、その過程で「判断力」を使って問題を解決するインターンに近いレベルに達しているといえるかも知れません。 モデルが改良され、これらのシステムの使い方が複雑でなくなれば、近い将来、管理職がAIエージェントのチームを使って分析や反復作業を行うようになることは容易に想像できるとモリック准教授は言います。
AIアバター:仮想と現実の境界
最後の例で、モリック准教授はHeyGen というAIツールを使って作成したAIアバターをZoom会議に参加させ、その様子を紹介しています。AIアバターは、音声、画像、動作のすべてがAIによって生成され、人間と自然なやり取りを行うことができます。この例ではアバターは、Zoomミーティングでは最も会社の会議でステレオタイプ的な振る舞いをするように指示されています。
https://x.com/emollick/status/1853601077264052498
モリック准教授は、わずかな声や服装の動きの不自然さなどによって、まだ、「不気味の谷」現象が残っているものの、インタラクションは基本的に典型的なZoom会議の会話に近いと評価しています。「不気味の谷」現象とは、人間は、ロボットの外見や動きが人間に近くなるほどロボットへの親近度が高まるが、あまりに近づきすぎると逆に不気味に感じるという現象のことです。しかし、近い将来、「不気味の谷」を越え、多くの人がAIアバターを本当の人間と見分けられないようになることも大いにあり得るでしょう。
おわりに:AIと共存する未来に向けて
超知能の到来を待たずとも、現在のAIはマルチモーダルやツール使用といった機能を持つに至り、既に仕事や社会に大きな変化をもたらし始めています。モリック准教授は、組織が今AI導入についてどのような選択をするかが、将来にわたって影響を持つ先例を作ることになるかも知れないと言います。
AIを活用したモニタリングは、労働者を指導し保護するために使われるのか、それともAIによるコントロールを押し付けるために使われるのか。 AIアシスタントは人間の能力を補強するのか、それとも徐々に人間の判断に取って代わるのか。私たちはAIの導入を純粋に技術的な課題として捉えるのではなく、これらのテクノロジーが人間に与える影響を考慮しなければなりません。
私たちに課された緊急課題は、こうした変革が人間の潜在能力を向上させ、テクノロジーが人間の能力を代替するのではなく、むしろ向上させるような職場を作り出すことにあるとモリック准教授は言います。 こうした、問題意識はAI導入の初期段階である今、まさに認識されるべきでしょう。