前回コラムでご紹介した「AI 2027」のように、AIが超知能を持つ存在になる未来が近づいているという可能性が真剣に語られるようになってきました。そこでは、短期間で急速に進化したAIが人間レベルの知能を超えて完全に自律的な存在(エージェント)となり、結果として人類がコントロールを失い支配される、という破滅的なシナリオが描かれていました。
今回は、こうした「人工超知能(ASI)は間近に迫っている」という見方に真っ向から異議を唱える論文、「通常技術としてのAI(AI as Normal Technology)」をご紹介します(前後編でお届けします)。
著者はプリンストン大学のアーヴィンド・ナラヤナン教授と博士課程の研究者サヤシュ・カプーア氏。両者にはAIに関する誤解や誇大広告を検証した共著「AI Snake Oil」もあります。
本稿では、「AIを通常の技術として捉える」という視点が、「AIは急速に超知能になりえる」という見方とどのように異なるか、論文の主張を中心に説明します。次回は、この視点に基づくAIのリスクと政策のあり方について解説します。
AI進歩の速度
AIの進歩は段階的で、AIの能力と導入が進むにつれて人々や組織が適応できる形で進むでしょうか?それとも、大きな混乱、あるいは技術的特異点(シンギュラリティ)につながる非連続的な変化が起きるでしょうか?
著者たちは、AIの進歩は、新たな「手法」開発(例えばLLM)、それを用いた「応用」製品開発、そして社会への「普及」という3段階で考えるべきで、それぞれ時間軸が異なると指摘します。
手法の進歩は急速でも、応用と普及には時間がかかります。これは電力など過去の技術と同様で、AIも例外ではありません。このためAIの真の影響が表れるには時間がかかると著者たちは主張します。
特に安全性が重要な分野(例えば完全自動運転)では、規制や検証、現実世界の複雑さから普及は遅れます。これはAIの能力と実用に必要とされる信頼性との間の「能力と信頼性のギャップ」によるものです。
例えば、自動運転車の開発は既に20年以上が経過しており、すでに高度なレベルに達していますが、それが実際の信頼できる製品として実用化するまでには、まだ大きな隔たりがあります。比較的にリスクが低い分野でもこうしたギャップは存在します。
現在、AIエージェントの活用が期待されている旅行の予約や顧客サービスなどの分野は、自動運転に比べれば、安全性の要求ははるかに低いものです。それでも現実世界で信頼性高く動作することが求められ、まだ多くの課題が残っています。
安全性が重要ではない分野においても、AIの普及は一般に言われているよりも実際は遅い可能性があります。昨年、米国の成人の40%が生成AIを使用しているという調査結果が話題になりました。しかし、ほとんどの人は使用頻度が低いため、これは労働時間の0.5%~3.5%にしか相当しません。
この調査では、米国における生成AIの普及速度はPCの時に比べて速く、米国の成人の40%が生成AIの一般向けサービス開始から2年以内に採用したのに対し、PCでは大衆向け製品発表から3年での採用率は20%に留まっていたと報告しています。
しかし、この比較では、採用の強度(使用時間数)の違いや、生成AIにアクセスするのに比べてPCを購入するコストがはるかに高いことは考慮されていません。データの解釈の仕方によっては、生成AIの普及はPCの普及よりもはるかに遅れているという見方も可能です。
さらに、AIの普及は、人間の習慣、組織、制度の変化の速度によっても制限されると著者らは指摘しています。たとえ優れたAI技術が開発されても、人々がその利点を活用するために行動様式やワークフローを変えるには時間がかかります。過去の汎用技術である電力も、生産性の向上に結び付くまでに数十年の時間を要しました。生産ラインのロジックを考慮した工場のレイアウト全体を再設計や、組織と工程管理の変更が必要だったからです。
AIのベンチマークも、AIの手法の進歩を測るには有用であるものの、実際の応用における有用性を正確に反映しません。例えば、ChatGPTが司法試験で高い成績を収めたとしても、それが弁護士としての実務能力を意味するとは限りません。試験はLLMが得意とする知識の検索と適用を重視し、実際の法的業務に必要な創造性や判断力を十分に評価できないからです。
AI技術は急速に進歩しても、その経済・社会への影響は、過去の汎用技術(電力、コンピューター、インターネット等)と同様に、数十年単位で段階的に進むと予想されます。
高度なAIのある世界はどのようなものになるか?
自己改良されるAIによって知能爆発が起こり、超人間的な知能レベルに達するという考えが、しばしば、下記の図のように表現されます(ネズミ、チンパンジー、愚かな田舎者、アインシュタイン、再帰的に自己改良されたAIの知能が一本の線に並んで比較されている)。
ルーク・ミュールハウザーの論考「知能爆発と向き合う」の図を本論文著者が書き直したもの
著者たちは、このように、AIをあたかも異なる種のように捉え、知能を単一の尺度で測れるものとする考えは無意味だと指摘します。AIの影響を分析する上では、知能そのもよりも環境を改変する「パワー」こそが重要であり、この観点では、下記の図のように異なった関係が見えてきます。
人類は常にテクノロジーを利用して環境をコントロールするパワーを高めてきました。 古代の人類と現代の人類との間には、生物学的な違いはほとんどありません。重要な違いは、向上した知識と理解、道具、テクノロジー、そして今やAIへアクセスできるか、否かです。
人間の知能は、道具を使いこなし、他の知性を自分の知能に取り込むという能力ゆえに特別なのです。地球とその気候を変える能力を持つに至った現代人は、テクノロジー以前の人類に比べれば、ある意味「超知能」的な存在といえるのかも知れません。
懸念されるのは、AIの能力向上が、パワー拡大に繋がり、制御不能に陥る可能性です。
「超知能」観の論者は、能力の高いAIが、破滅的リスクをもたらすパワーを獲得することは不可避だと考えます。そのため、AI安全性の努力は、AIのパワー獲得を防ぐことに対してではなく、強力なAIが人間の利益に反する行動をとるのを防ぐためのアライメント技術に注力すべきと考えます。
これに対して、「通常技術」観では、AIの能力が向上しても、それが直ちに制御不能なパワーに結びつくとは限らず、人間の社会や制度、そして多様な制御技術(監査、監視、フェイルセーフなど)によって、AIのパワーを管理することが可能だと考えます。
人間の能力限界は大きな問題ではない
人間の能力には速度などの限界がありますが、多くの現実世界のタスクでは、超人的速度は不要です。チェスのように高速な計算や反応速度が求められる領域ではAIが人間を圧倒しますが、現実の高速処理が必要な場面(例:原発制御)では、人間はツールを活用しつつ制御を維持します。
現実の認知タスクでは、AIが人間を圧倒的に凌駕する場面は少ないと著者らは考えます。多くの現実世界の認知タスクには、現象そのものが持つ偶然性によって誤りが避けられないものが存在します。そのようなタスクでは、すでに人間の能力は限界に近いレベルに達しており、AIが人間のパフォーマンスを上回ることはないと考えられます。予測や説得などがその例です。
予測や説得の能力
著者たちは、AIが訓練された人間(特にAIツールで強化されたチーム)を、地政学的なイベント予測(例えば、選挙の結果)や説得といったタスクで、大きく上回ることはないと考えます。
説得能力に関して、AIが人間を上回ったとする研究がいくつかありますが、それらの研究は自己利益に反する行動を促す能力を十分に評価しているとはいえません。
例えば、被験者はAIとの対話の最後に、ある主張を信じるかどうかを尋ねられたり、少額の寄付を促すように説得されたりしただけで、AIが人を説得して、危険な行動を起こさせる能力をテストしたわけではありませんでした。
このように、ゲームのような限定された状況下でAIが高い能力を示したとしても、それは現実世界の複雑さや人間固有の能力を考慮しておらず、近い将来に「超知能」が到来することを示す根拠にはならないと、著者らは結論付けています。
高度なAIと人間の役割
高度なAIがある世界でも、制御の主体は人間であり続けるでしょう。AIによる自動化が進むにつれ、人間の役割はAIを制御し、タスクの仕様を明確に定義する仕事に比重が移っていきます。効率性のみを追求して、制御や仕様策定までもAIに委ねる「エンド・ツー・エンド」の自動化は、システムのブラックボックス化を招き、理解可能性や制御性を損なうことで、かえってリスクを高める可能性があります。
おわりに:AIは「普通」の技術か?
今回は、「通常技術としてのAI(AI as Normal Technology)」という論文の前半部分をご紹介しました。本論文は、AIが急速に人間を超える「超知能」になるという見方に対し、AIの進歩はもっと漸進的であり、社会への影響は電力やインターネットのような過去の汎用技術と同様に、数十年単位で徐々に現れると主張しています。
特に、AI技術の手法開発(Methods)、応用開発(Applications)、社会への普及(Adoption/Diffusion)には時間差があり、応用や普及の段階では安全性や信頼性の確保、人間の習慣や組織の変化が必要となるため、技術的な進歩がそのまま社会変革に直結するわけではないと指摘しています。
また、「知能」という単一尺度ではなく「パワー」(環境改変能力)で捉えるべき点や、多くの現実世界のタスクでは人間の能力がすでに限界に近いレベルにある点を指摘し、AIが人間を完全に凌駕するようになるという考えに疑問を呈しています。さらに、高度なAIの世界では人間による制御や仕様策定がより重要になると予測しています。
次回は、この「通常技術」という視点に基づき、AIがもたらすリスクをどのように捉え、どのような政策的アプローチをとるべきかについて、論文の後半部分を解説します。超知能による破滅的な脅威とは異なる、より現実的なリスクとその対策に焦点を当てていきます。
