前回に続き、プリンストン大学のAI研究者アーヴィンド・ナラヤナン教授とサヤシュ・カプーアの共著論文「通常技術としてのAI (AI as Normal Technology)」の後半をご紹介します。
前半の振り返り:「超知能としてのAI」と「通常技術としてのAI」の世界観の違い
「超知能としてのAI」の世界観では、AIは人間を遥かに超える知能と自律性を持ち、制御不能な破滅的リスクをもたらす存在として語られます。
一方、「通常技術としてのAI」世界観では、AIは人間が利用する道具であり、基本技術の開発・応用・普及の3段階を経て、社会に徐々に浸透していくと捉えます。応用や普及の段階では安全性や制度の整備が必要で、技術進歩が直ちに社会変革につながるわけではありません。
AIの影響を考える上で重要なのは「知能」ではなく、環境を変える「パワー」です。超知能観では高度なAIが制御不能な力を持つと考えるのに対し、通常技術観では、制度や技術によりそのパワーを制御可能だと見なします。
このような世界観の違いによって、AIがもたらすリスクをどうみるか、どのような政策的アプローチをとるべきかについての見方も大きく変わってきます。
AIがもたらすリスク
論文では、AIのリスクとして、主に事故 (Accidents)、誤用 (Misuse)、ミスアライメント (Misalignment)が懸念されています。
事故 (Accidents)リスク
AIシステムが意図に反して失敗し、害を及ぼす事故のリスクについて、著者たちは、その軽減の責任は、他の技術と同様に、AIシステムの開発者(LLMなど基本技術の開発者)や展開者(AIアプリケーションの開発・導入者)にあると述べています。
システム安全工学の手法(フェイルセーフ、サーキットブレーカーなど)やサイバーセキュリティの原則(タスクに必要な最小限のリソースにのみアクセスを許さない最小権限の原則など)など既存手法がAIにも有効と考えられます。また、AI分野独自の安全性研究も急速に進んでおり、提案されたアクションの安全性を評価するのにLLMを使用することなど新しいアイデアも生まれています。
多くの場合、市場原理が企業に安全対策を促すインセンティブとして働きますが、AI業界においては競争を優先するあまり、安全性が軽視されるリスクも懸念されます。その場合、適切な安全規制によって、補完する必要があります。
衣料品産業における火災安全、食品加工業における食品安全、鉱業における労働者の安全など、安全性の軽視が過去に大きな問題になりました。これらの産業では、プロセス(基準、監査)、結果(製造者責任)、情報非対称性の是正(内容表示)など政府の規制によって安全性担保が明確に企業の責任となったことで、問題は是正されてきました。
AIも例外ではなく、自動運転の分野では、Waymoのように安全性を重視する企業が優位に立っており、安全性が市場での成功と強く相関していることを示しています。また、ここでも規制が補助的な役割を果たしています。
このように、この論文ではAIの事故は管理可能なリスクであり、適切な技術と規制によって対処できる問題として捉えられています。
誤用 (Misuse)リスク
誤用とは、AIが悪意のある人に使われて、害を与える目的に利用されるリスクのことです。AIモデルに「悪用は拒否する」と教え込む(アラインメント)という対策はよく聞かれますが、これは簡単ではありません。なぜなら、ある機能が有害かどうかは、文脈によって決まることが多く、AIはその文脈を正しく理解できないからです。
例えば、フィッシングメールの作成など、個々の作業は一見無害でも、組み合わせ次第で悪用される可能性があります。AIはその使い方が正当か悪意あるものかを判断できません。
そのため、AIモデル自体よりも、AIを使って攻撃される側――つまりシステムやインフラ、ユーザーに対する防御を強化するべきだと考えられます。メールフィルタやOSのセキュリティ、ユーザー教育など、すでに人間の攻撃に備えて発展してきた対策を、AIによる攻撃にも対応できるようにさらに強化していく必要があります。
ミスアライメント (Misalignment)リスク
ミスアライメントとは、AIが開発者やユーザーの意図とは違う動きをすることです。ただし事故と違って、AI自体は設計や命令通りに動いています。問題は、私たちの意図や目標をAIに正確に伝えるのが難しいことにあります。
LLMが有害な答えを返すのもミスアライメントの一例ですが、この論文で主に扱っているのは、そうした日常的なケースではなく、人類に深刻な影響を与えるような「壊滅的なミスアライメント」です。ただし、著者たちはこの種のリスクはあくまで想像上の話で、現実的ではないと考えています。
よく引き合いに出される例に、「ペーパークリップを大量に作れ」と命じられたAIが、地球のあらゆる資源を使ってペーパークリップを作ろうとして、人類を滅ぼしてしまうという思考実験があります。でも、現実のAIはそんなに極端な動きをする前に、安全性テストを受け、リスクの少ない場面で信頼性を証明しなければなりません。常識がなかったり、命令を文字通りに捉えすぎたりするようなAIは、そうしたテストを通過できないでしょう。
「超知能」観では、「欺瞞的アライメント」も心配されています。これは、最初は問題なさそうに振舞っていたAIが、パワーを得た途端に裏切るような行動をとるという懸念です。実際、最先端のAIではそうした兆候も見られています(AIの欺瞞的な振る舞いについては、こちらの記事を参照)。
しかし「通常技術」観では、こうした欺瞞も技術的な課題の一つとして扱い、対処可能と見なします。現在ではAIの欺瞞的なふるまいを検知する研究も進んでおり、安全性評価の一部になっています。
著者たちは、より重要なのは、人類滅亡のような話ではなく、AIがバイアスや差別、失業、不平等、情報の操作、民主主義の後退など、既にある社会問題を悪化させる「システム的リスク」だと述べています。
政策
論文では、AIを通常技術とみなす立場から、AIの将来に関する不確実性が高い中でどのように政策をとるべきかを論じています。
「不拡散(nonproliferation)」政策の是非
「超知能」の立場では、非常に強力なAIが壊滅的な危険をもたらすとして、そのような技術を少数の政府や大企業だけが管理できるようにする「不拡散」政策が必要だと考えます。つまり、AI技術の拡散を防ぎ、中央集権的にコントロールしようとする考え方です。
一方で、「通常技術」としてAIを捉える立場では、この不拡散政策には多くの問題があり、かえって長期的なリスクを高めると考えます。AIに関する知識はすでに広く共有されており、技術の進歩やコスト低下によって、誰でもAIにアクセスしやすくなっています。そのため、不拡散を実際に行うのは難しく、むしろAIを一部の企業に集中させてしまい、1つのモデルに依存する「単一障害点」のリスク(=ひとつの失敗が全体に大きな影響を与えるリスク)を高める恐れがあります。
また、こうした政策は安全性の研究や、AIを使った防御技術の発展も妨げてしまう可能性があります。
レジリエンス(回復力)重視の政策
著者たちは、AIのガバナンスに対するアプローチとして、リスクを事前に予測することは困難なため、トラブルが起きたときに素早く対応し、回復できる「レジリエンス」を高めることを推奨しています。
レジリエンスとは、システムが予期せぬショック(事故や悪用、能力の急増など)に直面した際に、システムのコアとなる機能や価値を維持しつつ、害に対処し回復する能力を指します。
レジリエンスを高める政策には、将来どのようなAIが登場しても役に立つ「損のない対策(ノーリグレット)」があります。具体的には、社会全体の対応力強化、リスクに対する備え、制度や技術の整備などです。また、AIが「通常技術」であることを前提にした具体策としては、競争を促すルール作り、防御目的でのAI利用の支援、複数の主体による分散的な規制の導入などがあります。
AIの恩恵を広く行き渡らせるための政策
AIのメリットは自然に広がるわけではなく、普及には様々な障壁があります。そのため、政策による後押しが重要です。規制は一見、普及の妨げになりそうですが、電子署名法のように信頼を高めて普及を後押しする場合もあります。
この論文では、AIの恩恵を社会全体に広げるために、次のような公共投資を提案しています:
- AIリテラシーの向上
- 労働者の再教育や訓練
- 社会のデジタル化
- オープンデータの推進
- 電力やネットワークなどインフラの強化
さらに、AIの影響を大きく受ける人々に対しては、社会保障の充実や企業への適切な課税などを通じた「再分配」が必要だとしています。
また、公的機関によるAIの活用についても、慎重に信頼を守りつつ、サービスの質を上げたり、技術の遅れを防いだりするために積極的に取り組むべきだと提案しています。
おわりに
2回にわたり論文「通常技術としてのAI」をご紹介しました。AIは「AI 2027」が示すように、私たちの制御を超えた「超知能」的な存在になるのでしょうか?それとも、電力やインターネットのように、段階的に社会に組み込まれていく「通常技術」なのでしょうか?
この論文は後者の立場から、AIの進歩が手法開発・応用・普及という段階を経ること、そしてその影響が漸進的であることを主張しています。
この「通常技術」という視点に立つと、AIの影響を分析する上で重要なのは、ベンチマークで測れる「知能」ではなく、環境を改変する「パワー」であり、多くの現実タスクにおいて人間の能力は依然として重要です。
そして、AIが人間を完全に凌駕するという考えには疑問を呈し、むしろ高度なAIの世界では人間による制御や仕様策定がより重要になると予測しています。リスク評価においても、破滅的なシナリオよりも、バイアスや不平等といったシステム的な問題に焦点を当てることになります。
どちらの世界観が正しいか現時点で断定はできませんが、「通常技術」という視点は、AIを巡る熱狂に冷静な視点をもたらし、リスクと便益を現実的に捉え、今後のAI戦略を考える上で重要な示唆を与えてくれます。
