人間のような汎用的な知能を持つAGI(Artificial General Intelligence, 人工汎用知能)の実現が近いという主張が注目を集めています。OpenAIは、同社のミッションは、「AGIが全人類に利益をもたらすようにすることです」と標榜しています。ソフトバンクの孫正義会長兼社長も先日の株主総会で、AGIは3~5年以内に、AGIの先にあるASI(Artificial Super Intelligence, 人工超知能)の時代も10年前後で到来するという予測を示し、ソフトバンクはASIを実現していくと宣言していました。
他方で、ジェフリー・ヒントン博士やヨシュア・ベンジオ教授といったAI研究の領域で尊敬を集める人たちが、AIによる人類滅亡リスクの懸念を表明し、さまざまな非営利団体や政府レベルでAI開発の規制の議論が進んでいます。
このように、AGIの実現を目指して大手のハイテク企業が巨額の開発投資を行い、政府が規制を活発に議論しているにもかかわらず、AGIが何を意味するかについて確立された合意はないのが現実です。
今回はサンタフェ研究所のメラニー・ミッチェル教授のサイエンス誌のサイトに寄稿された記事(https://www.science.org/doi/10.1126/science.ado7069)を参考にAGIを巡る議論を考えてみたいと思います。ミッチェル教授は、この記事で知性とは何かという考え方について、AI研究者と人間や動物の知性について研究する認知科学者の間で大きな見解の相違があること指摘しています。本コラムでは、AGIの性質とそれを取り巻く議論、そして人間の知性との根本的な違いについて探ります。
AGIとは何か
1960年代のAI研究の初期の先駆者たちは人間のような汎用知能の実現を比較的容易だろうと楽観的に考えていました。しかし、その後、何十年もの間、AIが成果をあげることができたのは、一つのタスクあるいは範囲の限定されたタスクを実行する狭い領域にとどまりました。例えば、音声認識や画像認識などの特定の分野です。2000年代に入り、機械学習の目覚ましい発展をベースに「領域に依存せず、知性を全体として研究し再現しようとする試み」が再び関心を集めはじめ、AGIという言葉が生まれました。
AGIの議論においては、ロボット工学者のハンス・モラベックの「モラベックのパラドックス」がしばしば言及されます。これは、人間にとっては多くの知性を要求されるようにみえるタスク(例えばチェスをプレイすること)がAIにとっては易しいのに対して、おもちゃをつかんだり、興味深いものに注意を払ったりなど一歳児でもできるようなタスクがAIにとっては遙かに難しいということです。
したがって、現在のAGIの定義は、物理的、運動的なタスクは含まず、いわゆる「認知タスク」の領域に限られています。Google DeepMindの共同設立者であるデミス・ハサビスは、AGIを「人間ができる認知タスクのほとんどを実行できるシステム」と定義し、OpenAIはAGIを「経済的に価値のある仕事のほとんどにおいて人間を凌駕する高度に自律的なシステム」といっています。
AIにおける知性の概念:最適化
AI研究において、知性は多くの場合、報酬や目標に対して最適化するエージェントという観点から捉えられています。例えば、チェスAIのAlphaGoは「ゲームに勝つ」という目的に最適化するよう訓練されており、GPT-4は「次の単語を予測する」という目的に最適化しています。
この最適化するシステムというアプローチは、AGIが実現すれば、AIシステムは自身のソフトウェアに最適化能力を適用することで急速に人間を超える知性(ASI)に進化していくという推測につながっていきます。極端な予測では、「我々の何千倍、何百万倍も知的になる」というのです。
人類存亡リスク
この最適化への注目は、AIコミュニティの一部での、人間の意図や価値観とアラインされていないASIが作り手の目標から逸脱し、人類滅亡に至るリスクをもたらすのではないかと懸念につながっています。
例えば、哲学者ニック・ボストロムは、その著作「スーパーインテリジェンス 超絶AIと人類の命運」の中で、ペーパークリップの生産を最適化するよう指示された超知能AIが、地球上のすべてのリソースを人間から奪い、ペーパークリップ生産に振り向けてしまうという思考実験を提示しています。同様に、AI研究者ヨシュア・ベンジオは、気候変動の解決を指示されたAIが、気候変動解決の一番の障害である人類を絶滅させるためにウイルスを設計するというシナリオでASIの危険性を説明しています。
しかし、こうしたやみくもに最適化を目指すシステムが、本当の意味での知性といえるのでしょうか?
人間は最適化マシンではない
AGIやASIに関するこれらの推測的見解は、生物学的知性、特に人間の認知を研究する人々が考える知性のあり方とは大きく異なります。
認知科学者たちは、人間の知性について以下のような見解をもっています:
- 知性は単一の尺度で測定したり任意に上下させたりできる量ではなく、一般的な能力と特殊な能力が複雑に統合されたものである。
- 知性の大部分は環境・生態学的ニッチに適応し進化したものである。
- 知性の「認知的」側面を他の側面から切り離し、身体を持たない機械に取り込むことできない。
- 人間の知性の重要な側面は、身体的・感情的な経験に根ざしている。
- 個人の知性は、社会的・文化的環境への参加に大きく依存している。
- 目標を達成するためには、個人の「最適化能力」よりも、他者を理解し、調整し、学ぶ能力が遙かに重要である。
人間の知性は固定された目標に向けた最適化ではなく、内発的で複雑な要求や社会的環境との相互作用によって形作られてきたものです。人間の高度な知性は、ボストロムの考えたペーパークリップの生産最大化を図るASIとは異なり、他者の意図を理解し、自分の行動が及ぼす影響を良く考え、それに応じて行動を修正する能力を持っています。
AGIの自己改良に関する疑問
AGIが自らのソフトウェアを改良して知性を飛躍的に向上させるという懸念も、知性を脳だけにとどまらない高度に複雑なシステムとみなす生物学的見解とは相容れません。人間レベルの知性が、さまざまな認知能力の複雑な統合と、社会や文化という足場を必要とするのであれば、人間が自分の脳や遺伝子を簡単に操作して賢くなれないのと同様に、AGIの知性が自らの「ソフトウェア」にアクセスして増幅するという考えには無理があるとミッチェル教授は考えています。
人類は、自らの脳を改良することによってではなく、集団として、コンピュータなどの外部技術ツールや、学校、図書館、インターネットなどの文化的制度を構築することで、実質的に知性を高めてきました。
より現実的なリスクへの注目
メラニー・ミッチェル教授や心理学者のアリソン・ゴプニック教授など、一部の専門家は、ASIによる存亡リスクよりも、既に顕在化しているAIのリスクにより注目すべきだと主張しています(https://lareviewofbooks.org/article/how-to-raise-your-artificial-intelligence-a-conversation-with-alison-gopnik-and-melanie-mitchell/)。例えば、ミスインフォメーションの生成と拡散、プライバシーの侵害、バイアスの増幅などのリスクです。これらの問題は、AGIやASIの実現を待たずに、現在のAI技術によってすでに引き起こされているからです。
おわりに
人間の知性は複雑で多面的であり、単純な最適化では捉えきれません。AGIの議論とそのリスクも、人間の知性のさまざまな側面に即して考える必要があります。
AIの進歩は急速で、私たちの生活、ビジネス、教育、科学の発展において大いに役に立つ素晴しいポテンシャルを持っていることは間違いありません。しかし、人間レベルの汎用知能の実現には、可能であるとしても、まだ多くの課題が残されています。私たちは、AIに対して過度の期待や恐れを抱くのではなく、現在のAI技術の限界と可能性を正しく理解することが重要です。そして、倫理的な側面と社会への影響を常に考慮に入れながら、この技術を活用していくべきでしょう。