<AIの米中覇権争い>新たな技術が変える軍事バランスと安全保障リスク

AI要約

ハーバード大学のジョセフ・ナイ名誉教授が、AIの軍事利用によるリスクについて警告している。

AIの急速な発展により、自律型兵器や生物兵器の脅威が増大しており、国際的な規制が重要だ。

アスペン戦略グループはAIの国家安全保障への影響に焦点を当て、メリットとリスクを検証している。

<AIの米中覇権争い>新たな技術が変える軍事バランスと安全保障リスク

 ハーバード大学のジョセフ・ナイ名誉教授が、人工知能(AI)の軍事利用に伴う安全保障上のリスクについて警告する論説を2024年7月31日付のProject Syndicateに投稿している。

 1940年代にオッペンハイマーらが最初の核兵器を開発した時、彼らは核兵器が人類を滅ぼすのではないかと心配した。それ以来、核兵器の管理は永遠の課題だ。

 現在、多くの科学者がAIも変革をもたらす道具だと考えているが、AIには善と悪の巨大な可能性がある。人間のチームが数カ月かかる作業をAIは数分で行うことができる。しかし、AIは、テロリスト他悪質な行為者の参入コストと障壁を低くする。

 さらに、一部の専門家は、高度なAIが人間をコントロールするようになるのではないかと懸念している。そのような超知能マシンを開発するのにかかる時間は、数年から数十年と見積もられている。今日のAIがもたらすリスクの増大は既に大きな関心を集めている。

 アスペン戦略グループは、今年AIが国家安全保障に与える影響に焦点を当て、そのメリットとリスクを検証した。メリットは、膨大な情報分析データの選別能力の向上、早期警戒システムの強化、複雑な後方支援システムの改善、サイバーセキュリティの向上等である。しかし、自律型兵器の進歩、プログラミング・アルゴリズムにおける偶発的なエラー、敵対的なサイバー攻撃等は大きなリスクでもある。

 中国は広範なAI軍拡競争に大規模な投資を行い、構造的な優位性も誇っている。AIにとって、AIモデルを訓練するためのデータ、アルゴリズムを開発するための優秀なエンジニア、それを実行するための演算能力は、重要な3つの資源である。中国には、データへのアクセスに関する制限がほとんどなく、優秀な若いエンジニアを十分に抱えている。

 自律型兵器は特に深刻な脅威だ。国連での10年以上にわたる外交交渉でも、自律型致死兵器の禁止に合意できなかった。

 AIの最も恐ろしい危険性の一つは、生物兵器戦争やテロリズムへの応用である。1972年に各国が生物兵器の禁止に合意した際、そのような兵器は自国への「反撃」の危険性があるため有用ではないというのが通説だった。しかし、合成生物学を用いれば、あるグループだけを破壊する兵器を開発することが可能かもしれない。

 核技術の場合、1968年に各国が不拡散条約に合意し、現在191カ国が当事国である。IAEAは、各国の原子力エネルギー計画が平和目的のみに使用されていることを検証するため、定期的に査察を行っている。

 また、冷戦下の激しい競争にもかかわらず、原子力技術の主要国は78年に最も機密性の高い装置や技術的知識の輸出を自制することに合意した。このような前例は、AIについても、進むべき道筋を示唆している。

 技術の進歩は、激しい市場競争によって推進される場合には、政策や外交よりも速いというのが定説である。今年のアスペン戦略グループ会合の重要な結論が1つあるとすれば、それは各国政府がペースを上げる必要があるということである。

*   *   *