なぜAIは“好戦的”なのか? その危険な思考回路
ウォーゲームでAIが攻撃的な選択をした背景には、その学習方法に根本的な問題がある可能性が指摘されている。AI、特に大規模言語モデル(LLM)は、インターネット上の膨大なテキストデータを学習するが、そのデータには偏りがある。
「AIが学習する戦略論に関する学術論文の大部分は、戦争がどのようにエスカレートしたかを分析するものです。逆に、なぜ戦争が起きなかったのか、例えばキューバ危機のように緊張が緩和されたケーススタディは非常に少ない。AIは、このデータ内の偏りを模倣しているのです」とシュナイダー氏は分析する。
さらに深刻なのは、専門家でさえ「AIがなぜそのような結論に至ったのか」を完全には理解できていないという「ブラックボックス問題」だ。AIが人間の価値観や倫理、あるいは皮肉や駆け引きといった機微を理解できないまま、確率論だけで重大な軍事的判断を下すかもしれないのだ。
復活する冷戦の亡霊「デッドハンド(死の手)」システム
米国のAI開発をさらに加速させているのが、最大のライバルである中国とロシアの存在だ。両国はすでに軍事AIを自国の指揮統制システムに導入しており、米国も「追いつかなければならない」という強いプレッシャーにさらされている。
この熾烈な競争は、冷戦時代の恐るべき概念を現代に蘇らせつつある。それが「デッドハンド(死の手)」システムだ。これは、自国の指導部が敵の核攻撃によって全滅した場合に、AIが自動的に報復核攻撃を開始するという、まさに“終末兵器”である。
ロシアは、冷戦時代に開発された「ペリメター」と呼ばれる類似のシステムを現在も運用していると見られている。そして米国の一部の国防専門家からは、「米国の核抑止力を維持するためには、AIによる自動報復システムの開発が必要かもしれない」という、かつては考えられなかったような声まで上がり始めている。
極超音速ミサイルのように、通常弾頭と核弾頭の区別がつきにくい兵器が登場したことで、AIが攻撃の意図を誤認し、破滅的な連鎖反応を引き起こすリスクは、かつてなく高まっている。
