2026年3月6日、小泉防衛相の記者会見において、防衛分野におけるAI利用に関する質疑が行われました。小泉防衛相は「(米軍からのブリーフィングを受けて)AIが現代の戦闘の帰趨を左右する重要な要素になっているということを改めて認識した」と述べて、AI活用に前向きな姿勢を示しました。 折しも米国では、アンソロピック社の開発したClaude(クロード)の国防総省における使用の可否が話題になり、さらにその直後のイラン攻撃にもAIが活用されたことが大々的に報じられています。またイランにおいて、AIによるターゲティングが一因と目される学校への誤爆が発生し、多くの民間人に犠牲が出ているという痛ましい報道もありました。 防衛AIを巡る論点は、大きく分けて2つあります。一つは「AIを軍事利用すること自体の是非」、もう一つは「利用を認めるとして、AIに完全な判断委任を認めるか」という点です。米国では後者の実務的な議論に移行していますが、日本国内では依然として前者の「是非」の議論、そして今回のような悲劇を受けた倫理的な問題に焦点が当たっています。 本コラムでは、現代戦におけるAIがなぜこれほどまでにインパクトがあるのか、アメリカによるイランの攻撃がどのようなターニングポイントになりうるのか、日本はこの問題にどのように向き合うべきなのかについて論じます。※イメージソフトウェアが支配する戦場と意思決定優越の理論 ロシアによるウクライナ侵攻以降、グローバルな防衛関係者の間で戦争の様相は劇的に変化したという認識で統一されつつあります。ドローンなどの新しい技術による戦い方、いわゆるEDTs(Emerging and Disruptive Technologies)による戦い方に注目が集まっていますが、この背景で確立されたものは「意思決定優越をいかに確保しうるか」という命題です。 長らく、現代戦ではその情報優越が重要であると軍事関係者は捉えてきました。敵の可能行動、軍事用語で言うECOA案出は、自衛隊をはじめとする各国の軍事教範で最も重要な作戦見積もりのステップの1つであり、この確実性と速度を担保しうるためには、情報の優越が欠かせなかったのです。 しかし、ロシアによるウクライナ侵攻では、人工衛星、偵察ドローン、サイバー空間上のSNS、電磁波といった様々な情報そのものがありふれる世界となり、莫大なデータ量を処理しなければ、そもそも作戦見積もりすら正確にできないという世界に到達しました。 時期を同じくして、生成AIをはじめとするAIの著しい発展は、これらの莫大な情報の処理を可能にしました。従来、指揮官(意思決定者)と幕僚(スタッフ)によって実行されてきた軍事的意思決定プロセスは、ソフトウェアによる情報処理によって劇的に代替されたのです。 これらは、現在進行形の教訓として、各国の軍事ドクトリンに「意思決定の優越」として記述されるようになりました。すなわち、情報ではなく、そもそも情報処理から決定に至るまで、その意思決定サイクルそのものの速度を相手に対して上回らなくてはならない。 これは「できればいい」ではなく「必要である」。各国の軍事関係者の間では、そういった焦りと緊迫感が、ウクライナ戦争の前と後で大きく変わったと弊社はとらえています。アメリカによるイラン攻撃がAI戦争のターニングポイントである 数年前までは、AIによる意思決定の優越はある意味で絵空事であり、将来実現される未来コンセプトの1つでした。AIモデルの性能は極めて向上しましたが、実際の戦場では、レガシーなセンサーや従来の兵器システム・装備が稼働しており、直ちにAIが全ての情報を取り込めるわけではない現実が横たわっていたからです。そのため、これらの実現は、早くても数年先、遅ければ十数年かかるものと考えられていました。 しかし、2026年1月のアメリカによるベネズエラでの作戦、そして、続くイランへの攻撃は、この通説そのものが完全に否定される作戦経過をたどりました。報道にもある通り、このアメリカによるイラン攻撃では、作戦開始から48時間で1250箇所、72時間で1700箇所以上の攻撃を行っています。これは軍事的に見れば、極めて圧倒的な火力投入です。 一般的に、このような統合火力運用(陸海空の複数のミサイルなどが攻撃を行うこと)は、その標的となる対象を探し出すISR活動、それらの標的に対して優先度やパフォーマンスを決定するターゲティング、現在ある兵器アセットや燃料・時間といった制約を考慮した火力割り当てを経て、指揮官の意思決定のもと実行されます。この作業は、莫大な量の情報処理が必要なものであり、かつ、先に記述したように単純にAIやコンピュータで処理すれば早くなる類のものではありません。 しかし、今回のアメリカによる火力運用は、明らかに人間の認知を超えており、AIなしには成立し得ない戦いを各国に見せつけているともとれる作戦経過となっています。当然イランだけでなく、その他の大陸の大国もこの作戦を脅威と感じ、つぶさに情報を収集した上で、自らの軍事力に反映しようとするでしょう。 まさに、決定的な意思決定の優越が実現されてしまった戦場が現れたことで、どの国もこのラインをベンチマークにしなくてはならなくなった。後世の戦史では、このように語られるようなターニングポイントの1つになる可能性は高いと考えています。AIと戦争という重力 このAIと戦争の論点は、冒頭に記述した通り、「AIの軍事利用の是非」「AIへの判断委任の程度」という2つの論点があります。しかし、世界の現実を見れば、AIをはじめとするシステムによるターゲティングと作戦立案は、安全保障上のパラダイムシフトをもたらすことは明白であり、どの国も否応なく検討しなくてはならないでしょう。 今回のアメリカによるイランの攻撃では、学校への誤爆という痛ましい事故も発生しており、「AIが標的を決めたから間違えたのではないか」という懸念も発生しています。本来、このようなシステムは、人間の極限下での疲労や緊張での誤認・誤謬を低減し、「速いスピードで人道的な配慮を組み込んだ精緻な判断を維持すること」にあるはずです。しかし、現代のAIと戦争を取り巻く重力は、攻撃の効率化に重きをおき、AIのブラックボックス・説明可能性には目を瞑ってしまうかもしれない、そんな危険な未来をも示唆しています。 意思決定の優越を追求する中で、AIやシステムが判断した標的を私たちは正しいものとして評価できるか。過去の戦争においても、たった1つの安全保障上の意思決定ミスが重大な戦争につながった事案は多数あります。この命題は、意思決定の優越の確保に並んで、今後、多くの国家にとって重要な課題になるでしょう。核心に潜む「主権性」の問題 防衛システムのターゲティングの誤りが国家の命運を決める安全保障上の問題を生み出してしまうかもしれない時代において、この防衛システムの健全性や信頼性をどのように確保するかは日本においても重要な問題です。 システムを担うAIモデルやアルゴリズム、あるいはもっと単純なデータ処理パイプラインでさえ、システムに含まれるソフトウェアには、必ず開発者の思想や考え方が反映されます。現代の生成AIモデルはなおさらです。もし日本の防衛システムの中核を担うソフトウェアが他国製であり、そのAIの仕組みやアルゴリズムをブラックボックスとして受け入れるしかないとしたらどうでしょうか。日本の外交・情報・軍事・経済(いわゆるDIME)を理解しない、ある意味で横暴な存在が倫理や道徳の問題を孕む意思決定を支援するとしたら。 私たちは、このような事態は、限りなく「主権の喪失」、それも意思決定主権の喪失であると考えます。日本は、先の大戦の反省を踏まえ、専守防衛を掲げ平和憲法を持つ、世界で例を見ない国であり、他国の倫理基準で日本の自衛権が行使される事態はあってはなりません。日本独自の倫理と道徳を宿す防衛システムの開発を国内で完遂し、自ら責任を持てるAI搭載型の国産ソフトウェアの開発に注力することこそが、真の主権を守ること、あるいはもっと端的に言えば、世界から信頼される日本の未来につながるでしょう。おわりに 私たちは間違いなく時代の転換点にいます。それが将来、暗いものとして語られるのか、イノベイティブで明るいものに語られるのかはわかりません。しかし、AIと戦争の重力が生じはじめている時代だからこそ、改めて、自分たちの防衛システムは、自分たち自身で、つまり、国産で進めるべきです。意思決定の優越と責任。この両立を可能にする国産ソリューションの確立こそが、これからの日本の安全保障の基盤となると確信しています。