米軍が人工知能(AI)を活用した標的選定システムを実戦投入したことが明らかになりました。
この作戦は2026年2月28日に始まり、現在は戦争開始から3週目に入っています。
報道によると、最初の24時間だけで約1,000カ所の標的が攻撃されました。
さらに、これまでに合計6,000カ所以上の標的が攻撃されたとされています。
今回の作戦では、AIが軍事作戦の中心的役割を担いました。
そのため、AIが実戦の「標的選定」に関与する時代に入った象徴的な戦争として世界的に注目されています。
AIシステム「Maven Smart System」の役割
今回の軍事作戦では、Palantirが構築した「Maven Smart System」が使用されました。
このシステムにはAnthropic社の生成AIモデル「Claude」が組み込まれています。
Mavenは、以下のような膨大な情報を統合して分析します。
・衛星画像
・監視カメラ映像
・軍事情報
・機密情報データ
これらの情報を処理し、攻撃候補となる標的を自動的に抽出します。
さらにAIは、標的の重要度を順位付けし、正確な地理座標を提示します。
つまり、AIが「どこを攻撃するか」という判断の材料を作り、軍がその結果を基に作戦を進める仕組みです。
作戦計画を数週間から数時間へ短縮
このAIシステムの最大の特徴は、作戦計画の速度です。
従来の軍事作戦では、標的選定には次のような体制が必要でした。
・約2,000人の情報分析官
・数週間にわたる情報分析
しかし、AI導入によって状況は大きく変わりました。
報道によると、現在は約20人の担当者が数時間で同じ作業を完了できるとされています。
つまり、AIは単なる補助ツールではありません。
戦争の意思決定速度そのものを変える技術になっています。
政府のAI使用禁止命令との矛盾
一方で、このAI利用は政治問題にも発展しています。
トランプ政権は、Anthropicの技術を政府機関で使用することを停止する命令を出しました。
理由は、同社が
・大規模監視へのAI利用
・完全自律型兵器へのAI利用
これらに対する安全装置の削除を拒否したためとされています。
政権はこれを「サプライチェーンリスク」と判断しました。
しかし、軍はこの禁止措置にもかかわらず、作戦中にシステムの使用を継続しました。
関係者は、作戦がすでにAIに依存しており停止できなかったと説明しています。
女子小学校攻撃がAI戦争の議論を激化
こうした中、AI標的選定を巡る議論が一気に激化しました。
理由は、イラン南部ミーナーブで起きた学校爆撃事件です。
この攻撃では、165人以上が死亡した可能性が高いとされています。
犠牲者の多くは7歳から12歳の女子児童でした。
攻撃にはトマホーク巡航ミサイルが使用されたとみられています。
誤爆の原因は古い軍事データか
米国防総省の予備調査によると、この攻撃は米軍による可能性が高いとされています。
調査では、攻撃の原因として古い軍事データへの依存が指摘されています。
衛星画像によれば、問題の場所はかつて軍事施設の一部でした。
しかし2017年頃に
・軍施設との境界壁の建設
・監視塔の撤去
などの変更が行われました。
その後、建物は学校として使用され、外壁には宇宙からも見える大きな壁画が描かれていました。
さらに、オンライン地図でも学校として表示されていたと報じられています。
米議会も調査を要求
この問題を受け、45人以上の民主党上院議員が国防長官に書簡を送りました。
議員らは
・学校爆撃の詳細説明
・民間人犠牲の調査
を求めています。
また議員たちは、民間人被害削減を担当する国防総省の部署の予算削減にも懸念を示しました。
元国防総省高官は、次のように証言しています。
「トランプ政権の政策変更により民間人被害防止より戦闘効率が優先される傾向が強まった」
現在も調査は継続しています。
AI戦争が突きつけた新しい問題
今回の戦争は、軍事史の転換点になる可能性があります。
AIはすでに
・標的選定
・攻撃優先順位
・戦闘シミュレーション
など、キルチェーン(攻撃決定の流れ)の中核に入りました。
しかし同時に、次の問題も浮き彫りになりました。
・AIの判断責任は誰が負うのか
・古いデータによる誤爆を防げるのか
・人間の確認プロセスは十分か
AIは戦争の速度を劇的に高めます。
しかし、判断の重さまで軽くするわけではありません。
今回のイラン戦争は、AI時代の軍事倫理と責任の境界線を世界に突きつけています。
ソース
Washington Post
Wall Street Journal
Reuters
AP通信
New York Times
Bellingcat
Al Jazeera
NPR
The Stack Technology
Anadolu Agency

