AIは戦争の恩恵者か、殺人道具か[深層]

Photo of author

By Global Team

人類初の「AI戦争」が中東で始まっている。

速度はかつてないほどに速くなったが、その速度が生み出した結果は予想と異なるものだった。

アメリカとイランの対立を象徴的に表現したイメージ。両国間の軍事的緊張が高まる中、AI基盤の戦争技術が新たな変数として浮上している。
アメリカとイランの対立を象徴的に表現したイメージ。両国間の軍事的緊張が高まる中、AI基盤の戦争技術が新たな変数として浮上している。

2月28日、アメリカとイスラエルがイランに向けて同時に空爆を開始した。作戦名は「エピックフューリー」。最初の24時間で約1,000の軍事目標が攻撃された。2003年のイラク戦争当時の「ショック・アンド・オー」の作戦と比較して2倍に達する速度である。

この速度を可能にしたのがAI基盤の目標選定システム「メイヴン」システムである。アメリカの防衛産業企業パラランティアが構築したこのシステムは、衛星映像、ドローン撮影映像、通信傍受資料、レーダーデータを同時に受け取り分析した後、攻撃目標リストを自動的に生成する。どの武器を使用するかまで推薦する方式である。

簡単に比喩すればこうだ。以前は数十人の情報分析官が数日も徹夜して地図や写真を検討しながら目標を選んでいた。今ではAIがその過程を数秒で処理する。

アメリカ中央軍司令官ブラッド・クーパー提督は「AIのおかげで数時間、時には数日かかっていた作業が数秒で終わる」と公式に確認した。AIは戦争の速度自体を変えてしまった。

しかし、戦争初日、イラン南部のミナブの小学校にアメリカ軍のトマホークミサイルが落ちた。イラン当局によると170人以上が亡くなり、ほとんどが授業中だった学生と教職員だった。

アメリカ軍が小学校を狙ったわけではなかった。実際の目標は学校のすぐ隣にあったイラン革命防衛隊(IRGC)海軍基地だった。問題はその学校建物が元々基地敷地内にあり、2013〜2016年の間に塀を設けて分離されて小学校に変わった点である。しかし、アメリカ軍目標データベースにはこの変更事項が反映されず、該当建物が軍事施設として分類されていた。

空爆で破壊された中東地域の都市全景。AI基盤の目標選定システムの論争の中で民間被害の可能性が再び争点として浮上している。
空爆で破壊された中東地域の都市全景。AI基盤の目標選定システムの論争の中で民間被害の可能性が再び争点として浮上している。

ニューヨークタイムズ、CNN、BBCなど複数のメディアが衛星映像の分析と専門家の鑑定を通じてアメリカ軍のトマホークミサイルによる被撃であることを確認した。アメリカ国防総省の予備調査もアメリカ軍の責任の可能性が高いと暫定結論を出した。アメリカ議会で120人以上の議員が「メイヴンシステムが該当建物を目標として識別する際に関与したのか、人間がこれを検証したのか」を公式に書面で質問した。国防総省の返答はまだ出ていない。

結局、この事故の核心はAIの誤作動ではなく古いデータである。システムがどんなに速く判断しても、その判断の基になる情報が現実を反映できなければ結果は必ず誤る。

今回の戦争でまた一つ注目すべき場面が展開された。AI企業が自社技術の軍事的利用範囲をめぐりアメリカ政府と正面衝突したことである。

クロードというAIモデルを開発するアントロピックはメイヴンシステムの一部として実際の軍事作戦に技術を提供してきた会社だ。戦争直前、アントロピックの最高経営責任者であるダリオ・アモディエはクロードを完全自律武器や自国民大規模監視に使用することを許さないと発表した。理由は明確だった。「AIはまだそういった用途に十分信頼できるレベルではない」というものである。

国防総省はこれを受け入れなかった。ヘグセス国防長官はアントロピックを「サプライチェーンリスク企業」として指定し、トランプ大統領は政府機関にクロードの使用中断を命じた。アントロピックは訴訟を提起した。

現代戦の核心武器である精密誘導ミサイル。AIが目標選定から攻撃方式まで介入し、戦争遂行方式が根本的に変化している。
現代戦の核心武器である精密誘導ミサイル。AIが目標選定から攻撃方式まで介入し、戦争遂行方式が根本的に変化している。

先月26日、サンフランシスコ連邦裁判所のリタ・リン判事はアントロピックの手を挙げた。「AIの安全問題を公に提起したことを理由に企業を処罰するのは違憲だ」との判断だった。AI開発会社が技術の軍事的使用範囲を巡り政府を相手に法的に対抗した初の事例だった。

AIを戦争に使っても良いのか。この質問に「使ってはいけない」と答えるのは難しい。現実的に既に使われており、今後使用しない国もない。中国、ロシア、各国軍が競ってAI戦闘システムを開発する中で、一方的に放棄するのは軍事的な自殺に近い。問題は「AIを使うか否か」ではなく「どう、どこまで使うか」である。

ここで核心争点が分かれる。AIはデータ分析とパターン認識において人間を圧倒する。数万枚の衛星映像を同時に検討し、数百の信号を交差分析するのは人間には物理的にできないことだ。

この能力を偵察・監視・物流・通信分野に活用するのは効率の問題である。しかし、目標を選定し攻撃の可否を判断する段階は異なる。この段階には法的判断、倫理的判断、状況の文脈を読むことが必要だ。AIは今この判断を下せるレベルではない。

戦争におけるAIの最大の危険は誤作動ではない。むしろあまりにもよく作動することが問題だ。AIが素早く正確に目標を推薦するほど、人間はその結果を疑わなくなる。

数百の目標を数秒で処理する速度の前では、一人の将校が一つ一つを再確認することは事実上不可能だ。結局「人間が最終決定を下す」という原則は維持されるが、その決定の実質的な重みは次第に機械側に移行する。

AI戦争が提起する本質的な問いは責任の問題だ。機械が推薦し人間が承認したとき、誤った結果の責任は誰にあるのか。AIを作った企業か、システムを運用した軍か、作戦を承認した指揮官なのか。今現在この質問に答える法的・制度的枠組みは存在しない。

爆発が続く戦場の光景。AI技術が戦争の速度を劇的に引き上げた一方で、責任と制御の問題は依然として未解決の課題として残っている。
爆発が続く戦場の光景。AI技術が戦争の速度を劇的に引き上げた一方で、責任と制御の問題は依然として未解決の課題として残っている。

核兵器が登場したとき国際社会は結局核拡散防止条約(NPT)を作った。化学兵器には化学兵器禁止条約(CWC)がある。AI兵器はまだそのような国際規範がない。

国連が昨年12月に関連決議案を採択し今年6月に多者協議を予告したが、拘束力のない勧告の水準にとどまっている。各国がAI軍備競争を繰り広げる間、規則を作る速度は技術の速度に追いつかない。

結局今必要なのはAIの全面禁止でも無制限許可でもない。どの段階までAIが判断し、どの段階からは必ず人間が介入しなければならないかを明確に区分することである。

技術の問題ではなく人間の選択である点が重要だ。戦争でAIを使うのを止めることはできない。しかしAIが戦争を代わりに決定するように放っておくことは防ぐことができる。

AI軍事技術競争は強大国だけの話ではない。韓国はグローバルファイアパワー基準で世界5位の軍事強国でありAI技術保有国である。

国防部は既にドローンボット戦闘体系、AI基盤監視システムなど無人・自律兵器開발に速度を出している。北朝鮮との対立状況で迅速な対応能力は生存と直結するため、AI導入圧力はどの国よりも高い。

しかしまさにそれであるからこそ規則が必要だ。AIが敵の挑発 に自動対応するように設計されたシステムが誤作動したり誤判断する場合、その結果は韓半島全体を揺るがす可能性がある。速度が生存を保障する環境であるほど、誤った速度が生み出す災厄もそれだけ大きい。

韓国がこの議論で声を上げるべき理由がここにある。AI兵器の国際規範を作る過程で韓国は技術保有国であり紛争危険地域に位置する当事国として独特な立場を持つ。強大国が自国の利益に合わせて規則を設計する前に、中堅国がまず原則を提示するのが現実的な解法である。戦争にAIを使う時代は既に来た。その時代の規則を誰が作るのか、それが今韓国が関心を持たなければならない本当の質問である。

Leave a Comment