米軍で導入進む「戦場のLLM」、未解決の3つの課題とは?
米軍が軍事情報の分析に大規模言語モデルの導入を進めている。これまでも映像分析などにAIを活用してきたが、今後は重大な意思決定に利用することになるだろう。 by James O'Donnell2025.04.26
- この記事の3つのポイント
-
- 米軍は監視や意思決定支援のためAIの導入を急速に進めている
- AIによる機密情報の分析や分類には課題が残る
- AIが意思決定チェーンを駆け上がる中で安全対策が必要だ
私は先日、昨年の大半を派遣先の太平洋で過ごし、韓国からフィリピンまで訓練演習をして回った2人の米海兵隊員に話を聞いた。2人とも監視情報を分析し、部隊に対する脅威の有無について上官に警告を発する任務を担当していた。しかし、今回の派遣は今までと異なるものだった。2人は初めて生成AIを使用し、チャットGPT(ChatGPT)に似たチャットボットのインターフェイスを通じて機密情報を精査したのだ。
最近の記事に書いたように、この新たな手法は、ペンタゴン(米国防総省)が監視などの任務のために、人間のように会話に応じてくれる生成AIの使用をあらゆる階級で推進していることを示す、最新の証拠だ。米軍による人工知能(AI)推進の第2段階を考えてみよう。第1段階の開始は2017年にさかのぼる。ドローン画像を分析するためのコンピュータービジョンのような、より古いタイプのAIから始まった。最新の一歩はバイデン政権下で始まったが、イーロン・マスク率いる政府効率化省(DOGE)とピート・ヘグセス国防長官がAIによる効率化の加速を声高に推進し始めたため、急がなければならない理由が新たに加わっていた。
記事にも書いたように、軍事でのAI利用の推進に関しては、AI安全性専門家の一部が警告が発しており、地政学的な利害が大きく絡む状況で微妙な機密情報の断片を分析するのに、大規模言語モデル(LLM)が適しているかどうかがまだ分からないとしている。また、軍事でのAI利用の推進によって、AIが軍事データを分析するだけでなく、標的のリストを作成するなどの行動の提案もする世界へと向かう、米国の進化も加速させている。推進派は、これによって精度がさらに高まり、民間人の死者数も減るはずだと言うが、多くの人権団体は正反対のことを主張している。
それを念頭に置き、米軍と、世界中の他国の軍隊がいわゆる「キルチェーン」のより多くの部分で生成AIの導入を進める中で、注視すべき3つの未解決の疑問を以下に紹介する。
1. 「ヒューマン・イン・ザ・ループ」の限界は?
私のように多くの防衛テック企業と話をすれば、あるフレーズを何度となく耳にするだろう。それは、「ヒューマン・イン・ザ・ループ」だ。これは、AIが特定のタスクを担当し、人間がその仕事をチェックすることを意味する。この仕組みは、AIが誤って死者を出す攻撃を命じるような最悪の事態に対する安全対策であるが、もっと些細な事態にも対応できる。この考え方はAIがミスを犯すことを暗に認め、そのミスを人間が見つけることを約束しているのだ。
しかし、何千ものデータから情報を引き出すAIシステムの複雑さが、その作業を人間にとって非常に困難なものにしていると、AIナウ研究所の主任AI研究員であるハイディ・クラーフは言う。彼女は以前、AIで動作するシステムの安全性監査を指揮していた。
「『ヒューマン・イン・ザ・ループ』は、絶対に有意義なリスク緩和策とは言えません」。クラーフ研究員は述べる。AIモデルが何千ものデータ・ポイントを頼りに結論を導き出すとき、「人間がその量の情報を綿密に調べてAIの出力に誤りがないか判断するのは、実際には不可能でしょう」。 AIシステムがますます多くのデータに依存するようになれば、この問題はさらに大きくなる。
2. AIは機密扱いすべきものの把握を容易にしているのか、それとも困難にしているのか?
冷戦時代の米軍諜報担当部隊は、秘密の手段で情報を集め、ワシントンにいる専門家が報告書としてまとめた。その報告書には「最高機密」の印が押されて、適切な許可を持つ者以外は触れることもできなかった。ビッグデータの時代、そしてそのデータを分析する生成AIの出現は、多くの点で旧来のパラダイムを覆しつつある。
具体的な問題の1つは、「編集による機密情報化(classification by compilation)」と呼ばれるものである。何百もの未分類の文書すべてに、軍事システムの詳細情報が別々に少しずつ書いてあると想像してほしい。それらの情報をつなぎ合わせることに成功した誰かが、それ自体で機密扱いとなる重要な情報を暴露する可能性がある。長年、そのような情報の点と点を結びつけることができる人間はいないと仮定しておくことができた。しかし、それはまさに、大規模言語モデルが得意とする種類のことである。
データの山が日々成長を続け、AIが常に新しい分析を生み出す中で、「そのようなすべての成果物の適切な分類はどうあるべきかということについて、誰も妙案を見つけ出せていないと思います」と、ランド研究所の上級技師、クリス・ムートンは言う。彼は最近、生成AIが諜報活動と分析にどれくらい適しているか検証するテストを実施した。過小な機密分類は米国の安全保障上の懸念となるが、議員たちはペンタゴンがあまりに多くの情報を機密扱いに分類しているとも批判してきた。
防衛大手のパランティア・テクノロジーズ(Palantir)は、データを機密扱いすべきかどうか判断するAIツールを提供することで、分類を支援する態勢を整えている。また、機密データで訓練するAIモデルに関して、マイクロソフトとも協力している。
3. AIは意思決定チェーンをどこまでさかのぼるべきか?
少しズームアウトして視点を広げてみると、米軍のAI導入が多くの点で消費者向け製品のパターンを踏襲していることは注目に値する。携帯電話のアプリが写真に写る友人を上手く認識するようになってきた2017年に、ペンタゴンはドローン映像を分析して標的を特定するため、プロジェクト・メイブン(Project Maven)と呼ぶ独自のコンピュータービジョンの取り組みを開始した。
現在は、チャットGPTのようなインターフェイスを通して大規模言語モデルが私たちの職場や私生活に入り込む中、ペンタゴンは監視情報の分析にそれらのモデルのいくつかを活用している。
では、次の展開は何だろうか? 消費者の間では、AIエージェントが話題になっている。単にあなたと会話したり、情報を分析したりするだけでなく、インターネットに出て行き、あなたの代わりに行動してくれるモデルだ。また、パーソナライズされたAIもそうだ。あなたの個人的なデータから学習することでより役立つ存在となるモデルである。
あらゆる兆候が、軍事AIモデルも同じ道をたどるという見通しを示している。ジョージタウン大学安全保障・新興技術センターが3月に公開した報告書によると、意思決定を支援する目的で、AIの軍事導入が急増しているという。「軍の指揮官たちは、特に戦争の作戦レベルにおいて意思決定を向上させるAIの可能性に関心を持っている」と、報告書には記されている。
10月、バイデン政権はAIに関する国家安全保障覚書を発表し、そのようなシナリオに対するいくつかの安全対策を提示した。トランプ政権はまだ、この覚書を正式に破棄してはいない。しかしトランプ大統領は、米国において競争力のあるAIを目指すには、より多くのイノベーションと、監視の緩和が必要であるという考えを示してきた。とにかく、AIが退屈な事務作業を処理するだけでなく、最も重大で一刻を争う決断を支援するために、急速に意思決定チェーンを駆け上がっていることは明らかだ。
私はこれら3つの疑問を注意深く追っていくつもりだ。
- 人気の記事ランキング
-
- A Google Gemini model now has a “dial” to adjust how much it reasons 推論モデルは「考えすぎ」、グーグルがGeminiに調整機能
- What is vibe coding, exactly? バイブコーディングとは何か? AIに「委ねる」プログラミング新手法
- Meet the researchers testing the “Armageddon” approach to asteroid defense 惑星防衛の最終戦略 科学者たちが探る 「核爆発」研究の舞台裏
- Anthropic can now track the bizarre inner workings of a large language model 大規模言語モデルは内部で 何をやっているのか? 覗いて分かった奇妙な回路

- ジェームス・オドネル [James O'Donnell]米国版 AI/ハードウェア担当記者
- 自律自動車や外科用ロボット、チャットボットなどのテクノロジーがもたらす可能性とリスクについて主に取材。MITテクノロジーレビュー入社以前は、PBSの報道番組『フロントライン(FRONTLINE)』の調査報道担当記者。ワシントンポスト、プロパブリカ(ProPublica)、WNYCなどのメディアにも寄稿・出演している。