米国防総省(DOD)は、スタートアップ企業「ハイブAI(Hive AI)」のディープフェイク検出技術に対し、2年間契約で240万ドルを投資する。同省の国防イノベーションユニット(DIU)にとって、この種の契約としては初めてのものだ。同ユニットは、米国の国防分野への新技術の導入を加速させることを目的とした組織である。ハイブAIのモデルは、人工知能(AI)が生成した動画、画像、音声コンテンツを検出することができる。
ディープフェイクはここ10年にわたって存在していたが、生成AI(ジェネレーティブAI)によって、以前よりも簡単に作成でき、よりリアルに見えるようになった。そのため、デマキャンペーンや詐欺に悪用されやすくなっている。この種の脅威から防衛することは、今や国家安全保障にとって極めて重要である、と国防イノベーションユニットのプロジェクトマネージャー兼サイバー戦争オペレーターであるアンソニー・ブスタマンテ大尉は言う。
「この取り組みは、巧妙なデマキャンペーンや合成メディアの脅威と戦う上で、我々の情報優位性を強化するための重要な一歩となります」とブスタマンテ大尉は話す。ハイブAIは、ディープフェイク検出と、ディープフェイクの影響を測定するアトリビューション技術について国防総省と共にテストする企業として、36社の中から選ばれた。この契約によって国防総省は、AIによる偽情報を大規模に検知し、対抗できるようになる。
ディープフェイクに対する防御は「なくてはならないもの」だとハイブAIのケビン・グオ最高経営責任者(CEO)は言う。「サイバー戦争は進化しているのです」。
ハイブAIのテクノロジーは、AIが生成したものやそうでないものを含め、大量のコンテンツを使って訓練されている。人間の目には見えないが、AIモデルによって検出することができるAI生成コンテンツの信号やパターンを拾い上げる。
「生成AIによって生成された画像にはすべて、どこを探せばいいかを知っていれば検出できる、ある種のパターンがあることがわかりました」とグオCEOは話す。ハイブAIのチームは常に新しいモデルを探求しており、必要に応じて自社の技術をアップデートしている。
国防総省は声明の中で、この取り組みを通じて開発されたツールや手法は、防衛特有の課題への対処だけでなく、デマ、詐欺、偽情報からの民間機関の保護など、より広範な用途に適応できる可能性があると述べている。
ハイブAIのテクノロジーは、AI生成コンテンツの検出において最先端の性能を発揮する、とバッファロー大学コンピューター科学・工学部の教授であるシウェイ・リュウは言う。リュウ教授はハイブAIの研究には関与していないが、その検出ツールをテストしたことがある。
ハイブAIのディープフェイク検出技術を独自に評価したシカゴ大学のベン・ジャオ教授もそれに同意するが、それでも完璧からは程遠いと指摘する。
「ハイブAIの技術は、ほとんどの企業の技術や私たちが試したいくつかの研究技術よりも優れているのは確かです。しかし、検出を回避するのが困難ではないことも明らかになりました」。同教授のチームは、敵対者がハイブAIの検出を回避するような方法で画像を改ざんできることを発見した。
さらに、生成AIテクノロジーの急速な発展を踏まえると、国防部門が直面する可能性のある現実世界のシナリオでどれだけ有効かは、まだ定かではないとリュウ教授は付け加える。
グオCEOによれば、ハイブAIは同社のモデルを国防総省に提供し、同省自身のデバイスでツールをオフライン使用できるようにしている。これにより、機密情報の漏洩を防止できる。
しかし、巧妙な国家的行為者から国家安全を守るとなると、既製品では十分ではないとジャオ教授は言う。「予期せぬ国家レベルの攻撃に対し、完全な堅牢性を確保することは極めて難しいです」。