AI同士の騙し合い、
GANが作り出すフェイクに
米軍は勝てるのか?
人工知能(AI)テクノロジーの進化によってフェイク画像や音声の生成が簡単になってきた。何が真実なのか? 米軍の研究機関であるDARPAはAIによる偽造を見抜くAIの開発を模索している。 by Will Knight2018.06.19
人工知能(AI)はフェイクニュース問題の解決に役立つだろうか? 米軍はあまり確信がないようだ。
米国防総省はAIによって作られた映像や音声を見抜くプロジェクトに投資している。AIが生成する映像や音声はますます本物そっくりになっており、別のAIシステムを使って本物かどうかを区別するのは難しいかもしれない。
この夏、米国国防先端研究計画局(DARPA)が資金を提供したプロジェクトにデジタル・フォレンジック(法医学、科学捜査)の専門家が集まり、AIによるデータ偽造データ生成コンテストが開催される。このコンテストで、専門家はAIを使って最も本物らしい偽造映像や画像、音声の生成を目指して競い合い、それらの偽造データを自動検出するツールの開発にも取り組む。
コンテストには、動画の人物の顔を別の人物の顔にすげ替える「ディープフェイク(Deepfakes)」も含まれる。容易に想像がつくように、この技術はすでにセレブの出演を謳ったポルノ動画の偽造に数多く用いられており、政治家がとんでもないことを口にしたり、不適切な行動をとったりする動画の作成にも利用できる。
DARPAの技術者は、AIによって生成された偽造データの自動検出をほぼ不可能にしてしまう、比較的新しいAI手法に関して特に大きな懸念を抱いている。競争式生成ネットワーク(GAN: Generative Adversarial Networks)として知られるこの手法によって、驚くほど本物のような偽造画像を生成できるのだ。
https://www.youtube.com/watch?v=cQ54GDm1eL0
プロジェクトを統括するDARPAのデヴィッド・ガニングプ技術責任者は「理論上、私たちが知る限りのあらゆる検出手法をGANに適用しても、GANはそのすべてをすり抜けてしまうかもしれません」と語る。「どこかで阻止できるかもしれませんが、分かりません」。
GANは2つの要素で構成されている。1つは「アクター(俳優)」と呼ばれるもので、画像や動画などのデータ・セットから統計的パターンを学習し、本物そっくりの合成データを生成しようとする。 …
- 人気の記事ランキング
-
- Why handing over total control to AI agents would be a huge mistake 「AIがやりました」 便利すぎるエージェント丸投げが危うい理由
- OpenAI has released its first research into how using ChatGPT affects people’s emotional wellbeing チャットGPTとの対話で孤独は深まる? オープンAIとMITが研究
- An ancient man’s remains were hacked apart and kept in a garage 切り刻まれた古代人、破壊的発掘から保存重視へと変わる考古学
- How to have a child in the digital age 「あなたはもうママですね」 ネット・デジタルが約束する 「完璧な出産」の幻想