ディープフェイクは一般人にとっても研究者にとっても気に障るものだ。実際には言ってもやってもいないようなことを現実のように見せる人工知能(AI)で作られた映像には、どこか独特な不気味さがある。
ディープフェイクを作るためのツールは、今では広く手に入れられるようになり、比較的簡単に利用できるようになった。そのため、ディープフェイクが危険なデマを広めるためにも利用されるのではないかと心配している人は多い。例えば政治家たちは、他人の言葉を自身の口に被せられたり、参加してもいない場所に参加させられたりする可能性がある。
少なくとも心配事ではある。しかし実のところ、ディープフェイクは人間の目ではまだ比較的容易に見分けられるし、2019年10月にサイバーセキュリティ関連企業のディープ・トレース・ラボ(Deep Trace Labs)が発表した包括的なレポートによると、ディープフェイクはこれまでに、いかなるデマ・キャンペーンにも使用されていない。ただし、同レポートによると、ネット上に投稿されたディープフェイクの数は、過去7カ月で約1万5000本に達し、急速に増加している。この数は現在ではもっと多くなっているはずだ。
ソーシャルメディア企業は、ディープフェイクがすぐにでも自社のサイトに氾濫することを懸念している。だが、ディープフェイクを自動的に検出することは難しい。問題に対処するために、フェイスブックはAIを利用して、AIが生成したフェイク動画を検出しようとしている。フェイク動画を発見するようAIを訓練するため、同社は過去最大規模のディープフェイクのデータセットを提供している。実在する3426人と、既存のさまざまな顔入れ替え手法を使って作成した、10万本以上の映像クリップだ。
「現在のところ、ディープフェイクは大きな問題ではありません」。フェイスブックのマイク・シュロープファーCTO(最高技術責任者)は説明する。「ですが、ここ数年で苦労して学んだ教訓は、油断して不意を突かれるな、ということです。起こることに備えるのではなく、決して起こらないはずの多くのまずい事態に備えておきたいのです」。
フェイスブックはまた、「ディープフェイク・ディテクション(検出)・チャレンジ(Deepfake Detection Challenge)」コンテストの優勝者も発表した。コンテストには2114人が参加し、フェイスブックのデータセットで訓練した …