グーグル、ディープフェイク対策の巨大データベースを発表
グーグルは9月24日、ディープフェイク検出ツール開発を促進する活動の一環として、公表されている様々なアルゴリズムを用いて人工知能 (AI) が生成した3000本のビデオを含むオープンソースのデータベースを発表した。
この1年の間に、生成アルゴリズムによる映像合成技術が非常に向上し、作成した映像はまもなく現実のものと区別がつかなくなってしまう可能性がある。とりわけ、2020年の米国大統領選が近づいていることもあり、専門家は現在、これらのいわゆるディープフェイクを検出する、より良い方法を見つけようとしのぎを削っている。
グーグルが9月24日に発表したオープンソースのデータベースは、28人の俳優の協力を得て作成された。話したり、一般的な表情をしたりといったありふれた課題をする俳優たちの映像を収録した後、公開されているディープフェイク・アルゴリズムを使って彼らの顔をすげ替えたのだ。
フェイスブックは先だって、年末近くに同様のデータベースをリリースするとことを発表した。2019年1月にはミュンヘン工科大学の研究者が率いる大学のチームが、約1000本のユーチューブ映像を集めて、4種類の一般的な加工方法を顔に施した「フェイス・フォーレンシクス++(FaceForensics++)」というデータベースを作成した。これらのデータセットの基本的な考え方は同じであり、自動検出ツールの訓練やテストに役立つ例を大規模に集積することを目指している。
しかし、特定の生成アルゴリズムの欠陥を活用するディープフェイク検出方法が開発されると、その欠陥を修正すべく、アルゴリズムは簡単に更新されてしまう。結果として、合成画像が完璧であることを想定して、検出方法を考え出そうとしている専門家もいる。ディープフェイクの問題を技術的方法だけで解決することは不可能であり、作成の動機を変えるような社会的、政治的、法的な解決策も必要だと主張している専門家たちもいる。