グーグル、改ざん画像を見破るプラットフォームを公開
アルファベット(グーグル)傘下のテクノロジー・インキュベーター「ジグソー(Jigsaw)」は、事実検証の最前線にいるファクトチェッカーやジャーナリストによる画像の迅速な検証を支援する実験プラットフォーム「アセンブラー(Assembler)」を公開した。
アセンブラーは、いくつかの既存の技術を組み合わせ、一般的な操作技法を検出する。たとえば、画像の明るさを変更したり、コピーしたピクセルをペーストして視覚的に同じテクスチャで覆い隠したり、といった手法を見抜く。
また、想像上の顔をリアルに生成するアルゴリズム「スタイルGAN(StyleGAN)」を使って作られたディープフェイクを見分ける機能も含まれている。これらの検出技法は、画像が操作された可能性がどの程度あるかをユーザーに伝えるマスター・モデルに読み込まれる。
特に、人工知能(AI)を利用して操作された画像が増えるにつれて、フェイク画像の検出はより難しくなってきている。偽の情報が急速かつ大規模に拡散するにつれ、ジャーナリストやファクトチェッカーが検出できる機会もまた、急速に減少しつつある。
アセンブラーは、情報操作と戦うための1つのステップとしては優れたものだが、現時点では動画には対応していない。今後、開発チームは、エコシステムの進化に合わせて追加、更新する必要があるだろう。また、アセンブラーは、普段、不正に加工された画像が配信されているサービスからは独立したプラットフォームとして存在している。フェイスブックやグーグルのような巨大テック企業は、こうした検出機能を自社プラットフォームに直接組み込むことを専門家は推奨している。そうすれば、写真や動画が投稿・共有される際に、ほぼリアルタイムで検証できるからだ。
他の手段も考えられる。たとえば、一部のスタートアップ企業は、写真を保存する際、その写真のピクセルの位置を瞬時に記憶する検証テクノロジーを開発中だが、これにも課題が伴う。
突き詰めれば、技術的な解決策だけでは不十分なのだ。デジタル画像の偽造でもっとも厄介なのは偽造された画像そのものではない。むしろ、操作された画像が存在するという考え方であり、それが現実のメディアの信憑性に対する疑念をいとも簡単に抱かせてしまう。つまり、社会的、政治的解決策も同時に必要とする類の問題なのだ。