KADOKAWA Technology Review
×

ニューズラインエマージング・テクノロジーの最新情報をお届け。

検出技術だけでは解決できない、ディープフェイクの根深い問題
MS. TECH
Here are five ways deepfake-busting technology could backfire

検出技術だけでは解決できない、ディープフェイクの根深い問題

今や「真実の終わり」の象徴となったディープフェイクは、一部の人たちからは選挙を思い通りに操作するための手段だと見られている(ディープフェイクのほとんどが依然としてポルノだという実態は気にしないようだ)。米国政府からハイテク大手、そしてスタートアップ企業まで、誰もがディープフェイク検出テクノロジーの開発に躍起になっている。

だが、合成メディアについて研究する非営利団体「ウィットネス(Witness)」が12月16日に発表した最新の報告書は、こうしたディープフェイク検出ツールがむしろ事態を悪化させる可能性を指摘している。

ねつ造された映像は新しい問題ではなく、最高のディープフェイク検出器でさえ明確にできない問題は山ほど存在する。たとえば、映像が編集されたものだと分かったところで、それを削除するかどうかは別問題だ。映像がただの風刺の場合もある。それでもアンバー・ビデオ(Amber Video)やトゥールピック(Truepic)、eウィットネス(eWitness)といった企業は、「キャプチャ時検証(verified-at-capture)」や「コントロールされたキャプチャ(controlled-capture)」テクノロジーの開発をあきらめていない。これらのテクノロジーは画像や映像の作成時に、制作者名やジオタグ、タイムスタンプをさまざまな手法を使って生成する。理論上は、画像や映像が改ざんされているかどうかを判断する手がかりとなる。

だが、ウィットネスの報告書は、これらのテクノロジーが逆に有害になる14の可能性を説明している。主なものは以下だ。

  • 開発中のツールは、人々を監視するために使われる可能性がある
  • 技術的な制約により、これらのツールが最も必要なところで動作しなくなる可能性がある(しかも、古いハードウェアでは使えない可能性がある)
  • ジェイルブレイクされたデバイスでは、検証可能な素材をキャプチャできない可能性がある
  • 企業がデータを削除したり、個人がデータを制御できないようにする可能性がある
  • 法廷でメディアの検証がより多く必要になれば、法的手続きが長くなり、より費用がかかる可能性がある

ウィットネスのプログラム部長であるサム・グレゴリーによれば、これらの問題を簡単に解決できる方法はない。ディープフェイク検出テクノロジーを開発中の企業は、こうした疑問に対処し、もっとも被害を受ける可能性が高い人々について考える必要がある、とグレゴリー部長は付け加える。合成メディアツール自体は、より倫理的な方法で作れる。たとえば、テクノロジー専門家のアビブ・オバディアは、責任あるディープフェイク・ツールの作り方に関するアイデアを提案している。ディープフェイク・ツールを作成する企業は、自社ツールの使用を許可する企業を慎重に調査した上で決定し、社会規範に反する利用者に対して明示的にペナルティを与えることができるはずだ。あらゆる種類の合成メディアが一般化していくなか、すべての人々の安全を守るには、さまざまな戦術が必要なのだ。

アンジェラ・チェン [Angela Chen] 2019.12.18, 6:23
日本発「世界を変える」U35イノベーター

MITテクノロジーレビューが20年以上にわたって開催しているグローバル・アワード「Innovators Under 35 」。2024年受賞者決定!授賞式を11/20に開催します。チケット販売中。 世界的な課題解決に取り組み、向こう数十年間の未来を形作る若きイノベーターの発掘を目的とするアワードの日本版の最新情報を随時発信中。

特集ページへ
MITテクノロジーレビューは有料会員制サイトです
有料会員になると、毎月150本以上更新されるオリジナル記事が読み放題!
フォローしてください重要なテクノロジーとイノベーションのニュースをSNSやメールで受け取る