一般的にディープフェイクで知られている合成メディア技術は、ポジティブな影響を与えることもある。たとえば、音声合成を使えば自分の声でさまざまな言語を話すことができるし、映像合成は自動運転自動車が将来の判断ミスを回避するための事故シミュレーションに活用できる。テキスト合成はプログラムと文章を書く能力を加速するのに使われる。
だが、こうした進歩は、私たちが注意を怠れば多大な犠牲や損失を引き起こす可能性がある。根本にあるテクノロジーは、世界規模の分断を引き起こす、詐欺の手段にも使えるものだからだ。
ありがたいことに、合成メディア技術の恩恵を受けながら、その危険性を緩和する方法がある。ただし、ちょっとした努力は必要だ。
この記事での私の主張は、合成メディア技術の危険性を緩和する努力をしていこうという呼びかけだ。合成メディア技術を作り出している画期的な研究や新製品開発に携わる人たち、趣味でオープンソースのシステムを開発している人たちを支援するための手引きでもある。これには、研究に資金を提供する人たち、テクノロジーがもたらす影響を開発者が自覚する助けとなるジャーナリスト、そして開発者の友人や家族も含まれる。
「悪用されてしまえば、なすすべはない」というのは責任逃れだ。実際にはできることはあるのに、多くの場合は気にしていないだけだからだ。「こうしたテクノロジーは自分が作らなくてもいずれは作られる」という意見も完全な間違いではないが、それでもいつ、どのようにして作られるかは重要だし、その選択次第で悪用を避けることはできる(脅威モデリングを含めた詳細を知りたい人は私たちが書いた論文の全文を参照してほしい)。「悪用する人は必ずいる」という使い古された文言を盾に、犠牲や損失の程度と影響を無視することもできない。
ディープフェイク技術による犠牲や損失は理論上のものではない。現に顔を入れ替えた合成動画によってジャーナリストが追い込まれ沈黙している。合成音声は大規模な不正行為に使われているし、顔の合成は諜報活動に使われている疑惑がある。ベータ版品質のお粗末なツールしかない現時点でも、これだけの課題がある。合成メディアを使うハードルは高く、危険性の高い人物や組織の目を惹くにはまだ至っていない。だが、バグだらけのベータ版品質から脱して使いやすくなったツールが多くの人の手に渡ったとき、私たちは最悪といえるシナリオを回避する責任を負うことになる。そのためには、ディープフェイクの悪用をできる限り難しくしなければならない。どうすればよいのだろうか?
アプローチ1:ツールの使用者や用途を限定する
悪用される可能性を少なくするために、できる …