2019年6月、デジタルメディアの「ヴァイス(Vice)」が人工知能(AI)を用いて女性の服を「脱がせる」不穏なアプリについての記事を書いた。「ディープヌード(DeepNude)」と呼ばれるそのアプリは、服を着た女性の写真をアップロードして50ドルを払えば、その女性が裸のように見える写真が手に入るというものだ。実際には、このソフトウェアはディープフェイクを実現するためのアルゴリズムである「競争式生成ネットワーク(GAN)」を利用し、女性の衣服を非常にリアルな裸体に入れ替えていた。被害者が薄着であればあるほど、よりリアルな画像が出来上がる。このアプリは、男性ではうまく機能しなかった。
バイスが記事を公開してから24時間と経たないうちに大きな反発が起こり、アプリ開発者たちはすぐにアプリの公開を停止した。ディープヌードのツイッター・アカウントには、別バージョンが今後公開されることはなく、このテクノロジーは誰も利用できなくなるとの声明が投稿された。
だが、改ざんされたメディアの悪用検知に特化したサイバーセキュリティ企業のセンシティAI(Sensity AI。以前の社名はディープトレース・ラボ=Deeptrace Labs)が実施した新たな調査により、メッセージアプリ「テレグラム(Telegram)」の一般公開ボットが、ディープヌードに非常によく似たテクノロジーを利用していることが明らかになった。このボットはユーザーインターフェイスがより簡略化されており、テレグラムのモバイル版またはWebアプリからボットに写真を送るだけで、数分以内にヌード写真が手に入る仕組みになっている。このサービスは完全無料で利用できるが、ユーザーは100ルーブル(約1ドル50セント)を支払うごとに「ヌード」写真のウォーターマーク(透かし)を除去したり、画像処理の順番待ちをスキップしたりすることが可能になっている。
2020年7月の段階で、このボットによって少なくとも10万人の女性たちが「ヌード化」の標的となっており、大半はそのようなことをされているのを知らないという状況だ。「たいていは若い女性たちが標的になっています」。今回の報告書の共同執筆者で、センシティAIをの最高経営責任者(CEO)兼主任研究員のジョルジオ・パトリーニはそう話す。「残念ながら、中には明らかに未成年だと分かる少女たちが標的になっている場合もあります」。
ハラスメントのゲーム化
2019年7月11日に公開されたこのディープフェイク・ボットは、テレグラムの7つのチャンネルとつながりがあり、合計メンバー数は …