白い背景に置かれた巨大な青いボタンが、顔写真をアップロードするよう誘う。シンプルさが目を引くWebサイトだ。ボタンの下には、サービスを試すために人工知能(AI)によって生成された4つの顔が提供されている。ボタンの上にあるタグラインは、堂々とその目的を宣言している。「ディープフェイク・テクノロジーを使ってアダルトビデオの出演者と顔を交換することで、誰でもポルノ・スターになれます」。必要なのは顔写真とボタンのクリックだけだ。
MITテクノロジーレビューはサイトへのアクセスを防ぐため、このサービスの名前をあえて伏せ、記事中では「Y」と表記する。コンテンツやスクリーンショットなどの引用も一切控える。Yは、ネット上の合成メディアの進化と発展を追跡してきたディープフェイク研究者、ヘンリー・アジャーによって発見され、本誌にその情報が寄せられた。
現時点でYは比較的無名で、少数の常連ユーザーがオンライン・フォーラムを通じて開発者へ活発なフィードバックを送っているにとどまっている。しかし、このようなサービスが出現したことで、研究者たちはこれまでは越えなかった倫理的一線を越えてしまう事態を懸念している。
当初からディープフェイク、あるいはAIによって生成された合成メディアは、主に女性をポルノに登場させる目的で使われてきた。標的にされた女性は多くの場合、大きな心理的苦痛を受ける。ディープフェイクを最初に広めたレディット(Reddit)のクリエイターは、有名女性の顔をポルノビデオの出演者の顔と入れ替えた。センシティAI(Sensity AI)の調査によると、ネット上のディープフェイク・ビデオの90〜95%は当事者の同意がないポルノで、そのうちの約90%が女性と推定されている。
ディープフェイク・テクノロジーが進歩するにつれて、簡単に使えるコーディング不要のツールも出現し、女性の着衣画像から服を「脱がす」ことも可能になった。これらのサービスの多くはその後Web上から排除されたが、コードはオープンソースのリポジトリに存在し、姿形を変えて繰り返し出現している。研究者のジェネビーブ・オーが最近発見したサイトは、8月に670万人の訪問数を記録しており、いまだオフラインになっていない。
単一写真の顔交換アプリは以前から存在する。例えば、ユーザーが人気映画や音楽ビデオの特定のシーンに登場しているかのように見せる、「ザオ(ZAO)」や「リフェイス(ReFace)」などだ。しかし、初のポルノ画像に特化した顔交換アプリとして登場したYは、新たなレベルに到達している。テクノロジーの濫用による虐待について教育する非営利団体エンドタブ(EndTAB)の創設者アダム・ドッジは、Yが当事者の同意なしにポルノ画像を作成するために「オーダーメード」されているからだという。ポルノという特殊な用途に特化したことで、開発者は用途に合わせたテクノロジーの改良がしやすくなり、ディープフェイクでポ …
- 人気の記事ランキング
-
- What comes next for AI copyright lawsuits? AI著作権訴訟でメタとアンソロピックが初勝利、今後の展開は?
- Promotion MITTR Emerging Technology Nite #33 バイブコーディングって何だ? 7/30イベント開催のお知らせ
- Promotion Call for entries for Innovators Under 35 Japan 2025 「Innovators Under 35 Japan」2025年度候補者募集のお知らせ
- Why the US and Europe could lose the race for fusion energy 核融合でも中国が優位に、西側に残された3つの勝機
- Namibia wants to build the world’s first hydrogen economy 砂漠の国・ナミビア、 世界初「水素立国」への夢
- Don’t let hype about AI agents get ahead of reality 期待先行のAIエージェント、誇大宣伝で「バブル崩壊」のリスク