生成AIからあなたの画像を守る、最新AIツール
生成AIによるディープフェイク被害が懸念される中、画像の改変を防ぐ技術が登場している。ただ、問題はテック大手やソーシャルメディア・プラットフォームが採用するかどうかだ。 by Melissa Heikkilä2023.09.08
この記事は米国版ニュースレターを一部再編集したものです。
今年の初め、生成AIによって人々の画像を操作することが驚くほど簡単になったことを知った私は、ソーシャルメディア・アカウントのプライバシー設定を最も厳しく設定し、フェイスブックやツイッター(X)のプロフィール写真を自分のイラストに差し替えた。
ステーブル・ディフュージョン(Stable Diffusion)を基にした画像編集ソフトウェアや、さまざまなディープフェイク・アプリで実際に遊んでみて分かったからだ。ツイッターから抜き出した顔写真と数回のクリック、それにテキスト・プロンプト(指示テキスト)を使って、私は自分自身のディープフェイク・ポルノ動画を生成し、自分の写真から衣服を編集できた。私は女性ジャーナリストとして、人並み以上のネットいじめを経験している。誰もが自由に使える新しいAIツールによって、ネットいじめがどれくらい悪化するか、試していたのだ。
被写体本人の承認を得ていないディープフェイク・ポルノは、何年も前から女性を苦しめる目的で利用されてきたが、最新世代のAIはこの問題をさらに大きくしている。最新のAIは、以前のディープフェイク技術よりもはるかに簡単に使え、完全な説得力を持つ画像を生成できる。
生成AIを使って既存の画像を編集できるようにする「画像から画像(image-to-image)」のAIシステムは、「非常に高品質になる可能性があります。(中略)基本的には既存の1枚の高解像度画像を基にしているためです」。こう説明するのは、シカゴ大学のベン・ジャオ教授(コンピューター科学)だ。「そのような画像から生成される画像は、同じ品質、解像度、詳細度を持っています。(AIシステムは)多くの場合、単に物を動かしているだけだからですから」。
自分の画像をAIによる操作から守るのに役立つかもしれない新たなツールについて知ったとき、私が安堵したことは想像してもらえるだろう。 マサチューセッツ工科大学(MIT)の研究チームが開発した「フォトガード(PhotoGuard)」は、写真を守る盾のように機能する。人間にはほとんど知覚できない方法で写真を改変し、AIシステムによる写真の操作を阻止するのだ。もし誰かが、ステーブル・ディフュージョンなどの生成AIモデルを基にしたアプリを使い、フォトガードによって「免疫を与えられた」画像を編集しようとすると、その結果は非現実的な見た目になったり、ゆがんで見えるものになる。この話題に関する記事はこちらでお読みいただきたい。
同様の働きをするもう1つのツールが、「グレーズ(Glaze)」だ。ただし、このツールは、人々の写真の保護よりも、アーティストの著作物やスタイルが、AIモデルの訓練データセット用にスクレイピングされるのを防ぐのに役立つ。ステーブル・ディフュージョンやダリー2(DALL-E 2)のような画像生成AIモデルの登場以来、一部のアーティストたちは、テック企業が自分たちの知的財産をスクレイピングし、対価を支払うこともクレジットを入れることもなく、AIモデルの訓練に利用していると主張し、憤慨している。
ジャオ教授とシカゴ大学の研究者チームが開発したグレーズは、そのような問題への対処に役立つ。グレーズは画像に「マントを被せ」、微妙な変更を加える。この変更は人間にはほとんど気づけないものだが、AIモデルが特定のアーティストのスタイルを定義付ける特徴を学習するのを妨げる。
ジャオ教授によれば、グレーズはAIモデルの画像生成プロセスを破壊し、特定のアーティストの作品のように見える画像が無限に生成されることを防ぐという。
フォトガードの開発者たちは、ステーブル・ディフュージョンを使ったデモをネット上で公開しており、グレーズも間もなくアーティストたちが利用できるようになる。ジャオ教授のチームは現在、システムのベータテストを進めており、近日中に少数のアーティストがサインアップできるようになる予定だ。
しかし、これらのツールも、単独では完璧でも十分でもない。たとえば、フォトガードで保護された画像のスクリーンショットを撮れば、AIシステムで編集できてしまう。また、フォトガードやグレーズの開発者たちは、AI画像編集の問題に良い技術的な解決策があることを実証しているが、テック企業がこのようなツールを本格的に採用し始めない限り、ツールが存在するだけでは価値がない。現在、ネット上の私たちの画像は、AIを使って悪用したり操作したいと考えているすべての者にとって、格好の標的なのだ。
私たちの画像が悪意ある者によって操作されるのを防ぐ最も効果的な方法は、ソーシャルメディア・プラットフォームとAI企業が、AIモデルがアップデートされても機能するような免疫を画像に与える手段を、人々に提供することだろう。
主要AI企業各社は、ホワイトハウスに対する自発的な誓約で、AIが生成したコンテンツを検知する手段を「開発」すると約束した。しかし、その手段を採用するとは約束していない。もしそれらの企業が、生成AIによる害からユーザーを守ることを真剣に考えているなら、おそらくそうした手段の採用を約束することが最も重要な第一歩だろう。
◆
AI生成コンテンツを見分ける「電子透かし」
AIが生成したコンテンツに電子透かしを入れることは、生成AIの潜在的な害を緩和する良い政策的解決策として、大きな話題になっている。しかし問題がある。AIが生成した素材を見分けるために現在利用できる最善の選択肢は、一貫性がなく、効果が長続きせず、不正確なこともある。実際、オープンAI(OpenAI)は7月20日、自社のAI検知ツールをエラー率が高いとの理由で閉鎖した。
2年前に公開されたオープンソースの技術仕様である「C2PA」は、暗号技術を利用して、技術者が「来歴(Provenance)」情報と呼ぶ、あるコンテンツの起源に関する詳細情報を暗号化する。C2PAの開発者たちは、しばしばこのプロトコルを栄養成分表示ラベルに例える。つまり、コンテンツの出所がどこで、誰が(もしくは何が)作成したか」を知らせてくれるのだ。
詳しくは、本誌のテイト・ライアン・モズリー記者の記事をお読みいただきたい。
AI関連のその他のニュース
AIを駆使する完全自律型戦争の未来がここにある。米海軍の専門家チームが次の時代の紛争に備えるためにロボット工学とAIをどのように活用しているのか、そして、防衛スタートアップ企業が戦争のためのテクノロジーをどのように構築しているのか紹介している良い記事だ。軍は自動化を積極的に取り入れてきたものの、厄介な倫理的問題が多く残されている。(ワイアード)
猛烈な暑さと干ばつがAIデータ・センターへの反対を後押ししている。AIモデルを動かすデータ・センターは、年間数百万~数千万リットル(数百万ガロン)の水を使用する。テック企業は世界中でデータ・センターに対する反発の高まりに直面している。また、天然資源不足がますます進む中、政府もテック企業に対し、より多くの情報提供を求め始めている。(ブルームバーグ)
あるインドのスタートアップ企業は、AIの報酬をデータ・アノテーターたちと分け合っている。AI言語モデルの訓練に使用されるデータ・セットをきれいに整える作業は、ほとんど評価されることのない過酷な仕事と言える。非営利団体のカーリャ(Karya)は、自らを「世界初の倫理的なデータ企業」と呼び、その利益をインドの貧しい農村地域に注ぎ込んでいる。カーリャが労働者に提供している報酬は、インド全国平均の何倍にも及ぶ。(タイム)
グーグルはAI言語モデルを使ってロボットを訓練している。グーグルは、Web上のデータで訓練されたモデルを使い、ロボットが業務を処理したり未訓練の対象物を認識したりするのを支援している。グーグルはこの方法によって、ロボットが厄介な現実世界により上手く適応できるようになると期待している。(ニューヨーク・タイムズ)
- 人気の記事ランキング
-
- What’s on the table at this year’s UN climate conference トランプ再選ショック、開幕したCOP29の議論の行方は?
- Google DeepMind has a new way to look inside an AI’s “mind” AIの「頭の中」で何が起きているのか? ディープマインドが新ツール
- Google DeepMind has a new way to look inside an AI’s “mind” AIの「頭の中」で何が起きているのか? ディープマインドが新ツール
- This AI-generated Minecraft may represent the future of real-time video generation AIがリアルタイムで作り出す、驚きのマイクラ風生成動画
- メリッサ・ヘイッキラ [Melissa Heikkilä]米国版 AI担当上級記者
- MITテクノロジーレビューの上級記者として、人工知能とそれがどのように社会を変えていくかを取材している。MITテクノロジーレビュー入社以前は『ポリティコ(POLITICO)』でAI政策や政治関連の記事を執筆していた。英エコノミスト誌での勤務、ニュースキャスターとしての経験も持つ。2020年にフォーブス誌の「30 Under 30」(欧州メディア部門)に選出された。