「ナイトシェード」はAI企業とアーティストの力関係を変えるか
ネット上の作品を生成AIの訓練に勝手に利用する企業への反発が広がっている。画像に眼に見えない細工をしてAIモデルの誤作動を引き起こすツールは、企業とアーティストの力関係を変えられるかもしれない。 by Melissa Heikkilä2023.11.01
この記事は米国版ニュースレターを一部再編集したものです。
人工知能(AI)へのアーティストたちの反発が広がっている。多くの人々が想像を自由に働かせて、「ダリー2(DALL-E 2)」「ミッドジャーニー(Midjourney)」「ステーブル・ディフュージョン(Stable Diffusion)」といったテキスト・画像変換モデルを今でも楽しむ一方で、アーティストたちはますますうんざりしている。
ビジュアル作品をインターネットから無差別にスクレイピングしてAIモデルを訓練するテック業界の常套手段に対し、団結して抗議している人たちもいる。アーティストたちは、デヴィアントアート(DeviantArt)やアートステーション(Art Station)のような人気のアート・プラットフォームで抗議行動を起こしたり、これらのプラットフォームから完全に離脱したりしている。著作権をめぐって訴訟を起こす人もいる状況だ。
豊富な資金と影響力を持つテック企業とアーティストの間には、完全な力の非対称性がある。そう指摘するのは、シカゴ大学のベン・ジャオ教授(コンピューター科学)だ。「AIを訓練する企業はやりたい放題です」。
だが、ジャオ教授の研究室が開発した新しいツールにより、この力関係は変わるかもしれない。 「ナイトシェード(Nightshade)」と呼ばれるこのツールは、画像のピクセルに微妙な変化を与えることで機能する。人間の目には見えない変化だが、機械学習モデルを騙して、画像に実際とは異なるものが描かれていると思わせるのだ。アーティストがこの技術を自分の作品に適用し、その画像が訓練データとして収集されると、これらの「有害ピクセル」がAIモデルのデータセットに入り込み、モデルの誤作動を引き起こす。犬の画像は猫になり、帽子はトースターになり、車は牛になる。その結果は実に印象的で、現在のところ防衛策は知られていない(詳しくはこちら)。
オープンAI(OpenAI)やスタビリティAI(Stability AI)など一部の企業は、アーティストに対して、機械学習の訓練データから外す選択肢を提供したり、自分の作品をスクレイピングされたくないという要望は尊重すると発表したりしている。しかし、今のところ、企業に約束を守らせる仕組みはない。ジャオ教授は、ナイトシェードはそのための仕組みになる可能性があると言う。生成AIモデルを構築し、訓練するのは非常にお金がかかる。テック企業にとって、自社の重要資産を壊しかねないデータをスクレイピングするのは非常にリスクの高い行為になるかもしれないのだ。
ナイトシェードの使用を検討しているアーティストの一人、オータム・ビバリーは、人気のある「LAION-5B(ライオン-5B)」のデータセットに自分の作品がスクレイピングされているのを発見し、とても「冒涜的」だと感じたと言う。
「私は決して同意していません。AI企業は同意も通知も何もなく収集したのです」とビバリーは言う。
ナイトシェードのようなツールが登場するまで、ビバリーは自分の作品をネットに公開することに抵抗を感じていた。ビバリーをはじめとするアーティストたちは、テック企業がオプトアウト方式ではなくあらかじめ同意を求める仕組みに移行すること、アーティストに対して貢献への報酬を支払うよう求めている。AI業界に真に革命的な変化を求める要求だが、ビバリーは希望を持ち続けている。
「同意を経なければならない仕組みになることを願っています。それが私の最終的な目標です。さもなければ、システムが壊れてしまうだけです」。
だが、アーティストたちは炭鉱のカナリアだ。彼らの戦いは、ネット上に大事なことを投稿したことのあるすべての人に関わることだ。私たちの個人データ、ソーシャルメディアへの投稿、歌の歌詞、ニュース記事、小説、そして私たちの顔さえも、オンラインで自由に利用できるものはすべて、私たちが知らないうちに永遠にAIモデルの中に取り込まれてしまう可能性がある。
ナイトシェードのようなツールは、パワーバランスを私たちの方に傾ける第一歩となるかもしれない。
◆
AI関連のその他のニュース
AIチャットボットは入力内容から個人情報を推測できる。新たな研究により、大規模な言語モデルは、チャットから人々の個人情報を推測するのが得意なことがわかった。広告のプロファイリングに利用できるかもしれない。(ワイアード)
オープンAI、新しいツールでダリーの画像を99%の精度で検出できると主張。オープンAIの幹部らは、主要AI企業各社がホワイトハウスに対して、AIが生成したコンテンツの透かしやその他の検出メカニズムを開発することを自発的に約束したことを受けて、同社がこのツールの開発に取り組んでいることを明らかにした。グーグルは8月に透かしツールを発表した。(ブルームバーグ)
AIモデルは透明性の点で振るわず。スタンフォード大学が大規模言語モデルの透明性をテストしたところ、トップスコアだったメタの「ラマ(LLaMA) 2」が100点満点中54点しか取れなかった。不透明性の高まりは、AIにおける憂慮すべき傾向だ。AIモデルは社会的に大きな影響力を持つようになってきており、その責任を問うためには、さらなる可視化が必要だ。(スタンフォード大学)
大学生が2000年前のローマの巻物を読むAIシステムを構築。なんと楽しいことだろう。21歳のコンピューター科学専攻の学生が、西暦79年の火山噴火で損傷した古代ローマの巻物を解読するAIプログラムを開発した。このプログラムは、約12文字を検出できた。専門家らがこれらの文字を訳すと、古代ギリシャ語で紫色を意味する「porphyras 」という単語だった。 (ワシントンポスト紙)
- 人気の記事ランキング
-
- Bringing the lofty ideas of pure math down to earth 崇高な理念を現実へ、 物理学者が学び直して感じた 「数学」を学ぶ意義
- Promotion Innovators Under 35 Japan × CROSS U 無料イベント「U35イノベーターと考える研究者のキャリア戦略」のご案内
- The 8 worst technology failures of 2024 MITTRが選ぶ、 2024年に「やらかした」 テクノロジー8選
- Google’s new Project Astra could be generative AI’s killer app 世界を驚かせたグーグルの「アストラ」、生成AIのキラーアプリとなるか
- AI’s search for more energy is growing more urgent 生成AIの隠れた代償、激増するデータセンターの環境負荷
- メリッサ・ヘイッキラ [Melissa Heikkilä]米国版 AI担当上級記者
- MITテクノロジーレビューの上級記者として、人工知能とそれがどのように社会を変えていくかを取材している。MITテクノロジーレビュー入社以前は『ポリティコ(POLITICO)』でAI政策や政治関連の記事を執筆していた。英エコノミスト誌での勤務、ニュースキャスターとしての経験も持つ。2020年にフォーブス誌の「30 Under 30」(欧州メディア部門)に選出された。