5月下旬、ペンタゴン(米国防総省)で火災が発生しているとの情報が駆け巡った。
数キロメートル離れたホワイトハウスでは、大統領府の補佐官や記者たちが、ネット上で出回っている、ペンタゴンの爆発を捉えた画像が本物なのか、確認を急いでいた。
画像は偽物だった。生成AI(ジェネレーティブAI)によって作られたものだった。にもかかわらず、政府関係者、ジャーナリスト、テック企業は、この画像が重大な影響を及ぼすまで対策を講じることができなかった。それは、混乱を引き起こしただけでなく、金融市場の下落にもつながった。
作為的で誤解を招くコンテンツは今に始まったことではない。だが、AIによって、より巧妙かつ極めてリアルなコンテンツの作成がますます手軽になった。AIは、芸術表現やアクセシビリティの向上といった人のためになる用途にも使えるが、政治的な出来事に対する疑念を生んだり、中傷、嫌がらせ、不正に悪用されたりすることもある。
選挙の信頼性向上、証拠保全、虚偽情報の流布防止、歴史的記録の保存といった観点からも、コンテンツがAIによって改ざんされたか、生成されたものであるかが分かれば、閲覧者の利益となるだろう。ペンタゴンの画像にAIが生成したことを示す形跡が残されていれば、各テクノロジー・プラットフォームはより迅速に対処できたかもしれない。画像がフェイクだと閲覧者により分かりやすくなるように、画像の拡散を抑えるか、コンテンツにラベルを付けるなど速やかな措置を取れたはずだ。混乱、ひいては市場の変動は避けられたかもしれない。
真正なコンテンツと合成されたコンテンツの区別をつけられるようにするには、透明性を高める必要があることは間違いない。ホワイトハウスは先月、取り組みを開始した。最も著名なAI企業7社が、「コンテンツがAIによって生成されたものであることをユーザーが確実に判断できるように」電子透かしなどの「堅牢な技術的手段を開発する」ことを確約したと発表したのだ。
電子透かしのような手法による情報開示は上出来のスタートだ。だが、実践に移すのは一筋縄ではいかない。即効性があるわけでもない。電子透かしがあれば、ツイッターのユーザーがペンタゴンの画像を偽物だと見破れたかは確かではない。最近の例では、広告キャンペーンで使われたドナルド・トランプの合成音声についても同じことが言える。来歴(provenance)の開示やメタデータなど他の手法の方が効果的だろうか。そして、何より重要なのは、コンテンツがAIによって生成されたものだと開示さえすれば、それを見た人が事実とフィクションを見分けられるようになるのだろうか。また、現実世界への損害を抑えられるのだろうか。
こういった疑問に答えるには、まず、電子透かしやその他の開示手法に言及するときに、何を指しているのかを明確にする必要がある。それらが一体何なのか、それらに対して合理的に期待できることは何なのか、そして導入後も残る問題は何なのかをはっきりさせなくてはならない。定義に関する議論は衒学的に思えるかもしれないが、「電子透かし」という用語が幅広く用いられることで、現にAI業界では混乱や連携不足が生じている。AI業界内で連携し、情報開示に関する標準について合意するには、事前に、各手法が何を指しているのかを定義することが必須条件である。そうしなければ、議論は噛み合わないだろう。
非営利団体パートナーシップ・オンAI(PAI:Partnership on AI)の代表として、私はこの問題を実地で目の当たりにした。具体的には、団体がオープンAI(OpenAI)、アドビ、ウィットネス(Witness)、マイクロソフト、BBCなどの組織の参加を得て共同で進めてきた、責任ある合成メディアのためのガイドライン策定に携わった時のことだ。
電子透かしは、一方では、ユーザーの目に見える目印(ゲッティ・イメージズの提供画像に付く「Getty Images」の文字列など)を指す。他方では、肉眼や耳では知覚できないようにコンテンツに埋め込まれた技術的信号を意味する場合もある。透明性を確保するには、これらの電子透かしのタイプ(それぞれ「直接的開示」「間接的開示」と呼ばれる)を正しく区別する必要がある。電子透かしの課題と効果について議論するときは、評価の対象とする電 …