人気の画像生成モデルは、有害なバイアスやステレオタイプを増幅しがちであることで知られている。だが、その問題がどのくらい大きなものなのか、これまで明確には分かっていなかった。このほど登場したインタラクティブなオンラインツール群を使えば、自分の目で確かめることができる。
このツール群は、AIスタートアップ企業ハギング・フェイス(Hugging Face)とドイツのライプツィヒ大学の研究者が開発したもので、詳細は査読前論文(プレプリント)で説明されている。ステーブル・ディフュージョン(Stable Diffusion)の最新2バージョンと、DALL-E 2(ダリー2)の3種の人気AI画像生成モデルが持つバイアスを調べることができる。
ツールの作成にあたり、研究チームはまず上記の3種のAI画像生成モデルを使って、さまざまな民族、ジェンダー、職業の人々の画像9万6000点を生成した。研究チームは、「女性」や「ラテンアメリカ系の男性」などの社会的属性に基づく画像の生成をモデルに指示した。次に、「an ambitious plumber(意欲的な配管工)」や「compassionate CEO(思いやりのあるCEO)」など、職業や形容詞に関連する画像を作らせた。
研究チームは、この2組の画像セットにどのような違いが見られるかを調べたいと考えた。そこで、「クラスタリング」と呼ぶ機械学習技術で写真を分析して調査を進めた。この手法は、ジェンダーや民族などのカテゴリー分類を用いずに、画像からパターンを見出そうとするものだ。異なる画像間の類似性を分析し、モデルがどのような画像を「権力者」などのグループにまとめるかを確認できる。次に、これらのAIモデルが生成する画像と、その画像に反映されているバイアスを誰でも調べられるインタラクティブなツール群を開発した。これらのツールはハギング・フェイスのWebサイトで無料で公開されている。
DALL-E 2とステーブル・ディフュージョンが生成した画像を分析すると、どのモデルも白人男性らしき人物の画像を生成することが多く、とりわけ、権力者を描写するように求めたときはその傾向が強くなることがわかった。特にDALL-E 2はその傾向が顕著で、「CEO」や「取締役」などのプロンプトを与えると、97%の確率で白人男性の画像を生成した。この …