KADOKAWA Technology Review
×
世界を米国風に染め上げる、生成AIバイアス問題の根深さ
Stephanie Arnett/MITTR | Getty, Stable Diffusion
What if we could just ask AI to be less biased?

世界を米国風に染め上げる、生成AIバイアス問題の根深さ

生成AI(ジェネレーティブAI)にはジェンダーや民族などのバイアスが含まれており、時々そのバイアスを色濃く反映させたものを生成してしまう。バイアスを軽減させる手法の研究も進んでいる。 by Melissa Heikkilä2023.05.01

この記事は米国版ニュースレターを一部再編集したものです。

瞳を閉じて、1人の教師の姿を思い浮かべてほしい。その人物はどのような姿をしているだろうか? 大人気の人工知能(AI)画像生成モデルである「ステーブル・ディフュージョン(Stable Diffusion)」や「ダリー2(DALL-E 2)」に尋ねれば、きっと眼鏡をかけた白人男性が出てくるはずだ。

AIスタートアップのハギング・フェイス(Hugging Face)とライプツィヒ大学の研究者が開発した新ツールを利用すると、ジェンダーや民族の違いについてAIモデルが持つ固有のバイアスを自分の目で確かめることができる(関連記事)。

私たち自身が持つバイアスが、どのようにAIモデルに反映されるのか、これまで多くの記事を執筆してきた。だが、AIが描き出す人間がいかに陳腐で、青白い男性ばかりかを目の当たりにすると、いまだに不快に感じることがある。特にダリー2はその傾向が顕著で、「CEO」や「director」などのプロンプトを与えると、97%の確率で白人男性の画像を生成する。

バイアスの問題は想像以上に根深く、AIが生み出す広大な世界に及んでいる。現在人気を博しているAIモデルは米国企業が開発し、主に北米のデータで訓練されている。スタンフォード大学の博士研究員であるフェデリコ・ビアンキによると、そのため、AIモデルにありきたりの日常風景を生成するよう求めると、ドアから建物に至るまで米国風のものを描いた画像を作り出すという。

AIが生成した画像がますますこの世界に充満していく中、私たちが目にする画像の大半が米国のバイアス、文化、価値観を反映したものになってきている。AIが米国のソフトパワーの主要ツールになるなんて、誰が予想できただろう? では、この問題にどのように対処すべきだろうか。AIモデルの訓練に使用するデータセットのバイアスを修正するというテーマで、多くの研究者たちが研究している。最近発表された2本の研究論文は、興味深い新たな手法を提案している。

訓練データのバイアスを少なくする代わりに、単純にバイアスの少ない回答をモデルに要求できるとしたらどうだろうか?

ドイツのダルムシュタット工科大学とハギング・フェイスの研究チームは、「フェア・ディフュージョン(Fair Diffusion)」という、AIモデルを微調整して希望する種類の画像を容易に生成させるツールを開発した。例えば、それぞれ異なる設定でCEOのストック写真を生成させ、その後にフェア・ディフュージョンで画像内の白人男性を女性や他の民族に属する人物に入れ替えるられる。

ハギング・フェイスのツールが示すように、訓練データの画像とテキストのペアを基に画像を生成するAIモデルは、初期設定のままでは職業やジェンダー、民族に関するバイアスがかなり強くなってしまう。ドイツ人研究者が開発したフェア・ディフュージョンは、人物画像を生成しようとしているAIシステムを利用者が誘導し、生成結果の編集も可能にする「セマンティック・ガイダンス(Semantic Guidance)」と呼ばれる独自開発の手法を基にしている。

AIシステムは元の画像に非常に近い状態を維持している、とダルムシュタット工科大学でコンピューター科学の教授を務めるクリスティアン・ケルスティングは言う。同教授もこの研究に参加している。

ツールの開発に取り組んでいる、ダルムシュタット工科大学の博士課程に在籍するフェリックス・フリードリヒは、この方法なら、AIモデルの訓練に使用されるバイアスを含むデータセットの改良という煩雑で時間のかかる作業を回避して、希望する画像を生成させれると述べた。

だが、このツールは完璧ではない。 「皿洗い(dishwasher)」など、いくつかの職種については、画像を変更しようとしてもうまくいかない。この単語が、機械と職業の2つの意味を持つからだ。それに、このツールが対応できるジェンダーは2種類だけだ。究極的には、モデルが生成できる人物画像の多様性はいまだに、AIシステムの訓練に使用したデータセットの画像による制限を受ける。それでも、このツールはバイアスの軽減に向けての重要な一歩になる可能性がある。さらなる研究は必要だが。

同様の手法は、言語モデルにも有効であるようだ。本誌のニアル・ファース編集者が最近報告したように、簡単な指示を与えるだけで、有害性の低いコンテンツを生成するように大規模言語モデルを誘導できることが、アンソロピック(Anthropic)の研究によって示されている。アンソロピックのチームは、それぞれ規模が異なるさまざまな言語モデルを試し、十分に大規模なモデルなら指示するだけでバイアスの一部を自己修正できることを発見した。

テキストや画像を生成するAIモデルがこのように振る舞う理由を研究者たちは理解していない。アンソロピックのチームは、大きなモデルは大きなデータセットで訓練を受けており、その中にはバイアスがかかっていたり、ステレオタイプな振る舞いの例も多く含まれるが、同時にそのバイアスのかかった振る舞いを人間が押し戻そうとする例も多く入っているからだと考えている。

ストック画像の生成にAIツールを使用することは、ますます普通のことになってきている。プロモーション用画像に社会の多様性を反映させたいと考える企業にとって、フェア・ディフュージョンのようなツールは有用だろう、とダルムシュタット工科大学のケルスティング教授は言う。

AIのバイアスを抑制しようとするこうした手法自体は歓迎すべきものだが、初めからモデルに組み込んでおくべきではないか? との当然の疑問も持ち上がる。現時点では、最高の生成モデルでも、有害なステレオタイプを増幅させてしまう

巧みな処理をもってしてもバイアスを修正しきれないことは、頭に入れておく価値がある。昨年発表された報告書で、米国国立標準技術研究所(NIST)の研究チームは、バイアスに対処するにはデータやアルゴリズムの工夫以上のことが必要だと指摘している。人間がAIツールをどのように使用するかということや、人々がAIツールを使うときは幅広い意味でどのような社会的状況にあるかといったことを調査する必要がある。このような活動すべてに、バイアス問題の軽減に寄与する可能性がある。

米国国立標準技術研究所によると、バイアスの軽減を効果的なものにするには、AIモデルがどのように構築され、どのようなデータを学習に使ったのか、きわめて大量の監査と評価が必要になるという。透明性も欠かせない。だが、バブル化した生成モデルのゴールドラッシュの最中にある現在、それよりも金儲けのほうがが優先されるのではないか? との懸念も残っている。

チャットGPTは経済にどう影響を与えるか

昨年11月にオープンAIが衝撃的なテキスト生成チャットボット「チャットGPT(ChatGPT)」を公開して以来、アプリ開発者だけでなく、ベンチャーキャピタルの資金援助を受けているスタートアップや、複数の世界有数の大企業がこのテクノロジーを理解し、来るべきビジネスチャンスを我が物にしようと先陣争いをしている。

企業や経営幹部は、チャットGPTは利益を上げる明らかなチャンスと見ているが、このテクノロジーが労働者や経済全体に及ぼす影響については、まだほとんど明確になっていない。

この記事では、本誌のデビッド・ロットマン編集主幹がこの新しいテクノロジーに関する最大の疑問の1つを探究している。すなわち、米国や他の多くの国ですでにやっかいな問題になっている、所得や富の不平等をチャットGPTはさらに悪化させるのだろうか? あるいは、その解消に役立つのだろうか? 詳しくはこちら

AI関連のその他のニュース

チャットGPTへの対抗策として、グーグルがバード(Bard)を公開。ユーザーに協力を求めている。MITテクノロジーレビュー

百度(バイドゥ)が発表したチャットGPTの対抗馬「アーニーボット(Ernie Bot)」は、まずまずの出来だった。衝撃的なものではないが、十分なレベルだ。本誌の中国担当記者のヤン・ズェイ記者が、次の展開を予想している。(MITテクノロジーレビュー

ユーザーのチャット履歴のタイトルが見えてしまうバグが発覚。オープンAI(OpenAI)は3月20日、修正のためにチャットGPTの一時停止を迫られた。バグはオープンソースのコードに由来するもので、修正後にサービスは再開された。(ブルームバーグ

アドビが生成モデルの競争に参入。写真編集ソフトウェアのフォトショップ(Photoshop)を開発・販売しているアドビは、アーティストの著作物を使用しない画像生成モデルを開発したと発表した。アーティストたちは、AI企業が生成モデルの訓練のために知的財産を盗んでいると主張しており、法廷でその主張を証明しようとしている。アドビの発表は大きな前進と言える。

保守派は独自チャットボットの開発を望んでいる。米国の保守派は、チャットGPTにリベラルなバイアスが組み込まれているとして、オープンAIを批判している。正当な批判かどうかは不明だが、オープンAIは先月、本誌の取材に対し、さまざまな政治的信条をより反映するAIシステムの構築に取り組んでいると明らかにした。しかし、オープンAIを出し抜いた者たちがいる。(ニューヨーク・タイムズ紙

AIを減速させる事例。この記事は、技術開発は避けられない、中国を負かす必要がある、さらなる安全のためにAIを改良する必要があるといった、急速なAI開発を肯定する一般的な議論を押し戻そうとするものだ。AIテクノロジーを適切なものにし、害を最小限に抑えるために、開発ペースを遅らせる必要があるという過激な提案だ。(ヴォックス

派手な格好をした教皇は、AIが作り出したフェイク画像。いや、教皇がプラダを身にまとうことなどない。白のダウンジャケットを着た「バレンシアガ司教」の画像が拡散しているが、これは画像生成モデルのミッドジャーニー(Midjourney)で作成されたものだ。画像生成モデルは人間を写した本物の写真のような画像を生成できる領域にじわじわ近づいてきている。私たちは今後ますます、本物の人物にしか見えない画像を目にするようになり、そして騙されることになるだろう。(ザ・ヴァージ

人気の記事ランキング
  1. Why handing over total control to AI agents would be a huge mistake 「AIがやりました」 便利すぎるエージェント丸投げが危うい理由
  2. OpenAI has released its first research into how using ChatGPT affects people’s emotional wellbeing チャットGPTとの対話で孤独は深まる? オープンAIとMITが研究
  3. An ancient man’s remains were hacked apart and kept in a garage 切り刻まれた古代人、破壊的発掘から保存重視へと変わる考古学
メリッサ・ヘイッキラ [Melissa Heikkilä]米国版 AI担当上級記者
MITテクノロジーレビューの上級記者として、人工知能とそれがどのように社会を変えていくかを取材している。MITテクノロジーレビュー入社以前は『ポリティコ(POLITICO)』でAI政策や政治関連の記事を執筆していた。英エコノミスト誌での勤務、ニュースキャスターとしての経験も持つ。2020年にフォーブス誌の「30 Under 30」(欧州メディア部門)に選出された。
MITTRが選んだ 世界を変える10大技術 2025年版

本当に長期的に重要となるものは何か?これは、毎年このリストを作成する際に私たちが取り組む問いである。未来を完全に見通すことはできないが、これらの技術が今後何十年にもわたって世界に大きな影響を与えると私たちは予測している。

特集ページへ
日本発「世界を変える」U35イノベーター

MITテクノロジーレビューが20年以上にわたって開催しているグローバル・アワード「Innovators Under 35 」。世界的な課題解決に取り組み、向こう数十年間の未来を形作る若きイノベーターの発掘を目的とするアワードの日本版の最新情報を発信する。

特集ページへ
フォローしてください重要なテクノロジーとイノベーションのニュースをSNSやメールで受け取る