アルゴリズムはバイアスを持っている。フェイスブックも例外ではない。
フェイスブックは3月末、人種やジェンダー、宗教など米国の法制度が定める「保護特性」に基づいて、広告主に意図的に広告のターゲットを絞らせていたとして、米国住宅都市開発省(HUD)に提訴された。フェイスブックは、保護特性に基づくターゲティングを廃止すると発表している。
ところが4月3日に発表された新たな論文によると、広告の表示対象を自動的に決定するフェイスブックのアルゴリズムにもやはり同様の差別が存在しており、デモグラフィック情報に基づいて20億人以上のユーザーに広告を配信していることが明らかになった。
ノースイースタン大学のモハメッド・アリとピョートル・サピエジンスキ博士が率いる研究チームは、広告予算、見出し、テキスト、画像に多少の違いをつけ、その他の点は同じにしたフェイスブック広告を次々に出稿した。すると、微妙な違いが、それぞれの広告が配信される対象に大きな影響をもたらすことを発見した。 影響がもっとも顕著だったのは、仕事や不動産に関する広告だった。たとえば、幼稚園・保育園の先生や秘書を募集する広告は、高い割合で女性に表示され、用務員やタクシー運転手の広告はマイノリティに高い割合で表示された。 住宅販売に関する広告は白人層のユーザーに多く表示され、賃貸住宅に関する広告はマイノリティにより多く表示された。
「私たちは広告ターゲティング・ツールに重要な変更を加えました。これが最初の一歩に過ぎないことも認識しています」。新たな調査結果に対して、フェイスブックの広報担当はそう述べた。「広告配信システムを現在調査しており、業界のリーダー …