AIの差別排除へ人種やジェンダーで分類、グーグルが研究
コンピューター・ビジョンは、ますます多様な表情を見分けられるようになってきている。しかし、少数民族や中性的な容姿の女性など、訓練用データセットが足りない特定のグループに対しては、十分な成果を上げられないことがある。
グーグルの研究チームは、アーカイブ(arXiv)に投稿した新しい論文で、人種とジェンダーの分類器を組み込み、訓練することで、笑顔を検出するアルゴリズムを改良する方法を発表した。分類器は4つの人種グループ(アジア系、黒人、ヒスパニック、白人)と、2つのジェンダーグループに分けて訓練された。
この手法は、フェイシズ・オブ・ザ・ワールド(FotW:Faces of the World)を使ったテストで約91%という精度で笑顔を検出した。FotWはWebから収集した人の顔の画像1万3000枚のデータセットで、この種のアルゴリズムのベンチマークによく使われる。今回のテスト結果は前回を1.5%程度上回った。テスト結果の総合的な向上により、「人種的な偏見がない」という抽象的な目標でアルゴリズムを構築するよりも、具体的に人種やジェンダーに注目したほうが良い結果が得られることが示された。
システムに人種とジェンダーの明確な類別があることで偏見を助長してしまう(あるいは少なくともそのことで非難される)可能性を憂慮して、こうした分類器を取り入れることに消極的な研究者は多い。しかし、グーグルの研究チームによる今回の研究結果は、人種やジェンダーの分類器を訓練する取り組みが、実際には偏見の緩和に役立つと実証している。また研究チームは、無意識の社会的偏見を可能な限り排除するため、「ジェンダー1」「ジェンダー2」といった分類をした。
有望な研究成果を挙げ、あらゆる種類の偏見へ配慮したにも関わらず、研究者は論文に「倫理的配慮」の項を設け、この研究は「人種およびジェンダーの識別を最終目的とするものではない」と明記した。また、人種を分類する「絶対的基準」は存在しないとし、ジェンダーについても、男性・女性といった二者択一ではなく、今後の研究では男性と女性の間を連続する範囲として捉えていくべきであろうと述べている。