AI採用ツールは不公平、米人権擁護団体が当局へ調査要請
人権擁護団体「電子プライバシー情報センター(EPIC:Electronic Privacy Information Center)」は、人工知能(AI)技術を使った企業向け採用支援ツール「ハイアービュー(HireVue)」の調査を米国連邦取引委員会(FTC)に求めている。
ハイアービューは、企業が採用応募者を評価する際に利用するAIツールの1つ。面接の映像を言葉の選択から顔の動きまでを事細かに分析し、結果を他の応募者と比較した「採用可能性スコア」を算出するものだ。ワシントンポスト紙によると、すでに100社以上の企業が100万人以上の応募者に対して使っているという。
何が問題なのだろうか? 顔の表情といったようなものから、採用の合否を予測するのは難しい上に、批評家が懸念しているのは、アルゴリズムが限られたデータで訓練されているため、白人や男性などのいわゆる「伝統的な」応募者を選ぶ可能性がより高くなることだ。その結果、英語が母国語ではない人や身体に障害がある人など、「伝統」から逸脱している応募者は、採用可能性スコアが下がる可能性が高いと専門家は述べている。
AI雇用ツールは十分に規制されておらず、こうした問題への対処は、以下に挙げる理由から難しそうだ。
まず、ほとんどの企業は、自社データを公開したり、アルゴリズムの仕組みを説明したりしないであろうから、何らかのバイアスがあることを証明することは非常に困難だ。このことは、これまでに大きな訴訟がなかった理由の1つである。だが、今回のEPICの苦情申し立てが皮切りとなる。EPICは、ハイアービューが約束している結果が、FTCの「不公平で欺瞞的な」行為に対する規則に違反していると指摘している。とはいえ、今後何らかの対応が取られるのかどうかは不透明だ。 FTCは苦情を受理したものの、追求するかどうかは明言していない。
次に、採用時のバイアスを防止するその他の試みは、意義はあるものの限定的だ。 イリノイ州議会が企業に対し、少なくとも応募者にこのようなアルゴリズムを使用することを伝え、同意を得るよう求める法案を可決したが、あまり有効な対策になっていない。応募者の多くは、ただ単にチャンスを逃したくないという理由だけで同意する可能性があるからだ。
最後に、医療におけるAIや法廷におけるAIの活用と同様、雇用におけるAIの活用は、複雑な問題である社会的なバイアスを再び生み出すであろう。偏った社会という過ちを回避する上でも、規制当局は、企業がどれだけの責任を負うべきなのか、見極めていく必要があるだろう。