人工知能(AI)は、私たちの日常生活の中にますます溶け込みつつある。Web検索からソーシャルメディア、アレクサ(Alexa)のような家庭内アシスタントまで、いたるところに存在しているのだ。だが、もし、この非常に重要なテクノロジーの根底に意図せずバイアスが含まれているとしたらどうだろうか? そして、この非常に重要な分野に黒人研究者がいないとしたら? ティムニット・ゲブルは、昨年夏にマイクロソフトのFATE(Fairness:公平性、Accountability:説明責任、Transparency:透明性、Ethics:倫理)グループに加わり、この問題に取り組んでいる。
ゲブルはまた、2017年の神経情報処理システム(NIPS)カンファレンスにおけるイベント「ブラック・イン・AI(Black in AI)」の共同開催者であり、今月開催される初の「公平性と透明性」カンファレンスの運営委員でもある。ゲブルは、バイアスがいかにAIシステムに入り込んでいるか、そして多様性がそれをどう阻止できるかについて、MITテクノロジーレビューに語ってくれた。
——多様性の欠如によって、AI、とりわけコンピューター・ビジョンはどのように歪められているのでしょうか?
この問題について語り始めたら1年は話し続けられます。何を重要と考えるか、どのような研究が重要と考えるか、そしてAIのこの先がどうあるべきかという問題でバイアスが生じています。研究者に多様性が欠けていては、世界中の大部分の人々が直面している問題に対処することはできません。私たちは、自分に影響のない問題を重要だとは考えません。そうした問題があることすら気づかない可能性もあります。なぜなら、それらの問題を経験している人々との交流がないからです。
——システムにおけるバイアスを阻止する方法はあるのでしょうか?
AIに多様性がとても重要である理由は(それはデータセットについてだけでなく研究者の多様性も含めてですが)、社会的な感覚を持った人が必要だからです。私たちは、AIにおける多様性の危機に瀕しています。技術についての話や、法に関する話、倫理についての話だけではなくて、AIにおける多様性についても話し合う必要があります。AIにはあらゆる種類の多様性が必要なんです。そして、これは特に緊急の問題として扱う必要があります。
技術的な観点からいえば、さまざまなアプローチがあります。その1つとして、データセットを多様化させ、データセットに人種や性別、年齢といったさまざまな注釈をつけることがあります。モデルの訓練が終わったら、それをテストして、さまざまな下位グループの間でそれがうまく行くかどうかを確かめます。ただ、たとえそうしたとしても、データセットの中にはある種のバイアスが含 …