人工知能(AI)や、AIをAIたらしめる中核要素とは、与えられた目標を達成する方法を見つけることにあります。しかし、目標を達成する過程については不透明な部分が多く見られます。もし、機械に無意識の先入観が組み込まれていて、だれもそれに気が付かなったとしたら、実は女性にとって不利な結果が出る可能性があるのです。しかも、そのような結果が出た理由を正確に知ることですら非常に困難なのです。
従来のテクノロジーでは、原因を追及することは容易です。例えば、自動車事故の死亡率は女性の方が高いですが、それは衝突試験で使われるダミー人形が、女性よりも男性に近い形状だったからです。AIにおいても、医薬品の治験や自動運転車などの分野で生死にかかわる問題が起きる可能性があります。
AIの性的偏向については、現時点でも事例があります。 グーグル広告では、高報酬の求人広告は女性よりも男性に多く提示されています。ほかにも同様の状況を想定することができます。女性の方がお金や住宅ローンを借りたり、保険に入るのが難しかったすることもあるのではないでしょうか?
私はAIについて、悲観的な未来を思い描いているわけではありません。殺人ロボットが作られることなどは想定していません。もっと狭い範囲での応用について考えています。その狭い応用例をつぶさに見ていくと、女性へのマイナスの影響に行き当たると思います。これはAIの問題ではなく、別の原因から生まれているのです。開発中の機械に、人間の無意識の性的偏見や人種差別が浸透してしまうリスクについて考えているのです。
AIの開発に携わる人たちに、このような問題を認識してもらうにはどうすればいいのでしょうか? まずは利用者の側が、倫理的なAIを求めていくことが必要です。単なる性の問題として捉えている人も大勢いますが、偏った先入観を持ったAIが生まれてしまうことは、根幹に関わる問題なのです。
(聞き手:レイチェル・メッツ=MITテクノロジーレビュー モバイル担当上級編集者)