人工知能(AI)がバイアスを持つ問題についてはよく知られている。人種や性別に関しては特にそうだ。黒人女性を正しく認識できない顔認識システムや、 女性だというだけで候補者をはじいてしまう自動求人システムなどについて報じた記事を見たことがあるのではないだろうか?
研究者らがこうした重大な問題の解決に取り組む一方で、ずっと見落とされてきたグループがある。それは障がいを持つ人々だ。たとえば、自動運転車のアルゴリズムは、歩行者がどのように見えるかを学ぶためのデータを使って訓練することで、歩行者にぶつからないように設計されている。もし車いすに乗った人々の情報が訓練用データに入っていなければ、そうした人々は自動運転車によって生命の危険に晒されてしまう。
IBMのアクセシビリティ・リーダーシップチームの シャリー・トレウィン研究員にとってこのような状態は、許せないことだ。トレウィンは新しいイニシアチブの一環として、機械が障がいを持つ人々を差別するのを軽減するための新しい設計プロセスと技術的手法を研究している 。トレウィン研究員が現在におけるいくつかの課題と解決策について語ってくれた。
#
——障がいを持つ人々に対する公平性の問題が、人種や性別などといった他の保護すべき属性に対する公平性と異なるのはなぜですか?
障がいの状態が人々に与える影響は、はるかに多様で複雑です。人種や性別は、多くのシステム上で、取り得る値の数が少ない単純な変数としてモデル化されます。しかし、障がいの場合は、非常に多くの異なる形態や重症度が存在します。また、障がいといっても一時的なものから長期間続くものまであります。一生の間に障がい者の範囲から出たり入ったりすることもあります。動的に変化する問題なのです。
現在、米国の5人に1人は、何らかの障害を持っています。障がいを持つ人々はいたるところに存在しているので、限られた数の許容値を持つ一つの変数として固定するのは至難の業なのです。たとえば、目の不自由な人を区別できるシステムはあるかもしれませんが、耳の不自由な人の区別は難しいといったように、公平性のテストは非常に難しいのです。
障がいについての情報は、非常にセンシティブでもあります。人々は、性別や年齢に比べると、自分の持つ障がいについて明かすことに非常に慎重になります。さらには、障がいに関して尋ねること自体が違法な場合 …
- 人気の記事ランキング
-
- Bringing the lofty ideas of pure math down to earth 崇高な理念を現実へ、 物理学者が学び直して感じた 「数学」を学ぶ意義
- Google’s new Project Astra could be generative AI’s killer app 世界を驚かせたグーグルの「アストラ」、生成AIのキラーアプリとなるか
- These AI Minecraft characters did weirdly human stuff all on their own マイクラ内に「AI文明」、 1000体のエージェントが 仕事、宗教、税制まで作った
- AI’s search for more energy is growing more urgent 生成AIの隠れた代償、激増するデータセンターの環境負荷