
人工知能から差別や偏見を排除できるのか?
米国では被告人を仮釈放すべきかどうか、裁判官に助言するソフトウェアが使われている。ローンの審査や人材採用に人工知能を活用する企業もある。こうした人生を左右する決定に使われるコンピューターから、差別や偏見を排除できるのだろうか? ハーバード大学のコンピュータ科学者であるシンシア・ドゥーワーク教授は、人工知能が公平に判断していることを確認する方法を開発している。 by MIT Technology Review Editors2017.10.26
アルゴリズム設計者やデータ・サイエンティストが、偏見や不公平について説明するのはなぜ難しいのでしょうか?
女性が働きにくい職場環境を例に考えてみましょう。「成功」の定義を、2〜3年間働き続けて昇進することと仮定します。過去のデータに基づいて予測すれば、女性を雇用するのはよい考えではない、となるでしょう。ここで重要なのは、歴史的な採用判断について話しているわけではないということです。たとえ採用基準から偏見を完全に払拭したとしても、現実として女性が働きにくい職場環境には相変わらず差別はあり続けるのです。より深い部分にある、構造的で、根深く、克服するのが困難な問題なのです。
私は機械学習と人工知能(AI)が誰と誰を対等に扱うべきかを判断するために、歴史や社会学、心理学の教養を持つ真の知識人と連携することが非常に役に立つと考えています。
コンピューターができないというのではなく、今はできないというのが私の意見です。AIが正しいモデルを身につけられるのはいつか。そのモデルが社会で現実に起きていることを反映できるようになるのはいつか。あなたが何の話をしているのか理解する必要があるのです。「すべてのモデルは間違っているが、中には役に立つモデルもある」という有名な言葉があります。
(聞き手:MITテクノロジーレビュー AI担当上級編集者 ウィル・ナイト)
- 人気の記事ランキング
-
- What is vibe coding, exactly? バイブコーディングとは何か? AIに「委ねる」プログラミング新手法
- A Google Gemini model now has a “dial” to adjust how much it reasons 推論モデルは「考えすぎ」、グーグルがGeminiに調整機能
- Meet the researchers testing the “Armageddon” approach to asteroid defense 惑星防衛の最終戦略 科学者たちが探る 「核爆発」研究の舞台裏
- Anthropic can now track the bizarre inner workings of a large language model 大規模言語モデルは内部で 何をやっているのか? 覗いて分かった奇妙な回路