犯罪予測システムのバイアス、訓練データ変更でも改善効果なし
米国の警察で採用されている犯罪予測システムの人種的偏見は、訓練データの変更で是正できると考えられてきた。だが、バイアスが少ないと見られるデータを用いても、ほぼ改善効果がないことが明らかになった。 by Will Douglas Heaven2021.02.25
警察が使う予測捜査ツールに人種的偏見があることはすでによく知られている。これまでの研究によって、逮捕記録のような警察データを基にしてアルゴリズムを訓練すると、人種差別的なフィードバック・ループが生まれる可能性が示されてきた。だが、新たな研究では、バイアス(偏り)を減らす方法で予測ツールをトレーニングしても、効果がほとんどないことが明らかになった。
逮捕データによって予測ツールにバイアスが掛かるのは、警察が黒人やその他の人種的少数派を頻繁に逮捕しているからだ。それによってアルゴリズムはそうした人々が多く住む地域を重点的に捜査するよう指示を出し、それがさらなる逮捕へと繋がっている。その結果、予測ツールは警察がパトロールする地域を誤ったまま振り分けており、一部地域は不当に犯罪の温床として指定される一方、パトロール不足の地域が生まれている。
予測捜査ツールの開発企業は、各地域の犯罪率をより正確に把握するために被害届のデータを使い始めていると説明する。理論上、被害届は警察による偏見やフィードバック・ループの影響を受けないため、バイアスが減るはずだ。
だが、カーネギーメロン大学のアレクサンドラ・チョルデチョワ助教授と博士課程生のニル・ジャナ・アクピナールは、被害届から得られる情報も歪曲していることを明らかにした。アクピナールとチョルデチョワ助教授は「プレッドポル(PredPol)」など、米国で主流の著名な犯罪予測ツールが採用しているモデルを用いて、独自の予測アルゴリズムを構築。このモデルをコロンビアの首都ボゴタの被害届データを基に訓練した。ボゴタは、地区レベルで個別の通報データを利用できる数少ない都市のひとつである。
アクピナールとチョルデチョワ助教授はこのツール …
- 人気の記事ランキング
-
- AI reasoning models can cheat to win chess games 最新AIモデル、勝つためなら手段選ばず チェス対局で明らかに
- OpenAI just released GPT-4.5 and says it is its biggest and best chat model yet 限界説に挑むオープンAI、最後の非推論モデル「GPT-4.5」
- Your boss is watching 機械化する人間たち—— 「見えない目」が変える 職場の風景
- Welcome to robot city アンデルセンの故郷、 ロボット産業の中心地に デンマーク小都市の成功物語