ニューヨーク市警察は過去6年の間に、犯罪組織に関与していると考えられる少なくとも1万7500人の個人名と個人情報を含む大規模なデータベースを作成した。そうした取り組みに対して人権活動家は、データが不正確であり、人種差別的であるとして批判している。
「顔認識テクノロジーが、理論上、あなたが犯罪組織に入っていると仮定しているデータベースが結び付くとどうなるか、想像してみてください」。全米黒人地位向上協会(NAACP)弁護支援・教育基金のシェリリン・イフィル会長兼代表執行役員法律顧問は、10月16日にニューヨークで開催されたニューヨーク大学AIナウ研究所(AI Now Institute)主催の「AIナウ2018 シンポジウム」でこう語った。
弁護士や活動家、研究者らは、人工知能(AI)システムの設計と実装における倫理と説明責任の必要性を強調する。だがこの際に、ややこしい問題がいくつか置いてけぼりにされることも少なくない。つまり、誰が倫理を定義し、与えるべきなのか、ということだ。
顔認識は不完全なだけではなく、黒人や女性に対してはそれほど精度が高くないことが主要ソフトウェアを対象とした研究によって明らかにされている。イフィル会長の推定では、ニューヨーク市警察のデータベースに登録された人の95%から99%がアフリカ系、ラテン系、アジア系であるという。「犯罪者という焼き印を押された(中略) 人たちという階級を生み出している、と言っているのです」(イフィル会長)。
その一方で、米国や英国、中国の警察 …