
ロンドン警察の顔認識システム、8割が「誤り」=初の第三者評価で
ロンドン警視庁のおける顔認識システムの使用に関して、第三者による初の評価が実施された。評価グループは、もし訴訟に持ち込まれた場合、この顔認識システムは違法と判断される可能性が高いと警告している。
ロンドン警視庁は2016年以来、日本企業であるNECの「ネオフェイス(NeoFace)」システムを使って、顔認識技術の実験を10回実施してきた。ロンドン警視庁がエセックス大学の研究グループに第三者評価を依頼したところ、同グループは81%の確率で「不正確」であるとの結論を出した(別の言い方をすると、怪しい人物だと認識された人のほとんどは、指名手配リストに載っていない犯罪歴の無い人ということだ)。このシステムが犯罪者と認識した42人のうち、正しかったのはわずか8人だったと スカイニュース(Sky News)が伝えている。
ロンドン警視庁は、ネオフェイスの技術は1000回に1回しか誤認識が発生しないと反論している。しかし、その具体的にどのようにしてこの数字を導いたのかは公表していない。
顔認識技術が普及するにつれ、多くのシステムに組み込まれている性別および人種へのバイアスに対する懸念が高まっている。これら(およびその他の懸念)を念頭に置き、サンフランシスコは先月、公的機関による顔認識システムの使用を禁止した。もちろん、民間での顔認識システムの使用を制限することはできないが、少なくとも市民を逮捕する権限を持つ当局が、不正確な顔認識システムを乱用することは防げるかもしれない。
