この記事は、2023年10月31日に刊行されたジョイ・ブオラムウィニの新刊『Unmasking AI: My Mission to Protect What Is Human in a World of Machines(AI の仮面を剥ぐ: 機械の世界で人間らしさを守ることが私の使命)』(未邦訳)からの抜粋である。原文に若干の編集を加えている。
(人類絶滅を意味する)「Xリスク」という言葉は、AIがもたらす仮定的な実存的リスクの略語として使われている。私の研究は、AIシステムを兵器システムに組み込むのは、人を死に至らしめる危険性があるため、するべきでないとの考えを支持するものだが、これはAIシステム自体が超知能的主体として実存的リスクをもたらすと考えているからではない。
AIシステムが個人を犯罪容疑者として誤って分類したり、ロボットが取り締まりに使われたり、欠陥がある歩行者追跡システムを搭載した自動運転車が走ったりすることは、既に人の命を危険にさらしている可能性がある。悲しいことに、個人の生命に致命的な結果をもたらすためには、AIシステムが超知性を持つ必要はない。現実に被害をもたらしている既存のAIシステムは、現実のものなのだから、仮定の「知覚を持つ」AIシステムよりも危険だ。
仮定の実存的リスクの被害の方が重大だと言って、既存のAIの被害を最小化することの1つの問題は、貴重なリソースや法制化に向けた注目の流れを変えてしまうことだ。AIによる実存的リスクを恐れていると主張する企業は、人類を滅亡させる可能性があると主張するAIツールをリリースしないことで、人類を守ることへの真のコミットメントを示せるかもしれない。 …