国際機関や国際企業が、人工知能(AI)の倫理的使用に関するグローバル・ガイドラインを競って作成している。インターネット上にはこうしたガイドラインの宣言、声明、勧告が溢れている。だが、AIが運用される場所の文化的、地域的な背景を考慮しなければ、こうした取り組みは無駄になるだろう。
AIシステムは少数の特権階級の人々に恩恵を与える一方で、社会から取り残された人々に不平等な影響を及ぼすという問題を引き起こすことが繰り返し示されている。グローバルな規模で現在進行中のAI倫理対策(その数は数十件に上る)は、AI技術から誰もが恩恵を受けられるようにし、害を受けるのを防ぐことを目的としている。一般的に、こうした取り組みでは、開発者、資金提供者、規制当局が従うべきガイドラインと原則を作成する。例えば、定期的な内部監査を推奨したり、ユーザーの個人特定につながる情報の保護を義務化したりするといった具合だ。
このような団体は善意で、価値のある仕事をしているはずだ。事実、AIコミュニティは、倫理的AIに関する一連の国際的な定義と概念について合意すべきである。しかし、地理的な多様性についてもっと考慮しなければ、グローバルなAI倫理のビジョンは、世界のほんの一部(特に北米と北西ヨーロッパ)の人々の視点だけを反映したものになってしまうだろう。
この取り組みは単純でも簡単でもない。「公平性」「プライバシー」そして「バイアス」という言葉は、場所によって異なる意味をもつ。また、人々がこういった概念をどう捉えているかは、その集団がおかれた政治的、社会的、経済的状況によって全く異なる。さらに、AIがもたらす課題やリスクにも地域差がある。
グローバルなAI倫理に取り組む団体がこのことを認識しなければ、控えめに言っても、世界のどの地域においても効力を持たず、無意味な倫理基準を策定してしまうことになりかねない。最悪の場合、そうした欠陥のある基準によって、より多くのAIシステムやAIツールが、既存のバイアスを永続させるという点で地域文化への配慮に欠けたものとなってしまうだろう。
例えば2018年、フェイスブックはミャンマーで広まっていた誤情報になかなか対処しようとせず、結果として人権侵害を招いた。同社の出資による評価報告書によると、フェイスブックのコミュニティ・ガイドラインと不適切コンテンツへの対処(コンテンツ・モデレーション)方針が、この過失の一因に …