人工知能(AI)が爆発的に発展し、人々は、AIが世界の最も困難な問題の多くを解決する助けになるのではないかと期待するようになった。しかし、AIの力については多大な懸念もあり、AIを使用することで人々の権利が侵害されないようにガイドラインを定めるべきだという見解がますます広がりつつある。
これまでに多くのグループが、AIをどのように開発して運用すべきかという倫理ガイドラインについて議論し、提案してきた。工学分野の世界的な専門家組織であるIEEE(アイ・トリプル・イー)は、このテーマで280ページに及ぶ資料を発行しており(私も寄稿した)、欧州連合は独自の枠組みを発表した。「AI倫理ガイドライン・グローバル・インベントリー(世界目録)」は、世界中から160以上のそうしたガイドラインを収集したものである。
残念なことに、こうしたガイドラインのほとんどは主に北米やヨーロッパに集中するグループや団体が作ったものだ。社会科学者のアンナ・ジョバン博士と同僚が発表した調査によれば、米国が21件、欧州連合が19件、英国が13件、日本が4件、アラブ首長国連邦、インド、シンガポール、韓国がそれぞれ1件となっている。
ガイドラインには、それを定めた人々の価値観が反映されている。そして、AI倫理についてのガイドラインのほとんどが西欧諸国で書かれている。つまり、AI倫理は、自主性の尊重や個人の権利といった西欧の価値基準に支配されていることになる。他の国々で発行されている数少ないガイドラインも、ほとんどが西欧のガイドラインを参考にしているのでなおさらだ。
ある種の価値観は確かに普遍的であるため、異なる国で書かれたガイドラインが似通っている可能性はあるだろう。しかし、ガイドラインに非西洋諸国の人々の観点を真に反映させるには、それぞれの文化で見られる伝統的な価値体系もガイドラインに反映させる必要がある。
東洋と西洋の人々は、考えを共有し、他方の考え方を熟考するこ …