ケンブリッジ大学リバーヒューム未来知能センターのジェス・ウィットルストーン上級研究員は6月22日、ネイチャー・マシン・インテリジェンス誌に論評記事を発表した。記事では、今後、人工知能(AI)を危機対応に活用するのであれば、ウィットルストーン研究員らが「非常時のための倫理」と呼ぶところの、新しく迅速なAI倫理の実践法が必要になるとの持論が展開されている。
ウィットルストーン研究員にとって非常時のための倫理とは、問題が実際に発生する前に予期しておくこと、AIシステムに安全性と信頼性を組みこむためのより良い方法を探ること、そしてAIテクノロジーの開発と使用に関するあらゆる段階で技術的専門知識を重視することを意味する。これらの推奨事項の中核にあるのは、倫理はアドオンや後付けの要素というよりも、単純に、AIが作られ、利用される方法の一部になる必要があるという考えだ。
つまるところ、AIに最初から倫理が組み込まれていれば、必要とされる時にすばやく展開できるというのが、ウィットルストーン研究員の主張だ。その意味するところについて、詳しく話を聞いた。
※以下のインタビューは、発言の趣旨を明確にするため、要約・編集されている。
◆◆◆
——AIのための新しい倫理が必要というのは、なぜなのでしょうか?
今回の新型コロナウイルス感染症(COVID-19)のパンデミックによって、突然、AIは役に立つのか、人の命を救えるのかということが本気で議論される状況になりました。ですが、危機が生じたことで、我々はAIを安全に配備するための十分な堅牢さを有する倫理手順を持っておらず、少なくとも迅速に実装できるようなものは無いことが明白になりました。
——私たちがすでに持っている倫理は何が問題だと思いますか?
私はこの2年間、AI倫理のイニシアチブを再検討し、その限界を調べ、他に何が必要かを考えてきました。 生物医学といった分野の倫理と比較すると、我々がAIに関して持っている倫理はあまり実用的ではありません。上位原則にばかり焦点を当て過ぎているのです。AIは良いことのために使用されるべきということには、全員が同意できるでしょう。 しかし、「良いこと」とは一体何を意味するのでしょうか? 上位の原則同士が衝突する場合にはどうなるのでしょう?
例えば、AIは人命を救う可能性を持っていますが、そのためにはプライバシーなどの自由権を犠牲にしなければなりません。このようなトレードオフの問題に対して、それぞれ異なる大勢の人々に受け入れられる形で対処するにはどうしたらいいのでしょう? 意見衝突は避けられませんが、それを解決する方法はまだ見つかっていないのです。
また、AI倫理は新たな問題を予測するよりも、既存の問題に対処しがちです。アルゴリズムが内包する偏見を巡って現在議論されている課題の大半 …