今、AIに求められる「非常時のための倫理」とは何か?
人工知能(AI)は人命を救えるのか? パンデミックによって真剣に議論されるようになった。ケンブリッジ大学のウィットルストーン上級研究員は、AIを危機対応に活用するなら「非常時のための倫理」が必要になると主張している。 by Will Douglas Heaven2020.06.29
ケンブリッジ大学リバーヒューム未来知能センターのジェス・ウィットルストーン上級研究員は6月22日、ネイチャー・マシン・インテリジェンス誌に論評記事を発表した。記事では、今後、人工知能(AI)を危機対応に活用するのであれば、ウィットルストーン研究員らが「非常時のための倫理」と呼ぶところの、新しく迅速なAI倫理の実践法が必要になるとの持論が展開されている。
ウィットルストーン研究員にとって非常時のための倫理とは、問題が実際に発生する前に予期しておくこと、AIシステムに安全性と信頼性を組みこむためのより良い方法を探ること、そしてAIテクノロジーの開発と使用に関するあらゆる段階で技術的専門知識を重視することを意味する。これらの推奨事項の中核にあるのは、倫理はアドオンや後付けの要素というよりも、単純に、AIが作られ、利用される方法の一部になる必要があるという考えだ。
つまるところ、AIに最初から倫理が組み込まれていれば、必要とされる時にすばやく展開できるというのが、ウィットルストーン研究員の主張だ。その意味するところについて、詳しく話を聞いた。
※以下のインタビューは、発言の趣旨を明確にするため、要約・編集されている。
◆◆◆
——AIのための新しい倫理が必要というのは、なぜなのでしょうか?
今回の新型コロナウイルス感染症(COVID-19)のパンデミックによって、突然、AIは役に立つのか、人の命を救えるのかということが本気で議論される状況になりました。ですが、危機が生じたことで、我々はAIを安全に配備するための十分な堅牢さを有する倫理手順を持っておらず、少なくとも迅速に実装できるようなものは無いことが明白になりました。
——私たちがすでに持っている倫理は何が問題だと思いますか?
私はこの2年間、AI倫理のイニシアチブを再検討し、その限界を調べ、他に何が必要かを考えてきました。 生物医学といった分野の倫理と比較すると、我々がAIに関して持っている倫理はあまり実用的ではありません。上位原則にばかり焦点を当て過ぎているのです。AIは良いことのために使用されるべきということには、全員が同意できるでしょう。 しかし、「良いこと」とは一体何を意味するのでしょうか? 上位の原則同士が衝突する場合にはどうなるのでしょう?
例えば、AIは人命を救う可能性を持っていますが、そのためにはプライバシーなどの自由権を犠牲にしなければなりません。このようなトレードオフの問題に対して、それぞれ異なる大勢の人々に受け入れられる形で対処するにはどうしたらいいのでしょう? 意見衝突は避けられませんが、それを解決する方法はまだ見つかっていないのです。
また、AI倫理は新たな問題を予測するよりも、既存の問題に対処しがちです。アルゴリズムが内包する偏見を巡って現在議論されている課題の大半 …
- 人気の記事ランキング
-
- How ChatGPT search paves the way for AI agents 脱チャットGPTへ、オープンAIが強化するプラットフォーム戦略
- Promotion NIHONBASHI SPACE WEEK 2024 アジア最大級の宇宙ビジネスイベント、東京・日本橋でまもなく開催
- Promotion Innovators Under 35 Japan Summit 2024 in Nihonbashi 2024年のイノベーターが集結「U35 Summit」参加者募集中
- This AI-generated Minecraft may represent the future of real-time video generation AIがリアルタイムで作り出す、驚きのマイクラ風生成動画
- The winners of Innovators under 35 Japan 2024 have been announced MITTRが選ぶ、 日本発U35イノベーター 2024年版
- Inside a fusion energy facility 2026年の稼働目指す、コモンウェルスの核融合施設へ行ってみた