「AIにいかにして倫理的な判断をさせるのか?」に対する1つの答え
コンピューター・アルゴリズムが人々の人生や命にかかわる機会が多くなるにつれて、倫理的に難しい問題をアルゴリズムでどう対処すべきかという問題が深刻になっている。アルゴリズムは元々、単一の数学的な目標を達成するために作られたものだが、人間というものは往々にして矛盾した存在であり、複数の相容れないものを手に入れようとするからだ。 by Karen Hao2019.01.30
アルゴリズムが倫理的判断を下す目的で利用されるのが増えてきている。おそらくその一番良い例は、あるハイテク企業の倫理的ジレンマへの取り組みだろう。この問題は「トロッコ問題(Aを助けるためにBを犠牲してもよいのかという倫理学の思考実験)」として知られている。たとえば、自律運転車が2人の歩行者のどちらかを死亡させることが避けられない状況に陥った場合、その車の制御ソフトウェアはどちらの人間を生かし、どちらを死亡させると判断すべきか?
実際には、このような難問が現実世界で自律運転車に降りかかることはあまりないだろう。しかし、すでに世に出回っている、あるいは間も無く出回るであろう他の多くのシステムは、今後あらゆる類の倫理的トレードオフを考慮せざるを得なくなる。刑事裁判で用いられている評価ツールは、社会へのリスクと被告個人に及ぶ危害とを比較検討する必要があるし、自律兵器は兵士の命と一般市民の命とを天秤にかける必要がある。
問題は、アルゴリズムはその様な非常に難しい選択を扱うようには設計されていないことだ。アルゴリズムは一つの数学的目標を達成するために作られており、たとえば、救うことのできる兵士数の最大化や一般市民の死傷者数の最小化などを目標とする。したがって、複数の、しかも利害の対立するような対象を扱おうとしたり、「自由」とか「福祉」といった実体のないものを説明しようとすると、満足のいく数学的解決法が常に見つかるとは限らない。
人工知能(AI)の利用を研究する非営利団体「パートナーシップ・オンAI(Partnership on AI)」で研究部長を務めるピーター・エッカースリー博士は、「人間は複数の相容れないものを手に入れようとします」という。エッカースリー博士は最近、この問題を考察する論文を発表した。「いちかばちかの状況はたくさんあります。そうした状況においては、単一の客観的機能の中で倫理観を反映するようにプログラムすることは現実的に不適切であり、危険ですらあるのです」。
こうした解決法のないジレンマは、アルゴリズムに限った話ではない。倫理研究家 …
- 人気の記事ランキング
-
- These AI Minecraft characters did weirdly human stuff all on their own マイクラ内に「AI文明」、 1000体のエージェントが 仕事、宗教、税制まで作った
- Google’s new Project Astra could be generative AI’s killer app 世界を驚かせたグーグルの「アストラ」、生成AIのキラーアプリとなるか
- Bringing the lofty ideas of pure math down to earth 崇高な理念を現実へ、 物理学者が学び直して感じた 「数学」を学ぶ意義
- We saw a demo of the new AI system powering Anduril’s vision for war オープンAIと手を組んだ 防衛スタートアップが目指す 「戦争のアップデート」