人工知能(AI)が社会において非常に大きな役割を果たすようになるにつれて、説明責任の問題が浮上してくる。重要な決定を下す際に機械に頼ることが増えれば、機械の出した結果が受け入れ難かったり、理解できなかったりした場合に、直す仕組みが必要だ。
しかし、AIシステムに自らの決定について説明させることは単純ではない。問題の1つは、説明にコストがかかるということだ。説明のためには、AIシステムの開発と実際に質問する方法の両方において、かなりのリソースを必要とする。
もう1つの問題は、AIシステムの内部動作を開発者に公開させることによって、企か業秘密を明かしてしまう可能性があることだ。しかも、AIシステムの利点の1つは、人間には理解できない方法で複雑なデータの意味を理解できることにある。したがって、人間が理解できかるように説明することは、パフォーマンスの低下につながるかもしれない。
それでは、どうすればイノベーションを妨げることなく、AIの決定に対してAI自身に説明責任を負わせることできるのだろうか。
マサチューセッツ州ケンブリッジにあるハーバード大学のフィナーレ・ドシ・ヴェレズ助教授とメイソン・コルツ博士らのチームの研究が、1つの答えになる。コンピュータ科学者、認知科学者、法学者から成る同チームは協力して、AIシステムが提起する法的問題を調査し、重要な問題を特定し、可能性のある解決策を提案した。「法制度における説明、AIシステムの作成、人間の論理的思考が有する能力と制約に関する専門家集団です」とドシ・ヴェレズ助教授たちは言う。
チームは「説明」を定義することから始めた。「決定に対する説明とは一般的に、意思決定プロセスを説明することではなく、特定の決定を下した理由または正当性を意味します」。
この区別は重要だ。AIシステムがどのように決定を下すかを説明することは、重力の働き方やケーキの焼き方を説明できるというのと同じ意味で可能だとドシ・ヴェレズ助教授のチームは指摘する。特定の落下する物体やケーキについては言及せずに、システムが従う規則を公開すればいいのだ。
これこそ …