半導体チップ・メーカーのエヌビディア(Nvidia)は、どのような仕組みで動いているのかがわかる自動運転の人工知能(AI)システムを開発している。
最近のカバーストーリー、「人類に残された、AIを信用しない、使わない、という選択肢」で説明したように、最も強力な機械学習手法で作られたソフトウェアは、多くの場合、なぜそう判断したのかを本質的に説明できず、開発したエンジニア自身にさえもわからない。AIは今後、医学から製造業にいたるまであらゆる分野に革命的な変化をもたらす可能性のあるテクノロジーだ。AIがどのような仕組みで動いているのかを調べる取り組みは、テクノロジーの信頼を築き上げるという点で非常に重要になるだろう。
エヌビディアが提供する半導体チップは深層学習に適しており、とりわけ強力な機械学習手法に最適だ。(「10 Breakthrough Technologies 2013: Deep Learning」参照)。
エヌビディアは、自動車メーカーが深層学習を自律運転にどのように適用できるのかを実証するためのシステムも開発している。このシステムには、深層学習のアルゴリズムだけで制御する自動車も含まれている。驚くことに、この自動車のコンピューターには、運転を制御するためのルールが一切与えられていない。複数のビデオカメラや人間のドライバーの行動などの入力情報に基づいて、どう運転すべきかを自動的に判断する。唯一の難点は、システムが複雑すぎるので、実際にどういう仕組みで動いているのかを解明するのが難しいことだ。
それでもエヌビディアは、ブラックボックスの中身を解明しようと研究に取り組んでいる。ニューラル・ネットワークが何に注意を払っているのかを、視覚的に強調する方法を開発しているのだ。最近の論文によると、エヌビディアの研究者が開発した深層ニューラル・ネットワークは、自動車の振る舞いに強い影響を与えているビデオ映像の箇所を強調する仕組みを備えている。実験の結果は驚くものだった。ニューラル・ネットワークは、道路の端側や車線区分、停車中の自動車など、良識のあるドライバーが注意を払うのとほとんど同じ箇所に焦点を合わせていたのである。
エヌビディア自動運転車部門のアース・ミュラー設計主任はブログの投稿記事で、「この実験で革新的なのは、ビデオ映像のどこに注意すればよいのかという情報を、私たちがコンピュータに直接与えなくても、ニューラル・ネットワークが取得していることを明らかにした点です」と述べている。
エヌビディアの実験でニューラル・ネットワークが判断する仕組みが完全に明らかになったわけではないが、出発点としては上出来だ。ミュラー設計主任は、「私たちは自動車にしてほしいことを完全に説明することはできませんが、示すことはできます。そして今では、自動車が何を学習したのかを教えてくれるのです」という。
こうした取り組みは、これからますます重要性を増すだろう。なぜなら深層学習は、医学や金融、軍事などの重要な分野をはじめとする、膨大なデータを扱うあらゆる問題に適用されようとしているからだ。
深層学習に関わるこうした問題に取り組んでいる研究者は、ほかにも何人かいる。たとえば、ワイオミング大学のジェフ・クルーン助教、ワシントン大学のカルロス・ゲストリン准教授とアップルは、分類システムが認識する画像の各箇所を強調する手法を見つけた。マサチューセッツ工科大学(MIT)のトーミ・ジャコラ教授とレジーナ・バージレイ教授は、膨大な量の手書きデータから結論を導き出す際に、なぜそのような結論を出したのかを説明できるようなテキストの断片を併せて提供する手法を開発している。
アメリカ軍向けに長期の研究を手がける米国国防先端研究計画局(DARPA)は、説明可能なAI(Explainable Artificial Intelligence、XAI)と呼ばれるプログラムを通して、似たような研究活動に資金を投じている。
AIの技術的な仕様だけに注目するのではなく、人間の知能と比較して考えてみるのも面白い。人間の取るさまざまな行動は完全には説明できない。説明できたとしても、大雑把であったり、起こっていることについての「作り話」に過ぎなかったりする場合が多い。複雑さを増す現在の機械学習手法の不透明さを前に、AIからの似たような説明を、受け入れざるを得なくなる日が来るのかもしれない。
(関連記事:エヌビディア、「人類に残された、AIを信用しない、使わない、という選択肢」「結論しか出さない機械学習システムでは使い物にならない」)