マサチューセッツ工科大学(MIT)のニール・シャビット教授が会社を立ち上げるきっかけとなった発見に至る過程は、ほとんどの発見の場合と同じく「偶然」だった。シャビット教授は、マウスの脳マップを再配置するプロジェクトに取り組んでおり、深層学習の助けを必要としていた。しかし、深層学習モデルで一般に選択されるハードウェアであるグラフィックスカード、すなわちGPUのプログラミング方法を知らなかった。そこでGPUの代わりに、どこにでもある普通のノートパソコンで使われている汎用のコンピューターチップである中央処理装置、すなわちCPUを使うことにした。
「驚いたことに、正しい方法でプログラミングすれば、CPUでもGPUと同じことができることが分かりました」。シャビット教授は振り返る。
このひらめきが、6月18日に初の製品群を発売したシャビット教授のスタートアップ企業、ニューラル・マジック(Neural Magic)の基礎をなしている。どんな企業でも専用のハードウェアなしに深層学習モデルを展開できるようにするのがシャビット教授の狙いだ。この考え方には、深層学習のコストを下げるだけでなく、人工知能(AI)を広く普及させる効果もある。
「より多くの機械、しかもより多くの『既存の』機械でニューラル・ネットワークを使用できるようになるわけです」。MITコンピューター科学・人工知能研究所(CSAIL)の研究科学者であるニール・トンプソン博士は言う(トンプソン博士はニューラル・マジックには関与していない)。「特別な装置にアップグレードする必要はありません」。
GPUが深層学習で選択されるハードウェアになったのは、ほぼ偶然の成り行きだった。GPUチップは当初、ビデオゲームなどのアプリケーションでグラフィックスをすばやくレンダリングするために設計された。多様な計算を実行するための4~8個の複雑なコアから構成されるCPUと異なり、GPUは特定の演算しか実行できない数百個の単純なコアから構成される。だが、これらのコアは演算を逐次実行ではなく並列実行できるため、集約型の計算を完了するまでの時間を短縮できる。
この大規模な並列処理に特化したGPUが深層学習に適していることにAI研究コミュニティが気づくまで時間はかからなかった。グラフィックスのレンダリングと同様に、深層学習では単純な数学的計算を何十万回も実行する。2011年、グーグルは、チップメーカーのエヌビディア(Nvidia)との共同研究で、2000個のCPUで …