マサチューセッツ工科大学(MIT)のニール・シャビット教授が会社を立ち上げるきっかけとなった発見に至る過程は、ほとんどの発見の場合と同じく「偶然」だった。シャビット教授は、マウスの脳マップを再配置するプロジェクトに取り組んでおり、深層学習の助けを必要としていた。しかし、深層学習モデルで一般に選択されるハードウェアであるグラフィックスカード、すなわちGPUのプログラミング方法を知らなかった。そこでGPUの代わりに、どこにでもある普通のノートパソコンで使われている汎用のコンピューターチップである中央処理装置、すなわちCPUを使うことにした。
「驚いたことに、正しい方法でプログラミングすれば、CPUでもGPUと同じことができることが分かりました」。シャビット教授は振り返る。
このひらめきが、6月18日に初の製品群を発売したシャビット教授のスタートアップ企業、ニューラル・マジック(Neural Magic)の基礎をなしている。どんな企業でも専用のハードウェアなしに深層学習モデルを展開できるようにするのがシャビット教授の狙いだ。この考え方には、深層学習のコストを下げるだけでなく、人工知能(AI)を広く普及させる効果もある。
「より多くの機械、しかもより多くの『既存の』機械でニューラル・ネットワークを使用できるようになるわけです」。MITコンピューター科学・人工知能研究所(CSAIL)の研究科学者であるニール・トンプソン博士は言う(トンプソン博士はニューラル・マジックには関与していない)。「特別な装置にアップグレードする必要はありません」。
GPUが深層学習で選択されるハードウェアになったのは、ほぼ偶然の成り行きだった。GPUチップは当初、ビデオゲームなどのアプリケーションでグラフィックスをすばやくレンダリングするために設計された。多様な計算を実行するための4~8個の複雑なコアから構成されるCPUと異なり、GPUは特定の演算しか実行できない数百個の単純なコアから構成される。だが、これらのコアは演算を逐次実行ではなく並列実行できるため、集約型の計算を完了するまでの時間を短縮できる。
この大規模な並列処理に特化したGPUが深層学習に適していることにAI研究コミュニティが気づくまで時間はかからなかった。グラフィックスのレンダリングと同様に、深層学習では単純な数学的計算を何十万回も実行する。2011年、グーグルは、チップメーカーのエヌビディア(Nvidia)との共同研究で、2000個のCPUで …
- 人気の記事ランキング
-
- AI reasoning models can cheat to win chess games 最新AIモデル、勝つためなら手段選ばず チェス対局で明らかに
- Promotion Innovators Under 35 Japan × CROSS U 好評につき第2弾!研究者のキャリアを考える無料イベント【3/14】
- Your boss is watching 機械化する人間たち—— 「見えない目」が変える 職場の風景
- OpenAI just released GPT-4.5 and says it is its biggest and best chat model yet 限界説に挑むオープンAI、最後の非推論モデル「GPT-4.5」
- One option for electric vehicle fires? Let them burn. EV電池火災、どう対応?「燃え尽きるまで待つしかない」と専門家