フェイスブックの
人工知能専用サーバー
フェイスブック製の最新コンピューターが機械学習研究を加速させる。 by Tom Simonite2016.07.13
北米大陸の西側からFacebookにアクセスすると、データはオレゴン州にある高地砂漠の空気(ネズやセージの香りがする)で冷却されたコンピューターから送信されるはずだ。
人口9000人のプラインビル市にあるデータセンターに、Facebookは数億人分のデータを保管している。合計24万平方メートルに及ぶ巨大な4棟の建物内には何列ものコンピュータが、普段は涼しい乾いた夏の風が北西方向から吹き込むように、整然と並んでいる。積み上げられたサーバーは青や緑のライトを点滅させ、通路にはサーバーがログインや「いいね!」「www」などを処理するときの排気音が鈍くうなるように響いている。
Facebookは最近、プラインビルのデータセンターに新型機を追加した。ソフトウェアが投稿内容を異なる言語に翻訳したり、より賢いバーチャル・アシスタントになったり、書かれた内容を理解する研究をスピードアップさせるための高性能サーバーだ。
Facebookの新しい「ビッグサー」 サーバーは、GPUの性能を生かすために設計された。GPUは、もともと画像処理用に開発されたプロセッサだが、並列計算に特化しており、最近のAIテクノロジーの飛躍を支える存在であり、理論的に過ぎなかった深層学習を実用化させたテクノロジーといってよい。GPUのおかげでソフトウェアは画像や人間の発する言葉を見違えるほどよく理解できるようになった。機械学習という古くからあるアイデアで、大きく複雑なデータセットを扱えるようになったのだ。(”Teaching Machines to Understand Us“参照)
フェイスブックのエンジニアで、サーバーの開発に取り組んでいるケビン・リーさんは、高速なGPUにより、フェイスブックの研究者は、より多くのデータでソフトウェアを学習させられるという。
「新規に導入されたサーバーは、AI 研究や機械学習専用です。たとえていうなら、GPUは撮った写真を細かく切り刻み、一斉に処理して元の写真に戻すような処理が得意なのです」
ビッグサーサーバーは、オレゴン州プラインビル市とバージニア州アッシュバーン地区にあるフェイスブックのデータセンターに設置されている。リーさんはサーバーの台数は明かさなかったが「何千もの」GPUが稼働しているという。フェイスブックは1台のビッグサーサーバーに、GPUの主要メーカーであるNvidia製GPUを8つ搭載している。
GPUは極めて大量に電力を消費する。排気の熱がたまれば空調システムの効率が悪くなり、電力を無駄に消費してしまうため、フェイスブックは他のサーバーよりも間隔を開けてビッグサーをデータセンターに設置している。ユーザーのデータを格納するような通常処理用のサーバーであれば30台収容できるスペースには、高さ約2mのラックに8台のビッグサーが詰め込まれている。
巨大なデータセンターを運営し、大量のGPUで機械学習の研究を進めているのはフェイスブックだけではない。マイクロソフト、グーグル、中国の検索企業バイドゥ(百度)も、深層学習の研究用にGPUを使っている。
フェイスブックが際立っているのは、ビッグサーや他のサーバーの設計図、プラインビルのデーターセンターの平面図を公開している点だ。フェイスブックは2011年に同社が設立した非営利団体オープンコンピュートプロジェクトに設計図や平面図を提供することで、コンピューター関連の企業が協力して、低コストで高性能なデータセンター用機材の設計・製造に取り組めるようにしている。一方で、オープンコンピュートプロジェクトはアジアのコンピューターメーカーを助け、デルやHPなど、北米のメーカーを圧迫していると見られている。
フェイスブックAI研究部門のヤン・ルクーン部長は、今年始めにビッグサーを発表した際、設計図を誰でも利用可能にすることで、より多くの組織がパワフルな機械学習のインフラを作り、この分野の発展を加速させると述べた。(”Facebook Joins Stampede of Tech Giants Giving Away Artificial Intelligence Technology“参照)
しかし、フェイスブックの計画では、今後の機械学習サーバーはGPU中心ではなくなるかもしれない。複数の企業が、GPUより機学習の計算に特化した新チップの設計に取り組んでいる。
グーグルは5月、「TPU」と呼ばれる自社設計のチップを音声認識用の機械学習プログラムを動作させるために使用中であると発表した。ただしTPUは現段階では、学習済みのアルゴリズムの実行に適しており、学習の初期段階には適していないようだ。一方でフェイスブックのビッグサーサーバーは、学習の初期段階の処理を高速化するために設計されている。グーグルは第2世代型のチップ開発に取り組んでおり、Nvidiaや、ナーバナシステムズなどのスタートアップ数社も、深層学習用にカスタマイズされたチップを開発中だ。( “Intel Outside As Other Companies Prosper from AI Chips“参照)
パデュー大学のエイジェニオ・クルオルチェロ準教授は、深層学習の有用性は、こうしたチップが間違いなく非常に幅広く使われることを意味しており「必要性はこれまでも、これからも大きい」と述べた。
フェイスブックは独自の機械学習用チップを開発中かと尋ねるとリー部長は「検討中です」と応じた。
- 人気の記事ランキング
-
- What’s on the table at this year’s UN climate conference トランプ再選ショック、開幕したCOP29の議論の行方は?
- Why AI could eat quantum computing’s lunch AIの急速な進歩は 量子コンピューターを 不要にするか
- Google DeepMind has a new way to look inside an AI’s “mind” AIの「頭の中」で何が起きているのか? ディープマインドが新ツール
- Google DeepMind has a new way to look inside an AI’s “mind” AIの「頭の中」で何が起きているのか? ディープマインドが新ツール
タグ | |
---|---|
クレジット | Images courtesy of Facebook |
- トム サイモナイト [Tom Simonite]米国版 サンフランシスコ支局長
- MIT Technology Reviewのサンフランシスコ支局長。アルゴリズムやインターネット、人間とコンピューターのインタラクションまで、ポテトチップスを頬ばりながら楽しんでいます。主に取材するのはシリコンバレー発の新しい考え方で、巨大なテック企業でもスタートアップでも大学の研究でも、どこで生まれたかは関係ありません。イギリスの小さな古い町生まれで、ケンブリッジ大学を卒業後、インペリアルカレッジロンドンを経て、ニュー・サイエンティスト誌でテクノロジーニュースの執筆と編集に5年間関わたった後、アメリカの西海岸にたどり着きました。