インテルとフェイスブックは、大企業がより低いコストで人工知能(AI)を利用できるようになるチップを共同で開発している。
このチップは、あらかじめ訓練を済ませた機械学習アルゴリズムを、より効率的に実行するためのものだ。つまり、AIの活用に必要なハードウェアと消費電力が従来より少なくて済むことになる。
インテルは、2019年1月8日からラスベガスで開催中のコンシューマー・エレクトロニクス・ショー(CES 2019)の会場で、新しいAIチップと、フェイスブックとの協業を発表した。今回の発表は、AIの開発と展開に企業がしのぎを削る中、ソフトウェアとハードウェアがいかに密接に絡み合ってきているかを示している。
この新しい「推論」AIチップによって、フェイスブックをはじめとする企業は、機械学習をより効率的かつ低コストで展開できるようになる。ファイスブックは、画像内の人々のタグ付け、投稿内容の翻訳、問題のあるコンテンツの検出など、多岐にわたる作業にAIを利用している。これらのタスクを汎用的なハードウェアで実行するには、かなりの時間と消費電力が必要だ。
インテルは2019年後半には、新AIチップを他社向けにも販売する予定だ。インテルは現在、AIハードウェアの市場最大手であるエヌビディア(Nvidia)に大きく後れを取っており、多数のチップ製造スタートアップ企業との競合にも直面している。
インテルAI製品グループのナビーン・ラオ副社長は発表に先立ち、新しいAIチップが競合他社のどの製品よりも高速だと語った。ただし、具体的な実行性能の数値は示していない。
フェイスブックはインテルと協力してきたことを認めたものの、協業内容の詳細や同社の役割についてはコメ …