フラッシュ2024年5月14日
-
人工知能(AI)
スパコン「富岳」で訓練した大規模言語モデルが無償公開
by MITテクノロジーレビュー編集部 [MIT Technology Review Japan]東京工業大学、東北大学、富士通、理化学研究所、名古屋大学、サイバーエージェント、コトバテクノロジーズの共同研究チームは、理化学研究所のスーパーコンピュータ「富岳」を用いて訓練した日本語能力に優れた大規模言語モデル「Fugaku-LLM」を公開した。研究者は、オープンソースソフトの公開に使われているプラットフォームである「ギットハブ(GitHub)」や「ハギングフェイズ(Hugging Face)」を通じて、研究および商業目的で利用できる。
Fugaku-LLMは130億パラメーターの規模のモデルであり、サイバーエージェントが収集した独自の日本語学習データと英語のデータなどを訓練に用いているため、透明性と安全性を確保しつつ日本語性能に優れているという。モデルの訓練では、富岳の1万3824台の計算ノードを用いて、日本語コンテンツや英語、数学、コードなど約4000億トークンを学習したが、そのうちの約60%を日本語コンテンツが占める。国産かつ独自のデータで学習をしているオープンなモデルにおいて日本語ベンチマーク「Japanese MT-Bench」で最高性能を達成。特に人文社会系のタスクでは高い性能を発揮し、敬語など日本語の特徴を踏まえた自然な対話をすることなどが期待されるとしている。
研究チームは今回、深層学習フレームワークを富岳に移植し、トランスフォーマーの性能を富岳上で最適化するとともに、並列分散学習手法を開発し適用することで、富岳で大規模言語モデルの訓練をする際の演算速度を従来の6倍に高速化。さらに、集団通信を最適化して通信速度を3倍高速化することで、富岳のCPUを用いて現実的な時間内で大規模言語モデルを訓練することを可能にした。
大規模言語モデルの学習には通常、GPUが用いられるが、現在、世界中でGPU不足が起こっており、最新のGPUを大量に入手することは困難となっている。そうした中、国産CPUを中央演算処理装置とした富岳を用いて大規模言語モデルを学習できたことは、日本の半導体技術の活用や、経済安全保障の観点からも重要な成果だとしている。
(中條)
-
- 人気の記事ランキング
-
- Bringing the lofty ideas of pure math down to earth 崇高な理念を現実へ、 物理学者が学び直して感じた 「数学」を学ぶ意義
- Promotion Innovators Under 35 Japan × CROSS U 無料イベント「U35イノベーターと考える研究者のキャリア戦略」のご案内
- The 8 worst technology failures of 2024 MITTRが選ぶ、 2024年に「やらかした」 テクノロジー8選
- Google’s new Project Astra could be generative AI’s killer app 世界を驚かせたグーグルの「アストラ」、生成AIのキラーアプリとなるか
- AI’s search for more energy is growing more urgent 生成AIの隠れた代償、激増するデータセンターの環境負荷