IBMが新ニューロチップを試作、低消費電力で機械学習を効率化
ニューラル・ネットワークの処理をハードウェアで実行するチップをIBMが試作した。計算用の短期シナプスと記憶用の長期シナプスを利用することで、ソフトウェアベースのニューラル・ネットワークの1%の消費電力で、同程度の精度を実現できることがわかった。 by Will Knight2018.06.15
ニューラル・ネットワークは人工知能(AI)ブームの中核にある。データを猛烈な勢いで取り込み、完璧に近い精度で演説の書き起こしや画像の説明などの仕事をこなす(「10 Breakthrough Technologies 2013:Deep Learning」を参照)。
しかし落とし穴がある。それは、人間の脳の構造を大まかにモデル化したニューラル・ネットが通常、ハードウェアではなく、ソフトウェアで作られていることだ。従来のコンピューター・チップで動作するニューラル・ネットのソフトウェアは、実行に時間がかかる。
IBMは、ニューラル・ネットの重要な機能を直接シリコンで構築することで、効率が100倍になる可能性があることを示した。この方法で構築したチップは、今後数年で機械学習の効率を飛躍的に高める可能性がある。
ソフトウェアで作成したニューラル・ネットと同じように、IBMのチップは脳内のニューロン同士をつなぐシナプスを模倣している。このシナプス結合の強度を調整することで、ニューラル・ネットワークに学習させる。生体の脳では、時の経過に伴う成長または衰退という形で結合が調整される。結合の調整をソフトウェアで再現することは簡単だが、ハードウェアで再現することは至難の業であることがこれまでに分かっている。
IBMの研究者らは、微細な電子回路で作成したシナプスについて …
- 人気の記事ランキング
-
- What’s on the table at this year’s UN climate conference トランプ再選ショック、開幕したCOP29の議論の行方は?
- Why AI could eat quantum computing’s lunch AIの急速な進歩は 量子コンピューターを 不要にするか
- Google DeepMind has a new way to look inside an AI’s “mind” AIの「頭の中」で何が起きているのか? ディープマインドが新ツール
- Google DeepMind has a new way to look inside an AI’s “mind” AIの「頭の中」で何が起きているのか? ディープマインドが新ツール