グーグルが「長く使うほど速くなる」コンピューターを研究中
コンピューターは通常、長年の使用で処理が遅くなっていくが、機械学習によって、使い続けるうちにより速く処理ができるようにする研究が進んでいる。近年、ムーアの法則が減速し、チップの基本設計の変化も見られなくなってきたことから、いずれ役に立つ技術となりそうだ。 by Will Knight2018.03.23
コンピューターは一般的に、長年使用していると次第に処理が遅くなる。プロセッサーが新しいソフトウェアに対応するのが難しくなるからだ。アップルなどはバッテリーの劣化に合わせて、意図的にiPhoneの処理速度を減速させている。だがグーグルは、ノートPCやスマホを使っているうちに、学習によってより良くより速く処理ができるようにする研究をしている。
研究者が取り組んだのは、プリフェッチと呼ばれるコンピューティングの一般的な問題だ。コンピューターが情報を処理する速度は、メモリーからチップに情報を読み込む速度よりもかなり速い。ボトルネックを避けるために、コンピューターはどの情報が必要になりそうかを予測し、その情報を前もって読み込もうとする。これがプリフェッチだ。だが、コンピューターがより強力になるつれ、この予測は次第に困難になる。
3月上旬に発表された論文によれば、グーグルのチームは、大規模な擬似的ニューラル・ネットワークを使う人工知能(AI) …
- 人気の記事ランキング
-
- What’s on the table at this year’s UN climate conference トランプ再選ショック、開幕したCOP29の議論の行方は?
- Why AI could eat quantum computing’s lunch AIの急速な進歩は 量子コンピューターを 不要にするか
- Google DeepMind has a new way to look inside an AI’s “mind” AIの「頭の中」で何が起きているのか? ディープマインドが新ツール
- This AI-generated Minecraft may represent the future of real-time video generation AIがリアルタイムで作り出す、驚きのマイクラ風生成動画