「毎日のように量子コンピューターに関するニュースを見聞きします。今日は、ここ最近の動きを私なりに整理してお伝えしたいと思います」。
産業総合技術研究所で量子アニーリングマシンの開発・量子コンピューターの研究に取り組んでいる理論物理学者の川畑史郎氏は、9月25日に東京都内で開かれた「Emerging Technology Nite #8」(MITテクノロジーレビュー主催)でこう切り出した。
「2時間でわかる、量子コンピューターの基礎と最新動向」との副題が付けられたこのイベントで川畑氏は、量子コンピューターの歴史や動作原理から、世界の最新の研究開発動向までを解説した。
MITテクノロジーレビュー[日本版]が「量子アニーリングによる量子コンピューター」というテーマでイベントを開催したのが2017年3月のこと。その後の1年は「量子コンピューター分野において激動の1年だった」と川畑氏は振り返る。中でもいまもっとも注目され、驚くほど技術が進展したのが、超伝導体と呼ばれる特殊な材料を使った量子プロセッサーを用いる量子コンピューター技術だ。
100万量子ビットの実現は2030年ごろ?
超伝導による量子ビットを1999年に世界で最初に実現したのは、日本の研究者だった。当時NECの研究所に所属していた中村泰信氏(現・東京大学先端科学技術研究センター教授)と蔡兆申氏(現・理科大学理学部教授)が実現したのだ。それからの18年間、量子コンピューターの進化は非常にゆっくりとしたものだった。2017年4月時点まで、量子プロセッサーの集積度はグーグルが実現した「たったの9量子ビット」が最高だったのだ。
だが、2017年5月にIBMとインテルが17量子ビット、11月にIBMが50量子ビットを達成。2018年1月にインテルが49量子ビット、3月にはグーグルが72量子ビットにまで量子プロセッサーの集積度を高めた。
「集積度がどれくらい上がると実用に耐え、世の中に大きな影響を及ぼすようになるか。その点において、世界では具体的な目標があります。それが100万量子ビットです」と川畑氏はいう。
「1999年からの18年間の集積化のペースが続けば、100万量子ビットの実現は来世紀になる。しかし、極めて楽観的ではあるが、『量子版ムーアの法則』とも言えるこの1年半の急激な進化がこのまま維持できれば、100万量子ビットの実現は2030年前後と予測できます」(川畑氏)。
▼【有料会員限定】有料会員(Insider Online)としてログインすると、本イベント第一部(約70分間)のノーカット映像を視聴できます。
世界の消費エネルギーの数%を節約できるかもしれない
量子コンピューターはどんな問題でも高速に解けるわけではない。数多ある数学的問題のうち、従来のコンピューターに比べて明確な高速性が保証されている問題は60個程度と、かなり限定されている。
だがそれでも今後、大規模な量子コンピューターが実現できれば、⼈⼯知能(AI)や創薬、農業、材料の開発といった分野では大いに役立つと期待されている。川畑氏は、具体的な応用例の1つとして、「ニトロゲナーゼ」の解析による肥料のイノベーションについて紹介した。
ニトロゲナーゼとは、窒素固定細菌が持っている酵素のことだ。この酵素は、常温で大気中の窒素をアンモニアに変換して固定化する機能を持つ。植物が成長するには窒素を必要とするが、空気中の窒素を直接取り込むわけではない。そこで通常はアンモニアに変換し、それを肥料として成長する。
「ただ、この肥料を人工的につくることは容易ではありません。20世紀初頭に発明されたハーバー・ボッシュ法と呼ばれる化学プロセスが、いまだに使われているのです」(川畑氏)。
ハーバー・ボッシュ法は、高温高圧の状態をつくるために膨大なエネルギーを必要とする。世界の全エネルギーのうち数%は肥料を生産するために使われているほどだ。そこで常温・常圧下で窒素をアンモニアに変換するニトロゲナーゼの反応メカニズムが解析できれば、それをベースにした人工的なアンモニア合成技術ができるかもしれない。だが、このニトロゲナーゼは非常に複雑な分子構造を持っているため、いまだにそのメカニズムは解明できていないのだ。
そこに、複雑な分⼦の電⼦状態を計算し、構造や反応過程、物性を予測する「量子化学計算」のアルゴリズムが活用できる可能性があるという。
「ところが、ニトロゲナーゼの量子化学計算をするのに必要な量子ビット数は、1億量子ビット程度だといわれています。世界中の企業や研究機関が目標として集積度を高める努力を続けていますが、まだまだ距離感があるのが現状です」。
世界で動く国家プロジェクト
世界中で、量子コンピューターあるいは量子テクノロジーに関する大きな国家プロジェクトが動いている。川畑氏はそのうち代表的なプロジェクトを紹介した。
1つは、欧州連合(EU)の「量⼦テクノロジー・フラッグシップ」。2016年、欧州委員会は商⽤化が⾒込まれる量⼦テクノロジーの研究開発に10年間で10億ユーロを投資することを発表し、この10⽉からプロジェクトが動き始めた。
もう1つは、米政府が量⼦コンピューター研究開発を強化する法案「量⼦技術イニシアチブ」だ。法案は9月に下院を通過して上院で審議中だが、成立すれば5年でおよそ13億ドルの予算を投じる大規模なプロジェクトになる予定だ。
翻って日本はどうか。川畑氏は「日本でもやっと大きなプロジェクトが動くようになった」といい、現在、文部科学省が中心となって進める光・量⼦⾶躍フラッグシッププログラム「Q-LEAP」について説明した。
Q-LEAPでは、「量子情報処理」「量子計測・センシング」「次世代レーザー」を重要テーマとして設定しており、このうち「量子情報処理」が主に量子シミュレーター、量子コンピューターの研究開発にあたるものだ。Q-LEAP全体の予算規模としては年間22億円で、10年間の継続事業となっている。
量子情報処理部門のプログラムディレクターを慶應義塾大学の伊藤公平教授、サブ・プログラムディレクターを川畑氏が務めており、中村泰信氏が研究代表を務める「超伝導量子コンピューターの研究開発」がフラッグシップ・プロジェクトとなっている。
技術課題が山積みの中、日本の勝ち筋は
世界で注目され、期待も大きい量子コンピューターだが、「現場の人間からすると技術課題は山積み、それを説明するだけで丸1日かかるほど」。川畑氏が挙げた代表的な技術課題が次の2つだ。
1つは、「大規模化」。現時点で、超伝導量子ビットの大きさは0.1mm2。これを仮に、ニトロゲナーゼの解析に必要だとされる1億量子ビットを敷き詰めると体育館ほどの大きさになるという。量子コンピューターを動かすには絶対零度に近い低温が必要だが、それほどの大きさのプロセッサーを冷却するための技術はまだない。
2つ目は、「熱」の問題。量子コンピューターを動かすためにはマイクロ波を当てなければならないが、そのために1量子ビット当たり2〜4本程度のケーブルを引く。すると、いくら冷凍機で冷却しても、ケーブルを伝って外の熱が入ってしまう問題がある。
川畑氏は、「従来の半導体の集積化におけるムーアの法則は『経験則』であり、そこになんらかの根拠があったわけではありません。ただ、世界中の開発者たちにとってはある種の目標となっていた」という。
「世界中のエンジニアが地道な研究を重ねることで、量子コンピューターもこのここ1年半ほどのペースを維持して集積度を向上できるかもしれませんし、山のようにある課題も解決されるかもしれない。日本のものづくりの技術、例えばエレクトロニクス分野の知見や、冷凍機、マイクロ波設備などの量子コンピューターに必要な周辺技術に関しては一日の長があります。長期戦になることは間違いないが、そこに日本の勝ち筋が見いだせるのではないかと考えます」。川畑氏はこう語り、講演を締めくくった。
- 人気の記事ランキング
-
- What’s on the table at this year’s UN climate conference トランプ再選ショック、開幕したCOP29の議論の行方は?
- Google DeepMind has a new way to look inside an AI’s “mind” AIの「頭の中」で何が起きているのか? ディープマインドが新ツール
- Google DeepMind has a new way to look inside an AI’s “mind” AIの「頭の中」で何が起きているのか? ディープマインドが新ツール
- This AI-generated Minecraft may represent the future of real-time video generation AIがリアルタイムで作り出す、驚きのマイクラ風生成動画
タグ | |
---|---|
クレジット | yahikoworks |
- 畑邊 康浩 [Yasuhiro Hatabe]日本版 寄稿者
- フリーランスの編集者・ライター。語学系出版社で就職・転職ガイドブックの編集、社内SEを経験。その後人材サービス会社で転職情報サイトの編集に従事。2016年1月からフリー。