【要旨】量子コンピューティングEXPO2024春に参加したので、感想などを簡単に述べる。このEXPOは、(1)AI・人工知能、(2)デジタル人材育成支援、(3)量子コンピューティング、(4)ブロックチェーンの4つの同時開催である。このなかでも、最近のAI・IT社会の情勢を反映して、AI・人工知能に圧倒的に多数の出展がみられた。また、デジタル人材育成への関心も非常に高いことを感じた。一方、量子コンピューティングは、出展数はあまり多くはなかったが、出展していた企業の技術者と直接対話したり、最新技術動向に関する講演も聴けたので、参加の意義は大いにあった。
ここには、国内で参加できる量子コンピューティング関係のイベント等を列挙してある。今回は、そのうちの一つである量子コンピューティングEXPOに参加した。全体の極く一部に過ぎないが、思い出して書いた。場内は、撮影・録音禁止なので僅かな手書きメモを頼りに。
(1)出展企業の技術者との対話
量子コンピューティングの出展は、約30社(企業、団体、大学)のようである。そのなかでも、国内量子スタートアップとして著名な企業の技術者と、会場で10分ほど対話した。この企業は、量子コンピュータハードウェア方式の一つとして注目され始めたシリコン方式の試作も発表していた。実際にそのチップも展示されていた。それはともかく、対話の概要は以下のようなことであった。
今年に入ってから、「中性原子方式」と「シリコン方式」への注目が高まったが、まだまだ実用化は先のようだ。国のムーンショット計画で官民学一体の協力のもとで、5つほどのハードウェア方式の研究開発が進められている。そこに参加している企業でも、もちろん、並行して独自に開発も進めており、現状はまさに群雄割拠である。
現状の実稼働量子コンピュータは、数百qubit程度だが、NDIVIAでは、高性能GPUによる5,000 qubitのハードウェア量子シミュレータを発表しており、こちらはなかなか使えるのではないか。このシミュレータもエラーを起こす。例えば、理論計算ではある基底ベクトルの起こる確率が100%のはずがそうならない等である。だが、それは本物の量子が外部環境から受けるノイズによって生ずるエラーとは別物である。また、GPUによるマシンでは、真性の乱数を生成することは困難であるが、量子の元々の特性を利用した量子コンピュータならばそれが可能になるのではないか。例えば、Quantinuum社ではそれを表明しているようだ。
そして、いくら高性能なシュミレータであっても、所詮、量子現象の模倣であるから、非常に複雑な現象の計算(分子分野等)では、本物の量子コンピュータにははるかに及ばない場面が考えられる。(→実は、この話は、次の阪大 北川勝浩氏の講演で明確になった。)
(2)阪大の北川勝浩氏の講演
この講演「日本の量子研究開発 最前線」は、開始前から続々聴衆が集まり、約400席と見られる会場は満席となった。関心の高さが窺える。北川氏は、誤りの無い量子コンピュータがもたらす未来社会を展望した後、それに向けたムーンショット目標6を含む世界的な最新の研究開発動向を紹介した。
(以下の叙述は、この講演の小生独自の解釈や感想である。)
国内では、最初に量子コンピュータなるものが開発されてから25年後の、2023年に超電導方式の32-qubitの初号機が出た。現在は、その3号機である64-qubitマシンが阪大にある。IBMやGoogleは、垂直開発(全ての工程を自社のみで完結)だが、日本は水平開発(各機関で分業協業)が特徴である。IBM製の実稼働マシンは127-qubitや400-qubitなので、国産64-qubit機は、規模としてはそれほど遜色のないレベルと見ている。現在は、NISQ(誤り含むNoisy Intermediate-Scale Quantum)だが、狙いはもちろん、FTQC(誤り耐性Fault-Tolerant Quantum Computer)である。
大規模なFTQCはなぜ必要なのか?その答えは、地球規模の環境保全のための施策を支える計算性能にある。具体的には、人工光合成(CO2削減)や人工窒素合成(省エネ)である。人工窒素合成を見てみよう。現在、アンモニアを工業的に作る方法は確立されているが、高温高圧を要するので非常に多くのエネルギーを要する。一方、学校の理科の授業で出てくる、マメ科植物の窒素固定では極く僅かのエネルギーしか必要としない。だが、そのメカニズムの解明には、非常に精密な分子計算が必要であり、現在のスーパーコン用にその精密モデルを作り計算を行うことはかなり困難である。
実際、マメ科植物と共生する根粒菌では、多数の電子のうち約50個の電子がもつれあっているので、2の50乗という膨大な状態の計算が必要となる。そこで、量子コンピュータであれば、そのような量子もつれを自然に利用して極めて高速計算することを期待できる。つまり、精密な分子計算は、無理に古典コンピュータを持ち出すのではなく、量子原理に基づく素直な計算に持ち込めるはずである。(元祖ファインマンが初期に述べていたことが実現されつつある。)
後半は、誤り訂正方法の技術的内容であった。量子ビットが反転してしまうビットフリップと位相が反転する位相フリップの2つがある。例えば、2048ビットの素因数分解のためのShor'sアルゴリズムでは、6,000-qubit、8ギガgateを要する。時間も8時間〜22時間などと見積もられる。この間で誤りが起こらないことが求められるので、とても大変である。誤り訂正中に誤りが起こることもあるので、そのような誤りの増加を抑止することも不可欠である。
--------------------------------
(番外編) I asked ChatGPT-4o the following questions. The answer is omitted, but it was very similar to the content of Prof. Kitagawa's lecture above! I can't help but be surprised again. The momentum of using generative AI is unstoppable!
--------------------------------
(番外編) Currently, in the general public, generative AI has much more momentum than quantum computing. But let's persevere and learn about quantum computing!
In the future, we will see a beautiful fusion of AI and quantum computing!
--------------------------------
0 件のコメント:
コメントを投稿