2025年8月29日金曜日

「変分アルゴリズム設計」でIBMの上級認定資格を取得

 前回、「量子機械学習」で、IBMの認定資格(Intermediate)を取得しました。(→こちらの記事です)今回は、「変分アルゴリズム設計」という認定資格(Advanced)です。下記URLのとおり、今回のチュートリアルは、量子力学の色彩が少し濃くなっています。分量も多く、難易度も高く感じられましたが、1週間ほど籠って学び受験しました。何とか合格しました!

🟢IBMチュートリアル:変分アルゴリズム設計
 
量子力学を基盤とした理論が中心ですが、シミュレータやIBM Quantum 実機で例題も動かしながら進めます。最後の方の例題(VQE、VQDなど)のいくつかは実機でsessionを使うため、Open Plan(無料)では動かせません。しかし、その部分は説明を理解するだけで十分かと思います。

🟢資格認定バッチと認定証

🔴変分量子アルゴリズム(VQA:Variational Quantum Algorithm)の意義

 先日、理研のスパコン(富岳)とIBMの最新QuantumマシンHeronの連携のニュースがありました。そこでの有力なアルゴリズムの枠組みが、今回のVQAです。化学計算や組み合わせ最適化などを、既存のスパコンと量子コンの連携で解くための実用的な方法とされています。下図は、このニュース記事と今回のチュートリアルをもとに作成した私のオリジナル作品です!なので、©も宣言しています!

 化学の電子構造問題や組み合わせ最適化問題では、それぞれ特有のハミルトニアン(エネルギー演算子)の期待値が最小となる量子状態を探す(=基底状態エネルギーを得る)ことが求められます。これを、スパコンと量子コンの連携で解きます。ワークフローは図の通りですが、要点は、スパコン側は、量子コンが推定したハミルトニアンの期待値を受け取り、目的の基底状態エネルギーへ向けた最適化を図ります。一方、量子コンは、スパコン側が用意したAnsatz(パラメータ化された量子回路)を測定し、ハミルトニアンの期待値を推定することに徹します。

 この構成は、古典ニューラルネットワークを想起させます。スパコン側で設定するAnsatzは、ハミルトニアンに適合したネットワーク層の構成とニューロン数を決めることに相当し、そこに含まれるパラメータは、辺の重みとバイアスに相当すると考えられます。このパラメータは、通常、Ansatzを構成する量子ゲート(回転ゲート)の角度です。

 基底状態エネルギーへ向けた最適化では、コスト関数(=期待値)のパラメータに関する微分が必要なはずですが、量子コン側での微分は負担も大きく、ノイズの影響を受けやすいので、現実的ではないようです。そこで、スパコン側の最適化は、通常、gradient-freeな方法で(つまり、量子コン側に勾配を要求しないで)行われます。なお、スパコン側は、このようなワークフローを、多数のパラメータ初期値を用意して並列に実行(マルチスタート)できます。ただし、量子コン側はどの程度マルチで走れるのかはまだよく分かりませんが。

🔴VQAが量子コンピューティングの全てではない
 
この枠組みは、"Quantum-Centric Supercomputing"と呼ばれています。しかし、上の図を眺めていると、「頭脳は従来のスーパンコンで、量子コンはこれまでにない驚異の物理実験装置」のように見えます。一方、量子コンピューティングの他の分野、例えば、量子暗号通信や量子機械学習などの発展も大いに期待されています。このような情報科学寄りの問題では、ハミルトニアンとは直接関係しない技法(確率振幅の増幅や位相推定など)が使われます。真に量子コンピュータに向いた問題は何なのかが、だんだん見えてくるのかも知れないです。

2025年8月20日水曜日

A Minimal Collection of LaTeX Examples for Mac Pages

 LaTeXにあまり慣れていない(私のような)人が、量子コンピューティングで資料を作る必要に迫られて作った忘備録です。これだけ頭に入れておけば、大体足りそうな、mini例題集です。なお、私は、LaTeXに関しては、WordよりもMac Pagesの方が、使いやすいように思います。

For other platforms, you may be able to write simpler LaTeX code, but here I have used a format that works reliably on Mac pages.

 この例題の全体は、こちらのpdfファイルにあります。

2025年8月19日火曜日

量子機械学習でIBM認定資格を取得

 IT分野では、資格認定が色々あります。量子コンピューティングの世界もそうなってきました。今回、量子機械学習(QML : Quantum Machine Learning)の基礎に関するIBM認定資格を取得しました。下図はそのデジタルバッチと認定証です。勉強や探求を続けるには、このようなマイルストーンがあるといいですね。

Earned IBM Certification in Quantum Machine Learning
In the IT field, there are many different kinds of professional certifications. Now, the world of quantum computing is beginning to follow the same path. This time, I obtained an IBM certification on the fundamentals of Quantum Machine Learning (QML). The image below shows the digital badge and certificate. Having milestones like this is a great motivation to keep studying and exploring further.

(→こちらに、その後取得した「量子変分アルゴリズム」認定資格があります。)

🔴IBM認定資格の意味
 IBMでは量子コンピューティング分野のいくつかの資格認定を、Foundational、Intermediate、Advancedに分けています。今回の資格(Intermediate)認定バッチは、例えて言うならば、「量子機械学習」という山岳への入山許可証みたいなものかと思います。道は険しく、まだまだこれからです。デジタルバッチの右下にある、登りかけの階段が象徴的です!

🔴IBMの量子コンピューティング関係チュートリアル
 量子機械学習関係の書籍はまだあまり多くないです。そんななか、IBMが提供している様々な量子計算チュートリアルの一つ、「量子機械学習」は非常に充実した内容になっています。以下のURLをご覧ください。

⭐️量子コンピューティングチュートリアル全体
    https://quantum.cloud.ibm.com/learning/en

⭐️量子機械学習チュートリアル
    https://quantum.cloud.ibm.com/learning/en/courses/quantum-machine-learning

 従来からの公開内容が、2025-07-01の開発環境の一新に伴い、大幅に改訂されています。(1)古典機械学習との関係、(2)古典データの量子化のためのEncoding、(3)Fidelityと量子カーネル、(4)QVC(量子変分回路分類器)とQNN(量子ニューラルネットワーク)などで構成されています。

 このチュートリアル全体の学習には、(経験による個人差が大きいですが)標準的には10時間程度。何ヶ所かに、そのセクションを要約した短いビデオがあり、大いに助かりました。また、理論と計算法の説明に加えて、シミュレータおよび量子コンピュータ実機で動かす例題もあり、コードを実行させながら理解を深められます。

 この講座全体を終えた後、1時間ほどのオンライン試験を受けます。守秘義務のため試験内容等は書けませんが、合格ラインは80点/100満点です。不合格になっても、一定期間後には、再挑戦できる教育的配慮もなされています。

 ただし、前提条件として、量子ビットと量子ゲートの基礎(重ね合わせ、確率振幅、相対位相、テンソル積、ユニタリ変換、エルミート行列、量子もつれ、観測量、測定など)、および、量子計算プログラム開発環境にも、ある程度馴染んでいる必要があります。そうでない場合は、下記の講座からスタートするのが良いと思います。
 ⭐️量子情報の基礎
    https://quantum.cloud.ibm.com/learning/en/courses/basics-of-quantum-information

🔴情報工学科ではどうする
 
世の中の関心も高いので、情報系学科では、量子コンピューティング基礎科目を設置するところが増えています。現時点では実用的でなくても、このような先進分野の魅力を教えてこそ大学、という見方もあるでしょう。一方、そんな時間があるのなら、急成長の生成AIやAIエージェント技術をうんと教えて、就職させた方いい、と言えるかもしれない。0か1かではないこの状況が、まさに量子力学的であリます!

2025年8月11日月曜日

量子状態の内積と量子回路の測定

⭕️はじめに

 ベクトルの内積は高校数学でも習います。機械学習などにおいても、2つのベクトルの類似度の計算としてよく出てきます。量子の世界、つまり量子状態ベクトル(以降、簡単のために単に量子状態と呼ぶ)についても内積は極めて重要です。ここでは、量子状態の内積に関する基本事項を復習します。具体的に手計算してみます。


⭕️量子状態の内積を回路の測定から推定(Swap Test)


 二つの量子状態|ψ>と|φ>について、以下の式が成り立つことを示すことが狙いです。左辺は、内積の絶対値の2乗であり、右辺のP(0)は、下図に示す量子回路において、ancilla(補助)ビットを測定した場合の|0>の確率です。

$$|⟨ψ∣ϕ⟩|^2=2P(0)−1$$

| <ψ |φ> |= 2P(0) -1


 ancillaは最上段の1量子ビットです。また、|ψ>と|φ>の量子ビット数は任意ですが(swapするため)両者で同一である必要があります。


(1)量子状態を計算する 


---これ以降は、こちらのpdfファイルでご覧ください。(Bloggerでは、LaTex数式の取り扱いが少し面倒なため)---



2025年7月19日土曜日

量子風鈴?で涼しさを

 猛暑に風鈴はいいものだ。ただし、チリンチリンと、時に耳障りになることもある。そこで、音は出ないが、量子ビットの不思議な世界を想起させる「量子風鈴」なるものを私の研究部屋に吊るしてみた。

熊本城天守閣から吊り下げられたかのような量子風鈴

「量子風鈴」のある研究室風景
 熊本城のカレンダーの前に、透明プラスチック球体が3個吊るされている。これらの球体については何度かこのブログの記事にしてきたので詳細は略します。中央とその下にある2個はBloch Sphereであり、単一量子ビットの状態とそれに対する基本的な量子論理ゲートを射影演算子で表現している。一番上の球体は、4量子ビットのもつれた状態をQ-Sphereで可視化している。

 扇風機の風に乗ってゆらつらするので、少しは涼しげな気分になる。だが実は、それ以上に、量子コンピューティングの世界を探求して行く意欲を持続させるための"おまじない"でもある!

生成AIの判断が、人間の感覚に近かった一つの例

 Webに掲載されたある記事のタイトルが以下のようになっていました。
 (句読点や文章中の空白は原文のままです。)

住宅地でヒグマ駆除、ハンターがライフル銃で 死者出た北海道福島町
 このタイトルを読んだ人は、撃たれたのはヒグマなのか、人間なのか、直ぐにわかるでしょうか?私の第一印象は、「おやっ、何かおかしなタイトルだなあ」ということでした。そこで、生成AIにも判断してもらいました。結論として、現代の生成AIは、(少なくとも本例に関しては)人間の感覚と近いところに来ているということでした。

🟢[生成AI - a]の回答
 非常に曖昧で、文を読んだだけでは「誰が撃たれて死亡したのか」が明確に伝わりません。「ヒグマ駆除」という言葉から、「ヒグマが撃たれた」とは読み取れます。しかし「死者出た」という語句が続くため、人間の死者が出たのか、ヒグマのことを指しているのかが不明瞭です。特に「ヒグマ駆除」と「死者出た」が同列で並べられているため、「駆除の過程で人が撃たれて死亡した可能性」まで想起させてしまいます。

🟢[生成AI - b]の回答
 このタイトルだけでは、撃たれたのがヒグマなのか、人なのかは分かりません。「死者出た北海道福島町」という部分が、撃たれた結果亡くなったのがヒグマなのか、あるいは別の要因で人が亡くなったのか(例えば、ヒグマに襲われて亡くなった、または駆除作業中に事故で亡くなったなど)が不明瞭だからです。文脈として「ヒグマ駆除」とあるので、ヒグマが死んだことは示唆されますが、「死者出た」が誰を指すのかが明確でないため、このタイトルだけでは判断できません。記事本文を読む必要があります。

2025年7月16日水曜日

稲作について生成AIに聞いてみた

 お米の値段、流通が話題になっています。近所を散歩していて、すっかり少なくなった水田ですが、まだ7月中旬だというのに、写真の通り、水田に水が全く無い!ひび割れしているじゃないですか!これじゃ不作になって、米の値段がさらに高騰するのではないか?

「中干し」でひび割れした水田(厚木市 2025-7-15)

 違いました!これは、梅雨明け前後に行われる、稲の生育を調整する手法で「中干し」と呼ばれるものでした。水を一時的に抜くことで、田んぼの表面を乾かし、酸素を取り込める様にして根の健全な発達を促す効果があるとのこと。田んぼをひび割れさせることで、土中に溜まった有害なメタンガスなどを排出させる、また、病害虫を防ぐ効果もある。水をなくすことで、稲に適度なストレスを与えて、育成を調整することにもなるらしい。

 いつ頃からこのような手法が取られていたのか?生成AIからの回答によれば、江戸時代中期にはすでに行われていた。つまり、水の管理の基本として、灌漑と排水が行われていた。17世紀末に書かれた「農業全書」(宮崎安貞著)には、「中干し」を指すと思われる以下の叙述があるという:

「分げつ過多の稲は倒れやすし、時に水を抜きてこれを止むるべし」

🟢感想
 私は、普段、量子コンピューティングやPythonプログラム開発に生成AIを使っている。だが、今回の様な調べ物にも、とても有用だと分かる。時代は変わってきた。今後はさらに、AIエージェントが、人に変わって勝手に?調べ物もしてくれるらしい。昨日、ソフトバンクからその事業化の発表もあった。小学生の夏の自由研究なども様変わりするだろう。ああ!

2025年7月4日金曜日

IBM Quantum Composer - 惜しまれてsunset

----重大な修正------- Composerはsunsetではなかった!2025-07-08 JST確認したところ、New Platformへ移行した後も、Composerは従来通りOpen Planで利用できることが分かった!(ただし、ファイルはローカルに保存するように変更された。それをアップロードすることはできる。)こちらのポストが参考になる。これは力強い!
--------------------------

(元記事はこのままにしておきます。)

【要旨】
量子コンピューティング教育上の優れたプラットフォームIBM Quantum Classic Platformが、2025年7月1日をもって終了(sunset)となった。数ヶ月前から予告があり、完全に new platformへ移行した。小生も準備済みだったので特に問題はないのだが、こんな素晴らしい開発環境、特にその中のComposer(作曲家)という機能を惜しんで、以下に記録しておきたい。

🟢IBM Quantum Platformからの通知(2025-07-01)
 下図の通りである。量子コンピュータハードウェア開発競争の激化が背後にあるようだ。初心者向けの環境から、よりプロフェッショナルな利用のサポートにシフトしたように思われる。ともかく、このPlatformでのOpen Plan(無償)はもはや使えないことが分かる。私は、2年間ほど愛用してきた。図にある通り、これまでに865件のジョブを投入した。小さな量子回路ではあるが(基本的な量子アルゴリズムである、BB84、Ekrt、Grover、Superdense Coding、Teleportation、Simon、Phase Kickback、Phase Estimation, QFT等々)を探求した。その利用経験から得られた知見は、現在とても役立っている!!!その後の、Quantum Machine Learningへの取り組みにも繋がった。大いに感謝したい。
IBM Quantum Classic Platformのサービス終了

🟢量子コンピューティングの全ての操作を一括提供のComposer
 このClassic Platformにおいて、特に使いやすく有用であったComposer機能を振り返り、記憶に留めたい。ログインすると、その場で、以下の項目を一気に実施することができたのである!

(1)ビジュアルに量子回路を編集し、シミュレートする
(2)その量子回路の状態の表示(Q-Sphere、Probability、StateVector)
(3)OpenQSAM(手動量子回路編集)との連携
(4)IBM Quantumマシン実機での実行と結果の取得

量子回路の編集と量子状態表示(Q-Sphere, Probability, StateVector)
OpenQASM(右側)との連携

🟢新しいプラットフォーム(IBM Quantum New Platform)
 新しいプラットフォームでは、上記の様なWebサービスは終了となった。それらと同等のことは、各自がローカルにQiskit環境を設定して行うことになった。しかし、(詳細は略すが)新しい様々な機能が新たに使えるようになった。特に、これまでOpen Planでは使えなかった新鋭の実機 ibm_torino(Heronプロセッサ)が利用可能となったことは大きい!

2025年6月23日月曜日

Comparison of Kernel PCA on Gaussian and Quantum kernel

Auto-translated from Japanese.

[Abstract]
The ad_hoc_data dataset is commonly used in research exploring quantum methods for data classification. An example of applying the KPCA (Kernel Principal Component Analysis) method to this dataset is provided in the IBM tutorial "Qiskit Machine Learning 0.8.3". In the tutorial, a comparison is made between a Gaussian kernel (the classical RBF kernel) and a quantum kernel (based on the ZZFeatureMap). The results demonstrated an example of quantum advantage. This article revisits and reaffirms those findings.

🔴 Characteristics of the Input Dataset: ad_hoc_data
This is an artificial dataset designed to make linear separation (classification) difficult for classical methods but easier for quantum techniques. Although it lacks practical applications, it is often used in studies of quantum advantage. Specifically, the dataset is constructed so that classification is challenging with classical kernels (e.g., Gaussian RBF), but effective with quantum kernels based on quantum feature maps such as ZZFeatureMap. It is primarily a binary classification dataset (labels 0 and 1), split into training and test sets.

    A key parameter, gap, controls how easily the classes can be separated. Larger values generally make the separation easier. Figure 1 shows the sample distribution. The samples for classes 0 and 1 are grouped into small clusters, making linear separation appear difficult.


🔴 Mechanism of KPCA (Kernel Principal Component Analysis) and Classification
KPCA is an extension of traditional PCA using the kernel trick, allowing it to effectively handle datasets with nonlinear structures. First, the input data is implicitly mapped into a high-dimensional feature space using a kernel function. In that space, similarities between samples are calculated, forming a kernel matrix (see Fig. 2). The kernel can be either a classical kernel (e.g., Gaussian RBF) or a quantum kernel (e.g., using a quantum feature map).

    Next, PCA is applied to this kernel matrix to project the data onto the principal components (or, reduce dimensionality).

    At this stage, we are only preparing for classification — no label information is used yet. Interestingly, when constructing a kernel matrix based on fidelity (similarity) using the ZZFeatureMap, a class-like structure (similar to clustering) can emerge even without using labels, particularly in datasets favorable to quantum kernels such as ad_hoc_data. That is, a block-like structure becomes visible in the heatmap of the kernel matrix.

    Figure 2(a) demonstrates this clearly. Most of the data pairs with label 0 (indices 0–49) form a high-similarity block (dark green), as do those with label 1 (indices 50–99). By contrast, in the classical Gaussian kernel case (Fig. 2(b)), this block structure is much less evident.


    After this stage, we proceed to supervised learning by incorporating label information. While Support Vector Classification (SVC) could be used, we opted for Logistic Regression due to its simplicity and compatibility with quantum kernels such as ZZFeatureMap-based.

    The classification results are shown in Fig. 3. They appear to reflect the structure seen in the kernel matrix of Fig. 2. Indeed, the test accuracy was 0.95 using the quantum kernel (Fig. 3(a)) and 0.6 with the classical kernel (Fig. 3(b)). This provides an illustrative example of the potential benefits of quantum kernels.

🔴Reference [Qiskit Machine Learning 0.8.3]

カーネルPCA法における古典カーネルと量子カーネルの比較

[要旨]データのクラス分けに関する量子的手法の研究用として、ad_hoc_datasetがある。これに、KPCA法 (Kernel Principal Component Analysis)を適用する例が、IBMのチュートリアル "Qiskit Machine Learning 0.8.3"にある。その中で、Gaussianカーネル(古典rbfカーネル)と量子カーネル(ZZFeatureMapに基づく)を適用した場合の比較がある。結果として、量子優越性を示す例となっていた。本記事では、これを再確認した。

🔴入力データセット ad_hoc_dataの特徴
 これは、古典的な方法では線形分離(クラス分け)が難しいが、量子的手法ではそれが容易になるように設計された人工的データセットである。実用性はないが、量子優位性(quantum advantage)の研究などで利用される。すなわち、古典的なカーネル(GaussianカーネルRBF等)では分類が難しいが、量子特徴マップ(ZZFeatureMap等)に基づく量子カーネルではうまく分類できるように構成されている。主にバイナリ分類用のデータセット(ラベル 0 と 1)であり、トレーニングセットとテストセットに分けられる。

 このデータセットの生成用のパラメータの一つであるgapは、クラスの分離性を決める。この値が大きいほど、クラス分けは容易になる傾向となる。Fig.1にそのデータサンプルの分布を示す。クラス0とクラス1のデータがそれぞれ小さなグループとなって散在しており、線形分離は困難のように見える。

🔴KPCA(Kernel Principal Component Analysis)の仕組みとクラス分け
 KPCAは、"非線形構造データ"の分類に有効なように、通常の主成分分析PCAをKernel Tickによって拡張したものである。すなわち、まず、カーネルを使って、入力データを暗黙的に高次元空間に写像し、その空間での特徴表現(データサンプル間の類似度の計算)を行う。結果としてFig.2に示すようなカーネル行列が得られる。カーネルとしては、古典カーネル(Gaussianカーネルrbf等)や量子カーネル(Quantum Feature mapに基づく)を使うことができる。これに続けて、主成分分析PCAの手法を適用して、その空間での主成分への射影(または次元削減)を行う。

 ここまでは、クラス分類のための準備であり、分類学習はしていない。クラスを示すラベル情報も全く使っていない。しかし驚くべきことに、ad hoc datasetのような量子カーネル向きのデータセットに対して、ZZFeatureMap を用いた fidelity(類似度) に基づくカーネル行列を構成すると、クラス構造(クラスタリング的な構造)が浮かび上がる場合がある。つまり、ラベル情報がなくても、カーネル行列のヒートマップを見ると、ブロック構造(クラスタ)が現れる。

 Fig.2(a)は、まさにそれを示している!すなわち、ラベル0のデータ(番号0〜49)のペアは、ほとんどが高い類似度(濃い緑色)を示すブロックになっている。ラベル1(番号50〜99)についても同様である。しかし、これに反して古典Gaussianカーネルの場合(FIg.2(b))は、そのようなブロック構造が明瞭でない。
 さて、この後、カーネル行列に加えて、ラベル情報を用いた教師付き学習を行う。その際の分類学習器としてSVCを使っても良いのだが、ここでは、より軽量でZZFeatureMapとの相性も良いとされるLogistic Regression(ロジスティック回帰)を使った。

 Fig.3にその結果を示す。この結果は、Fig.2に示したカーネル行列の構造がそのまま反映されているように見える!つまり、テストデータに対する分類精度は、量子カーネルの場合0.95(Fig.3(a))、古典カーネルの場合0.6(Fig.3(b))であった。量子カーネルの可能性を示唆する一例となった!

🔴参考資料 [Qiskit Machine Learning 0.8.3]