Baidu Blog

Back

This article was translated from Chinese by Gemini 2.5 Pro.

この記事を書く前日、Googleが新たなアルゴリズム「Quantum Echoes」(エコーアルゴリズムとでも呼びましょうか?)を発表しました。これは高い検証可能性を目指すものです。本来、ブログであまり抽象的なことを書きたくはないのですが、このニュースや報道に対するコメントがなんとも言えなかったので、今回は量子とは何かについてお話ししようと思います。

古典力学#

私たちは、一見すると整然として予測可能な世界に生きています。リンゴが木から落ち、惑星が太陽の周りを公転し、ビリヤードの球がテーブルの上を転がる。

これらの現象はすべて、私たちがよく知る直感的なルールに従っています。

古典力学です!

ニュートンが描いた宇宙像では、万物は巨大で精密な時計仕掛けのようでした。宇宙のすべての物体は、最小の塵から最大の銀河まで、確定した位置と運動量を持っています。

もしある瞬間のシステムのすべての初期条件、例えばすべての粒子の位置、速度、そしてそれらに作用する力を正確に知ることができれば、原理的には、誰かが何時に帰宅するかを予測するように、未来の任意の時点におけるそのシステムの状態を正確に予測できます。

この考え方は決定論と呼ばれ、古典物理学の礎を築きました。

この古典的な世界では、物理的な特性は連続的です。滑らかな坂道を上っていく自分を想像してみてください。あなたはその坂道のどの高さにも留まることができます。

電気自動車の速度は時速11キロにも、11.4キロにも、あるいは11.4514キロにもなり得て、数値は無限に細分化できます。

エネルギー、速度、運動量などの物理量は滑らかに変化し、その範囲内のどんな数値も許容されます。

この理論は、橋の建設から宇宙船の打ち上げまで、私たちの日常経験における巨視的な物体を記述する上で、比類なき成功を収めました。古典力学は、私たちが最も得意とする物理法則なのです。

破綻#

しかし、19世紀末から20世紀初頭にかけて、科学者たちが原子や光の振る舞いといった、より微視的な領域に目を向けたとき、この完璧で予測可能な宇宙に亀裂が生じ始めました。

一連の実験が、古典物理学では説明できない奇妙な現象を明らかにし、その数百年揺るがなかった地位を揺るがしたのです。

黒体放射#

古典理論は、加熱された物体(「黒体」)が放出する光の色(周波数分布)を予測する際に、壊滅的な失敗を犯しました。

理論では、紫外線の領域で放射エネルギーが無限大に近づくと予測されましたが、実際の実験では放射エネルギーは徐々に減少していました。つまり、実験と理論が食い違っていたのです。

これは紫外破綻と呼ばれています。

ここで、「実験と理論が食い違っていただけで、何か問題があるのか?」と疑問に思う人もいるでしょう。

しかし問題は、その理論が古典力学の基本である決定論から導き出されたものであるという点にあります。実験が理論と一致しないということは、少なくともこの領域では、人々が慣れ親しんだ古典力学が通用しないことを意味します。

これは、毎日決まった時間にやってくるはずの通勤電車が、今日に限って突然来なくなり、道行く人に尋ねると「ここに駅なんてありませんよ」と言われるようなものです。

では、あなたはどうやって通勤していたのでしょうか?

この難問を解決するため、物理学者のマックス・プランクは1900年に革命的な仮説を提唱しました。エネルギーの放出と吸収は連続的ではなく、一つ一つの不連続なエネルギーの塊として行われる、というものです。

彼はこの最小で、それ以上分割できないエネルギーの単位を「量子(quantum)」と名付けました。

これが量子の概念の最初の登場であり、物理学革命の幕開けを告げるものでした。

光電効果#

19世紀末には、光が波であること、そして金属中に自由電子が存在することは知られていました。そこで、「光の波を使って金属から電子を叩き出せないか?」という考えが自然に生まれました。

奇妙なことに、電子を叩き出せるかどうかは、光の強度(明るさ)ではなく、光の色(周波数)に依存していました。

どんなに微弱な青い光でも即座に電子を叩き出せるのに対し、どれだけ強い赤い光を当てても無駄でした。

アルベルト・アインシュタインは1905年、これに対して、光自体がこれらのエネルギーの塊で構成されていると大胆に提唱し、それを光量子(後に「光子」と呼ばれる)と名付けました。

各光子は一つのエネルギー量を運び、個々の光子のエネルギーが十分に大きい(つまり光の周波数が十分に高い)場合にのみ、電子を原子から(金属表面から)叩き出すことができるのです。

この説明はアインシュタインにノーベル賞をもたらしただけでなく、光の粒子性を強力に証明しました。

もっと分かりやすい例えで説明しましょう。古典的なイメージでは、光は水の流れのようなもので、明るさが高いほど水の流れが激しいことを意味します。

金属は壁のようなもので、水の流れが十分に激しければ、いくつかの石(電子)を洗い流すことができます。

しかし後に、光は水の流れではなく、むしろ道路のようなものであることがわかりました。明るさは道路の幅を決めるものであり、エネルギーの強さではありません。本当にエネルギーを運んでいるのは、道路を走る車、つまり光子です。

車自体が十分に大きい(周波数が高く、エネルギーが大きい)場合にのみ、その壁を突き破り、石を叩き出すことができるのです。

原子の安定性#

世界のすべてが原子と分子で構成されていることは誰もが知っています。

しかし、問題はそれらの構造です。

原子は中身の詰まった小さな球ではなく、原子核と電子で構成されており、電子は原子核の周りを運動する粒子です。

しかし、古典電磁気学の法則によれば、荷電粒子が加速運動をすると、絶えずエネルギーを外部に放射します。

エネルギーは有限なので、電子が永遠にエネルギーを放射し続けることはできません。そのため、電子が周回運動をすると、絶えずエネルギーを失い、速度が落ち、軌道半径がどんどん小さくなり、最終的には螺旋を描きながら原子核に墜落してしまいます。

もしこの理論が本当に正しければ、宇宙のすべての原子が瞬時に崩壊し、私たちの机も、空気も、身体も、そして世界全体も存在し得ないことになります。

しかし現実は、すべてが無事で、世界は安定しています。これが20世紀初頭の科学者たちが直面した巨大な謎でした。

1913年、物理学者のニールス・ボーアは、電子は自由に運動できるのではなく、特定の軌道にしか存在できないのではないか、という大胆な仮説を提唱しました。

これは、電子が滑らかな坂道を楽しく駆け下りるのではなく、階段の段上にしか存在できないようなものです。

これらの段は異なるエネルギー状態に対応しており、私たちはそれをエネルギー準位と呼びます。電子があるエネルギー準位にいるとき、それは安定しており、エネルギーを放出することも、墜落することもありません。

電子が別のエネルギー準位に跳躍するときにのみ、エネルギーを吸収または放出し、そのエネルギー量はちょうど二つの準位の差に等しくなります。

E=hνE = h\nu

量子力学#

以上をまとめると、量子は連続的ではなく、一つ一つの離散的なものであり、これが量子的な考え方です。

物理学者たちは、微視的な世界を支配する法則が、私たちがよく知る巨視的な世界とは全く異なることに気づきました。そして、「量子力学」という全く新しい理論体系が生まれました。

それは古典力学の修正ではなく、原子、電子、光子などの微視的な粒子の振る舞いを記述するために特化した、完全なパラダイムシフトでした。

こうして、物理学の版図は二つに分かれました。古典力学は依然として巨視的な世界の王者であり、量子力学は微視的な領域の絶対的な支配者となったのです。

これら二つの理論はそれぞれの領域で驚異的な成功を収めましたが、それらが描く現実像は大きく異なっています。

古典物理学は間違っているわけではなく、巨視的なスケールにおける量子力学の創発的な近似と見なされるべきです。(え?創発が何だか知らないって?)

私たちが日常生活で経験する確定性と予測可能性は、宇宙の最も根源的な性質ではありません。この点を理解することは極めて重要です。古典的な世界がこれほど整然として見えるのは、それが無数の微視的な量子事象の確率的な振る舞いが、巨視的なスケールで統計的に平均化された結果だからです。

それは、大群衆の流れを観察すれば全体の傾向は予測できるものの、その中の特定の一人の具体的な経路までは確定できないのと似ています。私たちが知覚する確定した現実は、実際には確率、不確定性、そして可能性に満ちた量子的な基盤の上に成り立っているのです。

これは単なる物理学理論の変遷ではなく、より深い哲学的変革でもあり、私たちの現実の本質に対する理解を根本から変えました。(つまり、LLMの確率計算も量子力学だと言いたいのでしょうか?困ったときの量子力学!)

量子とは何か?#

「量子」という言葉は神秘的で難解に聞こえますが、その核心的な概念は非常にシンプルです。それはラテン語の quantus(どれくらい)に由来します。

物理学において、量子(quantum、複数形は quanta)とは、あらゆる物理的実体が相互作用する際に関わる、最小で分割不可能な離散的な単位を指します。

それは、ある物理的特性を構成する「原子」のようなものであり、その特性の基本的な構成要素またはデータパケットです。

定義#

この概念をいくつかの具体的な例を通して理解しましょう。最も有名な例は光です。

私たちは通常、光を連続的なものだと感じていますが、実際には、光は一つ一つのエネルギーの塊で構成されており、これらの塊が光子(photon)です。したがって、一個の光子は一個の光の量子です。

同様に、電荷も無限に分割できるわけではなく、最小の電荷単位、すなわち電気素量が存在し、これが電荷の量子です。

この概念は、プランクが黒体放射を研究する際に最初に提唱したもので、彼はエネルギーがプランク定数 hh に周波数 vv を掛けたものの整数倍の形でしか吸収または放出されないと仮定しました。

その後、アインシュタインは光電効果を説明する際にこの概念を具体化し、光量子の存在を提唱しました。

「量子」という名詞から、より核心的な動詞である「量子化(quantization)」が導き出されます。

量子化とは、ある物理的特性の値が、任意の値を取るのではなく、整数のようないくつかの特定の、不連続な値しか取れないことを指します。

簡単に言えば、古典的な世界は坂道です。古典力学では、エネルギーや速度などの物理量は滑らかな坂道のようです。

あなたはその坂道のどの高さにも立つことができ、その位置は1メートル、1.1メートル、あるいは1.14メートルと、行けない場所はどこにもありません。

一方、量子力学では、多くの物理量、特に束縛系(複数の粒子が相互作用力によって束縛され、全体のエネルギーが各粒子が完全に分離した時のエネルギーよりも低いシステム)においては、階段のようです。

あなたは一段目、二段目、あるいは三段目にしか立つことができず、片足を一段目に、もう片足を二段目に置くことは決してできません。(二股をかけたいわけですね)

例えば、原子内の電子のエネルギーは量子化されています。それは階段の異なる段のように、特定の離散的なエネルギー準位しか持つことができません。

電子がエネルギーを吸収または放出するとき、それはあるエネルギー準位から別のエネルギー準位へと瞬時に跳躍します。この過程は量子跳躍と呼ばれ、中間状態を経ることはありません。(後ほど波動関数について説明しますが、これは瞬間移動と解釈すべきではありません。量子跳躍は瞬時に完了するように見えますが、実際には相互作用によって引き起こされる量子状態の遷移です。)

再び・原子の安定性#

量子化は単なる興味深い微視的な現象ではなく、私たちの宇宙が安定して存在できる根本的な理由です。先ほどの原子の安定性の危機に戻りましょう。なぜ電子は原子核に墜落しないのでしょうか?

答えはエネルギーの量子化にあります。電子のエネルギー準位は量子化されているため、乗り越えられないエネルギーの「段差」が存在します。電子はより低いエネルギー準位に遷移してエネルギーを放出することができますが、それを無限に続けることはできません。

一度最低のエネルギー準位(基底状態)に達すると、それ以上エネルギーを失うことはできなくなります。なぜなら、その下にはもう立つべき段がないからです。(それとも、バックルームに入りたいのですか?)

この最低エネルギーが電子の墜落を防ぎ、原子の安定性を保証しているのです。

したがって、量子化の原理は私たちの世界を構成する礎です。エネルギーや角運動量などの特性が微視的なレベルで離散的で、一つ一つに分かれているからこそ、原子は安定した構造を形成し、化学結合が分子を結びつけ、物質世界は私たちが見るような豊かで多様、かつ安定した秩序を呈することができるのです。

より深いレベルで見ると、量子化の発見は古典物理学の言語の根本的な限界を明らかにしました。

古典物理学は連続性の仮定の上に成り立っており、その中心的な数学的ツールは連続的な変化を扱う微分積分学です。一方、量子化の発見は、宇宙の根底にある論理が離散的で、デジタル的であることを意味します。

これにより、物理学者たちは、坂道ではなく階段の上に築かれたこの現実を記述するために、線形代数や作用素論といった全く新しい数学的言語を採用せざるを得なくなりました。

これは、量子力学の数学的形式が初学者にとってなぜこれほど抽象的に見えるのかを説明しています。なぜなら、それは全く新しい概念に基づいているからです。

量子力学の三大特徴#

量子について語るなら、波と粒子の二重性、重ね合わせの状態、量子もつれを同時に説明しないわけにはいきません。そして、これらは量子計算を理解するための基礎的な物理概念でもあります。

波と粒子の二重性、私は波?いや、粒子だ#

古典的な世界では、物事は二つのカテゴリーにはっきりと分けられていました。

粒子と波です。

粒子は、ビリヤードの球のように、空間内のある確定した位置を占める離散的な実体です。

波は、水面のさざ波のように、空間を伝わる広がりを持った擾乱です。

この二つは明確に区別され、互いに相容れません。

しかし、量子の世界では、この明確な境界線は消え去ります。

量子力学の中心的な原理の一つが波と粒子の二重性(Wave-Particle Duality)であり、それは、粒子と考えられていた電子であれ、波と考えられていた光であれ、すべての微視的な実体が、粒子と波の両方の性質を同時に持つことを示しています。

最終的にどちらの性質が観測されるかは、完全に実験のセットアップと観測方法に依存します。重要なのは、同じ実験でこれら二つの相補的な性質を同時に観測することは決してできないという点です。

波と粒子の二重性の奇妙さを、有名な二重スリット実験ほど見事に示すものはありません。

この実験の設計は非常にシンプルですが、その結果は私たちの現実に対する直感的な認識をすべて覆すのに十分です。

まず、比較のために巨視的な物体で考えてみましょう。あなたの前に壁があり、その壁には二つの平行なスリットが開いていると想像してください。あなたはこの壁に向かってランダムにテニスボールを投げます。

いくつかのボールは壁に遮られ、いくつかはどちらかのスリットを通り抜け、壁の後ろの壁に当たります。

最終的に、後ろの壁(これを検出スクリーンと呼びましょう)には、ボールが当たった点が記録されます。

スリットの形に対応する二つの帯状の領域が見られ、そこにテニスボールが集中しているはずです。これは私たちの直感に完全に一致する、典型的な粒子の振る舞いです。

少し複雑に聞こえるかもしれませんが、壁に二つの隙間があって、そこから壁の向こうの景色が見えるとします。あなたに見える景色が、だいたいテニスボールの落下点に相当します。

もちろん、テニスボールの代わりにバスケットボールを使っても構いません。

次に、実験装置を水槽の中に置き、テニスボールの代わりに波を使います。水波が二重スリットに到達すると、各スリットが新たな波源となり、外側に広がる円形のさざ波を生み出します。

これら二組のさざ波は、伝播する過程で互いに重なり合い、干渉します。ある場所では二つの波の山が重なり、より高い山を形成します(強め合う干渉)。

別の場所では、波の山と谷が出会い、互いに打ち消し合って水面は静かになります(弱め合う干渉)。

最終的に、検出スクリーン上には、明るい部分と暗い部分が交互に現れる一連の縞模様、すなわち干渉縞が見られます。これは波の典型的な振る舞いです。

実験の最も重要な部分がやってきました。すべてを小さな装置の中に入れ、電子銃から、二つの小さなスリットがある壁に向かって電子を発射します。

私たちは、先ほど述べたように、あなたが見える場所が落下点となるような、二つの帯が見えると予想します。

しかし、実験結果は、電子が一つ一つ、小さな点のように検出スクリーンに到達するにもかかわらず、時間が経つにつれて、それらの点が最終的に形成するパターンは、なんと水波のような干渉縞だったのです!

この結果は不可解です。それは、個々の電子が、観測されていない状態では、なんと同時に二つのスリットを通り抜け、波のように自分自身と干渉し、最後に検出スクリーン上のランダムな一点で粒子として姿を現したことを示唆しているようです。

電子が一体どちらの経路を通ったのかを突き止めるため、スリットに検出器を設置し、電子が通過する際に観測できるようにしましょう。

その時、量子世界の最も奇妙な光景が繰り広げられます。私たちが電子がどちらのスリットを通過したかを観測し始めた途端、干渉縞は瞬時に消え去ってしまいました。

電子の振る舞いは行儀よくなり、テニスボールのように、検出スクリーン上に二つの帯だけを残しました。

量子力学では、電子の経路を知るという行為だけで、実験の結果が完全に変わってしまうのです。観測という行為自体が、電子を拡散した可能性に満ちた波の状態から、経路が確定した粒子へと収縮させてしまうようです。

したがって、この実験は私たちの現実認識の限界を明らかにしました。波と粒子は、量子実体が何であるかの最終的な記述ではなく、むしろ私たちが古典的な世界から借りてきた、特定の状況下でそれがどのように振る舞うかを記述するための二つの不完全な比喩のようなものです。

電子自体は、古典的な意味での波でも粒子でもなく、私たちの日常言語では正確に記述できない、より深遠な量子実体なのです。

私たちの観測行為は、この複雑な量子実体を、私たちが理解できる二つの古典的な概念(波または粒子)のいずれかに無理やり投影するようなものです。

したがって、波と粒子の二重性は、微視的な粒子の二重人格というよりも、私たちが古典的な言語と直感を使って量子を正確に記述できないことの現れと言えるでしょう。

重ね合わせの状態、馬を走らせ、かつ草も食わせない#

波と粒子の二重性は、さらに核心的な量子の概念、すなわち重ね合わせの状態(Superposition)へとつながります。

これは、測定される前には、一つの量子システムが、その取り得るすべての状態の混合状態に同時に存在できることを指します。

電子の位置は正確な一点ではなく、むしろ確率の雲のようなものであり、この雲は空間に広がり、異なる位置でその電子を見つける可能性の大きさを記述しています。

この確率の雲の数学的な記述が波動関数(wave function)です。

空中で高速回転しているコインを想像してください。それが着地する前は、表でも裏でもなく、表と裏の両方の可能性を含む動的な混合状態にあります。

私たちがそれを手で受け止める(測定する)と、その状態は瞬時に収縮し、表か裏のどちらかに確定します。

重ね合わせの状態にあるシステムを測定すると、重ね合わせの状態は瞬時に消え、システム(世界)はその中の一つの可能な状態をランダムに選択して現します。この過程は波動関数の収縮と呼ばれます。

私たちは波動関数を通じて、それぞれの結果が現れる確率を正確に計算できますが、測定前に具体的にどの結果が得られるかを予知することは決してできません。宇宙は最も根源的なレベルで、サイコロを振っているようなのです。

重ね合わせの概念を微視的な世界から巨視的な世界に拡張すると、どれほど馬鹿げた結果になるかを明らかにするため、物理学者のエルヴィン・シュレーディンガーは1935年に有名な思考実験、シュレーディンガーの猫を考案しました。

一匹の猫(仮説上の)を、完全に密閉された鋼鉄の箱に入れます。箱の中には、一個の放射性原子、ガイガーカウンター、そして青酸ガスが入った瓶を叩き割るハンマーを含む小さな装置があります。

この放射性原子は、その後1時間以内に50%の確率で崩壊します。もし原子が崩壊すれば、ガイガーカウンターが作動し、ハンマーが毒薬の瓶を割り、猫は死んでしまいます。もし原子が崩壊しなければ、猫は無事です。

量子力学の重ね合わせの原理によれば、観測を行う前は、その放射性原子は崩壊した状態と崩壊していない状態の重ね合わせにあります。

猫の生死はこの原子の状態と厳密に結びついているため、箱を開けて観測する前は、猫自身も死んでいる状態と生きている状態の重ね合わせになければなりません。つまり、猫は死んでいながら、同時に生きているのです。

もちろん、シュレーディンガー自身は猫が同時に死んでいて生きているとは信じていませんでした。彼がこの思考実験を考案した目的は、量子力学の正しさを証明するためではなく、コペンハーゲン解釈による量子の重ね合わせを無差別に巨視的な物体に適用することがいかに馬鹿げているかを、背理法として鋭く指摘するためでした。

この実験は、量子力学における未解決の核心的な難問、すなわち測定問題を劇的に露呈させました。

一体、何が「測定」にあたるのでしょうか?

ガイガーカウンターの作動でしょうか?

猫と毒ガスの相互作用でしょうか?

それとも、人間の科学者が箱を開けたその瞬間でしょうか?

可能性に満ちた量子の確率法則と、私たちが知覚する「あれかこれか」の古典的な現実との間の境界は、一体どこにあるのでしょうか?量子論自体は、明確で、人為的でない答えを与えていません。

量子もつれ、心はひとつ#

もし重ね合わせの状態がすでに私たちの認識を揺さぶるのに十分だとしたら、量子もつれ(Quantum Entanglement)はその奇妙さを極限まで押し進めます。

これは、二つ以上の量子粒子が特別な方法で相互に関連づけられ、それらの物理的特性が不可分になり、どれだけ離れていても統一された一つのシステムを形成することを指します。

一つの粒子の状態を独立して記述することはできず、その状態は他の粒子との関連においてのみ意味を持ちます。

ある方法(例えば不安定な粒子の崩壊)で、互いにもつれた一対の電子を生成したと想像してください。角運動量保存則によれば、それらのスピンの向きは互いに反対でなければなりません。

測定される前は、各電子はスピンが上向きの状態と下向きの状態の重ね合わせにあります。

さて、この二つの電子を分離し、一つを北極に、もう一つを南極に送ります。

あなたが北極の電子を測定し、そのスピンが上向きであることがわかったとします。するとその同じ瞬間に、遠く南極にあるもう一方の電子の状態は即座に下向きに確定します。逆もまた然りです。

この相関は瞬時であり、空間の距離を無視しているように見えます。まさにこの現象が、アインシュタインを深く不安にさせ、彼はこれを「不気味な遠隔作用(spooky action at a distance)」と呼びました。なぜなら、それは特殊相対性理論における、いかなる情報や影響の伝播速度も光速を超えることはできないという原則に違反しているように見えたからです。

量子もつれの独自性を理解するために、私たちがよく知る古典的な相関と区別する必要があります。

一組の手袋、左手用と右手用があると想像してください。それらを別々に不透明な箱に入れ、一つをフランスにいる友人に送り、もう一つを自宅に置いておきます。

あなたが自分の箱を開けて、中身が右手用の手袋であるとわかったとき、友人の箱の中身が左手用の手袋であることが即座にわかります。これは不思議なことではありません。なぜなら、この情報(どちらが左手用で、どちらが右手用か)は最初から確定しており、あなたの発見は単に既に存在していた事実を明らかにしたに過ぎないからです。

量子もつれは全く異なります。

もつれた粒子の特性(例えばスピンが上向きか下向きか)は、測定される前に予め確定していません。

それらは両方の可能性を含む重ね合わせの状態にあります。これは、観測される前の二つの手袋が、それぞれ同時に左手用でもあり右手用でもある、と言うようなものです。

どちらかの箱を開けて観測したその瞬間に、両方の手袋の状態が瞬時に共に確定し、一つが左手用、もう一つが右手用になるのです。

物理学者のジョン・ベルが提唱したベルの定理とその後の数多くの実験は、現実の量子が後者のように振る舞うことを雄弁に証明し、手袋のような局所的な隠れた変数理論の可能性を排除しました。

特に強調すべきは、もつれた粒子間の相関は瞬時であるものの、これを使って超光速通信を実現することはできないという点です。

その理由は、一方の粒子を測定することが瞬時に他方の粒子に影響を与えるとしても、粒子測定の結果自体は完全にランダムだからです。

私たちは一方の粒子をスピン上向きの状態に収縮させて、他方に「1」の信号を送るように制御することはできません。

量子もつれ現象は、基本的な信念の一つである局所性の原理(principle of locality)、すなわち物体はその直接的な周囲の環境からのみ影響を受けるという考え方に、根本から挑戦します。

それは、宇宙が最も深いレベルで非局所的である可能性、つまり万物の間に私たちの古典的な直感を超える深いつながりが存在することを私たちに示しています。

私たちが知覚する分離や距離は、単なる巨視的な幻影なのかもしれません。

もつれた二つの粒子は、どれだけ離れていても、本質的には分割不可能な単一の量子システムと見なされるべきです。これこそがアインシュタインを「不気味」だと感じさせた点なのです。

量子コンピュータ?何それ、おいしいの?#

1980年代初頭、物理学者のリチャード・ファインマンは深遠な問いを投げかけました。

コンピュータで物理世界をシミュレートできるだろうか?

しかし彼はすぐに、自然界の本質が古典力学ではなく量子力学であるため、古典的なコンピュータで量子現象を正確にシミュレートしようとするいかなる試みも、根本的な障害に直面することに気づきました。

指数関数的な壁#

古典的なコンピュータは、私たちの日常生活におけるほとんどの問題を処理するのに優れていますが、複雑な分子の相互作用や新材料の特性などの量子システムをシミュレートする際には無力です。その根本的な原因は、指数関数的なスケーリングの問題にあります。

量子システムの完全な状態は、その波動関数によって記述されます。NN個の量子ビット(qubit)で構成されるシステムの状態を完全に記述するためには、古典的なコンピュータは2N2^N個の複素数(確率振幅)を保存し、処理する必要があります。

量子ビットの数NNが線形に増加するにつれて、必要な古典的な計算リソース(メモリと時間)は指数関数的に爆発します。

10量子ビットをシミュレートするには、210=10242^{10} = 1024個の複素数を保存する必要があり、これはどんなノートパソコンでも簡単です。

30量子ビットをシミュレートするには、2302^{30}個の複素数が必要で、約8GBのメモリを要しますが、これもまだ個人のコンピュータの処理範囲内です。

しかし、50から60量子ビットをシミュレートするのに必要なメモリは……。

この乗り越えられない計算の障壁は、しばしば「指数関数的な壁」と呼ばれます。これは、少しでも規模の大きい量子システムに対しては、古典的なコンピュータはその状態を正確に保存することさえできず、ましてやその動的な変化をシミュレートすることは不可能であることを意味します。

この挑戦に直面して、ファインマンは一つの構想を提唱しました。「量子を使って量子をシミュレートすればいいのではないか?」

量子のルールに従うシステムをシミュレートする最も効率的な方法は、それ自体が量子力学の原理によって駆動されるコンピュータを構築することです。

この構想が量子計算の基礎を築きました。量子コンピュータは古典的なコンピュータのすべての機能を置き換えることを目指すものではなく、量子力学固有の特性(重ね合わせやもつれなど)を利用して、特定の種類の難問を解決するための専門的なデバイスです。

特に、量子システムのシミュレーション、特定の最適化問題、暗号解読など、指数関数的な複雑さのために古典的なコンピュータでは手に負えない問題が対象となります。

波動関数!#

(注意:ここからの内容は非常に抽象的で、直感に反し、分かりにくい可能性があります。できるだけ言葉で説明するように努めます。)

量子コンピュータを構築するためには、まず量子情報を記述できる数学的な言語が必要です。この言語の中核は線形代数であり、量子状態という物理的な現実を、正確な数学的対象に変換します。

(え?線形代数を説明しろと?)

古典的なコンピュータの基本単位はビット(bit)で、0か1のどちらかの確定した状態しか取れません。

一方、量子計算の基本単位は量子ビット(qubit)で、0|0⟩1|1⟩、またはその両方の任意の重ね合わせの状態を取ることができます。

この重ね合わせの状態の数学的な記述は、波動関数または状態ベクトルと呼ばれ、通常はψ|\psi⟩と表記されます(これはディラック記法と呼ばれる便利な記法です)。

単一の量子ビットの場合、その一般的な状態は二つの基本状態0|0⟩1|1⟩の線形結合として書くことができます。

ψ=α0+β1|\psi⟩ = \alpha|0⟩ + \beta|1⟩

ここで、 α2+β2=1|\alpha|^2 + |\beta|^2 = 1

  • 0|0⟩1|1⟩は計算基底であり、これらは直交する単位ベクトルで、2次元複素ベクトル空間においてそれぞれ列ベクトル(1,0)T(1, 0)^T(0,1)T(0, 1)^Tに対応します。
  • 係数α\alphaβ\betaは複素数で、確率振幅と呼ばれます。

これらは測定結果の確率を決定するだけでなく、その相対的な位相には量子干渉に関する重要な情報が含まれており、これが量子計算の鍵となります。


重ね合わせの状態ψ=α0+β1|\psi⟩ = \alpha|0⟩ + \beta|1⟩にある量子ビットを測定すると、その波動関数は収縮し、ランダムにどちらかの基底状態に落ち着きます。

量子力学のボルンの規則によれば、測定結果が0|0⟩である確率はα2|\alpha|^2、測定結果が1|1⟩である確率はβ2|\beta|^2です。

この規格化条件は人為的に定められたものではなく、確率保存という基本的な物理公理の直接的な現れであることに注意してください。

一度の測定では必ず何らかの結果(0か1のいずれか)が得られるため、すべての可能な結果の確率の合計は100%(つまり1)でなければなりません。

この条件は、量子状態の数学的な記述が、物理世界の確率的な現実と常に一致することを保証します。

計算、計算、計算、計算#

量子計算の基礎となる量子状態の定義について詳しく説明しました。次の問題は、これらの状態が時間と共にどのように変化するのか?

あるいは、計算は一体どのように行われるのか?ということです。

シュレーディンガー方程式#

閉じた量子システム(例えば、理想的な量子コンピュータ)の時間発展は、時間依存シュレーディンガー方程式によって支配されます。

itψ(t)=H^ψ(t)i\hbar \frac{\partial}{\partial t} |\psi(t)⟩ = \hat{H} |\psi(t)⟩

(ここで、ψ(t)|\psi(t)⟩は時刻ttにおけるシステムの状態(波動関数)、H^\hat{H}はシステムのハミルトニアン(総エネルギーを表す)、\hbarは換算プランク定数です。)

はい、もう読みたくなくなったことはわかっています。簡単に説明しましょう。この方程式は、量子システムの状態(波動関数)が時間と共にどのように変化するかを記述しています。

つまり、初期状態ψ(0)|\psi(0)⟩さえ分かっていれば、この方程式は任意の時刻ttにおける状態ψ(t)|\psi(t)⟩を教えてくれます。

それでも分からなければ、F=maF = maが古典力学の基礎であるように、itψ(t)=H^ψ(t)i\hbar \frac{\partial}{\partial t} |\psi(t)⟩ = \hat{H} |\psi(t)⟩が量子力学の基礎であると類推してください。

この方程式がどのように導出されるかについては、ここでは省略します。要するに、時間を微小なステップに分割し、各ステップでの伝播核KKを、位相=作用\text{位相} = \frac{\text{作用}}{\hbar}で重み付けされたすべての経路の和として求めます:

K(b,a)=D[x(t)]eiS[x(t)]K(b,a)=\int\mathcal{D}[x(t)]\,e^{\frac{i}{\hbar}S[x(t)]}

短時間伝播関数を時間の1次まで展開し、経路積分を再編成して極限を取ると、シュレーディンガー方程式と同じ微分方程式の形式が得られます。

ユニタリー演算#

シュレーディンガー方程式は線形微分方程式であり、その解は初期状態に作用する線形演算子として表現できます。あるシステムが時刻t=0t=0で状態ψ(0)|\psi(0)⟩にあったとすると、少し後の時刻ttでの状態はψ(t)=U(t)ψ(0)|\psi(t)\rangle = U(t) |\psi(0)\rangleとなります。ここでU(t)=eiHtU(t) = e^{-\frac{i}{\hbar} H t}は時間発展演算子と呼ばれます。シュレーディンガー方程式から、U(t)U(t)はユニタリー演算子(Unitary Operator)でなければならないことが厳密に証明されます。

演算子(または行列)UUがユニタリーであるとは、その共役転置UU^†がその逆行列U1U^{-1}に等しい、つまりUU=IU^†U = I(ここでIIは単位行列)である場合を指します。

ユニタリー性には、確率保存と可逆性という二つの極めて重要な物理的意味があります。

ユニタリー変換はベクトルのノルム(長さ)を保存します。これは、初期状態が規格化されている(総確率が1である)場合、ユニタリー発展後のいかなる状態も必ず規格化されていることを意味します。

これにより、計算過程で確率がどこからともなく生まれたり消えたりしないことが保証されます。

ユニタリー演算子には常に逆演算子が存在するため、量子発展の各ステップは理論上可逆です。逆操作UU^†を適用することで、計算前の状態に正確に戻ることができます。

ユニタリー性は、簡単に言えば、システムがどのように発展し、波動関数がどのように回転しても、総確率は常に100%であり、増えも減りもしない、と理解できます。

ここで、「一体何を言っているんだ?さっぱりわからない!」と思う人もいるでしょう。

ここで重要な概念を導入する必要があります。量子計算では、いかなる情報の損失も、システムが外部と不可逆的な相互作用(測定やデコヒーレンスなど)を起こしたことを意味し、これは量子の重ね合わせ状態を破壊します。

したがって、量子コンピュータは、計算過程で情報が破棄されたり、複製されたりしないこと(量子の複製不可能定理のため)を保証しなければなりません。

これにより、すべての演算は可逆的なユニタリー変換でなければならない、という要請が生まれます。

ゲート#

量子計算において、量子ビットに対する操作は量子ゲートと呼ばれます。いかなる量子計算過程も、物理的に許容される閉じたシステムの発展でなければならないため、各量子ゲートはユニタリー行列で表現されなければなりません。

これが、量子計算と量子物理学の間の最も深いつながりを形成しており、計算の論理規則は宇宙の基本的な物理法則から直接導かれています。

はい、非常にややこしい話でしたので、少しまとめましょう。量子計算にはシュレーディンガー方程式という基礎方程式があり、計算の正確性を保証するために、システム全体が量子状態を保たなければなりません。そのため、計算途中の安定性を保つためにユニタリー演算を用います。

そして、計算には論理ゲートが必要ですが、量子計算の論理ゲートは古典的なものとは異なり、その理由は上記の内容に基づいています。

アルゴリズム、アルゴリズム、アルゴリズム#

量子アルゴリズムは、一連の巧妙に設計された量子ゲート(ユニタリー変換)を用いて量子ビットの波動関数を操作し、重ね合わせと干渉を利用して問題を解決します。

H#

アダマールゲート(Hadamard Gate, H)は、重ね合わせ状態を生成するための最も中心的なツールの一つです。その行列表示は以下の通りです。

H=12[1111]H = \frac{1}{\sqrt{2}} \begin{bmatrix} 1 & 1 \\ 1 & -1 \end{bmatrix}

アダマールゲートが基底状態0|0⟩の量子ビットに作用すると、その効果は以下のようになります。

0H0+12|0⟩ \xrightarrow{H} \frac{|0⟩ + |1⟩}{\sqrt{2}}

結果は均一な重ね合わせ状態となり、測定時に0または1を得る確率はそれぞれ50%です。この操作は量子並列性の基礎であり、複数の量子ビットにアダマールゲートを適用することで、考えられる2N2^N通りの入力すべてを含む重ね合わせ状態を生成でき、量子アルゴリズムがこれらすべての入力に対して同時に計算を行うことを可能にします。

つまり、簡単に言えば、Hゲートは私たちに重ね合わせの状態にある量子を与えてくれるのです。

CNOT#

制御NOTゲート(CNOT)は2量子ビットゲートであり、量子もつれを生成するための重要なツールです。

その働きは、制御量子ビットが1|1⟩であればターゲット量子ビットの状態を反転させ、そうでなければ何もしない、というものです。

制御ビットが重ね合わせの状態にあるとき、CNOTゲートはもつれを生成できます。典型的な例はベル状態の生成です。

(ベル状態とは Φ+=12(00+11)Φ=12(0011)Ψ+=12(01+10)Ψ=12(0110)\begin{aligned} |\Phi^+\rangle &= \frac{1}{\sqrt{2}}(|00\rangle + |11\rangle) \\ |\Phi^-\rangle &= \frac{1}{\sqrt{2}}(|00\rangle - |11\rangle) \\ |\Psi^+\rangle &= \frac{1}{\sqrt{2}}(|01\rangle + |10\rangle) \\ |\Psi^-\rangle &= \frac{1}{\sqrt{2}}(|01\rangle - |10\rangle) \end{aligned} のことです)

CNOTゲートの行列表示は以下の通りです。

CNOT=[1000010000010010]CNOT = \begin{bmatrix} 1 & 0 & 0 & 0\\ 0 & 1 & 0 & 0\\ 0 & 0 & 0 & 1\\ 0 & 0 & 1 & 0 \end{bmatrix}

例を挙げましょう。最初の量子ビット(制御ビット)をアダマールゲートで重ね合わせ状態12(0+1)\frac{1}{\sqrt{2}}(|0⟩ + |1⟩)にし、二番目の量子ビット(ターゲットビット)は0|0⟩のままにします。このとき、システム全体の初期状態は12(00+10)\frac{1}{\sqrt{2}}(|00⟩ + |10⟩)です。

ここにCNOTゲートを作用させます。00|00⟩の部分に対しては、制御ビットが0なのでターゲットビットは変わらず、00|00⟩のままです。

しかし、10|10⟩の部分に対しては、制御ビットが1なのでターゲットビットが反転し、11|11⟩に変わります。

最終的に、もつれ状態であるΦ+=12(00+11)|\Phi^+⟩ = \frac{1}{\sqrt{2}}(|00⟩ + |11⟩)を得ることができます。

この状態はもつれています。なぜなら、二つの独立した量子ビットの状態の積として書くことができないからです。これら二つの量子ビットはもはや独立したアイデンティティを失い、不可分な全体を形成しています。一方を測定すると、どれだけ離れていても、もう一方の状態が瞬時に決定されます。

まとめ#

はい、ここまでで何が何だか分からなくなっている方が多いと思いますので、量子もつれと量子計算を説明するために、簡単な小さな実験をしてみましょう。

0が表、1が裏だと仮定し、手元に2枚のコインがあるとします。量子コンピュータにコイン投げをさせてみましょう。

ここでの目標は、2枚のコインをもつれさせ、その結果が常に同じ(00または11)、あるいは調整後に常に反対(01または10)になるようにすることです。

この実験では、「2枚のコインが両方とも表か、両方とも裏」(つまり00と11)をデモンストレーションとして使用します。

2つの量子ビットの初期状態00|00⟩(両方とも表)から出発し、以下の2つの量子操作を順に実行します。

最初の操作はHゲートで、これは0|0⟩を重ね合わせ状態12(0+1)\frac{1}{\sqrt{2}}(|0⟩ + |1⟩)に変化させます。

これを最初の量子ビットに作用させると、システムの状態は以下のようになります。

ψ1=12(00+10)|\psi_1⟩ = \frac{1}{\sqrt{2}}(|00⟩ + |10⟩)

これは、最初の量子ビットが回転しているコインのようになり、二番目はまだ表のままであることを意味します。

二番目の操作はCNOTゲートで、2つのビットに作用します(0番目のビットが制御、1番目のビットがターゲット)。

制御ビットが1|1⟩ならターゲットビットを反転させ、0|0⟩なら何もしません。

このとき、システムの状態は以下のようになります。

ψ2=12(00+11)|\psi_2⟩ = \frac{1}{\sqrt{2}}(|00⟩ + |11⟩)

つまり、2枚のコインの結果は常に同じになります。1枚目が表なら、2枚目も表。1枚目が裏なら、2枚目も裏です。

それらの結果は完全に相関しており、この状態が量子もつれ状態(ベル状態)です。

量子ビット技術#

数学の話はたくさんしたので、ここからは物語、つまり量子ビット技術についてお話ししましょう。

超伝導回路#

超伝導量子計算は、現在最も発展が速く、最もスケーラブルなアプローチの一つです。その最大の利点は、成熟した半導体の微細加工技術を応用でき、量子ビット数を迅速に拡張できる点にあります。

その物理的な基礎は、巨視的な電子回路を絶対零度に極めて近い極低温(約15mK)まで冷却し、超伝導状態にすることで、制御可能な巨視的量子効果を発現させることにあります。

超伝導量子ビットは、本質的には人工的に作られた巨視的な量子システムであり、非線形なLC共振回路(f=12πLCf = \frac{1}{2\pi\sqrt{LC}})として単純化できます。

標準的なLC回路では、エネルギー準位は等間隔であり、完全な調和振動子のようです。

これは、特定の周波数のマイクロ波パルスを使ってシステムを基底状態0|0\rangleから第一励起状態1|1\rangleへ遷移させようとすると、そのパルスは同様にシステムを1|1\rangleから第二励起状態2|2\rangleへ、さらにその上へと遷移させてしまうことを意味します。

このエネルギー準位の縮退により、システムの操作を0|0\rangle1|1\rangleの2つの量子ビット状態に正確に限定することができず、有効な量子ビットを構築できません。

この根本的な難問を解決する鍵となるのが、ジョセフソン接合(Josephson Junction, JJ)です。

ジョセフソン接合は、2層の超伝導体の間に極薄の絶縁バリアを挟んだ構造で、その独特な物理効果により、超伝導電子対(クーパー対)が量子トンネル効果によってこの絶縁層を通過し、超伝導電流を形成します。

この過程の物理的特性が、ジョセフソン接合に非線形インダクタンスという極めて重要な属性を与えます。

この非線形インダクタンスの存在が、LC回路のエネルギー準位構造を根本から変えます。それは調和振動子のエネルギー準位の縮退を破り、基底状態0|0\rangleと第一励起状態1|1\rangleの間のエネルギー差(遷移周波数ω01\omega_{01})が、第一励起状態1|1\rangleと第二励起状態2|2\rangleの間のエネルギー差(遷移周波数ω12\omega_{12})と等しくならないようにします。このエネルギー準位の間隔の不均一性は、非調和性(anharmonicity)と呼ばれます。

まさにこの非調和性のおかげで、私たちは正確に調整されたマイクロ波周波数を用いて、01|0\rangle \leftrightarrow |1\rangle間の遷移だけを選択的に駆動し、意図せずにより高いエネルギー準位へ励起させることなく、この巨視的な回路を効果的に、精密に操作可能な2準位量子システム、すなわち量子ビットに変えることができるのです。

数ある超伝導量子ビットの設計の中でも、トランスモン(Transmon)量子ビットは、IBMやGoogleなどの業界リーダーの標準アーキテクチャとなっています。

トランスモンの設計は、回路パラメータをジョセフソンエネルギー(EJE_J)が充電エネルギー(ECE_C)よりはるかに大きい領域、すなわちEJECE_J \gg E_Cとなるように巧みに設定しています。

この設計の核心的な利点は、量子ビットが環境中の電荷ノイズに対する感度を大幅に低減し、その結果、コヒーレンス時間を著しく延長したことです。これは、初期の超伝導量子ビット設計からの大きな進歩です。IBMのHeron、Condorシリーズのプロセッサや、GoogleのSycamore、Willowプロセッサは、すべてトランスモンベースのアーキテクチャを採用しています。

超伝導回路の利点は、非常に高速なゲート操作速度と優れたスケーラビリティです。

一方、欠点は、比較的短いコヒーレンス時間、厳しい動作環境、そして限られたビット接続性です。

後ほど、ここで出てきたキーワード、ゲート操作速度、スケーラビリティ、コヒーレンス時間、ビット接続性についてまとめて説明します。(え?過酷な動作環境が何かって?答え:15mKです)

イオントラップ#

人工的な超伝導回路とは異なり、イオントラップ量子計算は、自然界で最も完璧な量子システムである単一原子を量子ビットとして利用するアプローチを選択します。

原子の外層電子を剥ぎ取って帯電させることで、これらのイオンは電磁場によって精密に操作できるようになります。

イオントラップ型量子コンピュータの核心は、イッテルビウム171(171Yb+^{171}\text{Yb}^+)やバリウム(137Ba+^{137}\text{Ba}^+)などの単一の荷電原子(イオン)を量子ビットとして利用することです。

これらのイオンは超高真空チャンバー内に浮遊させられ、静電場と高周波(RF)交流電場を組み合わせたパウルトラップ(Paul Trap)によって捕捉されます。

この電磁場の組み合わせは空間に鞍型のポテンシャル井戸を形成し、ポテンシャル井戸を高速で回転させることで、イオンは動的に井戸の中心に束縛され、外部環境から極めて良好に隔離されます。

さて、これはかなり抽象的ですが、ざっと見ておくだけで大丈夫です。重要なのは、イオントラップでは、すべてのイオンが同じポテンシャル井戸に閉じ込められているため、静電的なクーロン力によって互いに反発し、作用し合うことです。

この相互作用により、イオントラップ全体の振動モードは集団的なものとなり、これらの量子化された振動モードはフォノン(phonons)と呼ばれます。

これにはどんな利点があるのでしょうか?非常に長いコヒーレンス時間、非常に高いゲート忠実度、全結合性、そして完璧な量子ビットの一様性です。

非常に良さそうに聞こえますが、欠点も明らかです。非常に遅いゲート操作速度と低いスケーラビリティです。

後ほど、ここで出てきたキーワード、コヒーレンス時間、ゲート忠実度、全結合性、量子ビットの一様性、ゲート操作速度、スケーラビリティについてまとめて説明します。

光プロセッサ#

光量子計算は、上記の物質ベースの量子ビットとは全く異なるパラダイムを採用しています。それは光の最小エネルギー単位である光子を量子ビットとして使用し、その波動性と粒子性を利用して情報処理を行います。

光量子計算は主に、ビームスプリッター、ミラー、位相シフターなどの線形光学素子に依存して光子量子ビットを操作します。これらの素子は、光子を導いて干渉させることで、量子ゲート操作を実現します。

しかし、光子同士は自然にはほとんど相互作用しないため、2量子ビットのもつれゲートを実現することが光量子計算の最大の課題となっています。現在の方式は通常確率的であり、補助光子と射影測定を利用する必要があり、この計算モデルは測定型量子計算(Measurement-Based Quantum Computing, MBQC)と呼ばれています。

光プロセッサの利点は、非常に高い堅牢性と室温での動作ですが、欠点は確率的な2ビットゲート、高品質な単一光子源の生成方法、そして光子の損失です。


超伝導アプローチは、速度とスケーラビリティのポテンシャルを優先し、比較的高いエラー率を将来的にエラー訂正や緩和技術で解決できる工学的な問題と見なしています。

一方、イオントラップアプローチは、最初から究極の量子ビット品質と接続性を追求し、その代償として遅いゲート速度を受け入れています。

光プロセッサについては、確率的なゲートや光子損失といった大きな課題を克服できれば、量子計算の展開と応用モデルを根本から変え、より普及しやすく、統合しやすいものにする可能性があります。

特性#

それでは、上で述べたいくつかの特性について説明します。

  • ゲート操作速度(gate time / gate speed) 一度の量子論理ゲート操作に必要な時間。短いほど良い。なぜなら、コヒーレンスが失われる前により多くのゲート操作を完了できるからです。しかし、ゲートを高速化することは、通常、高い忠実度と低いクロストークを維持することを難しくします。
  • スケーラビリティ(scalability) 量子ビット数、配線、制御および読み出しチャネルが倍増したときに、システムがコスト、エラー率、相互接続、および熱放散を制御可能な範囲内に維持できるかどうか。これには、複数のQPU(量子プロセッサ)を組み合わせるモジュラー/分散型量子計算の能力も含まれます。
  • コヒーレンス時間(coherence time) ここでデコヒーレンスについて説明します。詳細は後述しますが、デコヒーレンスとは、量子システムがその環境と相互作用する際に、量子の重ね合わせ状態の位相関係が徐々に失われ、システムが量子状態から古典的な混合状態へと変化する過程を指します。
  • ビット接続性(qubit connectivity) 任意のビットが、直接2ビットゲート(量子もつれを生成するCNOTに代表されるゲート)を実行できる他のビットの数。接続性が高いほど、コンパイルに必要な中間的な交換操作が少なくなり、回路の深さが小さくなります。
  • ゲート忠実度(gate fidelity) ゲート操作の結果が理想的なものとどれだけ近いか。詳細は後述します。
  • 全結合性(all-to-all connectivity) 任意の2つのビット間で直接2ビットゲートを実行できること。これにより、ルーティングのオーバーヘッドが減少します。すべての物理プラットフォームが自然にこの特性を備えているわけではありません。
  • 量子ビットの一様性(qubit uniformity) チップ上の異なるビットが、周波数やノイズなどのパラメータにおいてどれだけ一致しているかの度合い。高い一様性は、校正と制御を簡素化し、スケーラビリティと歩留まりを向上させることができます。
  • 高品質な単一光子源と光子損失(photonic) 光量子計算には、オンデマンドで、純粋で、区別不可能な単一光子源が必要です。同時に、チャネルやデバイスでの損失(および検出効率の不足)を極めて低く抑える必要があります。さもなければ、ゲートの成功率と全体的なスケーラビリティが非常に低くなります。

性能#

量子ビットの数を数えるだけでは、量子コンピュータの真の能力を測るには全く不十分です。

数百個のノイズが多く、接続性の悪い量子ビットを持つプロセッサの計算能力は、数十個の高品質で全結合の量子ビットを持つシステムよりもはるかに劣る可能性があります。したがって、量子の性能を評価するには、多次元的で厳密な主要指標のセットが必要です。

コヒーレンス時間#

コヒーレンス時間は、量子ビットがその脆弱な量子状態を維持する能力を測る中心的な指標であり、量子情報が環境ノイズによって破壊される前に存在できる寿命を定義します。

コヒーレンス時間が長いほど、量子ゲート操作を実行するための時間が長くなり、より深く、より複雑な量子アルゴリズムを実行できるようになります。

T1は、エネルギー緩和時間(Energy Relaxation Time)または縦緩和時間とも呼ばれ、励起状態1|1\rangleにある量子ビットが、環境とのエネルギー交換によって自発的に基底状態0|0\rangleに減衰するのに要する特性時間を記述します。

T1は、量子ビットのエネルギー準位の占有率の安定性を測定します。ブロッホ球モデルでは、この過程は北極を指すベクトル(1|1\rangle状態を表す)が徐々に南極(0|0\rangle状態を表す)へと緩和していく過程として想像できます。

T2は、デコヒーレンス時間(Dephasing Time)または横緩和時間とも呼ばれ、量子ビットが重ね合わせ状態(例えば12(0+1)\frac{1}{\sqrt{2}}(|0\rangle + |1\rangle))にあるときに、その量子位相情報が環境ノイズによってランダム化されるのに必要な時間を記述します。

位相は量子干渉の基礎であり、量子干渉は量子アルゴリズムが高速化能力を得るための鍵です。T2は、量子の重ね合わせ状態における位相関係の安定性を測定します。

ブロッホ球モデルでは、この過程は赤道上にあるベクトルの方位角情報が徐々に不確かになり、最終的に赤道平面上で均一に拡散していく様子として現れます。

T1とT2の間には、T22T1T_2 \le 2T_1という基本的な関係があります。これは、エネルギー緩和(T1過程)を引き起こすいかなる物理メカニズムも、必然的に位相関係(T2過程)を破壊するためです。

しかしその逆は真ではなく、純粋な位相ノイズはエネルギー損失を引き起こすことなくデコヒーレンスを引き起こすことができます。したがって、T2時間は通常T1時間よりも短く、量子計算の性能を制限するより重要な要因となることが多いです。

簡単に言えば、コヒーレンス時間は量子計算においてリミッターの役割を果たします。

ゲート操作速度は個々の操作がどれだけ速いかを決定しますが、コヒーレンス時間は量子状態が崩壊する前に私たちが合計でどれだけの連続操作を実行できるかを決定します。

コヒーレンス時間が長いほど、より多くの操作を行うことができます。

非常に簡単な例を挙げると、太陽が出ているときだけ起きていて、太陽がないと眠ってしまう人がいるとします。

このコヒーレンス時間は日照時間であり、日照時間が長いほど、その人が1日でできる仕事の量も多くなります。

ゲート忠実度#

ゲート忠実度は、量子ゲート操作の精度を測る中心的な指標です。これは、物理的なハードウェア上で実際に実行された量子ゲート操作が、理論的に理想的でノイズのない数学的な変換とどれだけ近いかを定量化します。

例えば、99.9%の忠実度とは、そのゲート操作を実行する際に0.1%の確率でエラーが発生することを意味します。

ここには通常、単一量子ビットゲート忠実度(1Q Gate Fidelity)と2量子ビットゲート忠実度(2Q Gate Fidelity)の2つの指標が登場します。

2ビットゲートは量子ビット間の相互作用を精密に制御する必要があるため、通常は単一ビットゲートよりも複雑でエラーが発生しやすく、したがって2Qゲート忠実度が量子コンピュータ全体の性能のボトルネックとなることが多いです。

注意すべきは、量子アルゴリズムは通常、何千、何百万もの量子ゲートを実行する必要があるという点です。

個々のゲートのエラー率が低くても、これらのエラーは計算過程で蓄積され、最終的には正しい計算結果を完全に覆い隠してしまう可能性があります。

量子回路の総忠実度は、大まかに言って、それに含まれるすべての個々のゲート忠実度の積と見なすことができます。ある回路がNN個のゲートを含み、各ゲートの平均忠実度がFFであるとすると、回路全体の成功確率は約FNF^Nになります。

例えば、一見非常に高い99%(F=0.99F=0.99)の2ビットゲート忠実度でも、わずか70回のゲート操作を経ると、回路全体の忠実度(0.99700.99^{70})は50%以下に低下します。これは、計算結果の半分以上が誤りであり、ランダムな推測と変わらないことを意味します。

これこそが、現在のノイズあり中規模量子(NISQ)コンピュータが浅い回路しか実行できない根本的な理由であり、また、ゲート忠実度を99.5%から99.9%に向上させることが、計算可能な問題の規模拡大に直結するため、いかに大きな技術的飛躍であるかを説明しています。

高い忠実度(通常は99.9%以上が求められる)を実現することは、量子誤り訂正符号(QEC)を適用するための前提条件でもあります。

NISQやQECが何かについては、どうぞ焦らず、ゆっくりと説明していきます。

総合評価#

単一の指標の限界を克服するため、研究者たちは量子コンピュータの全体的な計算能力を一つの総合的な数値で評価することを目的とした、複数の包括的な(holistic)ベンチマークを開発しました。

IBMによって提唱された量子体積(Quantum Volume, QV)は、現在業界で最も広く採用されている包括的ベンチマークの一つです。

これは単に特定の単一パラメータを測定するのではなく、特定の形式のランダムな量子回路を実行することで、システムの総合的な性能を包括的に評価します。QVは、「この量子コンピュータは、どれだけ大きく、どれだけ複雑な量子回路を成功裏に実行できるか?」という核心的な問いに答えることを目指しています。

QV以外にも、業界は他のベンチマークを模索しています。

例えば、IonQ社はアルゴリズミック量子ビット(Algorithmic Qubits, #AQ)という概念を提唱しました。

#AQは、QAOA最適化アルゴリズムのような、応用的価値のある具体的なアルゴリズムを実行することで、コンピュータの有効な規模を測定することを目的としています。

#AQの値は、そのアルゴリズムを成功裏に実行できる最大の量子ビット数に等しくなります。例えば、#AQ 36は、そのシステムが36量子ビットで代表的なアルゴリズムインスタンスを成功裏に実行できることを意味します。

量子の時代#

量子ハードウェアは過去数年で飛躍的な発展を遂げましたが、私たちは、現在この分野全体がまだ非常に基礎的な段階、すなわちノイズあり中規模量子(Noisy Intermediate-Scale Quantum, NISQ)の時代にあることを冷静に認識しなければなりません。

これは、私たちが手にしている量子コンピュータが、天才的な職人がガレージで手作りした最初の蒸気機関のプロトタイプのようなものであることを意味します。それらは轟音を立て、蒸気を漏らし、効率は低いですが、全く新しい動力パラダイムの可能性を議論の余地なく証明しています。

私たちは、エラー緩和(Error Mitigation)という応急処置の時代から、量子誤り訂正(Quantum Error Correction, QEC)という工業化の時代へと、困難な一歩を踏み出そうとしている黎明期にいます。

これこそが、この記事が日進月歩のチップモデルや、すぐに古くなるアルゴリズムのニュースを追わなかった理由です。代わりに、量子力学の理解と量子計算の基礎に焦点を当てました。

なぜなら、その背後にある意味を理解してこそ、目の前にあるものが本物か偽物か、虚か実かを真に見極めることができるからです。

この情報が爆発する世界において、中心となる思想を掴むことこそが、将来どんなに目まぐるしい新たな進展が現れようとも、この技術革命の脈動を真に捉えることにつながります。

人類の物理学の始まりを振り返ると、ニュートンの精密な時計仕掛けのような、決定論的な古典的宇宙から、確率、重ね合わせ、そしてもつれに満ちた、不安でありながらも魅惑的な量子の現実へと至りました。

過去一世紀の間に、人類は認識における飛躍を遂げ、量子的な思考を基盤として、新たなものの研究を開始しました。

そして量子計算は、この「新たなもの」の最初の顧客です。これは単なる計算能力の競争ではありません。そのより深い意味は、人類が宇宙の根源的な言語を用いて、問題を考え、解決することを学び始めているという点にあります。

私たちはもはや、古典的な0と1でこの世界を近似的にシミュレートすることに満足せず、波動関数そのものを直接操り、確率振幅の干渉に答えを導かせようと試みています。

量子コンピュータの未来は、おそらく私たちの机の上のコンピュータを置き換えることではなく、人類が未知の領域を探求するための「思考の義肢」となることでしょう。

それはまず、新薬開発、材料科学、宇宙シミュレーションなど、古典計算では無力だった領域で、私たちにこれまで見たことのない扉を開いてくれるはずです。

未来は、まだ始まったばかりです。


お読みいただきありがとうございました。Quantum Echoesアルゴリズムについては、後日noteで(おそらく短い記事として)公開する予定です。この記事はここで終わりです。執筆だけで7時間近くかかり、資料調査やいくつかの実験を加えると、さらに多くの時間がかかりました。楽しんでいただけたなら幸いです。では、次の記事でお会いしましょう👋

量子とは何か?
https://baidu.blog.icechui.com/ja/blog/p/qubit1
Author baidu0com
Published at October 29, 2025