写稿前日谷歌发布了新的算法,Quantum Echoes,(可以叫回声算法?)旨在高可验证性。本来 blog 中我不太想整一些抽象的东西,但是这些新闻/报道底下的评论属实难绷,所以来说说什么是量子吧。
经典力学#
我们生活在一个看似井然有序、可预测的世界里。一个苹果从树上掉落,一颗行星绕着太阳公转,一颗台球在桌面上滚动。
所有上述现象都遵循着一套我们熟悉并直观的规则。
经典力学!
在牛顿描绘的宇宙图景中,万物都像一个巨大而精密的钟表装置。宇宙中的每一个物体,从最小的尘埃到最庞大的星系,都有其确定的位置和动量。
如果我们能精确地知道一个系统在某一时刻的所有初始条件,比如所有粒子的位置、速度以及作用在它们身上的力,我们原则上就能像预测某人几点回家一样,精确地预测这个系统在未来任何时刻的状态。
这种思想被称为决定论,它构成了经典物理学的基石。
在这个经典世界里,物理属性是连续的。想象一下你沿着一个平滑的斜坡向上走,你可以停留在斜坡上的任何一个高度。
一辆电动车的速度可以是每小时 11 公里,也可以是 11.4 公里,或是 11.4514 公里,数值之间可以无限细分。
能量、速度、动量等物理量都可以平滑地变化,取值范围内的任何一个数值都是被允许的。
这套理论在描述我们日常经验中的宏观物体时,取得了无与伦比的成功,从建造桥梁到发射航天器,经典力学都是我们所最擅长使用的物理准则。
破碎#
然而,在19世纪末至20世纪初,当科学家们将目光投向更微观的领域,原子和光的行为时,这个完美的可预测宇宙开始出现破裂。
一系列实验揭示了经典物理学无法解释的奇异现象,动摇了其数百年来不可撼动的地位。
黑体辐射#
经典理论在预测一个被加热的物体(即“黑体”)所发出的光的颜色(频率分布)时,发生了灾难性的失败。
理论预测,在紫外线区域,辐射能量将趋于无穷大,而在实际实验中,辐射能量却是逐步减少。也就是说实验与理论错了。
这被称为紫外灾变。
这时候就有人会问了,实验和理论错了就错了呗,有啥问题?
但是问题就是出现在于,理论是基于经典力学的基本,决定论推导的,而实验并不符合理论,也就是说,至少在这个领域,人们所熟悉的经典力学,将不在管用。
这就好比,每天上班地铁都是在固定时间到来,而唯独今天,突然不来了,你问路人,人家说,这里没有地铁站啊。
那,你是怎么上的班呢?
为了解决这个难题,物理学家马克斯·普朗克在1900年提出了一个革命性的假设,能量的发射和吸收不是连续不断的,而是以一份一份不连续的能量包形式进行的。
他将这种最小的、不可再分的能量单位称为量子(quantum)。
这是量子概念的第一次登场,标志着一场物理革命的开端。
光电效应#
早在 19 世纪末期,人们就知道光是波,并且知道金属里面有自由电子,那么一个想法就随机而生,我们能不能用光的波,打出来金属里的电子?
奇怪的是,能否打出电子,取决于光的颜色(频率),而不是光的强度(亮度)。
即使是最微弱的蓝光也能立即打出电子,而再强的红光也无济于事。
阿尔伯特·爱因斯坦在 1905 年对此做出了解释,他大胆地提出,光本身就是由这些能量包组成的,他称之为光量子(后来被称为“光子”)。
每个光子携带一份能量,只有当单个光子的能量足够大(即光的频率足够高)时,才能将电子从原子中打出来。(逸出金属表面)
这个解释不仅为爱因斯坦赢得了诺贝尔奖,也强有力地证明了光的粒子特性。
或者我们可以换一个更加通俗的方法去解释,在经典的想象中,光就像是一股水流,亮度越高意味着水流越湍急。
金属就像一堵墙,只要水流足够急,就能冲下来几块石子(电子)。
后来发现,光根本不是水流,而更像是一条马路。亮度决定马路有多宽,而不是能量有多强。真正携带能量的,是在路上跑的车,也就是光子。
只有当车本身够大(频率高、能量大),才能撞开那堵墙,把石子打出来。
原子稳定性#
大家都知道世界一切是由原子和分子组成的。
但是问题来了,它们的构造是什么样子呢?
原子并不是一个实心的小球,而是一个由原子核和电子组成的,电子是一个围绕着原子核运动的粒子。
可是,按照经典电磁学的规律,如果带电粒子加速运动,就会不断向外辐射能量。
能量是有限的,一个电子不可能一直辐射能量,所以当电子在绕圈的时候,就会不断失去能量,速度减慢,轨道半径越来越小,最终沿着螺旋线坠入原子核。
如果这个理论真的是对的,那将意味着宇宙中所有原子都会在瞬间崩塌,我们的桌子、空气、身体,乃至整个世界,都不可能存在。
可现实却是,一切都安然无恙,世界稳定如常。这就是 20 世纪初科学家们面对的巨大谜题。
1913 年物理学家尼尔斯·玻尔提出了一个大胆的假设,如果电子不是可以随意运动的,它们只允许待在某些特定的轨道上呢?
这就像是,电子只能站在楼梯的台阶上,而不是在一个斜面上快乐的奔跑。
这些台阶对应着不同的能量状态,我们称为能级。当电子在某个能级上时,它是稳定的,不会发射能量,也不会坠落。
只有当电子跳到另一层能级时,才会吸收或释放出一份能量,那份能量正好是两个能级之间的差:
量子力学#
综上所述,量子都不是连续的,而是一份一份的,这也就是量子思维。
物理学家们意识到,支配微观世界的规则与我们熟悉的宏观世界截然不同。一套全新的理论体系“量子力学”应运而生。
它不是对经典力学的修补,而是一场彻底的范式革命,专门用来描述原子、电子、光子等微观粒子的行为。
于是,物理学的版图被一分为二,经典力学依然是宏观世界的王者,而量子力学则是微观领域的绝对主宰。
这两种理论在各自的领域都取得了惊人的成功,但它们所描绘的现实图景却大相径庭。
经典物理学并非错误,而应被视为量子力学在宏观尺度下的一种涌现的近似。(什么?你不知道涌现是啥?)
我们日常生活中所体验到的确定性和可预测性,并非宇宙最底层的真实属性。这一点的理解至关重要,经典世界之所以看起来如此井然有序,是因为它是无数个微观量子事件概率性行为在宏观尺度上统计平均的结果。
就好像我们观察一大群人的流动,可以预测其整体趋势,但无法确定其中某一个人的具体路径。我们所感知的确定的现实,实际上建立在一个充满概率、不确定性和可能性的量子基石之上。
这不仅仅是物理学理论的更迭,更是一场深刻的哲学变革,它彻底改变了我们对现实本质的理解。(所以是不是想说,LLM 的概率计算也是量子力学?遇事不决量子力学!)
什么是量子?#
量子这个词听起来既神秘又深奥,但其核心概念却异常简单。它源于拉丁语 quantus,意为多少。
在物理学中,量子(quantum,复数形式为 quanta)指的是任何物理实体在相互作用中所涉及的最小的、不可分割的离散单位。
它就像是构成某种物理属性的原子,是这种属性的基本砖块或数据包。
定义#
我们可以通过一些具体的例子来理解这个概念。最著名的例子就是光。
我们通常感觉光是连续不断的,但实际上,光是由一份一份的能量包组成的,这些能量包就是光子(photon)。因此,一个光子就是一份光的量子。
同样,电荷也不是无限可分的,存在一个最小的电荷单位,即基本电荷,它就是电荷的量子 。
这个概念最早由普朗克在研究黑体辐射时提出,他假设能量只能以普朗克常数 乘以频率 的整数倍形式被吸收或发射。
随后,爱因斯坦在解释光电效应时,将这个概念实体化,提出了光量子的存在。
从量子这个名词,我们引出了一个更核心的动词,量子化(quantization)。
量子化指的是,一个物理属性的量值只能取一些特定的、不连续的数值,就像整数一样,而不是可以取任意值。
简单来说,经典世界是斜坡,在经典力学中,能量、速度等物理量就像一个平滑的斜坡。
你可以站在斜坡上的任何高度,你的位置可以是 1 米,1.1 米,或者 1.14 米,中间没有任何不能去的地方。
而在量子力学中,许多物理量,尤其是在束缚系统(由两个或多个粒子通过相互作用力束缚在一起形成的系统,整体能量低于各个粒子完全分离时的能量。)中,则像一座阶梯。
你只能站在第一级台阶、第二级台阶或第三级台阶上,而绝不可能一脚在第一级台阶,一脚在第二级台阶。(想脚踏两只船是吧)
例如,一个原子中的电子,其能量就是量子化的。它只能拥有某些特定的、离散的能级,就像阶梯上的不同台阶。
当电子吸收或释放能量时,它会瞬间从一个能级跳跃到另一个能级,这个过程被称为量子跃迁,它从不经过中间状态。(因为我们一会讲波函数,所以这个并不能理解成瞬移,量子跃迁看起来是瞬间完成的,但实际上是一个由相互作用引起的量子态转变。)
又·原子稳定性#
量子化不仅仅是一个有趣的微观现象,它更是我们宇宙得以稳定存在的根本原因。让我们回到之前提到的原子稳定性危机,为什么电子不会坠入原子核?
答案就在于能量的量子化。由于电子的能级是量子化的,它存在一个不可逾越的能量台阶。电子可以跃迁到更低的能级并释放能量,但它无法无限地这样做。
一旦到达了最低能级(基态),它就不能再失去能量了,因为下面已经没有台阶可供它站立。(还是说你想进入后室?)
这个最低能量阻止了电子的坠落,从而保证了原子的稳定性。
因此,量子化原理是构成我们世界的基石。正是因为能量、角动量等属性在微观层面是离散的、一份一份的,原子才能形成稳定的结构,化学键才能连接分子,物质世界才得以呈现出我们所见的丰富多样和稳定有序。
更深层次来看,量子化的发现揭示了经典物理学语言的根本局限性。
经典物理学建立在连续性的假设之上,其核心数学工具是处理连续变化的微积分。而量子化的发现,意味着宇宙的底层逻辑是离散的、数字化的。
这迫使物理学家们必须采用全新的数学语言,如线性代数和算子理论,来描述这个建立在阶梯而非斜坡上的现实。
这也解释了为什么量子力学的数学形式对于初学者来说显得如此抽象,因为它是在全新的概念。
量子力学三大特征#
既然讲量子,那么就不得不同时说明波粒二象性、叠加态和量子纠缠。而且,这也是理解量子计算的基础物理概念。
波粒二象性,我是波?哦,我是粒子#
在经典世界里,事物被清晰地划分为两类。
粒子和波。
粒子是离散的、占据空间中某个确定位置的实体,就像一颗台球。
波则是弥散的、在空间中传播的扰动,就像水面的涟漪。
这两者泾渭分明,互不相干。
然而,在量子世界,这种清晰的界限消失了。
量子力学的一个核心原则是波粒二象性(Wave-Particle Duality),它指出,每一个微观实体,无论是被认为是粒子的电子,还是被认为是波的光,都同时具有粒子和波的两种特性。
最终观察到的是哪一种特性,完全取决于实验设置和观察方式。重要的是,我们永远无法在同一个实验中同时观察到这两种互补的特性。
没有什么比著名的双缝实验更能展现波粒二象性的诡异了。
这个实验的设计非常简单,但其结果却足以颠覆我们对现实的所有直观认知。
我们先用宏观物体来做个参照。想象你面前有一堵墙,墙上有两条平行的狭缝。你随机地向这堵墙扔网球。
有些球会被墙挡住,有些则会穿过其中一条缝,打在墙后面的墙上。
最终,你会在墙后面上的地方,我们就叫它接收屏吧,网球只要扔过去,就会记录一个点。
看到两个与狭缝形状对应的条状区域,那里是网球集中的地方。这完全符合我们的直觉,是典型的粒子行为。
好像说的有点复杂,就是,你看一个墙,墙上有两个缝能看见墙后面的景观,你能看见的景观就大概等同于网球的落点。
当然你也可以不用网球用篮球。
现在,我们把实验装置放在水槽里,用波浪来代替网球。当水波到达双缝时,每个狭缝都会成为一个新的波源,产生向外扩散的圆形涟漪。
这两组涟漪在传播过程中会相互交叠、干涉。在某些地方,两个波峰相遇,会形成更高的波峰(相长干涉)。
在另一些地方,一个波峰与一个波谷相遇,会相互抵消,水面归于平静(相消干涉)。
最终,在接收屏上,我们会看到一系列交替出现的明暗条纹,这就是干涉图样,是波的标志性行为。
实验最关键的部分来了。我们把一切都放进一个小小的装置中,用电子发射器,像一个拥有两个小缝的墙发射电子。
我们预期会看到像两个条带,就想前面说的那样,你能看见的地方,就大概是落点。
然而,实验结果却是,尽管电子是单个地、像小点一样到达接收屏,但随着时间的推移,这些小点最终形成的图案,竟然是水波那样的干涉图样!
这个结果匪夷所思。它似乎在暗示,每一个单独的电子,在没有被观测的情况下,竟然同时穿过了两条狭缝,并像波一样与自己发生了干涉,最后才在接收屏上随机选择一个点以粒子的形式现身。
为了搞清楚电子到底走了哪条路,我们在狭缝处安装一下探测器吧,以便在电子通过时进行观察。
这时,量子世界最诡异的一幕上演了,一旦我们开始观察电子究竟穿过了哪条缝,干涉图样就瞬间消失 了。
电子的行为变得规规矩矩,就像网球一样,只在接收屏上留下了两个条带。
在量子力学中,仅仅是知道电子路径的这个行为,就彻底改变了实验的结果。观察这个动作本身,似乎迫使电子从弥散的、充满可能性的波状态,坍缩成了一个路径确定的粒子。
所以,这个实验揭示了我们对现实认知的局限性。波和粒子并非量子实体是什么的终极描述,它们更像是我们从经典世界借来的、用于描述其在特定情境下如何表现的两种不完美的比喻。
电子本身既不是经典意义上的波,也不是经典意义上的粒子,它是一种更深层次的、我们日常语言无法准确描述的量子实体。
我们的观察行为,就像是强行将这个复杂的量子实体投影到我们所能理解的两个经典概念(波或粒子)之一上。
因此,波粒二象性与其说是微观粒子的双重身份,不如说是我们无法使用经典语言和直觉去准确的描述量子。
叠加态,我既要马儿跑又要马儿不吃草#
波粒二象性引出了另一个更为核心的量子概念:叠加态(Superposition)。
它指的是,在被测量之前,一个量子系统可以同时处于其所有可能状态的混合之中。
一个电子的位置并非一个精确的点,而更像是一片概率云,这片云在空间中弥散开来,描述了在不同位置找到这个电子的可能性大小。
这个概率云的数学描述就是波函数(wave function)。
想象一枚正在空中飞速旋转的硬币。在它落地之前,它既不是正面朝上,也不是反面朝上,而是处于一种包含正和反两种可能性的动态混合状态。
当我们用手接住它(测量)时,它的状态瞬间坍缩,确定为正面或反面中的一个。
当对一个处于叠加态的系统进行测量时,叠加态会瞬间消失,系统(世界)会随机地选择其中一个可能的状态呈现出来。这个过程被称为波函数坍缩。
我们能够通过波函数精确计算出每种结果出现的概率,但永远无法在测量前预知具体会得到哪一个结果。宇宙在最根本的层面上,似乎是在掷骰子。
为了揭示将叠加态概念从微观世界延伸到宏观世界会产生多么荒谬的后果,物理学家埃尔文·薛定谔在1935年设计了一个著名的思想实验,薛定谔的猫。
将一只猫(假设的)关在一个完全封闭的钢箱里。箱子里还有一个小装置,包含一个放射性原子、一个盖革计数器和一个装有剧毒氰化物的锤子。
这个放射性原子在接下来的一小时内有 50% 的概率发生衰变。如果原子衰变,盖革计数器就会被触发,从而驱动锤子砸碎毒药瓶,猫就会被毒死。如果原子不衰变,猫就安然无恙。
根据量子力学的叠加原理,在没有进行观察之前,那个放射性原子处于已衰变和未衰变的叠加态。
由于猫的生死与这个原子状态被严格地绑定在一起,那么,在打开箱子观察之前,这只猫本身也必须处于一种死与活的叠加态,也就是说,它既是死的,又是活的。
当然薛定谔本人并不相信一只猫可以同时又死又活。他设计这个思想实验的目的,并非为了证明量子力学的正确性,而是作为一种归谬法尖锐地指出,将哥本哈根学派对量子叠加的诠释不加区分地应用于宏观物体是何等荒谬。
这个实验戏剧性地暴露了量子力学中一个悬而未决的核心难题,测量问题。
究竟什么才算是一次测量?
是盖革计数器的触发?
是猫与毒气的相互作用?
还是人类科学家打开箱子的那一刻?
量子世界充满可能性的概率法则,与我们所感知的、非此即彼的经典现实之间的界限究竟在哪里?量子理论本身并没有给出一个清晰、非人为的答案。
量子纠缠,我和你,心连心#
如果说叠加态已经足够挑战我们的认知,那么量子纠缠(Quantum Entanglement)则将这种诡异推向了极致。
它是指两个或多个量子粒子可以以一种特殊的方式相互关联,使得它们的物理属性变得密不可分,形成一个统一的整体系统,无论它们相隔多远。
无法独立地描述其中一个粒子的状态,它的状态只有在与另一个粒子相关联时才有意义。
想象一下,我们通过某种方式(比如一个不稳定的粒子衰变)产生了一对相互纠缠的电子。根据角动量守恒定律,它们的自旋方向必须相反。
在被测量之前,每个电子都处于自旋向上和自旋向下的叠加态。
现在,我们将这两个电子分开,一个送到北极,另一个送到南极。
当你测量北极的电子,发现它的自旋是向上的,那么在同一瞬间,远在南极的另一个电子的状态会立刻确定为自旋向下,反之亦然。
这种关联是瞬时的,似乎无视了空间的距离。正是这种现象,让爱因斯坦深感不安,他称之为“鬼魅般的超距作用”(spooky action at a distance),因为它似乎违反了狭义相对论中任何信息或影响的传播速度都不能超过光速的原则。
为了理解量子纠缠的独特性,我们需要将它与我们熟悉的经典关联区分开来。
想象有一副手套,一只左手,一只右手。把它们分别放进两个不透明的盒子里,然后随机寄一个给你在法国的朋友,另一个留给自己在家中。
当你打开自己的盒子,发现里面是右手手套时,你立刻就知道了你朋友的盒子里一定是左手手套。这并不奇怪,因为这个信息(哪只是左手,哪只是右手)从一开始就是预先确定的,你的发现只是揭示了一个早已存在的事实。
量子纠缠则完全不同。
纠缠粒子的属性(如自旋向上或向下)在被测量之前并没有被预先确定。
它们都处于包含两种可能性的叠加态。这好比是说,两只手套在被观察前,每一只都同时是左手套和右手套。
直到打开其中一个盒子观察的那一刻,两只手套的状态才瞬间被共同确定下来,一只变成左手,另一只变成右手。
物理学家约翰·贝尔提出的贝尔定理以及随后大量的实验已经雄辩地证明,现实量子的确是以后者运作的,排除了像手套那样的定域隐变量理论的可能性。
需要特别强调的是,尽管纠缠粒子间的关联是瞬时的,但这并不能用来实现超光速通信。
原因在于,虽然测量一方的粒子会瞬间影响到另一方的粒子,但对粒子的测量结果本身是完全随机的。
我们无法控制一方的粒子坍缩到自旋向上的状态来向另一方发送一个 1 信号。
量子纠缠现象从根本上挑战了一个基本信念,定域性原理(principle of locality),即一个物体只受其直接周围环境的影响。
它向我们揭示,宇宙在最深层次上可能是非定域的,万物之间存在着一种超越我们经典直觉的深刻互联。
我们所感知的分离与距离可能只是一种宏观的幻象。
纠缠的两个粒子,无论相隔多远,本质上仍应被视为一个不可分割的单一量子系统。这正是让爱因斯坦感到“鬼魅”之处。
量子计算?那是什么?能吃吗?#
在 20 世纪 80 年代初,物理学家理查德·费曼(Richard Feynman)提出了一个深刻的问题。
我们能否用计算机模拟物理世界?
但他很快意识到,由于自然界的本质是量子力学,而非经典力学,任何试图用经典计算机精确模拟量子现象的尝试都将面临一个根本性的障碍。
指数墙#
经典计算机在处理我们日常生活中的绝大多数问题时表现出色,但它们在模拟量子系统(如复杂的分子互动或新材料的特性)时却力不从心。其根本原因在于指数级扩展问题。
一个量子系统的完整状态由其波函数描述。对于一个由 个量子比特(qubit)组成的系统,要完整地描述其状态,经典计算机需要存储和处理 个复数(即概率幅)。
随着量子比特数量 的线性增加,所需的经典计算资源(内存和时间)会呈指数级爆炸式增长。
模拟 10 个量子比特需要存储 个复数,这对于任何笔记本电脑来说都轻而易举。
模拟 30 个量子比特需要 个复数,大约需要 8GB 的内存,这仍在个人电脑的处理范围内。
但,模拟 50 到 60 个量子比特,所需的内存………
这个不可逾越的计算障碍,常被称为指数墙。它意味着,对于任何规模稍大的量子系统,经典计算机甚至无法准确地存储其状态,更不用说模拟其动态演化了。
面对这一挑战,费曼提出了一个构想,我们为何不用量子模拟量子呢?
要模拟一个遵循量子规则的系统,最有效的方法是建造一个本身就由量子力学原理驱动的计算机。
这个构想奠定了量子计算的基础。量子计算机并非旨在取代经典计算机的所有功能,而是作为一种专门的设备,利用量子力学固有的特性(如叠加和纠缠)来解决特定类型的难题。
尤其是那些因指数级复杂性而让经典计算机束手无策的问题,例如量子系统模拟、某些优化问题和密码学。
波函数!#
(请注意,之后的内容可能非常抽象,反直觉,不直观,我尽可能用文字去描述它。)
为了构建一台量子计算机,我们首先需要一种能够描述量子信息的数学语言。这个语言的核心是线性代数,它将量子态的物理现实转化为精确的数学对象。
(什么?你让我讲线形代数?)
经典计算机的基本单位是比特(bit),它只能处于0或1两个确定状态之一。
而量子计算的基本单位是量子比特(qubit),它可以是 、 ,或者二者的任意叠加态。
这个叠加态的数学描述被称为波函数或状态向量,通常记为 (这是一种名为狄拉克符号的便捷记法)。
对于单个量子比特,其通用状态可以写成两个基本状态 和 的线性组合:
- 和 是计算基矢,它们是正交的单位向量,在二维复向量空间中分别对应于列向量 和 。
- 而系数 和 是复数,被称为概率幅。
它们不仅决定了测量结果的概率,其相对相位还包含了关于量子干涉的关键信息,这是量子计算的关键。
当我们测量一个处于叠加态 的量子比特时,它的波函数会坍缩,随机地落入其中一个基态。
根据量子力学的玻恩定则,测量结果为 的概率是 ,测量结果为 的概率是 。
请注意,这个归一化条件并非人为规定,而是概率守恒这一基本物理公理的直接体现。
因为一次测量必然会得到一个结果(要么是 0,要么是 1),所有可能结果的概率之和必须等于 100% (即 1)。
这个条件确保了我们对量子态的数学描述始终与物理世界的概率现实保持一致。
计算计算计算计算#
我们详细说了一下量子计算的基础的量子态定义,下一个问题就是,这些状态如何随时间演化?
或者说,计算究竟如何进行的?
薛定谔方程#
一个封闭量子系统(例如一台理想的量子计算机)的时间演化由含时薛定谔方程所支配。
(其中, 是系统在时间 的状态(波函数), 是系统的哈密顿算符(代表总能量), 是约化普朗克常数。)
好的,我知道你已经不想看下去了,我们来简单的说一下,这个公式描述了一个量子系统的状态(波函数)随着时间如何变化。
也就是说,只要我们知道初始状态 ,这个方程就能告诉你任意时刻 时的状态 。
如果还是不明白,我们可以类比一下, 是经典力学的基础, 就是量子力学的基础。
至于这函数怎么算出来的,就在此略过了,无非就是,把时间剖分成很多小步,每一步的演化核 由 加权的所有路径求和得到:
把短时传播子展开到一阶时间,再把路径积分重组,极限下得到同样的微分方程形式,薛定谔方程。
幺正演算#
薛定谔方程是一个线性微分方程,其解的形式可以表示为一个作用于初始状态的线性算符 。如果一个系统在时间 时的状态是 ,那么在稍后的时间 ,其状态将是 其中 被称为时间演化算符,薛定谔方程可以严格证明, 必须是一个幺正算符(Unitary Operator)。
一个算符(或矩阵) 是幺正的,如果它的共轭转置 等于它的逆 ,即 (其中 是单位矩阵)。
幺正性有两个至关重要的物理含义,概率守恒和可逆性。
幺正变换保持向量的范数(长度)不变。这意味着,如果初始状态是归一化的(总概率为 1),那么经过幺正演化后的任何状态也必然是归一化的。
这保证了概率在计算过程中不会凭空产生或消失。
因为幺正算符永远存在逆,所以量子演化的每一步在理论上都是可逆的。我们可以通过应用逆操作 来精确地回溯到计算前的状态。
幺正可以简单理解成不管系统怎么演化、怎么旋转波函数,总概率永远是 100%,不会变多也不会变少。
这时候可能就有人问了,你搁这儿叽里咕噜说啥呢?听不懂!
这里必须要引入一个重要概念,在量子计算中,任何信息的丢失都意味着系统与外界发生了不可逆的相互作用(比如测量或退相干),这会破坏量子叠加态。
所以量子计算机必须保证,在计算过程中,信息不被丢弃,也不被复制(因为量子不可克隆)。
这就要求所有运算都是可逆的幺正变换。
门#
在量子计算中,对量子比特进行的操作被称为量子门 。由于任何量子计算过程都必须是一个物理上允许的、封闭系统的演化,因此,每一个量子门都必须由一个幺正矩阵来表示。
这构成了量子计算与量子物理之间最深刻的联系,计算的逻辑规则直接源于宇宙的基本物理定律。
好,说的很迷糊,我写的也很迷糊,稍微总结一下,就是量子计算有个基础公式,它是薛定谔方程,然后呢,为了保证我们计算的准确性,整个系统必须是在量子态下的,所以我们又要保证计算途中的稳定性,因此使用幺正演算。
那么,我们需要计算,就需要逻辑门,量子计算的逻辑门和经典的逻辑门不同,而不同的原因就是上述内容。
算法算法算法算法#
量子算法通过一系列精心设计的量子门(幺正变换)来操控量子比特的波函数,利用叠加和干涉来解决问题。
H#
阿达马门(Hadamard Gate, H)是创造叠加态最核心的工具之一 。它的矩阵表示为
当阿达马门作用于一个处于基态 的量子比特时,其效果是
结果是一个均匀的叠加态,测量时得到 0 或 1 的概率各为 50%。这个操作是量子并行性的基础,通过对多个量子比特应用阿达马门,我们可以创建一个包含所有 种可能输入的叠加态,从而允许量子算法在所有这些输入上同时进行计算。
所以,简单来说,H 门就是让我们拥有了一个处于叠加态的量子。
CNOT#
受控非门(CNOT)是一个双量子比特门,它是创造量子纠缠的关键工具。
它的作用是,如果控制量子比特为 ,则翻转目标量子比特的状态,否则什么也不做。
当控制比特处于叠加态时,CNOT 门可以产生纠缠。一个典型的例子是创造贝尔态。
(贝尔态指 )
CNOT 门的矩阵表示为
举个例子,将第一个量子比特(控制位)通过阿达马门置于叠加态 ,第二个量子比特(目标位)保持在 。此时,系统总状态为 。
这时我们施加一个 CNOT 门,对于 部分,控制位为 0,目标位不变,仍为 。
但对于 部分,控制位为 1,目标位翻转,变为 。
最终我们就可以得到一个纠缠态 。
这个状态是纠缠的,因为它无法被写成两个独立量子比特状态的乘积。这两个量子比特从此失去了独立的身份,形成了一个不可分割的整体,测量其中一个会瞬间决定另一个的状态,无论它们相距多远。
总结#
好的,我知道各位不知道这究竟是什么和什么,所以我们来做一个简单的小实验吧,来说明一下量子纠缠和量子计算。
假设 0 是正面,1 是反面,我们手中有两枚硬币,让量子计算机抛硬币玩。
这里需要的是,让两枚硬币呈现纠缠,也就是它们的结果总是相同(00 或 11),或经过调整后总是相反(01 或 10)。
在本实验中,我们用“两枚硬币要么都为正面要么都为反面”(即 00 与 11)作为演示。
我们从两个量子比特的初始态 出发(都为正面),依次执行以下两个量子操作:
第一个操作是 H 门,它把 变成叠加态 。
作用在第一个量子比特上后,系统状态变为
这意味着,第一个量子比特像是一枚正在旋转的硬币,而第二个仍是正面。
第二个操作是 CNOT 门,作用在两个比特上(第 0 比特为控制,第 1 比特为目标)。
若控制比特为 ,则翻转目标比特;若为 ,则不动。
此时系统状态变为
也就是说,两枚硬币的结果总是相同,当第一枚是正面时,第二枚也是正面。当第一枚是反面时,第二枚也是反面。
它们之间的结果具有完全的相关性,这种状态就是量子纠缠态(贝尔态)。
量子比特技术#
已经讲了一堆数学,后面还是讲讲故事吧,毕竟能放松的东西,量子比特技术。
超导电路#
超导量子计算是当前发展最快、规模化程度最高的路线之一,其核心优势在于能够借鉴成熟的半导体微纳加工工艺,实现量子比特数量的快速扩展。
其物理基础是将一个宏观的电子电路冷却至接近绝对零度的极低温(约 15 mK),使其进入超导状态,从而展现出可控的宏观量子效应。
一个超导量子比特本质上是一个人造的宏观量子系统,可以被简化为一个非线性的 LC 谐振电路()。
在标准的 LC 电路中,其能级是等间距的,如同一个完美的谐波振荡器。
这意味着,如果试图用一个特定频率的微波脉冲来驱动系统从基态 跃迁到第一激发态 ,这个脉冲同样会驱动系统从 跃迁到第二激发态 ,以此类推。
这种能级简并性使得我们无法将系统的操作精确地限制在 和 这两个量子比特状态之间,从而无法构建一个有效的量子比特。
解决这一根本性难题的关键元件是约瑟夫森结(Josephson Junction, JJ)。
约瑟夫森结由两层超导体夹着一层极薄的绝缘势垒构成,其独特的物理效应允许超导电子对(库珀对)以量子隧穿的方式穿过这个绝缘层,形成超导电流。
这一过程的物理特性赋予了约瑟夫森结一个至关重要的属性,非线性电感。
这个非线性电感的存在,彻底改变了 LC 电路的能级结构。它打破了谐波振荡器的能级简并性,使得基态 与第一激发态 之间的能量差(跃迁频率 )不再等于第一激发态 与第二激发态 之间的能量差(跃迁频率 )。这种能级间距的不均匀性被称为非谐性(anharmonicity)。
正是这种非谐性,使得我们可以用一个精确调谐的微波频率,选择性地只驱动 之间的跃迁,而不会意外地激发到更高的能级,从而将这个宏观电路有效地变成一个可精确操控的二能级量子系统,即一个量子比特。
在众多超导量子比特设计中,Transmon(传输子)量子比特已成为 IBM 和谷歌等行业领导者的标准架构。
Transmon 的设计巧妙地将电路参数设置在约瑟夫森能量()远大于充电能量()的区间,即 。
这一设计的核心优势在于,它极大地降低了量子比特对环境中电荷噪声的敏感度,从而显著延长了其相干时间,这是相比早期超导量子比特设计的重大进步。IBM 的 Heron、Condor 系列处理器和谷歌的 Sycamore、Willow 处理器,均采用了基于 Transmon 的架构。
超导电路的优点有极快的门操作速度与优异的可扩展性。
而缺点是较短的相干时间,严苛的工作环境与有限的比特连通性。
我们最后再来统一说明这里出现的关键词,门操作速度,可扩展性,相干时间与比特连通性。(什么?你不知道严苛的工作环境是啥?答:15 mK)
离子阱#
与人造的超导电路不同,离子阱量子计算选择利用自然界中最完美的量子系统,单个原子,作为量子比特。
通过剥离原子的外层电子使其带电,这些离子便可以被电磁场精确地操控。
离子阱量子计算机的核心是利用单个带电原子(离子),如镱-171()或钡(),作为其量子比特。
这些离子被悬浮在超高真空腔体中,通过由静态电场和射频(RF)交变电场共同构成的保罗阱(Paul Trap)进行囚禁。
这个电磁场组合在空间中形成一个鞍形的势阱,通过快速旋转势阱,离子被动态地束缚在势阱中心,与外界环境实现极好的隔离。
好吧,这玩意挺抽象的,大家走马观花就好了,主要是,在离子阱中,由于所有离子都被囚禁在同一个势阱内,它们通过静电库仑力相互排斥和作用。
这种相互作用使得整个离子链的振动模式是集体化的,这些量子化的振动模式被称为声子(phonons)。
有什么用呢?极长的相干时间,极高的门保真度,全连接性与完美的量子比特一致性。
听起来很好,但是缺点也很明显,极慢的门操作速度与低扩展性。
我们最后再来统一说明这里出现的关键词,相干时间,门保真度,全连接性,量子比特一致性,门操作速度与可扩展性。
光子处理器#
光量子计算采用了一种与上述基于物质的量子比特截然不同的范式。它使用光的最小能量单元,光子,作为量子比特,利用其波动性和粒子性来进行信息处理。
光量子计算主要依赖线性光学元件,如分束器、反射镜和移相器,来对光子量子比特进行操控。这些元件通过引导光子发生干涉,从而实现量子门操作。
然而,光子之间天然几乎不发生相互作用,这使得实现两比特纠缠门成为光量子计算的最大挑战。目前的方案通常是概率性的,需要借助辅助光子和投影测量来实现,这种计算模型被称为测量驱动的量子计算(Measurement-Based Quantum Computing, MBQC)。
光子处理器的优点是极强的鲁棒性与室温运行,缺点就是概率性的两比特门,如何生成高质量单光子源与光子损耗。
超导路线选择优先保障速度和规模化潜力,将相对较高的错误率视为一个可以通过纠错和缓解技术在未来解决的工程问题。
而离子阱路线则从一开始就追求极致的量子比特质量和连通性,接受较慢的门速度作为代价。
至于光子处理器,一旦克服了概率性门和光子损耗等重大挑战,可能会彻底改变量子计算的部署和应用模式,使其变得更加普及和易于集成。
特性#
现在我们来介绍一下上面说的一些特性。
- 门操作速度(gate time / gate speed) 做一次量子逻辑门需要的时间。越短越好,因为能在相干耗尽前完成更多门。但把门做得更快通常更难保持高保真和低串扰。
- 可扩展性(scalability) 当量子比特数、连线、控制与读出通道成倍增长时,系统是否还能保持成本、错误率、互连和散热在可控范围内。也包括模块化/分布式量子计算把多块 QPU(量子处理器)拼起来的能力。
- 相干时间(coherence time) 这里说一下退相干,更多内容后续说明,退相干是指量子系统与其环境发生相互作用时,量子叠加态的相位关系逐渐丧失、系统从量子态演化为经典混合态的过程。
- 比特连通性(qubit connectivity) 指任一比特能直接与多少个比特做两比特门(以 CNOT 代表的建立量子纠缠的门)。连通性越强,编译需要的中间交换越少,电路深度更小。
- 门保真度(gate fidelity) 门操作的结果是否理想,具体后续说明。
- 全连接性(all-to-all connectivity) 任何两个比特都能直接做两比特门,减少路由开销。并非所有物理平台都天然具备。
- 量子比特一致性(qubit uniformity) 芯片上不同比特在频率、噪声等参数上的一致程度。高一致性可以简化校准与控制,并提升可扩展性与良率。
- 高质量单光子源与光子损耗(photonic) 光量子计算要有按需、纯净、不可分辨的单光子源,同时必须把通道/器件中的损耗(以及探测效率不足)压到极低,否则门成功率与整体可扩展性会非常低。
性能#
仅仅计算量子比特的数量,远不足以衡量一台量子计算机的真实能力。
一个拥有数百个充满噪声、连接性差的量子比特的处理器,其计算能力可能远不如一个只有几十个高质量、全连接量子比特的系统。因此,评估量子性能需要一套多维度的、严谨的关键指标。
相干时间#
相干时间是衡量量子比特维持其脆弱量子态能力的核心指标,它定义了量子信息在被环境噪声破坏之前可以存在的生命周期。
相干时间越长,意味着我们有越多的时间来执行量子门操作,从而可以运行更深、更复杂的量子算法。
T1,又称能量弛豫时间(Energy Relaxation Time)或纵向弛豫时间,描述的是一个处于激发态 的量子比特,因与环境发生能量交换而自发衰变回基态 所需的特征时间。
T1 衡量的是量子比特能级布居数的稳定性。在布洛赫球模型中,这个过程可以想象成一个指向北极的矢量(代表 态)逐渐弛豫到指向南极(代表 态)的过程。
T2,又称退相干时间(Dephasing Time)或横向弛豫时间,描述的是量子比特在叠加态(例如 )中,其量子相位信息被环境噪声随机化所需要的时间。
相位是量子干涉的基础,而量子干涉是量子算法获得加速能力的关键。T2 衡量的是量子叠加态中相位关系的稳定性。
在布洛赫球模型中,这个过程表现为赤道上的一个矢量,其指向的方位角信息逐渐变得不确定,最终在赤道平面上均匀散开。
T1 和 T2 之间存在一个基本关系 。这是因为任何导致能量弛豫(T1 过程)的物理机制,必然会破坏相位关系(T2 过程)。
但反过来,纯粹的相位噪声可以在不引起能量损失的情况下导致退相干。因此,T2 时间通常比 T1 时间更短,也往往是限制量子计算性能的更关键因素。
简单来说,相干时间在量子计算中扮演着限制器的角色。
虽然门操作速度决定了单个操作有多快,但相干时间决定了在量子态崩溃前我们总共能执行多少个连续操作。
相干时间越长,我们就可以进行更多的操作。
举个很简单的例子,假设有一个人,他只在有太阳的时候醒着,没有太阳就睡着。
这个相干时间就是日照时间,只有日照时间越长,这个人能在一天之内干的事情也就越多。
门保真度#
门保真度是衡量量子门操作精确度的核心指标。它量化了一个在物理硬件上实际执行的量子门操作,与理论上理想的、无噪声的数学变换之间的接近程度。
例如,99.9% 的保真度意味着在执行该门操作时,有0.1%的概率会发生错误。
这里通常会出现两个指标,单量子比特门保真度(1Q Gate Fidelity)与双量子比特门保真度(2Q Gate Fidelity)。
由于两比特门需要精确控制量子比特间的相互作用,它通常比单比特门更复杂、更容易出错,因此 2Q 门保真度往往是整个量子计算机性能的瓶颈。
需要注意的是,量子算法通常需要执行成千上万甚至数百万个量子门。
即使单个门的错误率很低,这些错误也会在计算过程中不断累积,最终可能完全淹没正确的计算结果。
一个量子电路的总保真度,粗略地可以看作是其包含的所有单个门保真度的乘积。假设一个电路包含 个门,每个门的平均保真度为 ,那么电路的整体成功概率大约是 。
例如,一个看似很高的 99%()的两比特门保真度,在经过仅仅70次门操作后,电路的整体保真度()就会下降到 50% 以下,这意味着计算结果有一半以上的概率是错误的,与随机猜测无异。
这正是当前含噪声中等规模量子(NISQ)计算机只能运行浅层电路的根本原因,也解释了为什么将门保真度从 99.5% 提升到 99.9% 是一个巨大的工程飞跃,因为它直接关系到可计算问题规模的扩大。
实现高保真度(通常要求高于 99.9%)也是应用量子纠错码(QEC)的先决条件。
至于啥是 NISQ 和 QEC,请大家稍安勿躁,慢慢解释。
综合#
为了克服单一指标的局限性,研究人员开发了多种整体性(holistic)基准测试,旨在通过一个综合性的数字来评估量子计算机的整体计算能力。
由 IBM 提出的量子体积(Quantum Volume)是目前业界最广泛采用的整体性基准之一 。
它并非简单地测量某个单一参数,而是通过运行一系列特定形式的随机量子电路来全面评估系统的综合性能。QV 旨在回答一个核心问题:“这台量子计算机能够成功运行多大、多复杂的量子电路?”
除了 QV,业界也在探索其他基准。
例如,IonQ 公司提出了算法量子比特(Algorithmic Qubits, #AQ)的概念。
#AQ 旨在通过运行一个具体的、有应用价值的算法(如 QAOA 优化算法)来衡量计算机的有效规模。
#AQ的值等于能够成功运行该算法的最大量子比特数。例如,#AQ 36 意味着该系统可以在 36 个量子比特上成功运行一个具有代表性的算法实例。
量子时代#
尽管量子硬件在过去几年取得了飞速发展,但我们必须清醒地认识到,当前整个领域仍处于一个非常基础的阶段,含噪声中等规模量子(Noisy Intermediate-Scale Quantum, NISQ)时代。
这意味着我们手中的量子计算机,更像是由天才工匠在车库里手工打造出的第一批蒸汽机原型,它们轰鸣、漏气、效率不高,却无可辩驳地证明了一种全新动力范式的可行性。
我们正处在从错误缓解(Error Mitigation)的修补时代,艰难迈向量子纠错(Quantum Error Correction, QEC)的工业化时代的黎明。
这也是为何这篇文章没有追逐日新月异的芯片型号或稍纵即逝的算法新闻。而是将重点放在了量子力学的理解与量子计算的基础上。
因为理解了背后的意义,才能真正明白眼前的东西是真是假,是虚是实。
在这个情报大爆炸的世界中,抓的住中心的思想,才能真正把握这场技术革命的脉搏,无论未来涌现出何种令人眼花缭乱的新进展。
回顾人类物理的开篇,从牛顿那如同精密钟表的、确定性的经典宇宙,到那个充满概率、叠加与纠缠的、令人不安又着迷的量子现实。
在过去的一个世纪里,人类完成了认知上的一次飞跃,真正将量子思维作为基板,开始研究新的东西。
而量子计算,则是这个新东西的第一位顾客,这不仅仅是关于计算能力的竞赛。它更深层的意义在于,人类正在学习用一种全新的、宇宙原生的语言去思考和解决问题。
我们不再仅仅满足于用经典的 0 和 1 去近似模拟这个世界,而是尝试直接驾驭波函数本身,让概率幅的干涉为我们指引答案。
量子计算机的未来,或许并非取代我们桌上的电脑,而是成为人类探索未知领域的思想义肢。
它将首先在那些经典计算无能为力的领域,如新药研发、材料科学、宇宙模拟,为我们打开一扇前所未见的大门。
未来,才刚刚开始。
感谢各位的阅读,关于量子回声算法我会后续发在 note 中,可能不会特别长,那这篇文章就到这里了,写出来总共耗时就接近 7 小时,加上查阅资料以及进行了几个实验,更是花了不少时间。希望各位看的开心,我们下篇文章再见👋