今天小編分享的科技經驗:谷歌量子芯片發布震驚全球,但這并不是新鮮事,歡迎閱讀。
我國的超導量子計算團隊在奮力追趕的同時,也應沉得住氣,今年不行待明年。不必半年一小發布,一年一大發布,沒東西硬發布。畢竟谷歌此次發布距離上一次已過去五年。
撰文 | 無邪
2024 年 12 月 10 日,谷歌公布了其量子芯片最新進展:Willow 芯片在 RCS(随機線路采樣)基準測試中建立了史無前例的量子優勢,5 分鍾内即可完成當下最先進的超級計算機需要 1025(10 億億億)年才能完成的計算——從創世之初到天荒地老也算不完。此外,這款芯片還首次實現了表面碼糾錯的歷史性突破:糾錯後的邏輯量子比特錯誤率低于所有參與糾錯的物理量子比特,換句話說,現在終于可以越糾越好了。
實際上,早在今年 9 月,我就在《返樸》上發表了介紹相關工作的文章——《谷歌量子糾錯取得重要突破:邏輯量子比特壽命大幅延長》,并提到芯片上的進步乃是促成這一突破的關鍵。文章指出了這項工作的歷史性意義,同時也表達了對國内量子計算研發進程的擔憂。令我頗感遺憾的是,當時這篇文章并沒有引起多少關注。直到谷歌量子芯片 Willow 正式發布,立刻震驚全網。一時間,找我求證的人可謂絡繹不絕,紛紛讓我做出評價,我只得苦笑一聲并翻出那篇老文章,并告訴大家其實我已經解讀過了。
轉念一想,我覺得還是值得再寫一篇。此次谷歌 " 良心 " 地公布了芯片高清照片和總體指标,所以我還是能提供一些新東西的。既然谷歌發布的主角是 Willow 芯片,那這次我就重點講下超導量子芯片。
量子芯片是量子計算的基本邏輯單元——量子比特的載體。此外,芯片上還需要排布與量子比特操控和測量相關的必要電路,包括讀取諧振腔 / 傳輸線、微波 / 直流操控線等,以及實現量子糾纏所必需的耦合單元。
事實上,超導量子芯片與傳統的半導體芯片相比,兩者有不少相似之處:同樣是将各種元器件以復雜的電路形式刻印在小小的矽片或其他襯底上,刻印的尺寸都在微納米尺度。這為超導量子計算帶來了一個非常誘人的優勢:與半導體工業具有高度的可兼容性。不過,二者也有些顯著的區别。一方面是最核心的元器件,半導體芯片為場效應晶體管,而超導量子芯片使用約瑟夫森結;另一方面是材料,半導體芯片主要使用摻雜矽、二氧化矽,以及銅、鋁等電路引線材料,而超導量子芯片必須使用各種常規超導材料,如鋁、铌、钽等。這些區别又導致了它們在工藝制程上有巨大的差别。當我給部門來訪嘉賓們講解我們的量子芯片加工實驗室時,被問到最多的一個問題就是:" 你們這個相當于半導體的幾納米?" 我總不免要先 " 呃 " 一下,然後大腦飛快思索一番,想如何能講清楚這個問題。講完這些區别後,看着聽眾們一言不發,只是抿着嘴堅定地點頭,我知道,我又沒講透。
量子芯片的質量,基本決定了最終量子計算的質量。谷歌此次發布的 Willow 芯片,包含 105 個量子比特,等等,才 105 個量子比特,就值得這麼大張旗鼓發布,還赢得馬斯克等一眾科技大佬的點贊嗎?要知道,蘋果 M1 芯片就包含了 160 億個晶體管啊!我的回答是,值,這就是赤裸裸地秀肌肉,妥妥的塔尖級别的量子芯片。有諸多因素導致研發 100 規模量子計算芯片極富挑戰性。
首先,量子态極其脆弱。特别像超導量子比特這樣的宏觀量子比特,存儲的信息在眨眼工夫(不到 1 毫秒)就會徹底消失,想讓量子信息消失得慢一點,需要付出極大的努力(可參閱《超導量子比特壽命突破 500 微秒——雖為人間一刹,卻是意義非凡》)。
其次,經典比特要麼處于 0 要麼處于 1,只要噪聲不是大得離譜(比如在太空環境下),晶體管幾乎就不會出錯。而量子比特則可以處于 0 和 1 的任意疊加态,任何輕微的擾動就足以改變一個量子态。
第三,在多量子比特芯片中,比特與比特、比特與耦合器、比特與控制線等之間總會存在難以消除的殘餘相互作用,導致所謂的 " 串擾 "。串擾的存在極大地增加了校準的難度和成本,限制了量子門保真度的提升,同時還會導致錯誤在量子比特間迅速蔓延。
此外還有頻率擁擠、封裝等問題。要克服上述這些困難,需要在設計、材料和工藝等方面的長期努力。谷歌用了 5 年時間,終于從 Sycamore 進化到 Willow,退相幹時間取得了 5 倍的提升,對于這種高連通度、高調控自由度的芯片而言,這是一個巨大的進步。再加上讀取速度和保真度方面的進步,終于使得開篇提到的兩項突破成為可能。
相比早先的 Sycamore 一代和二代,Willow 芯片的退相幹性能有了大幅提升。
關于芯片的細節,我們目前只能從照片上了解。在之前 arXiv 上貼的論文(Quantum error correction below the surface code threshold)中,他們提到了這歸功于 " 能隙剪裁(Gap-engineering)" 技術的應用。此外,基于可調量子比特和可調耦合器,谷歌開發了一整套基于數據訓練和學習的優化方法,以确保所有量子比特工作在最佳狀态。芯片是量子計算最為核心的技術,谷歌、IBM 等世界頂級團隊,早已不再公布其技術細節。值得慶幸的是,國内長期從事超導量子計算研究的 top 團隊仍能及時跟進,并同樣取得不錯的成績。
包含 105 個量子比特的 Willow 芯片
但我們需要警惕的是,我們過于關注一些 " 硬指标 ",如比特數量、門保真度等,而容易輕視一些系統級指标和 " 軟指标 ",對于量子計算這樣復雜的系統性技術而言,這是過度簡化的,時間長了甚至是危險的。舉例來說,此次發布的 Willow 芯片,其讀取速度超過了 90 萬次 / 秒,也就是 1.1 微秒完成一次讀取,這不僅要求芯片上有高超的設計,同時要求測控電子學系統有超高的實時解碼能力。谷歌最近還發表了一篇高水平論文,展示了機器學習模型 AlphaQubit 在量子計算錯誤識别方面的優異性能;IBM 則在量子 - 超算融合方面取得進展——利用 127 比特量子雲平台與 " 富嶽 " 的結合,實現了包含 28 個原子的 FeS 團簇分子計算。這樣的例子還有很多。如何構建一套科學的、與時俱進的系統評測方法,或者說基準測試方法,對未來推動量子計算工程化、實用化而言是非常重要的。
Willow 芯片的性能指标一覽
最後,祝賀谷歌量子 AI 團隊。我國的超導量子計算團隊在奮力追趕的同時,也應沉得住氣,今年不行待明年。不必半年一小發布,一年一大發布,沒東西硬發布。畢竟谷歌此次發布距離上一次已過去五年。