英國《自然》雜志14日發表一項量子計算最新成果:谷歌人工智能設計的量子處理器“懸鈴木”實現了錯誤抑制的指數增長,該實驗演示為可擴展容錯量子計算機的開發鋪平了道路。這一結果被認為翻開人類計算能力的新篇章,因為它表明量子糾錯可以成功將錯誤率控制在一定范圍內,并逼近量子計算機潛力的閾值。
量子計算的一個目標就是以指數級倍數超過傳統經典計算機的速度,去執行特定計算任務。但量子計算機和經典計算機一樣,很容易出現由底層物理系統“噪聲”引起的錯誤。行之有效的解決辦法,是在計算機操作中加入一種能在錯誤出現時發現并糾正這些錯誤的方法。一種量子糾錯方法使用量子糾錯碼,通過將多個量子比特(量子信息的單位,對應經典計算機的比特)當作一個邏輯量子比特,從而在不破壞邏輯量子比特中存儲信息的情況下,發現并糾正錯誤。但為了實現量子計算的潛力,邏輯錯誤率必須保持在很低的水平。
此次,美國谷歌的研究人員朱麗安·凱利及其同事,研究了“懸鈴木”處理器的量子糾錯能力。“懸鈴木”包含一個54超導量子比特的二維陣列。研究團隊運行了兩種量子糾錯碼:一種是最多由21個量子比特組成的一維鏈重復碼,用來測試錯誤抑制能力;另一種是由7個量子比特組成的二維表面碼,作為與更大碼的設置相容性的原理驗證實驗。
科學家團隊的研究表明,將重復碼基于的量子比特數量從5個提高到21個,對邏輯錯誤的抑制實現了最多100倍的指數增長。這種錯誤抑制能力在50次糾錯實驗中均表現穩定。
這些結果之所以令人振奮,是因為它們表明量子糾錯可以成功將錯誤率控制在一定范圍內。雖然這個錯誤率還沒達到實現量子計算機潛力的閾值,但此次最新的結果表明,“懸鈴木”架構或已逼近這一閾值。
總編輯圈點
量子計算機想要實現它的既定目標,還需要克服許多挑戰。比如在產生較大計算空間的同時保證計算錯誤率低,以及設計一種經典計算機難以處理但量子計算機可以輕松完成的基準測試。其中,量子糾錯被公認為是實現可容錯通用量子計算的核心問題。此次科學家表明,量子糾錯已經可以成功將錯誤率控制在一定范圍內,無疑等于在該領域里邁出了一大步。未來,利用量子糾錯在邏輯比特層面上進行精密操作,都需以此為基礎。