據英國《自然》雜誌22日報道,谷歌科學家團隊改善了量子電腦的糾錯能力,演示了隨著糾錯規模增加,錯誤率反而降低的量子計算。這項工作意味著人們向可擴展的量子糾錯更進一步,使量子電腦達到以足夠低的錯誤率運作可用量子演算法的水準。
量子電腦和經典電腦一樣,容易發生其背後物理系統“噪音”(或干擾)導致的錯誤,實現其潛能需要降低錯誤率。一種量子糾錯方法是用所謂“糾錯碼”,即使用一組物理量子位(量子資訊單位,相當於經典電腦的比特)形成一個邏輯量子位。這個系統稱為表面碼邏輯量子位,可以檢測和糾正錯誤而不影響資訊,但擴展這樣的系統意味著操作更多量子位,這可能引入更多邏輯錯誤。為使邏輯性能隨著編碼規模增加而改善,總體的糾錯需超過增加的邏輯錯誤。
谷歌“量子人工智慧”團隊研究人員哈姆特·耐文及其同事,此次展示了一種邏輯量子位表面碼,可以在系統規模增大時降低錯誤率。他們建造了一個72個量子位的超導量子處理器,用兩種不同表面碼做了測試:一種稱為distance-5 邏輯量子位(基於49個物理量子位),另一種是較小的distance-3邏輯量子位(基於17個物理量子位)。較大表面碼展現出能夠實現更好的邏輯量子位性能(每週期2.914%邏輯錯誤),優於較小的表面碼(每週期3.028%邏輯錯誤)。
研究團隊指出,還需要更多研究實現有效計算所需的邏輯錯誤率,但目前這項工作,向人們展示出未來量子演算法開發的基本要求。