量子電腦,下世代科技焦點,AI之後的大革命…你能先站上起跑點嗎?

AI算力戰火延燒至科學運算,輝達(Nvidia)在美國最近超級電腦大會SC25宣布,過去1年全球已有80個新科學系統導入其加速運算平台、合計貢獻4500exaflops AI效能,涵蓋量子物理、數位生物學、氣候與地震模擬等大型科學場景,推動全球科學研究全面邁向「AI加速」新模式。
在這波科學與量子運算的新競賽中,台鏈正成為關鍵推手。台積電(2330)是輝達高階GPU與多款加速晶片的主要製造夥伴,從3奈米到A16世代製程深度協作,先進製程與3D Fabric封裝成為量子-GPU混合系統的重要基底。
鴻海(2317)則與輝達合作打造採用1萬顆Blackwell GPU的AI工廠超級電腦,未來將提供科學研究機構與新創使用,代表台灣製造鏈已正式踏入量子運算世代,掌握下一波超算升級的「入場票」。
本次SC25最大技術焦點,是輝達正式釋出量子運算關鍵—通用互連技術NVQLink,可在量子處理器(QPU)與GPU間提供400Gb/s傳輸頻寬、微秒級延遲,並整合CUDA-Q平台,支援大規模量子混合運算工作流程。量子公司 Quantinuum宣布其最新Helios QPU將透過NVQLink連接Nvidia GPU,展示即時量子糾錯與可擴充解碼器,為量子加速AI奠定技術前提。
和傳統運算以「位元(bit)」為資訊單位不同,量子運算利用可同時呈現0與1狀態的「量子位元(qubit)」進行運算。簡單來說,一般電腦用的是位元(bit)」運算,只能是0或1,就像開關一樣非開即關,而量子電腦的「量子位元」則能同時是0和1的量子疊加狀態,因此能在同一時間處理更多資訊,運算效率也可能大幅提升。
而量子電腦之所以能被視為一項改變世界的關鍵技術,是因為它在處理特定類型的複雜問題時,展現出傳統電腦無法比擬的運算速度。傳統電腦需要耗費數百萬年才能完成的計算,量子電腦可能只需幾分鐘就能得到結果。正是這種指數級的性能飛躍,讓量子電腦成為解鎖科學與資安重大挑戰的未來鑰匙。
25月10月,IBM成功在AMD晶片上執行量子糾錯實驗,展示了異質架構在提升量子計算穩定性與效能上的可行性;同時,Nvidia同樣在不久後的GTC大會上推出專為量子模擬與混合運算設計的NVQLink技術,大幅強化量子與經典運算資源之間的連結效率。這些重大發展不僅顯示產業界正積極投入量子生態系的建構,也凸顯出量子運算研究的急迫性與前瞻性,誰能率先突破量子容錯與整合瓶頸,將可能主導未來高效能運算的新時代。
根據全球規模最大的管顧公司麥肯錫(McKinsey)的報告指出,24年的量子運算相關營收與外部投資總額約40億美元,而到了2030年預估將大幅成長至160億至370億美元,表示在未來6年內預期將有4至6倍的成長幅度。顯示了量子運算領域在未來5年間的資金吸引力與產業潛力,以及投資人與企業對該技術商業化前景的高度信心。
量子運算技術的發展正引領著新一波的數位轉型浪潮,其應用潛力橫跨基礎科學研究與多個高價值產業,預計將對現有計算範式帶來顛覆性的改變。包括金融服務,運用量子演算法處理極高維度的數據和複雜的約束條件,能更好的管理投資風險、加速資產定價模型的執行效率,並實現更細緻的壓力測試。例如,摩根大通目前與量子軟體公司QC Ware合作,應用量子啟發的深度學習模型,顯著提升了投資組合風險控制的效率與決策的準確性。再來是AI與機器學習,在人工智慧與機器學習領域,量子運算能為此領域提供超越傳統電腦的計算加速能力。量子機器學習演算法,理論上能夠加速高維度數據的提取,並以更快的速度收斂到全局最佳解,尤其在處理龐大且複雜的數據集與高度計算密集的最佳化問題時更具優勢,從而加速深度學習模型的訓練與部署。此外,藥物研發和材料科學,最後在資訊安全與後量子密碼學方面,量子運算能力對當前的公開金鑰加密基礎設施構成實質威脅,這促使全球資安領域必須加速發展「後量子密碼學」(PQC)。科學家和資安公司正致力於開發和實施能夠抵抗量子電腦攻擊的新一代加密演算法。
在全球邁向實用化量子運算的競賽中,科技巨頭們的進展是判斷產業成熟度的重要指標。當前以IBM、Google為代表的領軍企業,正從不同的戰略角度推進量子運算領域的發展。
近期最引人注目的進展之一,是IBM成功在AMD的FPGA晶片上執行了關鍵的量子糾錯(QEC)演算法,為量子電腦商業化跨出了非常重大的一步。因為FPGA晶片並非特別高階或專屬的定製晶片,而是可大量生產、價格相對合理的可程式化晶片。
這樣的選擇有助於降低量子計算對硬體的成本門檻,並推動實際應用技術的商業化。根據IBM副總裁Jay Gambetta的說法,該算法不僅具備實務可行性,還能在市場既有的AMD晶片上運作,將成本控制在合理範圍。
那除了能夠降低硬體成本的門檻外,這個消息為何如此激勵市場讓AMD和IBM的股價在消息發布後上漲?
關鍵在於,QEC是一個極為複雜的過程,要維持量子位元的穩定性,需要不斷地對其狀態進行測量、計算錯誤並即時修正。而IBM將實現量子糾錯所需的複雜的即時控制和資料處理邏輯,部署到了AMD的FPGA晶片上執行,意味著未來的量子系統不再是一個完全獨立的孤島,量子處理器QPU只需要專注於進行量子態的運算,而將錯誤處理和系統協調等「苦力活」交給了成熟、穩定且可靠的傳統晶片(如:AMD FPGA)。
過去,人們可能將量子計算的生態系僅限於少數量子技術公司。這次IBM與AMD的合作,將量子運算的生態系統擴展到了傳統半導體巨頭,也為台灣相關供應鏈帶來了新的想像空間和合作機會。
此消息也讓超微在市場評價提升一個層次,吸引資金在180美元以下介入。後面的大漲則是與OpenAI合作,預計發行新股給OpenAI,令超微股價一舉登上230美元之上。
技術一向令同業佩服的Google,其量子運算部門(Quantum AI)的根本目標,在於建造一個有用且大規模的量子電腦,藉此駕馭量子力學來推動科學發現,開發實用應用程式,並解決當今社會所面臨的重大挑戰。
在25年初,Alphabet旗下的Google Quantum AI部門宣布在量子計算方面取得重要進展,宣布最新、最強大的量子運算晶片「Willow」,不但擁有105個量子位元,並且能在5分鐘內解決傳統電腦花費十澗(septillion,十的25次方)年的難題。十月份,Google Quantum AI宣布了基於其Willow量子電腦的里程碑式成就,在於Willow成功運行了一個可驗證的演算法,其表現超越了超級電腦的能力,速度甚至超越了最快的傳統超級電腦(快上13000倍)。
而這個重大突破的演算法,Google稱之為「量子迴聲」(Quantum Echoes)的「亂序時間相關器」(OTOC)演算法,其利用量子物理特性,精準地測量和模擬複雜系統(如分子、材料)的內部結構和動態。它本質上是一種量子演算法,用於解決特定的科學計算問題。Google官方目前將29至30年左右設定為交付首個具備實用容錯能力量子電腦的目標。
當然AI霸主Nvidia也有大動作:透過NVQLink掌握混合計算的「橋樑」,如果說IBM和Google致力於建造量子電腦的核心,那麼Nvidia的策略則專注於控制量子系統的周邊和系統整合,目標是成為傳統晶片與量子晶片之間的橋樑。
從我們前文裡面提及有關IBM和AMD的合作可以發現,即使容錯量子電腦問世,它也不會單獨運作,而是必須與強大的傳統晶片(特別是GPU/CPU)合作,形成混合運算的模式才能最大發揮QPU在特定領域的計算優勢。
所以目前Nvidia的戰略方向非常明確,並非是像Google、IBM一樣發展量子運算晶片、演算法,他們選擇了自己最擅長的領域:將其高性能GPU生態系無縫銜接到量子計算上,確保其在未來的混合運算架構中,依然是不可或缺的加速器巨頭。
所以在最新十月的GTC大會上,黃仁勳發表了最新的互連架構─NVQLink,旨在將量子處理器(QPU)直接連接到Nvidia GPU超級電腦,它能在QPU/GPU之間傳輸 大量的資料,進行量子糾錯、校準控制和混合模擬,讓Nvidia在未來的量子領域同樣能站穩一席之地。
傳統科技巨頭積極投入量子運算發展,但在美股市場中,也有數家專注於純量子計算技術的公司陸續掛牌上市。
美股目前聚焦於4間主攻量子計算的公司:IONQ、RGTI、QBTS以及QUBT。然而,若從商業化進展、訂單穩定度與現金水位多寡來篩選,目前IONQ與QBTS不僅在產業落地應用上走得更前,也展現出較強的資本韌性。
在前文我們介紹了IBM、Google、Nvidia等主要廠商於量子運算領域的最新戰略與突破後,綜觀現階段量子技術的發展,已有數個關鍵亮點逐步浮現。首先,IBM與AMD的合作將量子糾錯技術落地於通用型FPGA晶片,象徵量子運算硬體接近可量產、成本更合理的門檻,大幅加速了技術商業化的進程。
Google則憑藉Willow晶片及突破性的量子演算法(如量子迴聲),在運算速度與準確度上大幅領先傳統超級電腦,目前正積極朝「長壽命邏輯qubit」與實用級容錯電腦的目標推進。
在產業應用層面,專精離子阱技術的IonQ、主攻量子退火系統的 D-Wave,都已經能透過雲端「即服務」模式提供商業訂單,並且營收實現高速成長。這意味著量子技術已脫離早期純研發階段,逐漸邁向真實商業應用落地。
然而,距離「成功」或普及化仍有數項關卡,包括量子位元的穩定性、容錯率與大規模控制等工程挑戰。根據Google發布的 roadmap,要到29至30年左右才交付首台具有實用容錯能力的量子電腦。整體觀察,產業專家普遍預期至少還需3至5年,才可能出現可在關鍵產業中廣泛商用、甚至能與經典電腦共同運算的量子裝置。
