《科技》CSP自研ASIC規模升級 輝達多元產品並進分攻

【時報記者林資傑台北報導】研調機構TrendForce最新AI伺服器報告指出,輝達(NVIDIA)有別於以往專注雲端AI訓練市場,在GTC 2026大會中改為著重各領域的AI推理應用落地,推動GPU、CPU及LPU等多元產品軸線,分攻AI訓練、AI推理需求,並藉由Rack整合方案帶動供應鏈成長。
TrendForce表示,隨著Google、Amazon等大型雲端服務供應商(CSP)加大自研晶片力道的態勢擴大,預估特殊應用晶片(ASIC)AI伺服器占整體AI伺服器的出貨比例,將從2026年的27.8%升至2030年的近40%。
為鞏固在AI市場的領導地位,輝達採取的其中一項策略,為積極推動GB300、VR200等整合CPU、GPU的整櫃式方案,強調可擴展至AI推理應用。此次在GTC發表的Vera Rubin被定義為高度垂直整合的完整系統,涵蓋7款晶片和5款機櫃。
觀察Rubin供應鏈進度,TrendForce預期記憶體原廠2026年第二季可提供HBM4給Rubin GPU搭載使用,助輝達在第三季前後陸續出貨Rubin晶片。
至於輝達GB300、VR200 Rack系統出貨進程,前者已於上季取代GB200成為主力,預估至2026年出貨占比將達近80%。而VR200 Rack出貨約於第三季底可望逐步放量,後續發展仍須視原廠委託設計代工(ODM)實際進度而定。
另外,AI從生成跨入代理模型時代,在生成Token的解碼(Decode)階段面臨嚴重的延遲與記憶體頻寬瓶頸。輝達對此整合Groq團隊技術,推出專為低延遲推理設計的Groq 3語言處理器(LPU),單顆內建500MB SRAM、整機櫃可達128GB。
然而,LPU本身的記憶體容量無法容納Vera Rubin等級的龐大參數與KV Cache。對此,輝達於此次GTC提出「解耦合推理」(Disaggregated Inference)架構,透過名為Dynamo的AI工廠作業系統,將推理流水線一分為二。
在處理代理型AI時,須進行大量數學運算並儲存龐大KV Cache的Pre-fill、Attention運算階段,輝達交由具備極高吞吐量與巨量記憶體的Vera Rubin執行。而受限於頻寬且對延遲極度敏感的解碼與Token生成階段,則直接卸載至擴充巨量記憶體的LPU機櫃上。
供應鏈進度方面,TrendForce指出,第三代Groq LP30由三星(Samsung)代工,已進入全面量產階段,預計於2026年下半年正式出貨,未來更規畫於下一代Feynman架構中推出效能更高的LP40晶片。
