產業:北美四大CSP加速自研ASIC晶片,各攜Marvell、聯發科、博通等合作

【財訊快報/記者李純君報導】不論景氣起伏,市場顯學僅有AI,當中雲端運算商機持續龐大可觀,而除了NVIDIA與AMD外,則為北美四大CSP的自研ASIC晶片,Google今年TPU v6 Trillium將會大幅取代TPU v5,並將聯發科(2454)納入供應鏈,AWS近幾年的協力廠為Marvell和世芯-KY(3661),Meta則是自研發或與博通合作,Microsoft則是自研,並與創意(3443)和Marvell合作。
AI server需求帶動北美四大CSP加速自研ASIC晶片,平均1-2年就會推出升級版本。市調單位TrendForce表示,CSP為因應AI工作負載規模逐步擴大,同時計畫降低對NVIDIA、AMD的高度依賴,因此積極投入ASIC開發進程,以便能達到控制成本、性能和供應鏈彈性,進一步改善營運成本支出。
觀察美系四大CSP在AI ASIC進展,居領先地位的Google已推出TPU v6 Trillium,主打能效比及針對AI大型模型的最佳化,預計2025年將大幅取代既有TPU v5。針對新一代產品開發,Google從原先與Broadcom的單一夥伴模式,新增與MediaTek合作,轉為雙供應鏈布局。此舉將提升設計彈性、降低依賴單一供應鏈的風險,也有助增加高階先進製程布局。
AWS目前以與Marvell協同設計的Trainium v2為主力,其主要支援生成式AI與大型語言模型訓練應用,AWS也和Alchip合作Trainium v3開發。TrendForce預估2025年AWS的ASIC出貨量將大幅成長,年增表現為美系CSP中最強。
Meta成功部署首款自研AI加速器MTIA後,正與Broadcom共同開發下一代MTIA v2。由於Meta對AI推論負載具高度客製化需求,MTIA v2設計特別聚焦能效最佳化與低延遲架構,確保兼顧推論效能與運營效率。
Microsoft目前在AI server建置仍以搭載NVIDIA GPU的解決方案為主,但也加速ASIC開發,其Maia系列晶片主要針對Azure雲端平台上的生成式AI應用與相關服務進行優化,下一代Maia v2的設計也已定案,並由GUC負責後段實體設計及後續量產交付。除了持續與GUC深化合作外,Microsoft也引入Marvell共同參與設計開發Maia v2進階版,藉此強化自研晶片的技術布局,並有效分散開發過程中的技術與供應鏈風險。