A- A+

科技大咖自研ASIC,百花齊放,不是要賣晶片,是要降低購買AI GPU成本

產業評析   2026/02/09

正當輝達(Nvidia)不斷推出更強大的AI晶片之際,亞馬遜、微軟、Meta、谷歌甚至特斯拉等購買Nvidia AI晶片的大客戶也都跳出來自研晶片,以降低對Nvidia晶片的依賴。由於雲端、高倍速(HPC)對AI晶片需求量太大,不但Nvidia、超微等通用型AI晶片製造商吃不下來,得以讓客製化晶片(ASIC)找到自己的生存空間。繼谷歌先前發表新款TPU並表示Meta也想購買後,微軟發表最新Maia 200的自研晶片,亞馬遜AWS最新的Trainium 3自研晶片已在去年底上線,這讓ASIC IP的博通、邁威爾(Marvell)以及EDA的新思科技和益華電腦(Cadence Design)以及ARM都將受惠。

博通是全球ASIC IP的龍頭,市占率高達7成,在截至去年11月底的過去一年中,營收達638.87億美元、年增率23.9%。由於博通先前不斷透過併購壯大,擁有廣泛的IP,成為ASIC IP的龍頭。隨著客戶來自AI的需求增加,讓AI逐漸成為博通的主要業務。上季來自AI的營收占總營收36%,預估本季的AI營收將翻倍並成長到82億美元,已逐漸與其他半導體業務營收相當,而博通目前擁有AI產品積壓訂單高達730億美元,預計在未來18個月內陸續出貨。

AI ASIC與高速網通晶片是博通最重要的成長動,已結合IP、系統架構並與長期客戶黏著度高的平台型ASIC業者,毛利率維持在70%上下。目前博通有谷歌、Meta、字節跳動、Anthropic以及第5大客戶(可能是微軟或OpenAI)。但由於客製化ASIC的硬體成本較高,使得接單毛利率比傳統的乙太網路交換晶片為低。因此,隨著AI營收占比成長,會壓低博通的毛利率表現。即便如此,IP業者如能掌握系統層級設計與客戶的長期綁定,ASIC不會走向低毛利的競爭。

Marvell在ASIC IP的市占率約15%。根據上季財報顯示,上季來自AI的營收已突破11億美元,營收占比達53%。在其資料中心部門營收當中,AI的貢獻占比更高,顯示AI已經成為Marvell的核心成長引擎。Marvell的客製化AI方案正進入量產階段,預計2026會計年度AI總營收將超過25億美元。亞馬遜、微軟和谷歌是Marvell的主要客戶。尤其是亞馬遜更是重中之重,Marvell幫AWS提供客製化AI加速器Trainium 2晶片,並提供廣泛的資料中心半導體,如光學DSP和乙太網路交換晶片。市場傳出OpenAI和Meta是Marvell積極爭取的客戶,Meta也在光學技術與資料中心連網設備上採用Marvell的方案。Marvell的年營收僅約78億美元上下,明顯少於博通,而該公司的毛利率僅約50%上下,但這一年在AI雲端相關的ASIC營收,讓Marvell的單季營收成長有超過5成並接近6成的紀錄。

EDA的新思科技和益華電腦在ASIC中毛利表現相對高的產業,並能讓整體ASIC設計複雜度持續上升,促使他們的獲利成長。以新思科技來說,去年因為併購Ansys的一次性費用提列,毛利率明顯下滑,但也維持在51%上下(24年毛利率則有81.4%);而益華電腦則有85%以上的高毛利,顯示軟體授權模式在ASIC世代反而進一步增強其獲利能力。新思擁有龐大的設計IP業務(例如在介面、記憶體IP),25年營收占比24.8%。與純軟體授權相比,IP業務包含更多的版稅成本與客製化支援,毛利相對略低。益華電腦則更集中於毛利極高的純EDA工具軟體。以授權IP和版權收入模式為主的ARM,毛利率就高達97%。

亞馬遜、微軟、谷歌、Meta和特斯拉等科技巨頭跨入自研ASIC並不是以賣晶片為目的,而是為了要降低購買AI GPU的成本,並將ASIC視為優化本業的工具。自研晶片的投資報酬不會反映在晶片營收,而會分散在雲端毛利率、AI服務定價與產品差異化能力上。AWS的Trainium和Inferentia晶片,是大型CSP業者自研ASIC最成熟的案例。其目的在於降低AI訓練與推理成本,降低對單一AI GPU供應商(Nvidia)的依賴。更重要的是,還能成為未來採購Nvidia、超微AI GPU時的談判主動權,以確保雲端毛利率不被算力成本侵蝕。

AWS在去年底推出的Trainium 3,採用3奈米製程的AI自研晶片,能用在大規模AI模型訓練,專為訓練擁有兆級參數的基礎模型設計。在生成式應用上,支援下一代代理式AI、複雜推理以及影片生成等高負載任務。除了訓練,它也用於大規模推論,提供比前代更高的輸送量與更低的延遲。這款晶片並能支援頂尖AI運用,例如Anthropic已宣布在其Claude系列模型的開發中大規模採用Trainium晶片。亞馬遜宣稱Trainium 3的推論成本可能比Nvidia H100?便宜5成,降低向Nvidia的購買成本。實際測試也顯示,雖然Trainium 3效能優於Nvidia H200,但仍落後Nvidia最新Blackwell B200,亞馬遜仍得持續和Nvidia合作。

微軟最新推出的Maia 200自研晶片,採用台積電3奈米製程,擁有超過1000億個電晶體,是微軟目前為止部署效率最高的推論系統,主要定位在AI加速器上,將專為處理大規模AI工作負載設計,特別優化AI回答問題(推論)的處理速度與效率。目前已部署在美國資料中心,優先支援Microsoft 365 Copilot、Azure OpenAI Service以及內部超智慧團隊的工作負載。微軟也確認這款晶片將用於運作OpenAI的最新模型(如GPT-5.2)。即便如此,微軟也仍無法脫離Nvidia晶片,因為AI需求缺口實在很大,微軟目前策略是有多少買多少,自研晶片僅能填補需求缺口,而非取代。再來就是Nvidia的CUDA軟體架構確實是Nvidia晶片的護城河,客戶難以戒除。

特斯拉自研晶片Dojo是專門用在大規模影響處理與神經網路訓練的超級電腦系統,將用在特斯拉全自動駕駛(FSD)的端到端模型演進的主要處理器。以及要用在Optimus人形機器人的開發,還有要用在虛擬世界中模擬無數種駕駛情境,以加速AI的學習進度,減少對現實攝氏的需求。馬斯克也表示,未來Dojo也要具備像AWS一樣像其他公司出售算力服務。

注目焦點

推薦排行

點閱排行

你的新聞