阿里雲整合AI算力系統,減少對輝達GPU依賴
全球縮影 2025/10/20

(1)現象:阿里巴巴(Alibaba)旗下阿里雲近期推出名為「Aegaeon」的運算資源整合方案,經三個月測試後顯示,該系統可使支援多個大型語言模型(LLM)所需的輝達(Nvidia)GPU數量減少高達82%。研究指出,在阿里雲的AI模型市集中,僅少數熱門模型被頻繁使用,導致GPU資源利用率偏低,Aegaeon透過運算池化(computing pooling)顯著提升效能與資源配置效率。
(2)原因:由於中國AI業者在美國晶片出口限制下,取得高階GPU的難度增加,阿里巴巴等企業積極開發降低GPU依賴的替代方案,以控制算力成本與維持AI服務的可擴展性。該策略反映出中國AI產業正從「硬體堆疊」轉向「軟體與系統架構優化」的階段。
(3)影響:若Aegaeon模式推廣成功,將降低雲端業者對高階GPU的即時需求,可能對輝達在中國市場的銷售造成壓力,並促使其他雲端服務商投入自研AI運算架構。中長期來看,此舉將推動AI伺服器設計朝「混合算力、高效能運算調度」發展,改變供應鏈採購結構。
(4)受影響股票:台積電(2330)
緯創(3231)
廣達(2382)
