《大陸產業》華為聯手3大學開源「Flex:ai」破解AI算力資源浪費難題

【時報-台北電】據觀察者網報導,近日,華為數據存儲產品線發佈了AI容器技術——Flex:ai,同時華為聯合上海交通大學、西安交通大學與廈門大學共同宣佈,將此項產學合作成果向外界開源,助力破解算力資源利用難題。
當前,AI產業高速發展催生海量算力需求,但全球算力資源利用率偏低的問題日益凸顯,「算力資源浪費」成為產業發展的關鍵桎梏:小模型任務獨佔整卡導致資源閒置,大模型任務單機算力不足難以支撐,大量缺乏GPU/NPU的通用服務器更是處於算力「休眠」狀態,供需錯配造成嚴重的資源浪費。
本次發佈並開源的Flex:ai XPU池化與調度軟體,是基於Kubernetes容器編排平台構建,通過對GPU、NPU等智能算力資源的精細化管理與智能調度,實現AI工作負載與算力資源的精準匹配,可大幅提升算力利用率。該技術深度融合了三大高校與華為的科研力量,形成三大核心技術突破。
針對AI小模型訓推場景中「一張卡跑一個任務」的資源浪費問題,華為與上海交通大學聯合研發XPU池化框架,可將單張GPU或NPU算力卡切分為多份虛擬算力單元,切分粒度精準至10%。這一技術實現了單卡同時承載多個AI工作負載,且通過彈性靈活的資源隔離技術,可實現算力單元的按需切分,「用多少,切多少」,使此類場景下的整體算力平均利用率提升30%,提高單卡服務能力。
針對大量通用服務器因缺乏智能計算單元而無法服務於AI工作負載的問題,華為與廈門大學聯合研發跨節點拉遠虛擬化技術。該技術將集群內各節點的空閒XPU算力聚合形成「共享算力池」,一方面為高算力需求的AI工作負載提供充足資源支撐;另一方面,可讓不具備智能計算能力的通用服務器通過高速網絡,將AI工作負載轉發到遠端「資源池」中的GPU/NPU算力卡中執行,從而促進通用算力與智能算力資源融合。(新聞來源:中時即時 藍孝威)
