华为联合高校发布并开源AI容器技术 助力算力利用效率提升
2025-11-21 19:32:03 来源:证券时报网
11月21日,在2025AI容器应用落地与发展论坛上,华为公司副总裁、数据存储产品线总裁周跃峰正式发布了AI容器技术——Flex:ai。与此同时,华为携手上海交通大学、西安交通大学以及厦门大学共同宣告,会将此项产学合作成果对外开源,以助力解决算力资源利用方面的难题。
当下,AI产业迅猛发展,催生出海量的算力需求,然而全球算力资源利用率偏低这一问题愈发突出,“算力资源浪费”已然成为产业发展的关键阻碍:小模型任务独占整卡致使资源闲置,大模型任务单机算力不足难以支撑,大量缺乏GPU/NPU的通用服务器更是处于算力“休眠”状态,供需错配造成了严重的资源浪费。
此次发布并开源的Flex:ai XPU池化与调度软件,是基于Kubernetes容器编排平台构建而成的,通过对GPU、NPU等智能算力资源进行精细化管理与智能调度,达成AI工作负载与算力资源的精准匹配,能够大幅提高算力利用率。该技术深度融合了三大高校与华为的科研力量,实现了三大核心技术的突破。
其一为算力资源切分,一张卡可变为多张卡,服务多个AI工作负载。针对AI小模型训推场景里“一张卡跑一个任务”所导致的资源浪费问题,华为与上海交通大学联合研发了XPU池化框架,能够将单张GPU或NPU算力卡切分为多份虚拟算力单元,切分粒度精确到10%。这一技术使得单卡能够同时承载多个AI工作负载,并且借助弹性灵活的资源隔离技术,可实现算力单元的按需切分,即“用多少,切多少”,让此类场景下的整体算力平均利用率提升30%,增强了单卡服务能力。
其二是跨节点算力资源聚合,可以充分利用空闲算力。针对大量通用服务器因缺少智能计算单元而无法服务于AI工作负载这一问题,华为与厦门大学联合研发了跨节点拉远虚拟化技术。该技术把集群内各节点的空闲XPU算力聚合形成“共享算力池”,一方面为高算力需求的AI工作负载提供充足的资源支持;另一方面,能让不具备智能计算能力的通用服务器通过高速网络,将AI工作负载转发到远端“资源池”中的GPU/NPU算力卡上执行任务,进而促进通用算力与智能算力资源的融合。
其三是多级智能调度,达成AI工作负载与算力资源的精准匹配。面对算力集群中多品牌、多规格异构算力资源难以统一调度的痛点,华为与西安交通大学共同打造了Hi Scheduler智能调度器。该调度器能够自动感知集群负载与资源状态,结合AI工作负载的优先级、算力需求等多维参数,对本地及远端的虚拟化GPU、NPU资源进行全局最优调度,实现AI工作负载分时复用资源。即便在负载频繁波动的场景下,也能保证AI工作负载平稳运行,让每一份算力都能“物尽其用”.
值得一提的是,记者从发布会获悉,Flex:ai的全面开源开放会向产学研各界开发者开放所有核心技术能力。通过汇聚全球创新力量,共同推动异构算力虚拟化与AI应用平台对接标准的构建,形成算力高效利用的标准化解决方案,为全球AI产业的高质量发展注入动力。
(文章来源:证券时报网)
(文章来源:证券时报网)
原标题:华为联合高校发布并开源AI容器技术 助力算力利用效率提升
郑重声明:信查查发布此内容旨在传播更多信息,与本站立场无关,不构成投资建议。据此操作,风险自担。



