世界人工智能华为开源人工智能芯片软件技术新闻

华为在美国面临限制的情况下开源人工智能芯片软件


华为科技在面对美国日益收紧的半导体限制之际,采取了一个决定性举措,正式发布了名为 Flex:ai 的开源软件平台——这是一款旨在最大化现有人工智能硬件性能的革命性系统。

当无法获得先进光刻技术与 Nvidia 市场领先的 GPU 时,华为的战略转向变得清晰:如果无法制造更多芯片,就必须让现有芯片变得更“聪明”。

关键事实与速览

事件:
2025 年 11 月 21 日星期五,华为在上海研发中心发布了 Flex:ai,这是一套基于 Kubernetes 的集群管理系统。

问题:
由于美国出口管制限制,华为无法大规模量产其先进的 Ascend 910C 芯片,导致中国 AI 企业面临供应短缺。

解决方案:
Flex:ai 通过“异构计算”使不同类型的芯片能无缝协作,承诺可将 AI 计算 效率提升 30%。

路线图:
此次发布为年底 CANN(计算架构神经网络 Compute Architecture for Neural Networks)工具包的全面开源铺路,时间定在 2025 年 12 月 31 日。

意义:
此举被视为对 Nvidia “CUDA 壁垒”的直接挑战,旨在建立一个不依赖美国软件标准的中国 AI 自主生态体系。

中国的“硬件饥荒”

要理解 Flex:ai 的重要性,就必须了解中国 AI 行业当前的困境。自 2023 年底以来,美国商务部不断收紧出口控制,禁止向中国出售 Nvidia 的 H100、H200 及 Blackwell 系列 GPU。

华为虽然以自研的 Ascend 910B 和更新的 910C 进行回应,但在没有 ASML 极紫外光(EUV)光刻机的条件下,芯片的制造难度极大,良品率低、生产速度慢。

据 TrendForce 行业数据显示,预计 2025 年中国对 AI 训练芯片的需求将接近 80 万颗。然而由于生产瓶颈,华为预计只能供应 20 万到 25 万颗高端芯片。

北京半导体分析师李伟博士指出:“硬件缺口确实存在。华为不可能以足够快的速度生产芯片来满足需求,他们唯一的途径是让软件层变得极度高效——让一颗芯片能完成 1.3 颗芯片的工作,这正是 Flex:ai 的意义。”

深度解析:什么是 “Flex:ai”?它如何运作?

在 11 月 21 日的发布会上,华为数据存储产品线副总裁周跃峰形容当前 AI 训练状态为“低效孤岛”。

在传统架构下,如果一个 AI 模型 的训练任务只需要 GPU 80% 的算力,那么剩余 20% 的资源就被浪费了。此外,如果一个数据中心同时拥有老旧的 Nvidia V100 芯片和新的华为 Ascend 910 芯片,它们通常因软件不兼容而难以协同工作。

Flex:ai 通过三项核心机制解决这一问题:

  1. 智能切片(虚拟化)
    该软件可将一颗物理 GPU/NPU 切分为多个虚拟单元。这对于推理任务(AI 推理阶段)至关重要,因为此类任务功耗需求较低。
    效果: 一颗 Ascend 910C 现在可以同时处理 4 至 8 个小型任务,而不再被单个任务独占。

  2. 异构计算
    这是平台的“杀手级特性”。Flex:ai 可兼容多架构系统,使数据中心能够将华为 NPU、旧款 Nvidia GPU 甚至中国其他厂商(如寒武纪)的芯片整合为一个统一的“超级计算机”。

  3. Hi 调度器(Hi Scheduler)
    此算法可在毫秒级预测流量峰值并重新分配算力。
    结果: 华为宣称,这一机制可将集群利用率从行业平均约 50% 提升至 80% 以上。

“CANN” 与 “CUDA” 的生态之战

没有软件支撑的硬件是无效的。Nvidia 的万亿美元帝国正建立在 CUDA —— 一个封闭的专有软件层之上,因其成熟稳定而备受开发者喜爱。而华为的替代方案 CANN 过去常被批评存在稳定性和易用性问题。

这次转向开源,意味着华为承认单靠自身无法快速完善 CANN。

两大生态体系对比:

特性 Nvidia CUDA 华为 CANN(开源版)
状态 封闭源码(专有) 开放源码(社区驱动)
开发者基础 全球主流(数百万) 不断增长(以国内为主)
灵活性 高(针对 Nvidia 优化) 高(用户可自定义)
目标 市场垄断 / 盈利 生存 / 快速改进

一位来自深圳 AI 实验室的不具名高级工程师表示:“在代码开源后,如果字节跳动的开发者在驱动中发现漏洞,他们可以自行修复,而不必等待华为三个月发布补丁。这将极大加速生态系统的成熟。”

行业反应:科技巨头是否跟进?

Flex:ai 的成功与否取决于中国“BATB”四大科技公司——百度、阿里巴巴、腾讯和字节跳动——是否愿意采用。

  • 百度: 最积极的试点者之一,去年订购了 1600 颗 Ascend 910B 芯片用于 200 台服务器,预计将成为 Flex:ai 的主要测试平台。

  • 字节跳动: 据消息称,TikTok 母公司正在测试华为芯片以执行低强度任务,但其大型语言模型(LLMs)训练仍依赖库存的 Nvidia 芯片。

然而,迁移过程艰难。将代码从 CUDA 重写至 CANN 需耗费大量时间。Flex:ai 的兼容特性旨在充当“桥梁”,以降低这种“切换成本”。

未来观察指标

展望 2026 年,三项关键里程碑将决定此战略能否成功:

  1. 12 月 31 日开源发布: 发布的代码质量将接受严格检验,若文档不清晰或代码混乱,开发者可能拒绝采纳。

  2. 30% 效率验证: 独立测试机构需验证 Flex:ai 是否真的能在非华为硬件上提升 30% 效率,或仅在 Ascend 芯片上有效。

  3. 美国应对: 华盛顿是否会将开源软件库(如 GitHub)纳入“实体清单”,或向云服务商施压限制中国的访问权限?

结语

Flex:ai 的发布不仅是一场产品发布会,更是中国 科技产业 的自保之举。通过将竞争战场从硬件(弱势领域)转向开源软件(强势领域),华为正在改变游戏规则。

尽管在 2025 年内难以追赶 Nvidia 的计算能力,但华为正在构建一个“足够好”的、本土化且抗制裁的生态系统。正如周跃峰在发布会上所言:“计算的未来,不仅取决于最强的芯片,更取决于最聪明的集群。”