阿里巴巴的问温超越元的骆驼,成为下载量最高的AI模型
阿里云通义千问系列开源大模型的累计下载量已超过梅塔公司的拉玛系列,引发开发者圈对“谁在主导开源生态”的新一轮关注。 这一变化发生在开源模型快速迭代的背景下,下载量与衍生模型数量被视为衡量开发者试用、微调与集成活跃度的重要信号之一。
事件概况:谁、什么、何时、何地
第三方项目基于抱脸平台数据给出的统计显示,在截至2025年10月前后的一段时间里,通义千问系列累计下载量约3.853亿次,超过拉玛系列约3.462亿次。 同一来源还指出,基于通义千问构建的衍生系统占抱脸平台新发布语言模型的40%以上,而梅塔相关份额约15%。
该统计主要指向“开源分发与开发者侧获取”的活跃度,并不直接等同于商业收入或生产环境调用量。 不过,在开源生态中,下载量与衍生模型占比往往会影响后续工具链适配、教程传播、模型微调与企业选型的路径依赖。
关键数据:下载量与生态占比
下表整理自同一报道披露的时间点与累计下载数据(口径为第三方基于抱脸平台的统计)。
| 指标 | 2024年初 | 2025年10月前后 |
| 拉玛累计下载量 | 约1,060万次 | 约3.462亿次 |
| 通义千问累计下载量 | 约50万次 | 约3.853亿次 |
| 新语言模型中基于通义千问的占比 | — | 40%以上 |
| 新语言模型中梅塔相关份额 | — | 约15% |
这一对比之所以受到关注,是因为拉玛曾长期被视为开源大模型的代表性系列之一,而通义千问在较短时间内实现下载量反超,意味着开发者默认选择可能正在发生迁移。
为什么会反超:成本、工程化与“组合用模”
企业侧对“更便宜、更快、可替换”的模型需求上升,被认为是推动开源模型下载与采用的关键因素之一。 报道提到,美国短租平台爱彼迎的首席执行官布赖恩·切斯基谈及其新服务代理会调用十多个模型,并表示在实践中“很大程度依赖”通义千问,理由包括性能、速度与成本优势。
同时,开源社区的传播机制往往会放大“易用与可复用”的优势:一旦某个系列更容易被微调、更容易被工具链支持,就会更快累积衍生模型与二次分发。 另据阿里巴巴集团在2025年6月发布的公开信息,通义千问第三代发布约一个月后累计下载超过1,250万次,并提到在抱脸平台上通义千问衍生模型数量已超过13万。
产品迭代:通义千问第三代带来了什么
通义千问团队在2025年4月发布第三代模型时披露,系列同时开源了多款“混合专家”模型与多款稠密模型,并采用更便于分发与商业集成的开源许可。 该发布还强调覆盖不同规模与不同上下文长度配置,最高可达128K上下文长度,以适配从本地到云端的多类部署场景。
在能力侧,通义千问第三代主打可切换的“思考/非思考”模式,并宣称支持119种语言与方言。 在训练侧,技术博客披露其预训练语料规模扩大,并提到约36万亿词元规模的预训练。
下表根据官方发布信息整理部分型号与关键参数(以官方披露为准)。
| 型号 | 类型 | 参数规模(总/激活) | 上下文长度 |
| 第三代-235B-激活22B | 混合专家 | 235B / 22B | 128K |
| 第三代-30B-激活3B | 混合专家 | 30B / 3B | 128K |
| 第三代-32B | 稠密 | 32B | 128K |
| 第三代-14B | 稠密 | 14B | 128K |
| 第三代-8B | 稠密 | 8B | 128K |
| 第三代-4B/1.7B/0.6B | 稠密 | 4B/1.7B/0.6B | 32K |
拉玛仍具影响力:生态基础与分发网络
拉玛生态依然具有显著存量优势。 梅塔在2024年8月的官方博客中表示,拉玛在抱脸平台的累计下载量“接近3.5亿”,并提到其与多家云与硬件伙伴合作分发。
同一博客还提到,抱脸平台上已有超过6万个拉玛衍生模型,显示其微调与集成生态成熟度较高。 但从2025年10月前后的第三方统计来看,通义千问在累计下载总量上实现领先,说明开源模型竞争已从“单次发布热度”进入“长期生态拉力”的阶段。
影响与下一步:开源底座之争走向何处
对开发者而言,下载量领先往往会带来更强的工具链适配动力,包括量化版本、推理框架支持与更多“开箱即用”的衍生模型。 对企业而言,多模型组合正在成为常态:把不同模型当作可替换的组件,以成本、延迟与合规需求为导向动态选择,相关趋势已在报道中的企业案例中得到体现。
接下来更值得关注的变量包括:通义千问的下载量优势能否持续转化为更多企业级落地案例,以及在更复杂的跨境合规与供应链约束下,全球开源生态是否会出现更明显的区域化分工。 另据阿里云在2025年9月的一篇博文披露,通义千问在多平台累计下载量已达到“数千万级”里程碑,这类平台外分发也可能继续推高整体采用度。
