Deep Chic Moment一年,数字证明的3个变化
- Qwen衍生模型超过113,000个 – 是Meta Llama(27,000个)的4倍
- DeepSeek在Hugging Face粉丝数排名第一,Qwen排名第四
- 中国AI组织转向:开源是战略
发生了什么?
Hugging Face发布了Deep Chic Moment一周年分析报告。[Hugging Face] 这是一个三部曲系列的最后一部分,总结了自2025年1月DeepSeek出现以来,中国开源AI生态系统如何发展的数据。
先看核心指标。截至2025年中期,基于Qwen(阿里巴巴)的衍生模型数量超过了113,000个。包括带有Qwen标签的仓库在内,数量超过20万。[Hugging Face] 与Meta的Llama(27,000个)或DeepSeek(6,000个)相比,这是一个压倒性的数字。
为什么重要?
坦白说,就在一年前,很多人还把中国AI视为copycat。但现在不同了。
ByteDance、Deepseek、Tencent和Qwen在Hugging Face的热门论文排名中占据前列。在粉丝数方面,DeepSeek排名第一,Qwen排名第四。从阿里巴巴整体来看,衍生模型数量相当于Google和Meta的总和。[Hugging Face]
我个人关注的是阿里巴巴的战略。Qwen不是单一的旗舰模型,而是以家族形式构建的。它支持各种大小、任务和模态。简单来说,就是:把我们的模型当作通用AI基础设施来使用。
未来会发生什么?
Hugging Face分析认为开源是中国AI组织的短期主导战略。其解读是,通过共享模型、论文和部署基础设施,目标是大规模集成和部署。
仅仅一年,数字就证实了DeepSeek moment不是一次性事件。全球AI开源生态系统的重心正在转移。
常见问题(FAQ)
Q: Qwen衍生模型比Llama多的原因是什么?
A: 阿里巴巴以各种大小和模态发布Qwen,扩大了应用范围。特别是中国开发者经常用于本地部署。与Hugging Face持续更新模型范围的策略也很有效。
Q: DeepSeek还重要吗?
A: 是的。在Hugging Face上拥有最多粉丝的组织是DeepSeek。但在衍生模型数量上落后于Qwen。DeepSeek在论文和研究贡献方面有优势,而Qwen专注于生态系统扩展。
Q: 对开发者意味着什么?
A: 基于Qwen的模型正在加强多语言支持。因为是开源的,本地部署和fine tuning是免费的。这成为了一个可以无成本负担进行实验的良好环境。但是,许可条款因模型而异,需要确认。
如果这篇文章有用,请订阅AI Digester。
参考资料
- The Future of the Global Open-Source AI Ecosystem: From DeepSeek to AI+ – Hugging Face (2026-02-03)