Deep Chic Moment 1年、数字で証明された3つの変化
- Qwen派生モデル113,000個超過 — Meta Llama(27,000個)の4倍
- DeepSeek、Hugging Faceフォロワー数1位、Qwen4位
- 中国AI組織、「オープンソースは戦略」へ方向転換
何が起きたのか?
Hugging Faceが「Deep Chic Moment」1周年分析レポートを発表した。[Hugging Face] これは2025年1月のDeepSeek登場以降、中国のオープンソースAIエコシステムがどのように成長したかをデータでまとめた3部作シリーズの最終部分だ。
まずコア指標から見てみよう。Qwen(Alibaba)ベースの派生モデル数は2025年中盤基準で113,000個を超過した。Qwenタグが付いたリポジトリまで含めると20万個を超える。[Hugging Face] これはMetaのLlama(27,000個)やDeepSeek(6,000個)と比較すると圧倒的な数値だ。
なぜ重要なのか?
正直に言って、1年前までは多くの人が中国AIを「copycat」と見ていた。しかし今は違う。
ByteDance、Deepseek、Tencent、そしてQwenはHugging Faceの人気論文ランキングで上位を占めている。フォロワー数ではDeepSeekが1位、Qwenが4位を記録している。Alibaba全体で見ると、派生モデル数はGoogleとMetaを合わせたものと同等だ。[Hugging Face]
個人的に注目しているのはAlibabaの戦略だ。Qwenは単一のフラッグシップモデルではなく「ファミリー」として構成されている。様々なサイズ、タスク、modalityをサポートする。簡単に言えば、「我々のモデルを汎用AIインフラとして使え」ということだ。
今後何が起きるのか?
Hugging Faceは「オープンソースは中国AI組織の短期的な支配戦略」と分析した。モデルだけでなく論文やデプロイインフラまで共有し、大規模な統合とデプロイを目指すという解釈だ。
DeepSeek momentが一回限りのイベントではなかったことが、わずか1年で数字を通じて確認された。グローバルAIオープンソースエコシステムの重心が移動している。
よくある質問(FAQ)
Q: Qwen派生モデルがLlamaより多い理由は?
A: Alibabaが様々なサイズとmodalityでQwenをリリースし、適用範囲が拡大した。特に中国の開発者たちはローカルデプロイのために頻繁に使用する。Hugging Faceとモデル範囲を継続的にアップデートする戦略も効果的だった。
Q: DeepSeekはまだ重要か?
A: そうだ。Hugging Faceで最も多くのフォロワーを持つ組織はDeepSeekだ。しかし派生モデル数ではQwenに遅れを取っている。DeepSeekは論文と研究貢献に強みを持ち、Qwenはエコシステム拡張に集中している。
Q: 開発者にとって何を意味するか?
A: Qwenベースのモデルは多言語サポートを強化している。オープンソースなのでローカルデプロイとfine tuningが無料だ。コスト負担なく実験できる良い環境になった。ただし、ライセンス条件はモデルごとに異なるので確認が必要だ。
この記事が役に立ったなら、AI Digesterを購読してほしい。
参考資料
- The Future of the Global Open-Source AI Ecosystem: From DeepSeek to AI+ – Hugging Face (2026-02-03)