DeepSeekモーメントから1年、数字が証明する3つの変化
- Qwen派生モデルが11.3万個を突破 — Meta Llama(2.7万個)の4倍
- Hugging Faceで最多フォロワー1位はDeepSeek、4位はQwen
- 中国のAI組織は、“オープンソースこそ戦略”へと方向転換
何が起こったのか?
Hugging Faceが「DeepSeekモーメント」1周年分析レポートを発表した。[Hugging Face] 2025年1月のDeepSeek登場以降、中国のオープンソースAIエコシステムがどのように成長したかをデータでまとめた3部作シリーズの最終編だ。
主要な数値から見てみよう。Qwen(アリババ)をベースに作成された派生モデルは、2025年中旬時点で11万3千個を超えた。Qwenをタグ付けしたリポジトリまで含めると20万個以上だ。[Hugging Face] MetaのLlama(2.7万個)やDeepSeek(6千個)と比較すると圧倒的な数字だ。
なぜ重要なのか?
正直なところ、1年前までは中国のAIを「コピーキャット」と見る向きが多かった。しかし、今は違う。
Hugging Faceの人気論文上位には、ByteDance、DeepSeek、Tencent、Qwenがずらりと並んでいる。フォロワー数もDeepSeekが1位、Qwenが4位だ。アリババ全体で見ると、派生モデル数はGoogleとMetaを合わせた数に匹敵する。[Hugging Face]
個人的に注目しているのは、アリババの戦略だ。Qwenを単一のフラッグシップモデルではなく、「ファミリー」として構成した。さまざまなサイズ、タスク、モダリティをサポートする形だ。簡単に言うと「うちのモデルを汎用AIインフラとして使え」ということだ。
今後どうなるか?
Hugging Faceは「オープンソースが中国AI組織の短期的な支配戦略」だと分析した。モデルだけでなく、論文、配布インフラまで共有することで、大規模な統合と配布を狙うという解釈だ。
DeepSeekモーメントが一過性のイベントではなかったことが、1年で数字によって確認された。グローバルAIオープンソースエコシステムの重心が移動している。
よくある質問 (FAQ)
Q: Qwen派生モデルがLlamaより多い理由は?
A: アリババがQwenをさまざまなサイズとモダリティで公開したことで、適用範囲が広がった。特に中国の開発者がローカル配布用として多く活用している。Hugging FaceとModelScopeの両方に継続的にアップデートする戦略も奏功した。
Q: DeepSeekは今でも重要か?
A: その通り。Hugging Faceで最も多くのフォロワーを持つ組織がDeepSeekだ。ただし、派生モデル数ではQwenに劣る。DeepSeekは論文と研究への貢献に強みがあり、Qwenはエコシステムの拡大に集中しているという違いがある。
Q: 韓国の開発者にとってどんな意味があるか?
A: Qwenベースのモデルが韓国語のサポートを強化している。オープンソースなので、ローカル配布とファインチューニングが自由だ。費用負担なく実験しやすい環境になった。ただし、ライセンス条件はモデルごとに異なるので確認が必要だ。
この記事が役に立ったら、AI Digesterを購読してください。
参考文献
- The Future of the Global Open-Source AI Ecosystem: From DeepSeek to AI+ – Hugging Face (2026-02-03)