Deep chic Moment 1年、数字で証明された3つの変化
- Qwen派生モデル113,000個超え — Meta Llama (27,000個)の4倍
- DeepSeek、Hugging Faceフォロワー数1位、Qwen 4位
- 中国AI組織、“オープンソースは戦略”に方向転換
何が起きたのか?
Hugging Faceが‘Deep Chic Moment’ 1周年分析報告書を発表した。[Hugging Face] これは2025年1月DeepSeek登場以降、中国のオープンソースAI生態系がどのように成長したかデータを整理した3部作シリーズの最後の部分だ。
核心数値から見てみよう。 Qwen (Alibaba) 基盤派生モデル数は2025年中盤基準で113,000個を超えた。 Qwenタグが付いたリポジトリを含めると20万個を超える。[Hugging Face] これはMetaのLlama (27,000個) またはDeepSeek (6,000個)に比べて圧倒的な数値だ。
なぜ重要なのか?
率直に言って、1年前までは多くの人が中国AIを‘copycat’と見なしていた。 しかし今は違う。
ByteDance、Deepseek、Tencent、そしてQwenはHugging Faceの人気論文ランキングで上位を占めている。 フォロワー数側面ではDeepSeekが1位、Qwenが4位を記録している。 Alibaba全体を見ると派生モデル数はGoogleとMetaを合わせたものと匹敵する。[Hugging Face]
個人的に注目するのはAlibabaの戦略だ。 Qwenは単一フラッグシップモデルではなく‘family’で構成された。 多様なサイズ、作業、modalityをサポートする。 簡単に言うと、“私たちのモデルを汎用AIインフラとして使用せよ”ということだ。
今後どうなるのか?
Hugging Faceは“オープンソースは中国AI組織の短期的な支配戦略”と分析した。 モデルだけでなく論文と配布インフラまで共有し、大規模統合および配布を目標とするという解釈だ。
Deepseek momentが1回性のイベントではなかったことがわずか1年で数字を通じて確認された。 グローバルAIオープンソース生態系の重心が移動している。
よくある質問 (FAQ)
Q: Qwen派生モデルがLlamaより多いのか? 理由は?
A: Alibabaが多様なサイズとmodalityでQwenを発売し、適用範囲が拡大された。 特に中国の開発者は現地配布のためによく使用する。 Hugging Faceとモデル範囲を持続的にアップデートする戦略も効果的だった。
Q: DeepSeekはまだ重要なのか?
A: そうだ。 Hugging Faceで最も多くのフォロワーを保有する組織はDeepSeekだ。 しかし派生モデル数ではQwenに遅れをとる。 DeepSeekは論文および研究貢献に強みを持っており、Qwenは生態系拡大に集中している。
Q: 韓国の開発者にはどんな意味があるのか?
A: Qwen基盤モデルは韓国語サポートを強化している。 オープンソースであるため、現地配布およびfine tuningが無料だ。 費用負担なく実験できる良い環境になった。 ただし、ライセンス条件はモデルごとに異なるため、確認する必要がある。
この記事が役に立ったならAI Digesterを購読してほしい。
参考文献
- The Future of the Global Open-Source AI Ecosystem: From DeepSeek to AI+ – Hugging Face (2026-02-03)