ディープシークモーメント1年:Qwen派生モデル11.3万個、Llamaの4倍

DeepSeekモーメントから1年、数字が証明する3つの変化

  • Qwen派生モデルが11.3万個を突破 — Meta Llama(2.7万個)の4倍
  • Hugging Faceで最多フォロワー1位はDeepSeek、4位はQwen
  • 中国のAI組織は、“オープンソースこそ戦略”へと方向転換

何が起こったのか?

Hugging Faceが「DeepSeekモーメント」1周年分析レポートを発表した。[Hugging Face] 2025年1月のDeepSeek登場以降、中国のオープンソースAIエコシステムがどのように成長したかをデータでまとめた3部作シリーズの最終編だ。

主要な数値から見てみよう。Qwen(アリババ)をベースに作成された派生モデルは、2025年中旬時点で11万3千個を超えた。Qwenをタグ付けしたリポジトリまで含めると20万個以上だ。[Hugging Face] MetaのLlama(2.7万個)やDeepSeek(6千個)と比較すると圧倒的な数字だ。

なぜ重要なのか?

正直なところ、1年前までは中国のAIを「コピーキャット」と見る向きが多かった。しかし、今は違う。

Hugging Faceの人気論文上位には、ByteDance、DeepSeek、Tencent、Qwenがずらりと並んでいる。フォロワー数もDeepSeekが1位、Qwenが4位だ。アリババ全体で見ると、派生モデル数はGoogleとMetaを合わせた数に匹敵する。[Hugging Face]

個人的に注目しているのは、アリババの戦略だ。Qwenを単一のフラッグシップモデルではなく、「ファミリー」として構成した。さまざまなサイズ、タスク、モダリティをサポートする形だ。簡単に言うと「うちのモデルを汎用AIインフラとして使え」ということだ。

今後どうなるか?

Hugging Faceは「オープンソースが中国AI組織の短期的な支配戦略」だと分析した。モデルだけでなく、論文、配布インフラまで共有することで、大規模な統合と配布を狙うという解釈だ。

DeepSeekモーメントが一過性のイベントではなかったことが、1年で数字によって確認された。グローバルAIオープンソースエコシステムの重心が移動している。

よくある質問 (FAQ)

Q: Qwen派生モデルがLlamaより多い理由は?

A: アリババがQwenをさまざまなサイズとモダリティで公開したことで、適用範囲が広がった。特に中国の開発者がローカル配布用として多く活用している。Hugging FaceとModelScopeの両方に継続的にアップデートする戦略も奏功した。

Q: DeepSeekは今でも重要か?

A: その通り。Hugging Faceで最も多くのフォロワーを持つ組織がDeepSeekだ。ただし、派生モデル数ではQwenに劣る。DeepSeekは論文と研究への貢献に強みがあり、Qwenはエコシステムの拡大に集中しているという違いがある。

Q: 韓国の開発者にとってどんな意味があるか?

A: Qwenベースのモデルが韓国語のサポートを強化している。オープンソースなので、ローカル配布とファインチューニングが自由だ。費用負担なく実験しやすい環境になった。ただし、ライセンス条件はモデルごとに異なるので確認が必要だ。


この記事が役に立ったら、AI Digesterを購読してください。

参考文献

コメントする