DeepSeekの1年:Qwen派生モデル11万3000個、Llamaの4倍

Deep chic Moment 1年、数字で証明された3つの変化

  • Qwen派生モデル113,000個超え — Meta Llama (27,000個)の4倍
  • DeepSeek、Hugging Faceフォロワー数1位、Qwen 4位
  • 中国AI組織、“オープンソースは戦略”に方向転換

何が起きたのか?

Hugging Faceが‘Deep Chic Moment’ 1周年分析報告書を発表した。[Hugging Face] これは2025年1月DeepSeek登場以降、中国のオープンソースAI生態系がどのように成長したかデータを整理した3部作シリーズの最後の部分だ。

核心数値から見てみよう。 Qwen (Alibaba) 基盤派生モデル数は2025年中盤基準で113,000個を超えた。 Qwenタグが付いたリポジトリを含めると20万個を超える。[Hugging Face] これはMetaのLlama (27,000個) またはDeepSeek (6,000個)に比べて圧倒的な数値だ。

なぜ重要なのか?

率直に言って、1年前までは多くの人が中国AIを‘copycat’と見なしていた。 しかし今は違う。

ByteDance、Deepseek、Tencent、そしてQwenはHugging Faceの人気論文ランキングで上位を占めている。 フォロワー数側面ではDeepSeekが1位、Qwenが4位を記録している。 Alibaba全体を見ると派生モデル数はGoogleとMetaを合わせたものと匹敵する。[Hugging Face]

個人的に注目するのはAlibabaの戦略だ。 Qwenは単一フラッグシップモデルではなく‘family’で構成された。 多様なサイズ、作業、modalityをサポートする。 簡単に言うと、“私たちのモデルを汎用AIインフラとして使用せよ”ということだ。

今後どうなるのか?

Hugging Faceは“オープンソースは中国AI組織の短期的な支配戦略”と分析した。 モデルだけでなく論文と配布インフラまで共有し、大規模統合および配布を目標とするという解釈だ。

Deepseek momentが1回性のイベントではなかったことがわずか1年で数字を通じて確認された。 グローバルAIオープンソース生態系の重心が移動している。

よくある質問 (FAQ)

Q: Qwen派生モデルがLlamaより多いのか? 理由は?

A: Alibabaが多様なサイズとmodalityでQwenを発売し、適用範囲が拡大された。 特に中国の開発者は現地配布のためによく使用する。 Hugging Faceとモデル範囲を持続的にアップデートする戦略も効果的だった。

Q: DeepSeekはまだ重要なのか?

A: そうだ。 Hugging Faceで最も多くのフォロワーを保有する組織はDeepSeekだ。 しかし派生モデル数ではQwenに遅れをとる。 DeepSeekは論文および研究貢献に強みを持っており、Qwenは生態系拡大に集中している。

Q: 韓国の開発者にはどんな意味があるのか?

A: Qwen基盤モデルは韓国語サポートを強化している。 オープンソースであるため、現地配布およびfine tuningが無料だ。 費用負担なく実験できる良い環境になった。 ただし、ライセンス条件はモデルごとに異なるため、確認する必要がある。


この記事が役に立ったならAI Digesterを購読してほしい。

参考文献

コメントする