DeepSeekの1年:Qwen派生モデル113,000個、Llamaの4倍

Deep Chic Moment 1年、数字で証明された3つの変化

  • Qwen派生モデル113,000個超過 — Meta Llama(27,000個)の4倍
  • DeepSeek、Hugging Faceフォロワー数1位、Qwen4位
  • 中国AI組織、「オープンソースは戦略」へ方向転換

何が起きたのか?

Hugging Faceが「Deep Chic Moment」1周年分析レポートを発表した。[Hugging Face] これは2025年1月のDeepSeek登場以降、中国のオープンソースAIエコシステムがどのように成長したかをデータでまとめた3部作シリーズの最終部分だ。

まずコア指標から見てみよう。Qwen(Alibaba)ベースの派生モデル数は2025年中盤基準で113,000個を超過した。Qwenタグが付いたリポジトリまで含めると20万個を超える。[Hugging Face] これはMetaのLlama(27,000個)やDeepSeek(6,000個)と比較すると圧倒的な数値だ。

なぜ重要なのか?

正直に言って、1年前までは多くの人が中国AIを「copycat」と見ていた。しかし今は違う。

ByteDance、Deepseek、Tencent、そしてQwenはHugging Faceの人気論文ランキングで上位を占めている。フォロワー数ではDeepSeekが1位、Qwenが4位を記録している。Alibaba全体で見ると、派生モデル数はGoogleとMetaを合わせたものと同等だ。[Hugging Face]

個人的に注目しているのはAlibabaの戦略だ。Qwenは単一のフラッグシップモデルではなく「ファミリー」として構成されている。様々なサイズ、タスク、modalityをサポートする。簡単に言えば、「我々のモデルを汎用AIインフラとして使え」ということだ。

今後何が起きるのか?

Hugging Faceは「オープンソースは中国AI組織の短期的な支配戦略」と分析した。モデルだけでなく論文やデプロイインフラまで共有し、大規模な統合とデプロイを目指すという解釈だ。

DeepSeek momentが一回限りのイベントではなかったことが、わずか1年で数字を通じて確認された。グローバルAIオープンソースエコシステムの重心が移動している。

よくある質問(FAQ)

Q: Qwen派生モデルがLlamaより多い理由は?

A: Alibabaが様々なサイズとmodalityでQwenをリリースし、適用範囲が拡大した。特に中国の開発者たちはローカルデプロイのために頻繁に使用する。Hugging Faceとモデル範囲を継続的にアップデートする戦略も効果的だった。

Q: DeepSeekはまだ重要か?

A: そうだ。Hugging Faceで最も多くのフォロワーを持つ組織はDeepSeekだ。しかし派生モデル数ではQwenに遅れを取っている。DeepSeekは論文と研究貢献に強みを持ち、Qwenはエコシステム拡張に集中している。

Q: 開発者にとって何を意味するか?

A: Qwenベースのモデルは多言語サポートを強化している。オープンソースなのでローカルデプロイとfine tuningが無料だ。コスト負担なく実験できる良い環境になった。ただし、ライセンス条件はモデルごとに異なるので確認が必要だ。


この記事が役に立ったなら、AI Digesterを購読してほしい。

参考資料

コメントする