DeepSeekの1年:Qwen派生モデル113,000個、Llamaの4倍

Deep Chic Moment 1年、数字で証明された3つの変化

  • Qwen派生モデル113,000個超過 — Meta Llama(27,000個)の4倍
  • DeepSeek、Hugging Faceフォロワー数1位、Qwen4位
  • 中国AI組織、「オープンソースは戦略」へ方向転換

何が起きたのか?

Hugging Faceが「Deep Chic Moment」1周年分析レポートを発表した。[Hugging Face] これは2025年1月のDeepSeek登場以降、中国のオープンソースAIエコシステムがどのように成長したかをデータでまとめた3部作シリーズの最終部分だ。

まずコア指標から見てみよう。Qwen(Alibaba)ベースの派生モデル数は2025年中盤基準で113,000個を超過した。Qwenタグが付いたリポジトリまで含めると20万個を超える。[Hugging Face] これはMetaのLlama(27,000個)やDeepSeek(6,000個)と比較すると圧倒的な数値だ。

なぜ重要なのか?

正直に言って、1年前までは多くの人が中国AIを「copycat」と見ていた。しかし今は違う。

ByteDance、Deepseek、Tencent、そしてQwenはHugging Faceの人気論文ランキングで上位を占めている。フォロワー数ではDeepSeekが1位、Qwenが4位を記録している。Alibaba全体で見ると、派生モデル数はGoogleとMetaを合わせたものと同等だ。[Hugging Face]

個人的に注目しているのはAlibabaの戦略だ。Qwenは単一のフラッグシップモデルではなく「ファミリー」として構成されている。様々なサイズ、タスク、modalityをサポートする。簡単に言えば、「我々のモデルを汎用AIインフラとして使え」ということだ。

今後何が起きるのか?

Hugging Faceは「オープンソースは中国AI組織の短期的な支配戦略」と分析した。モデルだけでなく論文やデプロイインフラまで共有し、大規模な統合とデプロイを目指すという解釈だ。

DeepSeek momentが一回限りのイベントではなかったことが、わずか1年で数字を通じて確認された。グローバルAIオープンソースエコシステムの重心が移動している。

よくある質問(FAQ)

Q: Qwen派生モデルがLlamaより多い理由は?

A: Alibabaが様々なサイズとmodalityでQwenをリリースし、適用範囲が拡大した。特に中国の開発者たちはローカルデプロイのために頻繁に使用する。Hugging Faceとモデル範囲を継続的にアップデートする戦略も効果的だった。

Q: DeepSeekはまだ重要か?

A: そうだ。Hugging Faceで最も多くのフォロワーを持つ組織はDeepSeekだ。しかし派生モデル数ではQwenに遅れを取っている。DeepSeekは論文と研究貢献に強みを持ち、Qwenはエコシステム拡張に集中している。

Q: 開発者にとって何を意味するか?

A: Qwenベースのモデルは多言語サポートを強化している。オープンソースなのでローカルデプロイとfine tuningが無料だ。コスト負担なく実験できる良い環境になった。ただし、ライセンス条件はモデルごとに異なるので確認が必要だ。


この記事が役に立ったなら、AI Digesterを購読してほしい。

参考資料

Text→Image AI学習、これによりFIDが30%削減される

Core Line 3: 200K step secret, Muon optimizer, token routing

  • REPA sortは初期アクセラレータに過ぎず、200K steps以降は削除すべき
  • Muon optimizerだけでFID 18.2 → 15.55を達成(15%向上)
  • 1024×1024高解像度ではTREAD token routingがFIDを14.10まで削減

What happened?

Photoroomチームがtext-to-image generationモデルPRX Part 2の最適化ガイドを公開した。[Hugging Face] Part 1がアーキテクチャに関する内容だったのに対し、今回は実際の学習時に何をすべきかについての具体的なablation結果を共有した。

正直、この種の技術文書はほとんど「我々のモデルが最高だ」で終わるが、これは違う。失敗した実験も公開し、各技術のtrade-offを数値で示した。

Why is it important?

text-imageモデルをゼロから学習するコストは膨大だ。たった一つの誤った設定で数千GPU時間を無駄にすることがある。Photoroomが公開したデータはこのような試行錯誤を減らす。

個人的に最も注目すべき発見はREPA(Representation Alignment)に関するものだ。REPA-DINOv3を使用するとFIDが18.2から14.64に下がる。しかし問題がある。throughputが13%減少し、200K steps以降は学習が実際に低下する。簡単に言えば、初期ブースターに過ぎない。

BF16 weight storageのもう一つのバグ。これを知らずにFP32の代わりにBF16で保存するとFIDが18.2から21.87に急増する。3.67も上がる。驚くべきことに、多くのチームがこの罠に陥る。

Practical Guide: Strategies by Resolution

Technique 256×256 FID 1024×1024 FID Throughput
Baseline 18.20 3.95 b/s
REPA-E-VAE 12.08 3.39 b/s
TREAD 21.61 ↑ 14.10 ↓ 1.64 b/s
Muon Optimizer 15.55

256×256ではTREADが実際に品質を低下させる。しかし1024×1024では完全に異なる結果が得られる。解像度が高いほどtoken routing効果が大きい。

What will happen in the future?

PhotoroomはPart 3で完全な学習コードを提供する。これを公開し、24時間「speed run」を実施する計画だ。良いモデルをどれだけ速く作れるかを示すことが目標だ。

個人的に、この公開はオープンソース画像生成モデルエコシステムに大きな影響を与えると思う。Stable Diffusion以来、これほど詳細に学習ノウハウが公開されたのは初めてだ。

Frequently Asked Questions (FAQ)

Q: REPAはいつ削除すべきか?

A: 約200K steps以降。最初は学習を加速するが、その後は実際に収束を妨げる。これはPhotoroom実験で明確に示されている。タイミングを逃すと最終モデルの品質が低下する。

Q: synthetic dataとreal imagesのどちらを使うべきか?

A: 両方使うべき。最初はsynthetic imagesを使ってglobal structureを学習し、後半段階ではreal imagesを使ってhigh-frequency detailsをキャプチャする。compositingだけを使うとFIDは良いが、写真のようには見えない。

Q: Muon optimizerはAdamWよりどれくらい優れているか?

A: FID基準で約15%向上。18.2から15.55に下がる。computational costが同様なので、使わない理由がない。ただし、hyperparameter tuningは少し難しい。


この記事が役に立ったなら、AI Digesterを購読してほしい。

References

AI専用SNS Moltbook:150万ボットの裏に隠れた1万7千人の人間

150万のAI agents、1万7千人の人間:隠された真実

  • AI専用SNSのMoltbookで活動するagentsは150万人だが、実際の人間は1万7千人に過ぎない。
  • Wizセキュリティチームはデータベースの脆弱性を発見し、150万個のAPI keysが露出した。
  • 創立者は「コードを一行も直接書いていない」と認めた。AI Platformで完全に「vibe-coded」された。

何が起きたのか?

AI agents専用ソーシャルネットワークのMoltbookでセキュリティ災害が発生した。Wizセキュリティチームの発見によると、150万のAI agentアカウントの裏には、わずか1万7千人の人間しかいなかった。一人当たり平均88個のボットが運営されていた。[Wiz]

さらに深刻な問題がある。MoltbookのSupabaseデータベースが完全に露出していた。API keyがクライアント側JavaScriptに露出し、Row Level Securityポリシーも全くなかった。誰でもデータベース全体への読み取り/書き込み権限を持っていた。[Axios]

流出した情報は衝撃的だ。150万個のAPI認証トークン、3万5千個のメールアドレス、4,060個のagent間プライベートDMが含まれていた。一部の会話では、OpenAI API keysがプレーンテキストで共有されていた。[Techzine]

なぜ重要なのか?

Moltbookの実態が明らかになった。「AIだけの自律的なソーシャルネットワーク」という概念は、実際には背後の人間によって制御される演劇に近かった。

正直に言うと、これは予見されていた災害だった。創立者Matt Schlicht自身が認めるように、このプラットフォームは「vibe-coded」プロジェクトであり、開発全体を「コードを一行も書かずに」AI assistantに任せた。href=”https://www.engadget.com/ai/moltbook-the-ai-social-network-exposed-human-credentials-due-to-vibe-coded-security-flaw-230324567.html”>[Engadget] セキュリティは当然後回しだった。

個人的には、これがAI agent時代の警告灯だと思う。Moltbookは、agentsが互いに通信し、外部データを処理し、自律的に行動するシステムで、セキュリティがいかに脆弱になり得るかを生々しく示した。

Machine Intelligence Research Institute(MIRI)のHarlan Stewartは、話題になったスクリーンショットを分析した結果、3分の2がAIメッセージングアプリをマーケティングする人間アカウントと関連していることを発見した。[Live Science]

次に何が起こるのか?

Wizの即時報告により、Moltbookチームは数時間以内に脆弱性を修正した。しかし根本的な問題は解決されていない。

AI agent専門家のGary MarcusはMoltbookを「起こるのを待っている災害」と呼んだ。AIモデルは単にトレーニングデータのSFシナリオを再現しているだけだ。[Gary Marcus]

一方、Andrej KarpathyはMoltbookを「最近見た中で最も驚くべきSF」と呼び、Elon Muskは「シンギュラリティの非常に初期段階」と呼んだ。[Fortune]

しかし冷静に見れば、現在のMoltbookはAI自律性の証拠ではなく、人間がAIシステムをいかに簡単に操作できるかの証拠だ。

よくある質問

Q: Moltbookとは正確に何か?

A: 2026年1月にMatt Schlichtによって作られたAI agents専用ソーシャルネットワークだ。Redditと類似した構造で、人間は観察のみでき、OpenClawのようなAI agentsだけが投稿やコメントができる。現在150万人以上のagentsが登録されている。

Q: OpenClawとは何か?

A: ユーザーのデバイスでローカルに実行されるオープンソースAIパーソナルアシスタントソフトウェアだ。元々2025年11月にClawdbotとして発売され、Anthropicの商標要請によりMoltbotに変更され、2026年初頭に再びOpenClawに変更された。

Q: 私のデータが流出した可能性はあるか?

A: MoltbookにOpenClaw agentを登録した場合は可能性がある。API keys、メール、agents間の会話が露出した。セキュリティ研究者はOpenClaw自体の使用を推奨しない。デバイスセキュリティやデータプライバシーに関心がある場合は使用を避けてください。


この記事が役に立ったなら、AI Digesterを購読してください。

参考資料