Deep chic Moment 1년, 숫자로 증명된 3가지 변화
- Qwen 파생 모델 113,000개 초과 — Meta Llama (27,000개)의 4배
- DeepSeek, Hugging Face 팔로워 수 1위, Qwen 4위
- 중국 AI 조직, “오픈 소스는 전략”으로 방향 전환
무슨 일이 있었나?
Hugging Face가 ‘Deep Chic Moment’ 1주년 분석 보고서를 발표했다.[Hugging Face] 이는 2025년 1월 DeepSeek 등장 이후 중국의 오픈 소스 AI 생태계가 어떻게 성장했는지 데이터를 정리한 3부작 시리즈의 마지막 부분이다.
핵심 수치부터 살펴보자. Qwen (Alibaba) 기반 파생 모델 수는 2025년 중반 기준으로 113,000개를 초과했다. Qwen 태그가 붙은 리포지토리까지 포함하면 20만 개가 넘는다.[Hugging Face] 이는 Meta의 Llama (27,000개) 또는 DeepSeek (6,000개)와 비교했을 때 압도적인 수치다.
왜 중요한가?
솔직히 말해서, 1년 전만 해도 많은 사람들이 중국 AI를 ‘copycat’으로 여겼다. 하지만 지금은 다르다.
ByteDance, Deepseek, Tencent, 그리고 Qwen은 Hugging Face의 인기 논문 순위에서 상위권을 차지하고 있다. 팔로워 수 측면에서 DeepSeek은 1위, Qwen은 4위를 기록하고 있다. Alibaba 전체를 놓고 보면 파생 모델 수는 Google과 Meta를 합친 것과 맞먹는다.[Hugging Face]
개인적으로 주목하는 것은 Alibaba의 전략이다. Qwen은 단일 플래그십 모델이 아닌 ‘패밀리’로 구성되었다. 다양한 크기, 작업, modality를 지원한다. 간단히 말해서, “우리 모델을 범용 AI 인프라로 사용하라”는 것이다.
앞으로 무슨 일이 일어날까?
Hugging Face는 “오픈 소스는 중국 AI 조직의 단기적인 지배 전략”이라고 분석했다. 모델뿐만 아니라 논문과 배포 인프라까지 공유하여 대규모 통합 및 배포를 목표로 한다는 해석이다.
Deepseek moment가 일회성 이벤트가 아니었음이 불과 1년 만에 숫자를 통해 확인되었다. 글로벌 AI 오픈 소스 생태계의 무게 중심이 이동하고 있다.
자주 묻는 질문 (FAQ)
Q: Qwen 파생 모델이 Llama보다 더 많은가? 이유는?
A: Alibaba가 다양한 크기와 modality로 Qwen을 출시하면서 적용 범위가 확대되었다. 특히 중국 개발자들은 로컬 배포를 위해 자주 사용한다. Hugging Face와 모델 범위를 지속적으로 업데이트하는 전략도 효과적이었다.
Q: DeepSeek은 여전히 중요한가?
A: 그렇다. Hugging Face에서 가장 많은 팔로워를 보유한 조직은 DeepSeek이다. 그러나 파생 모델 수에서는 Qwen에 뒤쳐진다. DeepSeek은 논문 및 연구 기여에 강점을 가지고 있으며, Qwen은 생태계 확장에 집중하고 있다.
Q: 한국 개발자에게는 무엇을 의미하는가?
A: Qwen 기반 모델은 한국어 지원을 강화하고 있다. 오픈 소스이기 때문에 로컬 배포 및 fine tuning이 무료이다. 비용 부담 없이 실험할 수 있는 좋은 환경이 되었다. 단, 라이선스 조건은 모델별로 다르므로 확인해야 한다.
이 기사가 유용했다면 AI Digester를 구독해 달라.
참고 자료
- The Future of the Global Open-Source AI Ecosystem: From DeepSeek to AI+ – Hugging Face (2026-02-03)