딥시크 모멘트 1년, 숫자가 증명한 3가지 변화
- Qwen 파생 모델 11.3만 개 돌파 — Meta Llama(2.7만 개)의 4배
- 허깅페이스 최다 팔로워 1위 DeepSeek, 4위 Qwen
- 중국 AI 조직들, “오픈소스가 곧 전략”으로 방향 전환
무슨 일이 일어났나?
허깅페이스가 ‘딥시크 모멘트’ 1주년 분석 리포트를 발표했다.[Hugging Face] 2025년 1월 DeepSeek의 등장 이후 중국 오픈소스 AI 생태계가 어떻게 성장했는지를 데이터로 정리한 3부작 시리즈의 마지막 편이다.
핵심 수치부터 보자. Qwen(알리바바)을 기반으로 만들어진 파생 모델이 2025년 중반 기준 11만 3천 개를 넘었다. Qwen을 태그한 저장소까지 합치면 20만 개 이상이다.[Hugging Face] Meta의 Llama(2.7만 개)나 DeepSeek(6천 개)과 비교하면 압도적인 숫자다.
왜 중요한가?
솔직히 1년 전만 해도 중국 AI를 ‘카피캣’으로 보는 시선이 많았다. 근데 지금은 다르다.
허깅페이스 인기 논문 상위권에 바이트댄스, 딥시크, 텐센트, Qwen이 줄줄이 올라와 있다. 팔로워 수도 DeepSeek이 1위, Qwen이 4위다. 알리바바 전체로 보면 파생 모델 수가 Google과 Meta를 합친 것과 맞먹는다.[Hugging Face]
개인적으로 주목하는 건 알리바바의 전략이다. Qwen을 단일 플래그십 모델이 아니라 ‘패밀리’로 구성했다. 다양한 크기, 작업, 모달리티를 지원하는 식이다. 쉽게 말하면 “우리 모델을 범용 AI 인프라로 쓰라”는 것이다.
앞으로 어떻게 될까?
허깅페이스는 “오픈소스가 중국 AI 조직들의 단기 지배 전략”이라고 분석했다. 모델뿐 아니라 논문, 배포 인프라까지 공유하면서 대규모 통합과 배포를 노린다는 해석이다.
딥시크 모멘트가 일회성 이벤트가 아니었다는 게 1년 만에 숫자로 확인됐다. 글로벌 AI 오픈소스 생태계의 무게중심이 이동하고 있다.
자주 묻는 질문 (FAQ)
Q: Qwen 파생 모델이 Llama보다 많은 이유는?
A: 알리바바가 Qwen을 다양한 크기와 모달리티로 공개하면서 적용 범위가 넓어졌다. 특히 중국 개발자들이 로컬 배포용으로 많이 활용한다. 허깅페이스와 모델스코프 양쪽에 지속 업데이트하는 전략도 주효했다.
Q: DeepSeek은 여전히 중요한가?
A: 그렇다. 허깅페이스에서 가장 많은 팔로워를 보유한 조직이 DeepSeek이다. 다만 파생 모델 수에서는 Qwen에 밀린다. DeepSeek은 논문과 연구 기여에 강점이 있고, Qwen은 생태계 확장에 집중하는 차이가 있다.
Q: 한국 개발자에게 어떤 의미가 있나?
A: Qwen 기반 모델들이 한국어 지원을 강화하고 있다. 오픈소스라서 로컬 배포와 파인튜닝이 자유롭다. 비용 부담 없이 실험하기 좋은 환경이 됐다. 다만 라이선스 조건은 모델마다 다르니 확인이 필요하다.
이 글이 유용했다면 AI Digester를 구독해주세요.
참고 자료
- The Future of the Global Open-Source AI Ecosystem: From DeepSeek to AI+ – Hugging Face (2026-02-03)