3년이었다. Meta가 Llama 1, 2, 3 시리즈를 차례로 무료 공개하면서 “AI 민주화”라는 메시지를 외쳐 온 세월. 그 메시지가 공식적으로 끝난 날이 4월 8일이다. 같은 날 Meta는 Llama가 아닌 완전히 새로운 폐쇄형 모델 Muse Spark를 공개했다. 가중치 다운로드 없음, 자체 호스팅 없음, 오직 API로만 접근 가능. 오픈소스 진영에 등을 돌렸다는 해석이 즉각 나왔다.
그렇다고 충동적인 결정은 아니었던 것으로 보인다. 모델의 성능과 그 뒤에 선 사람을 보면 의도가 분명히 읽힌다.
처음부터 4위권으로 들어왔다
Muse Spark는 Meta Superintelligence Labs(MSL)에서 만들었다. Scale AI CEO 출신 Alexandr Wang이 이끄는 조직이고, 기존 FAIR(Meta의 전통적 AI 연구팀)와는 별도로 운영된다. 연구 중심이 아니라 제품 경쟁력을 목표로 신설된 팀이라는 게 차이의 핵심이다.
Intelligence Index v4.0 기준 점수를 보면 위치가 분명해진다.
| 모델 | Intelligence Index 점수 |
|---|---|
| GPT-5.4 / Gemini 3.1 | 57 |
| Claude Opus 4.6 | 53 |
| Meta Muse Spark | 52 |
| 이전 세대 모델들 | 47 이하 |
처음 공개한 모델이 바로 4위권. 이건 흔치 않다. Meta가 그동안 쌓아 둔 인프라와 데이터가 어느 정도 수준이었는지를 역으로 보여 주는 숫자이기도 하다.
왜 Llama를 버렸나 — 추론 가능한 세 가지 이유
Meta는 공식 입장을 내놓지 않았다. 하지만 업계가 대체로 동의하는 해석은 세 가지다.
가장 자주 언급되는 건 경쟁 구도다. Llama를 오픈소스로 풀면 중국의 GLM, DeepSeek 같은 팀이 그 위에 자기 개선을 얹는다. Meta의 연구비가 경쟁사의 자산이 되는 구조다. 두 번째는 수익 경로 문제. 무료로 푸는 모델은 Meta에 직접 돈을 만들어 주지 않는다. API 기반 폐쇄 모델은 토큰당 과금이 가능하다. 세 번째가 가장 결정적인데, Alexandr Wang의 전략 색깔이다. Scale AI를 키운 그는 데이터 품질과 모델 차별화로 경쟁하는 방식에 익숙하다. “최고 품질의 유료 서비스”가 그의 본능에 더 가깝다.
오픈소스 진영의 빈자리
Llama는 단순한 모델 하나가 아니라 사실상 오픈소스 LLM 생태계의 기반이었다. Ollama의 Llama 계열, Hugging Face에 올라가 있는 Llama 기반 파인튜닝 모델 수천 개, llama.cpp 생태계 전체가 거기에 기대고 있었다. Meta가 빠진 자리를 누가 채울 것인가는 당장의 화두다.
대안이 아예 없는 건 아니다. Google의 Gemma 4, Mistral, GLM-5.1, Qwen 계열이 빈자리를 메우려 한다. 하지만 Meta 수준의 자원으로 밀어붙이는 오픈소스 기반 모델이 사라진다는 건 분명한 공백이다. 이 공백이 메워지는 데 얼마가 걸리느냐에 따라 오픈소스 AI의 경쟁력 자체가 영향을 받는다.
한국 사용자 입장에서 본 변화
먼저 일반 사용자 쪽. Meta AI 챗봇이 인스타그램 DM, WhatsApp, Facebook 안에 들어가 있는데, 이 백엔드가 Muse Spark로 교체된다. 한국에서 인스타그램 DM의 AI 답장 기능이나 Meta AI 챗봇 응답 품질이 직접적으로 좋아질 수 있다는 뜻이다.
개발자 쪽은 다른 의미다. 4위권 모델이 OpenAI·Anthropic과 경쟁적인 가격으로 API로 풀린다면, 그건 비용 절감 옵션이 하나 더 늘어난다는 얘기다. Meta AI API의 출시 일정과 가격 정책을 지켜볼 가치가 있다. 단, 로컬 LLM을 운영하던 팀이라면 더 이상 새로운 Llama를 기다릴 수 없다는 사실은 받아들여야 한다. 마이그레이션 시나리오를 고민할 시점이다.
지금 할 일
meta.ai에서 Muse Spark 기반 Meta AI 챗봇을 직접 체험해 보고 평소 쓰는 Claude나 ChatGPT와 같은 질문을 던져 비교해 보면 모델 성격이 빨리 잡힌다. 개발자라면 developers.facebook.com/products/meta-ai에서 API 출시 알림을 신청해 두자. 기존 Llama 기반 로컬 LLM을 운영 중이라면 Gemma 4와 GLM-5.1 중 어느 쪽으로 옮길 수 있는지 미리 확인해 두는 게 안전하다.
관련 글
- GLM-5.1 완전 분석: 오픈소스가 드디어 Claude·GPT-5 꺾었나
- Gemma 4로 로컬 바이브 코딩하는 법
- Claude Mythos 유출·DeepSeek V4·AI 모델 대전
