[태그:] 오픈소스AI

  • Google Gemma 4 오픈소스 공개 — Apache 2.0으로 상업 이용 전면 허용, 지금 바로 쓰는 법

    AI 모델의 성능 발표는 이제 일주일이 멀다 하고 나온다. 그 사이에서 주목할 만한 변화는 사실 모델 능력보다 라이선스에서 나오는 경우가 있다. 4월 2일 Google이 Gemma 4를 공개하면서 함께 발표한 한 줄이 그렇다. 이번 공개부터 라이선스가 Apache 2.0이다. 이전 Gemma 시리즈가 들고 있던 자체 라이선스의 조건들이 통째로 사라졌다는 뜻이다. 모델 능력은 그 다음 이야기다.

    왜 라이선스 변경이 더 큰 뉴스인가

    Gemma 1·2·3은 Google 자체 Gemma Terms of Use 라이선스를 따랐다. 연구·비상업 목적에는 관대했지만 상업 서비스에 적용할 때는 별도 조건 충족이 필요했고, “월간 활성 사용자 1억 명 이상 서비스는 Google과 별도 협의” 같은 조항이 기업 법무팀의 검토 부담을 만들었다. 이 한 줄 때문에 한국 기업이 Gemma를 도입할 때마다 몇 주짜리 검토 절차가 생기곤 했다.

    Apache 2.0은 OSI 공식 승인 라이선스다. 수정·배포·상업 이용 모두 자유롭고, 특허 사용권까지 포함돼 법적 리스크가 낮다. 소스코드 공개 의무도 없다(GPL과 가장 큰 차이). 한 마디로 정리하면 — Gemma 4를 자사 서비스에 탑재해 수익을 내도 Google에 따로 허락을 구하거나 비용을 낼 필요가 없다. Google Open Source Blog는 “개발자 커뮤니티의 오랜 요청을 반영했다”고 설명했지만, 사실 이건 Llama·Mistral 계열에 비해 Gemma가 가지고 있던 가장 큰 약점 하나를 없앤 결정에 가깝다.

    Gemma 4 라인업 — 4가지 사이즈

    모델 자체도 검토해 둘 만하다. Google DeepMind는 Gemma 4를 Gemini 3와 동일한 연구·기술 기반 위에서 만들었고, 네 가지 크기로 나눠 공개했다.

    • E2B (Effective 2B): 스마트폰·엣지 디바이스 수준. 추론 시 활성 파라미터 약 2B
    • E4B (Effective 4B): 노트북·소형 서버 수준. 활성 파라미터 약 4B
    • 26B-A4B (MoE): 전체 26B 중 추론 시 3.8B만 활성. 속도는 4B급, 품질은 26B급
    • 31B Dense: 전 파라미터 상시 활성. 일관된 고품질 응답, 파인튜닝 베이스로 최적

    주목할 수치는 두 가지다. 31B 모델이 Chatbot Arena 글로벌 랭킹에서 전체 3위(오픈모델만이 아니라 유료 상용 모델 포함)에 올랐고, 26B MoE도 6위에 안착했다. 사이즈 대비 성능 효율이 매우 높다. 멀티모달 기능도 강화됐다 — 텍스트·이미지·음성·영상 입력을 네이티브로 처리하고 한국어 포함 140개 이상 언어를 지원하며, 컨텍스트 윈도우는 최대 256K 토큰이다.

    받는 곳 세 군데

    Hugging Face에서 google/gemma-4-31b-it, google/gemma-4-26b-a4b-it, google/gemma-4-e4b-it, google/gemma-4-e2b-it로 검색하면 된다. 계정 로그인 후 라이선스(Apache 2.0) 동의만 하면 즉시 다운로드된다. Kaggle Models에서도 Google 계정 연동으로 노트북에서 바로 활용할 수 있다. 가장 가벼운 진입은 Ollama다. 터미널에서 한 줄.

    ollama run gemma4

    Mac(Apple Silicon), Linux, Windows를 모두 지원한다. 로컬 실행 최소 사양은 E2B 기준 RAM 6GB, 31B Dense는 VRAM 20GB 이상의 GPU를 권장한다. RTX 4090이나 M3 Max 이상의 MacBook Pro면 31B를 실용 속도로 굴릴 수 있다. VRAM이 부족하면 GGUF 양자화 버전이 별도로 제공된다.

    한국 시장에 떨어지는 세 가지 변화

    Gemma 4 공개가 한국 시장에 주는 실질 변화는 라이선스 한 줄에서 나온다. 내용은 단순하다.

    첫째, 스타트업의 AI 서비스 출시 비용이 거의 0원이다. 챗봇, 고객 응대, 문서 요약 같은 기능을 만들 때 OpenAI API 비용 없이 충분한 성능의 모델을 확보할 수 있다. Apache 2.0이라 법무 검토 부담도 없다. E4B나 26B MoE 모델이면 웬만한 비즈니스 태스크는 충분히 소화한다.

    둘째, 데이터 보안이 필수인 금융·의료·공공 분야의 온프레미스 AI 도입이 현실화된다. 지금까지 규제 산업에서 외부 API 사용은 데이터 주권 문제로 기피 대상이었다. Gemma 4를 내부 서버에 직접 올리면 데이터가 외부로 나갈 일이 없고, 상업적 제약도 없으니 서비스 운영도 자유롭다.

    셋째, 한국어 특화 파인튜닝 모델 제작과 상업 배포가 합법이다. 이전 라이선스 하에서는 파생 모델의 상업 배포에 제약이 있었다. Apache 2.0에서는 그 제약이 사라진다. 한국어 도메인 데이터로 파인튜닝한 모델을 만들어 SaaS로 판매하는 것까지 자유롭다.

    지금 할 일

    가장 빠른 경험은 ollama.com에서 Ollama를 설치하고 ollama run gemma4:e4b 한 줄로 E4B 모델을 띄우는 것이다. 8GB RAM 환경에서도 돌고, 평소 자주 던지는 질문 몇 개를 그대로 던져 보면 본인 작업에 맞는지 한 시간 안에 감이 잡힌다. 파인튜닝까지 가 보고 싶다면 Hugging Face 계정을 만들고 Google Colab이나 Kaggle 노트북에서 샘플 코드를 굴려 보는 게 다음 단계다. 이미 OpenAI API를 쓰는 프로젝트가 있다면 어떤 태스크가 Gemma 4 E4B나 26B MoE로 대체 가능한지 한 번 점검해 ROI를 계산해 보자. Apache 2.0이라는 라이선스가 그 결정을 훨씬 가볍게 만든다.

    관련 글

    출처

    대표이미지 출처: Google Blog

  • Mistral AI, 파리에 1.1조 원 데이터센터 짓는다: 유럽 AI 자주권의 현재

    유럽 AI 스타트업이 은행에서 빚을 냈다

    2026년 3월 30일, 프랑스 AI 스타트업 Mistral이 8억 3,000만 달러(약 1조 1,000억 원)의 부채 조달을 발표했다. BNP Paribas, Crédit Agricole, HSBC, MUFG 등 7개 은행이 참여했다. Mistral 창업 이후 첫 부채 조달이다.

    이 숫자에서 중요한 것은 금액보다 방식이다. 벤처 투자가 아닌 은행 대출이다. 은행은 스타트업에 빌려주지 않는다. 스타트업이 아니라는 확신이 생겼을 때 빌려준다. AI 인프라가 그 수준에 도달했다는 신호다.

    무엇을 짓는가

    목적지는 파리 남쪽 Bruyères-le-Châtel. 프랑스 데이터센터 기업 Eclairion이 운영하는 시설이다. 핵심 사양은 엔비디아 GB300 GPU 13,800개, 총 44MW 규모다. 2026년 2분기 완공이 목표다.

    파리 데이터센터는 시작이다. Mistral은 스웨덴에도 14억 달러 규모 데이터센터 투자를 별도로 발표했다. 2027년 말까지 유럽 전역에서 200MW 용량 확보가 목표다. 유럽 단일 AI 인프라 구축 전략이다.

    왜 지금 이것인가

    Mistral의 움직임 뒤에는 명확한 수요가 있다. 유럽 정부와 기업들이 AI 인프라에 대한 통제권을 원하고 있다. Microsoft Azure, AWS, Google Cloud에 데이터를 맡기는 것에 대한 거부감이 커지고 있다. GDPR 이후 데이터 주권 논의가 AI 인프라 자주권으로 확장됐다.

    Mistral은 이 흐름의 정중앙에 있다. 오픈소스 모델을 유럽 인프라에서 돌리겠다는 수요가 실제로 있다. 프랑스 정부는 AI 주권 확보 차원에서 Mistral을 전략적으로 지원하고 있다.

    기술적으로도 시점이 맞다. GB300은 엔비디아의 최신 GPU 아키텍처로, 기존 H100 대비 추론 효율이 대폭 개선됐다. 지금 이 칩으로 데이터센터를 채우는 것이 2-3년 후 경쟁력을 결정한다.

    Mistral은 어떤 회사인가

    2023년 4월 창업, 파리 기반. 핵심 모델은 Mistral Large, Mistral Small, Codestral(코딩 전용)이다. 오픈소스로 공개한 모델들이 개발자 커뮤니티에서 빠르게 채택됐다. API는 la Plateforme(자체 플랫폼)과 Azure, AWS, Google Cloud를 통해 제공된다.

    GPT-5.4, Claude Opus 4.6과 비교하면 최상위 성능은 아니지만, 유럽 서버에서 운영 가능한 강력한 오픈소스라는 포지션은 독보적이다. 금융, 법률, 공공 부문처럼 데이터를 외부 서버에 보낼 수 없는 산업에서 수요가 높다.

    한국 개발자·기업에게 의미하는 것

    한국에서도 같은 논의가 시작될 것이다. AI 서비스를 개발할 때 모든 데이터가 미국 클라우드를 경유하는 구조에 대한 문제 제기가 커지고 있다. 금융·의료·공공 데이터를 다루는 기업은 특히 그렇다.

    Mistral의 모델은 지금 당장 온프레미스나 국내 클라우드에 올릴 수 있는 현실적 대안이다. Mistral Large와 Small은 이미 API로 사용 가능하고, 오픈소스 버전은 자체 서버에서 운영 가능하다. OpenAI·Anthropic 의존도를 분산하고 싶은 기업에게 선택지가 하나 더 생겼다.

    지금 바로 할 수 있는 것

    • Mistral API 테스트: console.mistral.ai에서 무료 API 키 발급. Mistral Small은 가격이 낮고 속도가 빨라 RAG·요약·분류 작업에 적합하다. Claude·GPT와 같은 프롬프트로 비교 테스트.
    • 오픈소스 버전 확인: HuggingFace에서 Mistral 7B, Mixtral 8x7B 등 오픈소스 모델 다운로드 가능. 자체 서버 운영 환경이 있다면 온프레미스 배포 검토.
    • 데이터 주권 감사: 현재 사용 중인 AI API에서 어떤 데이터가 어느 서버로 전송되는지 확인. 민감 데이터가 포함된 프롬프트가 있다면 처리 방식을 재검토할 시점이다.

    관련 글


    출처