[카테고리:] AI소식

  • Anthropic Managed Agents 발표 직후 SaaS 주가 폭락 — “소프트웨어는 이제 투자 불가인가” 논쟁 완전 정리

    Anthropic Managed Agents 발표 직후 SaaS 주가 폭락 — “소프트웨어는 이제 투자 불가인가” 논쟁 완전 정리

    4월 11일 미국 증시에서 이상한 장면이 연출됐다. Akamai가 16.6%, Cloudflare가 13.5%, DigitalOcean이 13.4% 빠졌다. 실적 악재가 나온 것도, 규제 이슈가 터진 것도 아니었다. 방아쇠는 사흘 전 Anthropic이 공개한 Claude Managed Agents였다.

    왜 이 회사들이 맞았나

    Managed Agents가 판매하는 건 에이전트 “실행 환경”이다. 샌드박스 코드 실행, 호스팅, 네트워크, 크리덴셜 관리까지. 공교롭게도 이 목록은 Cloudflare Workers, Akamai 엣지, DigitalOcean 드로플릿이 각자 팔던 품목을 합쳐 놓은 것과 겹친다.

    투자자 입장에서 계산은 단순했다. “AI 에이전트가 앱의 실행자로 자리 잡으면, 개발자가 별도로 CDN·엣지·서버리스를 계약할 이유가 줄어든다.” 24/7 Wall St.는 이를 두고 “소프트웨어 산업을 투자 불가 영역으로 보내는 방아쇠”라고 표현했다. 과장된 헤드라인이지만, 숫자만 보면 엄살은 아니다.

    이번이 처음이 아니다 — “SaaS-pocalypse”의 재현

    2월에도 같은 일이 있었다. Claude Cowork 플러그인 발표 당일, 소프트웨어 섹터 시가총액이 하루 만에 약 3,000억 달러 증발했다. 트레이더들이 이걸 “SaaS-pocalypse”라고 부르기 시작했고, 4월 8일 Managed Agents 발표는 그 두 번째 파고였다.

    다만 동일한 리포트에서 Cloudflare는 여전히 2026년 매출 가이던스를 28~29% 성장으로 유지했고, DigitalOcean은 오히려 21%로 상향했다. 실제 사업이 무너진 것이 아니라, 미래 할인율 가정이 한번에 깎이는 중이라고 보는 편이 정확하다.

    무엇이 진짜로 바뀌고 있는가

    핵심은 “좌석당 SaaS”라는 수익 모델 자체다. 사람이 로그인해서 쓰는 구독이 지난 15년 소프트웨어 성장의 엔진이었다면, 에이전트가 대신 쓰는 시대엔 “세션 시간당” 과금이 위로 올라온다. 이 축이 돌아가기 시작하면 CDN·엣지뿐 아니라 세일즈포스급 앱 벤더들도 재평가 대상이 된다.

    CNBC는 이번 사태를 “AI 위협이 소프트웨어 주식을 끝도 없이 채찍질하는 현재진행형”이라고 썼다. 키워드는 현재진행형이다.

    So What?! — 한국 시장 관점

    세 가지 짚을 지점.

    • 국내 SaaS 사업자 — “좌석당 월 요금” 외에 “에이전트 실행 시간 기반 요금”을 병행할 시뮬레이션이 필요하다. Notion·Asana가 먼저 바꾸면 벤치마크가 그쪽으로 기운다.
    • 국내 클라우드·CDN(네이버클라우드, NHN Cloud, 토스페이먼츠 등) — Managed Agents 같은 “번들 에이전트 런타임”을 한국어·리전·컴플라이언스로 방어할 포지션을 지금 잡는 게 맞다. 발표 후 따라가면 늦는다.
    • 기술리더·CTO — 내부 도구 스택을 보면서 “이걸 Managed Agents 한 통으로 대체 가능한가”를 분기마다 체크하는 습관이 필요하다. 매 분기 답이 달라진다.

    지금 바로 할 수 있는 것

    1. 포트폴리오 점검 — 보유한 SaaS 계정(모니터링, 협업, CI/CD 등)을 리스트업하고, 각 계정이 “사용자 수” 기준으로 과금되는지 “실행량” 기준인지 구분해 본다. 전자 비중이 높을수록 향후 단가 압박이 크다.
    2. Managed Agents 베타 체험 — 팀에서 반복 작업 하나를 골라 직접 돌려 보고, 지금 쓰는 SaaS 대비 기능·비용을 비교 노트로 남긴다. 숫자가 있어야 회의에서 밀린다.
    3. 시세는 천천히 — SaaS 섹터 전체 매도로 접근하기보다, “실행 레이어로 전환 가능한가” 여부로 종목을 나눠 보는 편이 실익이 크다. 단순 패닉 매도는 2월 반등에서 이미 학습된 결과가 나왔다.

    관련 글

    출처

    대표이미지 출처: 24/7 Wall St.

  • OpenAI가 실리콘밸리판 SportsCenter TBPN을 산 진짜 이유 — AI 회사가 미디어를 사는 시대

    OpenAI가 실리콘밸리판 SportsCenter TBPN을 산 진짜 이유 — AI 회사가 미디어를 사는 시대

    4월 2일, OpenAI가 미디어 회사를 샀다. 11명짜리 토크쇼 하나에 “수억 달러대(low hundreds of millions)”를 썼다. 월스트리트저널 보도 기준 추정치다. 모델도, GPU도, 칩 제조사도 아닌 — 텔레비전 방송이다.

    CNBC는 사설에서 한 단어로 정리했다. “Chasing vibes.” 분위기를 사고 있다는 뜻이다. 이 거래가 한국 비즈니스 의사결정자에게 의미하는 바를 셋으로 정리한다.

    거래의 전말 — 무엇을 샀나

    항목 내용
    인수 발표일 2026년 4월 2일
    대상 TBPN (Technology Business Programming Network)
    형태 일일 라이브 토크쇼, 평일 11–14시 PT 방송
    창업자·진행자 Jordi Hays, John Coogan
    출범 2025년 3월 라이브 토크쇼 데뷔
    규모 직원 11명, 회당 평균 약 7만 시청
    가격 “low hundreds of millions” 달러 (WSJ 보도)
    주체 Fidji Simo (CEO of AGI Deployment) 주도, 보고는 Chris Lehane(글로벌 어페어스 책임자)
    편집권 독립 유지(공식 발표)

    주목할 부분은 가격이 아니라 보고 라인이다. 이 자산은 제품 조직이 아닌 정책·커뮤니케이션 라인으로 들어갔다. 즉 OpenAI는 TBPN을 수익 사업이 아니라 영향력 사업으로 본다는 신호다.

    OpenAI의 첫 미디어 인수가 의미하는 것 3가지

    ① “AI 내러티브”가 인프라가 됐다. GPU·데이터센터·칩과 같은 등급의 자산이라는 뜻이다. 시청자 7만 명짜리 일일 토크쇼가 수억 달러 가치인 이유는, 그 시청자가 정확히 “창업자·VC·기업 의사결정자”이기 때문이다. 광고 도달이 아니라 정책·여론 도달이다.

    ② 챗봇 회사가 “유통 채널”을 사기 시작했다. Salesforce·Adobe·SAP가 옛날에 컨퍼런스·미디어·교육 사업을 묶어 만든 그림과 닮았다. AI 회사가 같은 길을 9개월 만에 간다는 뜻이고, OpenAI는 그 한 발을 4월 2일에 뗐다.

    ③ “편집 독립” 약속의 유효 기간은 보통 짧다. 미디어 인수 사례에서 약속과 실제의 거리는 대체로 18~24개월에 좁혀진다. TBPN이 OpenAI 비판 보도를 얼마나 자유롭게 할지 — 그 첫 시험 케이스가 6~12개월 안에 온다.

    한국 비즈니스에 직접 닿는 신호

    여기서 한국으로 가져올 함의 셋.

    먼저, B2B AI 영업의 진입점이 바뀐다. 미국 의사결정자 다수가 평일 점심에 TBPN을 본다. 한국 AI 스타트업·SaaS가 미국 진출을 준비한다면, 이제 “OpenAI 생태계의 미디어 채널”이 잠재 고객 도달 경로의 하나가 된다. 좋든 싫든 경쟁 환경이 그쪽으로 기운다.

    둘째, 한국 AI 회사도 “오리지널 콘텐츠”를 자산으로 보기 시작할 시점이다. 카카오·네이버·SKT가 이미 자체 미디어를 갖고 있지만, “AI 내러티브 전용 채널”은 아직 비어 있다. 이 자리는 누군가 잡는다. 늦으면 외부에서 정의된 내러티브를 받아쓰는 입장이 된다.

    셋째, “AI 회사의 PR이 곧 정책”이라는 인식을 가져야 한다. Lehane 산하라는 사실이 그 점을 못 박는다. 한국에서도 AI 규제·정책 라운드테이블이 늘고 있는데, 그 자리에 누가 어떤 미디어와 함께 앉느냐가 1~2년 안의 정책 결과를 결정한다.

    그래서 — 의사결정자에게 달라지는 것

    AI 시대의 경쟁은 더 이상 “더 좋은 모델 vs 더 싼 모델”이 아니다. 1년 전엔 그게 핵심이었지만 2026년 2분기의 진짜 게임은 “누가 의사결정자의 일상 시간을 점유하는가”이다. 제품·유통·미디어가 한 줄에서 묶인다.

    지금 바로 할 수 있는 것

    1. 본인 회사가 미국·유럽 향 매출이 있다면, 의사결정자 페르소나의 “일상 정보 식단”을 한 페이지로 정리한다. TBPN·Stratechery·The Information이 거기 들어가는지부터 본다. 들어간다면 거기 광고·콘텐츠 협업 예산 한 줄이 필요하다.
    2. 한국 본사·자회사 차원에서 “AI 내러티브 자산”을 만들 의사가 있는지 1시간짜리 회의로 정한다. 1년 안에 누군가는 이 자리를 잡는다.
    3. 임원진과 함께 TBPN 에피소드 하나를 본다. OpenAI가 왜 이 채널에 수억 달러를 썼는지, 30분 보면 본능적으로 이해된다. 보고서 10페이지보다 빠르다.

    관련 글

    출처

  • OpenAI·Anthropic·Google 프론티어 동맹 — 중국 AI 카피 1,600만 회 적발의 진짜 의미

    OpenAI·Anthropic·Google 프론티어 동맹 — 중국 AI 카피 1,600만 회 적발의 진짜 의미

    2026년 4월 8일, 블룸버그가 한 줄짜리 기사로 분위기를 바꿨다. OpenAI·Anthropic·Google이 Frontier Model Forum이라는 비영리 기구를 통해 “중국 모델이 우리 모델을 어떻게 베껴 가는지” 공격 데이터를 서로 공유하기 시작했다는 소식이다. 2023년에 출범하고 거의 잊혀졌던 이 포럼이, 3년 만에 처음으로 의미 있는 결과물을 낸 셈이다.

    경쟁사 셋이 한 테이블에 앉을 정도면 사안이 가볍지 않다. 한국 기업·개발자에게 어떤 영향이 오는지 차분히 정리해 본다.

    1. 사건 요약 — 1,600만 회의 “위장 질의”

    발단은 두 달 전이다. 2026년 2월 23일 Anthropic이 자체 보고서에서 약 24,000개의 위장 계정으로 1,600만 회의 Claude 대화가 이뤄졌고, 그 배후로 중국 3개사를 직접 지목했다.

    기업 대화 수(추정) 주요 표적
    MiniMax 약 1,300만 건 광범위한 능력 추출
    Moonshot (Kimi) 약 340만 건 에이전트 추론·툴 사용·코딩·컴퓨터 사용
    DeepSeek 약 15만 건 정합성·안전·정책 응답

    이 방식이 적대적 디스틸레이션(Adversarial Distillation)이다. 비싼 모델에 똑똑한 질문을 반복적으로 던져 답을 모은 뒤, 그 답을 학습 데이터 삼아 싸구려 모델을 길러 낸다. 업계에선 비용 차이를 이렇게 본다.

    • 프론티어 모델 1개 학습: 약 10억 달러
    • 잘 짜인 디스틸레이션 1회: 약 10~20만 달러

    약 5,000~1만 배 차이다. 합법·불법을 떠나, 경제적 인센티브가 너무 크다는 게 동맹 결성의 진짜 이유다.

    2. Frontier Model Forum이 실제로 하는 일

    이번에 공유되는 데이터는 단순한 “차단 IP 명단”이 아니다. 세 회사가 관측한 위장 계정의 행동 패턴, 우회 결제 수단, 프록시 인프라, 그리고 모델별로 어떤 능력을 표적으로 삼았는지의 메타데이터다. 한쪽에서 막힌 패턴이 다음날 다른 회사에서 그대로 등장하는 일을 줄이려는 것이다.

    달리 말하면, AI 회사들이 처음으로 “플랫폼 보안 공조”를 시작했다. 클라우드 회사들이 DDoS 공격 정보를 공유하던 것과 비슷한 그림이다.

    3. 한국 기업·개발자에 직접 닿는 변화 3가지

    ① API 어뷰즈 탐지가 강해진다. 위장 계정 패턴이 학습되면, VPN·중계 서버·다중 계정으로 우회해 쓰던 일부 한국 스타트업·연구실의 사용 패턴도 같이 잡힐 수 있다. 정상 트래픽이면 문제없지만, “대량 합성 데이터 만들려고 우회하던” 케이스는 위험하다.

    ② 중국 오픈소스 모델의 “혈통” 논쟁이 본격화된다. DeepSeek·Kimi 계열 모델을 사내에서 쓰는 곳이 늘었는데, 공급망(Supply Chain) 관점에서 “이 모델 가중치가 어디서 왔는가”가 컴플라이언스 이슈가 될 수 있다. 특히 미국 향 SaaS를 제공한다면, 고객사가 모델 출처를 묻는 일이 곧 일상화된다.

    ③ 미국 수출 통제와 모델 라이선스 조건이 같이 조여 온다. 디스틸레이션을 막는 가장 빠른 길은 약관·라이선스·결제 수단 검증이다. 한국 법인도 미국 모델 API를 쓸 때 KYC가 늘어나고, 일부 고급 모델은 국가·도메인 단위로 게이팅될 가능성이 높다.

    4. 그래서 — 한국 독자에게 달라지는 것

    기술 뉴스로 보면 “미·중 모델 전쟁의 새 챕터” 정도지만, 일하는 입장에서 핵심은 “내가 쓰는 모델의 출처와 약관을 처음으로 진지하게 봐야 하는 시점”이라는 데 있다. 한 줄로 정리하면 이렇다. 2026년부터 AI는 “성능”만큼 “공급망”이 평가 항목이 된다.

    지금 바로 할 수 있는 것

    1. 사내에서 쓰는 LLM 목록을 한 장으로 정리한다. 모델명, 호스팅 위치, 약관(상업적 이용·재학습 금지 조항), 데이터 송수신 방향까지. 이게 곧 컴플라이언스 자료가 된다.
    2. OpenAI·Anthropic·Google API를 쓴다면 결제 수단·법인 KYC를 정리해 둔다. 우회·중계 결제는 향후 계정 정지 사유가 될 수 있다.
    3. 오픈소스 모델(DeepSeek·Kimi·MiniMax 등)을 프로덕션에 쓰고 있다면, 미국·EU 향 고객이 출처 증빙을 요구할 가능성을 시나리오로 정리해 둔다.

    관련 글

    출처

  • GPT-5.5 Spud 출시 임박: 한국 유저 구독 전략 3가지 시나리오 (Plus·Pro·API)

    GPT-5.5 Spud 출시 임박: 한국 유저 구독 전략 3가지 시나리오 (Plus·Pro·API)

    OpenAI의 다음 모델이 며칠 내로 풀린다. 내부 코드명은 “Spud” — 감자라는 뜻의 영어 슬랭이다. GPT-5.5로 나올지 GPT-6로 나올지 아직 결정되지 않았지만, Sam Altman이 3월 24일 직원 대상으로 “몇 주 안에” 출시된다고 못 박은 이상 4월 중순~말 사이 윈도우가 가장 유력하다. 이미 Polymarket은 4월 30일 이전 출시 확률을 78%로 잡았다.

    문제는 이 타이밍이 한국 유저에게 매우 애매하다는 것이다. 지금 ChatGPT Plus를 쓰고 있다면, Pro를 쓰고 있다면, 또는 API로 Codex를 돌리고 있다면 — 각자 출시 직전 행동이 달라야 한다. 뉴스 정리가 아니라 “내가 지금 뭘 해야 하나”에 대한 답을 세 가지 시나리오로 정리했다.

    Spud가 뭔지부터 짧게

    Spud는 OpenAI가 2년간 연구한 결과물이다. Greg Brockman은 팟캐스트에서 “점진적 개선이 아니라 모델 개발 방식 자체가 바뀐 수준의 큰 모델 느낌(big model feel)”이라고 표현했다. Sam Altman은 한발 더 나가 “경제를 실제로 가속할 수 있는 모델”이라고 설명했다. 사전학습(pretraining)은 2026년 3월 24일 완료됐고, 지금은 safety evaluation과 red-teaming 단계다.

    이름이 GPT-5.5가 될지 GPT-6가 될지는 벤치마크 점수가 결정한다. GPT-5.4 대비 세대적 도약이면 GPT-6, 강한 점진 개선이면 GPT-5.5다. 업계 유출 정보에 따르면 Claude Mythos 수준의 벤치마크가 보고되고 있어, GPT-6로 출시될 가능성도 작지 않다.

    시나리오 A: ChatGPT Plus($20) 구독자

    가장 많은 한국 유저가 속한 그룹이다. 결론부터 말하면 구독 유지, 결제일 조정 고려가 합리적이다.

    과거 GPT-5.2, GPT-5.4 출시 패턴을 보면 OpenAI는 신모델을 Plus 티어에 제한된 쿼터로 먼저 풀었다. Spud도 Plus에서 일단 “thinking” 또는 “reasoning” 모드로 제한적 접근이 열릴 가능성이 크다. 다만 초기 며칠은 쿼터가 극히 빡빡해서 실제로 써보려면 타이밍 눈치 싸움이 필요하다.

    팁 하나: 4월 결제일이 출시 예상일(14~30일) 직후에 걸려 있다면, 이번 달 자동 결제를 일시 해지했다가 출시 확정 후 재결제하는 것도 방법이다. Plus 구독은 월 중간 해지해도 기간 내에는 그대로 쓸 수 있고, 출시 직후 “Plus에서 Spud 된다”가 확정되면 즉시 재결제하면 된다. 신모델이 Pro 전용으로 밀리면 그대로 해지 상태로 두면 되고.

    시나리오 B: ChatGPT Pro($200) 구독자

    결론: 유지가 정답. 단, 출시 첫 주는 Deep Research와 무제한 기능을 일부러 아껴 쓰는 게 좋다.

    GPT-5.4 출시 때 확인된 패턴대로라면 Spud는 Pro 티어에 무제한 또는 거의 무제한으로 먼저 풀릴 가능성이 가장 크다. 문제는 초기 인프라 부하다. OpenAI는 신모델 출시 직후 며칠은 속도가 느리거나 에러가 빈발하는데, 이때 Pro 유저가 Deep Research를 하루 수십 번씩 돌리면 체감 품질이 평소보다 한참 떨어진다.

    실전 전략은 이렇다. 출시 당일과 다음날은 “진짜 중요한 작업”만 Spud로 돌리고, 일상 작업은 GPT-5.4로 남겨둔다. 일주일 정도 지나면 인프라가 안정되고 쿼터 정책도 명확해지는데, 그때부터 Spud 중심으로 워크플로우를 재구성하는 게 실수를 줄이는 길이다.

    시나리오 C: API/Codex 유저

    가장 민감한 그룹이다. 결론: 지금 당장 예산 재검토가 필요하다.

    GPT-5.4 API 단가 기준으로 월 수십만 원~수백만 원을 쓰고 있다면, Spud 출시 직후가 가장 위험한 구간이다. OpenAI의 최근 관행을 보면 신모델 API는 기존 모델보다 2~3배 비싼 가격으로 시작하고, 몇 주 지나서야 조정된다. 만약 GPT-6로 출시되면 입력/출력 토큰당 단가가 $30/$100 대까지 뛸 가능성도 배제할 수 없다.

    구체적 액션은 세 가지다. 첫째, Codex나 에이전트 워크플로우에서 “신모델 자동 업그레이드” 옵션이 켜져 있는지 확인하고 끈다. 둘째, 현재 월 사용량 기준으로 단가 2배, 3배 시나리오를 계산해서 상한선을 미리 정한다. 셋째, GPT-5.4와 Gemini 3, Claude 4.6을 함께 테스트해서 fallback 경로를 확보한다. 신모델이 비싸고 느리다면 며칠은 구모델로 버티는 게 현명하다.

    그래서 한국 유저에게 뭐가 달라지나

    핵심은 Spud 출시가 “더 좋은 ChatGPT가 나온다”로 끝나지 않는다는 점이다. OpenAI는 이 모델을 “unified super-app” 전략의 백본으로 삼고 있다. ChatGPT, Codex, Deep Research, Memory, Agent 기능이 하나로 합쳐지는 큰 그림의 첫 조각이라는 뜻이다. 이 말은 기존 Plus/Pro 요금제 구조 자체가 재편될 수 있다는 신호다. 4월 말에서 5월 사이, 요금제 개편 공지가 함께 나올 가능성도 염두에 두자.

    한국 유저 관점에서 실질적으로 바뀌는 건 두 가지다. (1) 신모델이 한국어 처리에서 GPT-5.4보다 얼마나 나아지는지 — 특히 긴 문서 요약과 논리 추론에서 — 가 요금제 선택 기준이 된다. (2) Codex 기반 에이전트를 쓰는 개발자는 월 비용이 단기적으로 출렁일 수 있으니 현금흐름 관리가 필요하다. 감자(Spud)라는 이름과 달리, 이 모델이 만들 파장은 가볍지 않다.

    지금 바로 할 수 있는 것

    • Plus 유저: 결제일이 4월 14~30일 사이에 걸려 있으면 자동결제 일시 해지 고려. 출시 확정 후 재결제하면 된다.
    • Pro 유저: 출시 첫 주는 Deep Research 사용량을 평소의 절반으로 줄이고, Spud는 중요한 작업에만 투입.
    • API 유저: Codex/자동화 스크립트의 “최신 모델 자동 선택” 옵션을 확인하고, 현재 사용량 × 3 기준으로 월 예산 상한선을 미리 걸어둔다.

    관련 글

    출처

  • F/ai 완전 정리: OpenAI·구글·메타·MS·앤트로픽이 한 액셀러레이터에 모인 이유

    F/ai 완전 정리: OpenAI·구글·메타·MS·앤트로픽이 한 액셀러레이터에 모인 이유

    경쟁사가 같은 사무실에 책상을 나란히 놓는 일은 거의 없다. 그런데 OpenAI, Anthropic, Google, Meta, Microsoft, 그리고 Mistral까지 — 미국·유럽 주요 AI 랩이 한 액셀러레이터 프로그램에 동시에 멘토로 들어왔다. 이름은 F/ai. 파리의 거대 스타트업 캠퍼스 Station F가 운영하고, 처음으로 빅테크 6사가 한 테이블 위에서 초기 단계 AI 스타트업을 직접 키우기로 했다.

    F/ai의 정체: 6개 빅테크가 동시에 들어온 첫 사례

    F/ai는 Station F가 주관하는 3개월짜리 AI 전문 액셀러레이터다. 매년 두 차례 코호트를 운영하며, 한 회차에 20개 팀을 받는다. 일반 공모는 없다. 후보는 추천(recommendation-only) 방식으로만 들어오고, 기술·연구 베이스가 탄탄하면서 상업화 경로가 분명한 팀만 추린다. 첫 봄 코호트는 1월 13일에 시작했고, 20개 팀이 이미 합쳐서 €34M(약 530억 원) 가까이 조달한 상태다.

    특이한 건 결승 무대다. 통상 액셀러레이터는 마지막 날 투자자를 모아놓고 데모데이를 한다. F/ai는 대신 “deal day”를 연다. 발표가 아니라, 대기업과의 파트너십·계약을 그 자리에서 사인하는 형식이다. 프로그램이 노골적으로 노리는 KPI도 매출이다 — 6개월 안에 €1M ARR 도달.

    스타트업이 받는 것: 자금 대신 모델·컴퓨트·엔지니어

    F/ai는 직접 투자하지 않는다. 대신 모델 호출, GPU 컴퓨트, 클라우드 서비스 크레딧을 합쳐 한 팀당 100만 달러 이상을 지원한다. 더 중요한 건 사람이다. 프로그램에 들어가면 OpenAI·Anthropic·Google·Meta·Microsoft·Mistral 엔지니어링 팀과 직접 워크숍을 한다. 평소 NDA를 뚫지 않고는 만나기 어려운 라인이다.

    구성으로 보면 Y Combinator의 유럽판이라기보다, 빅테크가 각자 가진 모델 위에서 돌아갈 “다음 세대 앱” 후보들을 모으는 공동 사냥터에 가깝다. Sequoia, General Catalyst, Mistral, OpenAI는 별도 펀드 구조로 일부 팀에 후속 투자를 실어주는 라인도 같이 깔았다.

    왜 모였나: 유럽 + 미국, Y Combinator 견제, 그리고 모델 의존도

    이 그림이 처음 잡혔을 때 가장 놀라운 건 “왜 한 자리에 모였는가”였다. 세 가지 이유가 겹친다. 첫째, 유럽 AI 스타트업 풀이 무시할 수 없는 수준으로 두꺼워졌다. Mistral, Black Forest Labs 같은 사례가 반복되면서, 미국 빅테크 입장에서 유럽에 멘토 라인을 박아두는 비용이 무시할 게 됐다.

    둘째, Y Combinator가 사실상 OpenAI 진영에 가까운 통로가 되면서, 다른 진영도 자기 모델 위에 앱을 올릴 통로가 필요해졌다. 셋째 — 그리고 가장 솔직한 이유 — 누가 어느 모델을 쓰느냐가 향후 5년 매출 곡선에 직결된다. 빅테크는 이제 “내 모델을 쓰는 앱이 6개월 안에 매출을 내는지”를 직접 보고 싶어 한다.

    그래서 한국 입장에서 뭐가 달라지나

    F/ai는 한국 팀에게도 닫혀 있는 구조는 아니다. 추천 기반이라 평소 글로벌 VC·빅테크 채널에 노출돼 있어야 한다는 단점이 있지만, 반대로 말하면 한국에 본사를 둔 팀도 미국 법인이나 EU 거점만 있으면 후보군에 들어갈 수 있다. 더 큰 시그널은 다른 데 있다. 빅테크가 “투자보다 매출 KPI”를 내걸었다는 점이다. 6개월 안에 €1M ARR. AI 시장이 더는 데모데이로 평가받지 않는다는 뜻이다.

    한국 AI 스타트업이 그 동안 익숙했던 “프리시드 받고 PoC 돌리며 1년 버티는” 패턴은 글로벌 무대에서 점점 뒤로 밀린다. 이번 F/ai 같은 프로그램이 보내는 메시지는 단순하다 — “모델은 우리가 줄게, 너는 매출 가져와.”

    지금 바로 할 수 있는 것

    • Station F F/ai 페이지에서 코호트 구성과 deal day 운영 방식 한 번 훑어보기. 직접 지원 못 해도 글로벌 AI 액셀러레이터가 어떤 KPI를 보는지 감이 잡힌다.
    • 현재 우리 팀이 만드는 AI 제품이 “6개월 안에 €1M ARR” 기준에서 어디쯤에 있는지 솔직하게 적어보기. 거리감이 보일수록 다음 분기 우선순위가 분명해진다.
    • 국내 액셀러레이터·VC 미팅 때 “모델 크레딧과 엔지니어링 액세스를 함께 줄 수 있는가”를 한 번 물어보기. 글로벌 기준이 바뀌고 있다.

    관련 글

    출처

    대표이미지 출처: STATION F

  • Anthropic Claude Managed Agents 출시: 시간당 $0.08에 에이전트 인프라 통째로 빌리기

    Anthropic Claude Managed Agents 출시: 시간당 $0.08에 에이전트 인프라 통째로 빌리기

    4월 8일, Anthropic이 Claude Managed Agents를 공개 베타로 풀었다. 이름은 평범한데 안에 들어 있는 건 평범하지 않다. 에이전트를 돌리는 데 필요한 샌드박스, 권한, 상태 관리, 에러 복구 — 그 동안 직접 짜야 했던 인프라 레이어를 Anthropic이 통째로 흡수해 운영해 준다. 가격은 시간당 $0.08, 모델 토큰 비용 별도. 24시간 내내 돌리면 런타임만 월 $58 정도다.

    “에이전트”와 “에이전트 인프라”의 분리

    지난 1년 동안 AI 에이전트를 실제로 만들어 본 팀은 같은 벽에 부딪혔다. 모델 호출은 어렵지 않다. 어려운 건 그 모델이 파일을 만들고, 명령을 실행하고, 상태를 잃지 않고, 실패하면 다시 일어나도록 만드는 부분이다. 흔히 말하는 “agent loop” 자체보다 그 주변의 운영 코드가 더 무겁다.

    Managed Agents는 그 운영 코드를 통째로 가져간다. 개발자는 에이전트가 무엇을 해야 하는지(prompt, tool, 정책)만 정의하면, 컨테이너 격리·시크릿 관리·재시도·세션 상태 보존을 Anthropic이 처리한다. 대신 모든 워크로드는 Anthropic 인프라 위에서만 돈다 — 자체 클라우드에 두고 싶다면 이 옵션은 맞지 않는다.

    이미 베타 공개일에 프로덕션이 있는 회사들

    흥미로운 건 베타 공개가 아니라 사용 사례다. 발표 시점에 Notion, Rakuten, Asana, Sentry 네 곳이 이미 Managed Agents 위에서 실제 제품을 돌리고 있었다.

    • Notion — 워크스페이스 안에서 코드, 슬라이드, 스프레드시트 작업을 Claude 에이전트에게 떼어준다. 한 사용자가 동시에 수십 개 세션을 병렬로 돌리는 형태로, “에이전트가 한 번에 한 개의 일만 한다”는 가정이 깨졌다.
    • Rakuten — 제품·영업·마케팅·재무·HR 다섯 부서에 각각 전용 에이전트를 띄웠다. 각 부서당 1주일 미만으로 라이브. Slack·Teams에서 업무를 받고 결과를 돌려보낸다.
    • Asana — “AI Teammates”라는 이름으로, 프로젝트 안에 인간 팀원처럼 들어와 할당받은 태스크의 초안을 생성한다. CTO는 “이전 방식보다 극적으로 빠르게” 고급 기능을 출시했다고 말했다.
    • Sentry — 디버깅 에이전트 옆에 Claude 에이전트를 짝지웠다. 에러가 잡히면 패치를 작성하고 PR까지 자동으로 연다. 사람 손이 닿지 않는 흐름이다.

    4개 회사의 공통점은 “AI 데모”가 아니라 “이미 매출 책임이 있는 제품 라인”에 에이전트가 들어갔다는 점이다. 베타라고 부르기엔 사용 강도가 꽤 진하다.

    가격을 다시 보자: 시간당 $0.08의 의미

    $0.08/hour가 싸 보이는 데는 이유가 있다. 이 가격은 런타임 — 즉 컨테이너가 살아 있는 시간 — 에만 붙는다. 모델 호출 토큰은 별도다. 그러니까 Sonnet 4.6이나 Opus 4.6을 본격적으로 돌리면 청구서의 대부분은 결국 토큰에서 나온다. 런타임 비용은 “그 동안 안 보였던 인프라 운영비”를 명시적으로 분리해 보여주는 라인 아이템에 가깝다.

    그래도 변화는 분명하다. 에이전트를 만들기 위해 K8s, queue, secret manager, 로깅을 따로 깔던 비용이 거의 0으로 수렴한다. 4명짜리 팀이 1주일 안에 사내 에이전트를 띄울 수 있게 됐다는 뜻이다.

    한국 입장에서 뭐가 달라지나

    그 동안 한국 기업이 사내 AI 에이전트를 검토할 때 가장 큰 진입 장벽은 “사람이 없다”였다. 모델 자체보다 그 모델을 “안전하게 24시간 돌리는 인프라”를 만들 사람이 부족했다. Managed Agents는 그 부분을 Anthropic이 외주받는 구조다. 진입 장벽이 한 단계 내려간다.

    대신 두 가지 트레이드오프가 명확해진다. 첫째, 데이터가 Anthropic 인프라를 거쳐 간다. 보안·컴플라이언스 부서가 검토할 항목이 늘어난다. 둘째, 락인이다. 한 번 Managed Agents 위에 사내 워크플로우를 올리면, 같은 모양으로 OpenAI나 Gemini로 옮기기는 쉽지 않다. 그래서 빠른 1차 PoC에는 이상적이지만, 회사 전체 표준으로 깔기 전엔 한 번 더 멈춰서 비교해 봐야 한다.

    지금 바로 할 수 있는 것

    1. Claude Platform 콘솔에서 Managed Agents 메뉴를 켜보고, “내 회사에 이미 있는 한 가지 반복 업무”를 후보로 적어보기. 영업 메일 분류, 코드 리뷰 PR 초안, 회의록 요약 등 주기적으로 도는 작업이 1순위다.
    2. 해당 워크플로우의 데이터가 외부로 나가도 되는지 보안팀에 먼저 확인. 안 되면 Managed Agents 대신 자체 호스팅 옵션을 따로 검토.
    3. 토큰 비용 시뮬레이션을 미리 돌려보기. 런타임 $58은 기준선일 뿐이고, 실제 청구서는 모델 사용량이 결정한다.

    관련 글

    출처

    대표이미지 출처: Anthropic

  • SaaS-pocalypse: ServiceNow 46% 폭락·Oracle 반격, Anthropic이 SaaS를 깨고 있다

    SaaS-pocalypse: ServiceNow 46% 폭락·Oracle 반격, Anthropic이 SaaS를 깨고 있다

    ServiceNow 주가가 연초 대비 46% 빠졌다. 4월 10일에는 하루에만 -8.98%. Cloudflare, CrowdStrike, Salesforce, Snowflake도 같이 주저앉았다. 시장이 부르는 이름은 점점 굳어지고 있다 — “SaaS-pocalypse”. 그리고 사람들은 한 회사를 손가락으로 가리킨다. Anthropic.

    무엇이 무너지고 있는가

    SaaS가 지난 15년 동안 쌓아 올린 해자는 단순했다. 데이터를 보관하고, 워크플로우를 정의하고, 사용자가 매달 자동으로 결제한다. 한 번 들어가면 잘 안 빠져나간다. 그런데 Anthropic의 Claude Managed Agents가 공개 베타로 풀린 직후, 시장은 다른 그림을 그리기 시작했다.

    핵심 가설은 이것이다 — AI 에이전트가 기존 SaaS의 UI 레이어를 우회한다. 사용자는 ServiceNow 화면에서 티켓을 끊지 않고, Claude에게 “이 장애 해결 워크플로우를 돌려”라고 말한다. 에이전트가 ServiceNow API를 호출해 같은 일을 한다. 결과적으로 ServiceNow는 데이터를 들고는 있지만, 사용자 인터랙션의 대부분이 에이전트로 옮겨간다. 좌석당 라이선스 모델은 그 순간 무너진다.

    UBS는 ServiceNow 목표가를 내렸고, 한 달 만에 시가총액 수십조 원이 증발했다. 시장이 보고 있는 건 일시적 하락이 아니라 구조적 압박이다.

    ServiceNow의 반격: 구독 + 토큰 하이브리드 가격제

    ServiceNow는 손 놓고 있지 않다. 회사가 새로 들고나온 가격 모델은 좌석당 월 구독료에 AI 사용량 기반 토큰 비용을 얹는 하이브리드 구조다. “사람이 많으면 비싸다”에서 “AI가 일을 많이 하면 비싸다”로 청구 기준 자체가 옮겨간다.

    CEO Bill McDermott는 “SaaS가 죽고 있다는 게 아니라 기회”라고 말했다. 4년 전부터 AI에 베팅해온 자사가 지금이야말로 점유를 늘릴 시점이라는 것이다. 메시지는 분명한데, 시장은 아직 못 믿는 분위기다 — 하이브리드 가격제는 단기적으로 매출 인식 패턴을 흔들고, 기존 좌석당 라이선스 매출을 잠식할 수 있어서다.

    Oracle의 반격: Systems of Record에서 Systems of Outcomes로

    Oracle은 더 큰 쪽을 친다. 회사가 새로 발표한 Fusion Agentic Applications는 한 줄로 요약된다 — 데이터베이스 안에 에이전트를 박아둔다. 에이전트가 외부에서 API로 들어와 데이터를 바꾸는 게 아니라, DB 엔진과 같은 레벨에서 트랜잭션을 만들고 감사 로그를 남긴다.

    Oracle이 쓰는 표현이 정확하다. “Systems of Record(기록 시스템)에서 Systems of Outcomes(결과 시스템)으로.” 기존 ERP는 사람이 입력하면 기록을 남기는 게 일이었다. 에이전트가 들어오면 사람을 거치지 않고 결과 — 인보이스 발행, 재고 조정, 예산 재배분 — 자체를 만들어낸다. Oracle은 자사 ERP 위에 에이전트를 직접 얹어 이 흐름을 잡으려 한다.

    진짜 종말인가

    SaaS가 사라진다는 서사는 자극적이지만 지나치게 단순하다. 짚어둘 세 가지가 있다.

    첫째, 에이전트도 결국 어떤 시스템 위에서 돈다. 데이터 자체와 권한·감사·SOC2 컴플라이언스 레이어는 여전히 누군가가 들고 있어야 한다. ServiceNow·Salesforce·Oracle이 이걸 놓을 가능성은 낮다.

    둘째, 가격 모델은 흔들리지만 매출 자체는 꼭 줄지 않는다. 하이브리드 가격제는 “사람 100명 × 월 50달러”가 “사람 30명 × 월 30달러 + AI 토큰 월 5,000달러”로 모양만 바뀌는 식이 될 수 있다. 합계는 더 커질 수도 있다.

    셋째, 정말로 위협받는 건 “워크플로우 UI에만 가치가 있던” SaaS다. 데이터 통합·도메인 컴플라이언스·산업 특화 로직이 약한 서비스부터 잘려 나간다. 시장은 지금 “어디부터 잘릴까”를 가격에 반영하는 중이다.

    그래서 한국 기업이 지금 점검해야 할 것

    한국 기업의 SaaS 청구서는 보통 매년 자동 갱신된다. 올해는 그 자동 갱신을 한 번 멈춰볼 가치가 있다. 미국에서 벌어지는 가격 모델 재편은 한국 기업 청구서에도 1~2분기 안에 들어온다. 좌석당 단가는 내려가고 사용량 기반 라인이 새로 붙는 형식이 표준이 될 가능성이 높다. 갱신 협상 테이블에서 이걸 미리 알고 들어가는 것과 모르고 들어가는 것의 차이는 크다.

    지금 바로 할 수 있는 것

    1. 현재 사용 중인 SaaS 리스트와 좌석 수를 한 페이지로 정리. 분기마다 한 번씩 “이 좌석 중 몇 %가 AI 에이전트로 대체 가능한가”를 추정해본다.
    2. 다음 SaaS 갱신 협상 전에, 공급사에 “하이브리드 가격제 옵션이 있는지”를 명시적으로 묻기. 없다면 1년만 계약하고 6개월 후 재협상 조항을 넣는다.
    3. 핵심 워크플로우 1~2개를 골라 자체 에이전트로 PoC. ROI 비교는 “구독료 절감”이 아니라 “처리 건수 × 인건비 절감”으로 잡는다.

    관련 글

    출처

    대표이미지 출처: Oracle

  • NVIDIA Open Agent Development Platform: 17개 엔터프라이즈가 같은 표준 위에 올라타는 이유

    NVIDIA Open Agent Development Platform: 17개 엔터프라이즈가 같은 표준 위에 올라타는 이유

    “Claude Code와 OpenClaw가 에이전트의 변곡점을 만들었다. AI를 생성과 추론 너머, 행동의 영역으로 끌어냈다.” — Jensen Huang의 GTC 2026 키노트는 이 한 줄로 시작했다. 그날 NVIDIA가 함께 발표한 게 Open Agent Development Platform이다. 3월 16일 GTC에서 공개된 이 플랫폼은 4월에 들어서며 17개 엔터프라이즈 파트너의 본격 채택이 이어지면서 다시 한번 화제로 올라왔다.

    NVIDIA가 내놓은 것: 한 줄이 아니라 한 스택

    Open Agent Development Platform(OADP)은 단일 제품이 아니다. NVIDIA가 “오픈 소스 에이전트 풀스택”이라고 부르는 묶음 안에는 네 개의 레이어가 들어 있다.

    • Open models — NVIDIA Nemotron. 추론과 도구 사용에 튜닝된 NVIDIA의 자체 오픈 모델 패밀리. 라이선스는 상업적 이용 가능.
    • Open agents — NVIDIA AI-Q. 모델 위에 올라가는 사전 구성된 에이전트 청사진들. 도메인별 구현 템플릿이라고 보면 된다.
    • Open skills — NVIDIA cuOpt 등. 에이전트가 호출해 쓰는 능력 라이브러리. 최적화·문서 처리·그래프 등 영역별로 묶여 있다.
    • Open runtime — NVIDIA OpenShell. 에이전트를 실제로 실행하는 컨테이너 런타임. 정책 기반 보안·네트워크·프라이버시 가드레일이 기본으로 깔린다.

    지난 1년 동안 에이전트 도구는 모델·프롬프트 라이브러리·실행 환경이 모두 따로 놀았다. NVIDIA가 시도하는 건 그 네 조각을 한 단일 스택으로 묶어 “엔터프라이즈가 직접 깔아 쓰는 표준”을 만드는 일이다. 그것도 오픈 소스로.

    17개 파트너 명단이 이 발표의 진짜 무게다

    플랫폼 자체보다 더 의미 있는 건 1차 채택사 명단이다. Adobe, Atlassian, Amdocs, Box, Cadence, Cisco, Cohesity, CrowdStrike, Dassault Systèmes, IQVIA, Red Hat, SAP, Salesforce, Siemens, ServiceNow, Synopsys — 그리고 17번째까지. 엔터프라이즈 소프트웨어 카테고리마다 한 칸씩을 점유하는 상위 사업자들이 한 발표에 일제히 이름을 올렸다.

    이 명단이 보여주는 건 단순한 마케팅 협업이 아니다. ERP(SAP), CRM(Salesforce), 디자인(Adobe·Dassault·Siemens), 네트워크/보안(Cisco·CrowdStrike), 협업(Atlassian·Box), EDA(Cadence·Synopsys), 생명과학(IQVIA), 시스템 SaaS(ServiceNow) — 거의 모든 엔터프라이즈 도메인의 대표 SaaS가 NVIDIA Agent Toolkit을 자기 제품 안에 끼워 넣고 있다는 뜻이다. 같은 주에 SaaS 종목이 무너지고 있는 와중에 — 같은 회사들이 NVIDIA의 에이전트 표준 위로 옮겨 타고 있다.

    “지식노동의 산업혁명”이라는 표현의 진짜 뜻

    NVIDIA가 발표 헤드라인에 박은 표현이 있다. “Next Industrial Revolution in Knowledge Work” — 지식노동의 다음 산업혁명. 마케팅 멘트로 흘려듣기 쉬운데, 자세히 보면 NVIDIA가 시장을 어떻게 보고 있는지가 드러난다.

    지난 30년 동안 지식노동의 생산성은 SaaS와 클라우드 위에서 천천히 오르긴 했지만, 사람 한 명이 처리하는 단위 업무량은 본질적으로 비슷했다. 에이전트가 들어오면 이 단위가 깨진다. NVIDIA가 노리는 자리는 그 깨진 단위 위에 새로 올라갈 인프라 — GPU·런타임·표준 — 의 공급자다. 산업혁명 시기에 증기기관을 만들던 회사가 한 일과 정확히 같은 포지션이다.

    그래서 OADP가 오픈 소스라는 점이 중요하다. NVIDIA는 에이전트 소프트웨어로 돈을 벌 생각이 없다. 그 소프트웨어가 더 많이 깔릴수록 결국 GPU·DGX·CUDA가 더 많이 팔린다. 런타임과 표준을 무료로 푸는 이유다.

    한국 기업 입장에서 짚어야 할 세 가지

    1. SAP·Salesforce·ServiceNow를 쓰고 있다면 이미 영향권 안이다. 자신이 도입한 SaaS의 다음 메이저 업데이트에 NVIDIA Agent Toolkit이 들어올 가능성이 높다. 별도 결정 없이도 사내 워크플로우에 에이전트가 따라 들어온다.

    2. 사내 자체 에이전트를 검토 중이라면 OADP는 진지한 후보다. Anthropic Managed Agents가 “운영 부담을 통째로 외주”하는 모델이라면, OADP는 “통제권을 우리가 들고 가는” 모델이다. 데이터가 외부로 못 나가는 산업(금융·공공·의료)에서는 두 번째가 더 맞는다.

    3. GPU 조달 계획을 다시 짜야 한다. 표준이 NVIDIA OpenShell 쪽으로 굳어지면, 에이전트 추론용 GPU 수요는 학습용 수요와 별개로 분리되어 늘어난다. 한국 기업의 2027년 IT 예산 라인에 “에이전트 추론 컴퓨트”가 새 항목으로 들어가야 할 시점이다.

    지금 바로 할 수 있는 것

    1. NVIDIA 공식 발표 페이지에서 17개 파트너 명단을 확인하고, 그중 회사가 쓰는 SaaS가 몇 개인지 카운트. 3개 이상이면 다음 분기 IT 로드맵 회의에서 이 주제를 의제로 올린다.
    2. Nemotron 모델 카드와 OpenShell 런타임 문서를 한 번 훑어보기. 사내 PoC를 OADP 위에 올릴지 Managed Agents 위에 올릴지 비교 기준이 잡힌다.
    3. 현재 NVIDIA H100/H200 보유 현황과 1년 안에 추가로 필요할 추론 GPU 수량을 한 줄로 적어보기. 표준이 굳어지기 전에 조달 협상을 시작해야 가격이 산다.

    관련 글

    출처

    대표이미지 출처: NVIDIA Newsroom

  • Meta Muse Spark 완전 분석: Llama를 버린 이유와 GPT-5·Claude 대비 성능 비교

    Meta Muse Spark 완전 분석: Llama를 버린 이유와 GPT-5·Claude 대비 성능 비교

    3년이었다. Meta가 Llama 1, 2, 3 시리즈를 차례로 무료 공개하면서 “AI 민주화”라는 메시지를 외쳐 온 세월. 그 메시지가 공식적으로 끝난 날이 4월 8일이다. 같은 날 Meta는 Llama가 아닌 완전히 새로운 폐쇄형 모델 Muse Spark를 공개했다. 가중치 다운로드 없음, 자체 호스팅 없음, 오직 API로만 접근 가능. 오픈소스 진영에 등을 돌렸다는 해석이 즉각 나왔다.

    그렇다고 충동적인 결정은 아니었던 것으로 보인다. 모델의 성능과 그 뒤에 선 사람을 보면 의도가 분명히 읽힌다.

    처음부터 4위권으로 들어왔다

    Muse Spark는 Meta Superintelligence Labs(MSL)에서 만들었다. Scale AI CEO 출신 Alexandr Wang이 이끄는 조직이고, 기존 FAIR(Meta의 전통적 AI 연구팀)와는 별도로 운영된다. 연구 중심이 아니라 제품 경쟁력을 목표로 신설된 팀이라는 게 차이의 핵심이다.

    Intelligence Index v4.0 기준 점수를 보면 위치가 분명해진다.

    모델 Intelligence Index 점수
    GPT-5.4 / Gemini 3.1 57
    Claude Opus 4.6 53
    Meta Muse Spark 52
    이전 세대 모델들 47 이하

    처음 공개한 모델이 바로 4위권. 이건 흔치 않다. Meta가 그동안 쌓아 둔 인프라와 데이터가 어느 정도 수준이었는지를 역으로 보여 주는 숫자이기도 하다.

    왜 Llama를 버렸나 — 추론 가능한 세 가지 이유

    Meta는 공식 입장을 내놓지 않았다. 하지만 업계가 대체로 동의하는 해석은 세 가지다.

    가장 자주 언급되는 건 경쟁 구도다. Llama를 오픈소스로 풀면 중국의 GLM, DeepSeek 같은 팀이 그 위에 자기 개선을 얹는다. Meta의 연구비가 경쟁사의 자산이 되는 구조다. 두 번째는 수익 경로 문제. 무료로 푸는 모델은 Meta에 직접 돈을 만들어 주지 않는다. API 기반 폐쇄 모델은 토큰당 과금이 가능하다. 세 번째가 가장 결정적인데, Alexandr Wang의 전략 색깔이다. Scale AI를 키운 그는 데이터 품질과 모델 차별화로 경쟁하는 방식에 익숙하다. “최고 품질의 유료 서비스”가 그의 본능에 더 가깝다.

    오픈소스 진영의 빈자리

    Llama는 단순한 모델 하나가 아니라 사실상 오픈소스 LLM 생태계의 기반이었다. Ollama의 Llama 계열, Hugging Face에 올라가 있는 Llama 기반 파인튜닝 모델 수천 개, llama.cpp 생태계 전체가 거기에 기대고 있었다. Meta가 빠진 자리를 누가 채울 것인가는 당장의 화두다.

    대안이 아예 없는 건 아니다. Google의 Gemma 4, Mistral, GLM-5.1, Qwen 계열이 빈자리를 메우려 한다. 하지만 Meta 수준의 자원으로 밀어붙이는 오픈소스 기반 모델이 사라진다는 건 분명한 공백이다. 이 공백이 메워지는 데 얼마가 걸리느냐에 따라 오픈소스 AI의 경쟁력 자체가 영향을 받는다.

    한국 사용자 입장에서 본 변화

    먼저 일반 사용자 쪽. Meta AI 챗봇이 인스타그램 DM, WhatsApp, Facebook 안에 들어가 있는데, 이 백엔드가 Muse Spark로 교체된다. 한국에서 인스타그램 DM의 AI 답장 기능이나 Meta AI 챗봇 응답 품질이 직접적으로 좋아질 수 있다는 뜻이다.

    개발자 쪽은 다른 의미다. 4위권 모델이 OpenAI·Anthropic과 경쟁적인 가격으로 API로 풀린다면, 그건 비용 절감 옵션이 하나 더 늘어난다는 얘기다. Meta AI API의 출시 일정과 가격 정책을 지켜볼 가치가 있다. 단, 로컬 LLM을 운영하던 팀이라면 더 이상 새로운 Llama를 기다릴 수 없다는 사실은 받아들여야 한다. 마이그레이션 시나리오를 고민할 시점이다.

    지금 할 일

    meta.ai에서 Muse Spark 기반 Meta AI 챗봇을 직접 체험해 보고 평소 쓰는 Claude나 ChatGPT와 같은 질문을 던져 비교해 보면 모델 성격이 빨리 잡힌다. 개발자라면 developers.facebook.com/products/meta-ai에서 API 출시 알림을 신청해 두자. 기존 Llama 기반 로컬 LLM을 운영 중이라면 Gemma 4와 GLM-5.1 중 어느 쪽으로 옮길 수 있는지 미리 확인해 두는 게 안전하다.

    관련 글

    출처

  • ChatGPT 앱스토어란 무엇인가: Tubi 사례로 보는 AI 슈퍼앱 생태계 완전 정리

    ChatGPT 앱스토어란 무엇인가: Tubi 사례로 보는 AI 슈퍼앱 생태계 완전 정리

    퇴근 후 소파에 앉아 휴대폰을 켠다. ChatGPT를 열고 한 줄을 친다. “@Tubi 오늘 밤 볼 만한 90분짜리 스릴러 있을까?” 답이 돌아온다. 추천 목록 세 편, 그 자리에서 재생 버튼. 다른 앱을 열 필요는 없다. 4월 8일, 무료 스트리밍 서비스 Tubi가 ChatGPT 앱스토어 최초의 스트리밍 네이티브 앱을 띄운 날이 만들어 낸 풍경이다.

    이게 단순한 신기능 발표가 아닌 이유가 있다. ChatGPT가 운영체제처럼 작동하기 시작했다는 신호다.

    ‘챗봇 안의 챗봇’에서 ‘챗봇 안의 진짜 앱’으로

    OpenAI는 2024년 말 GPT 스토어를 열었지만, 그건 사실상 프롬프트 컬렉션에 가까웠다. 누가 만든 GPT를 골라 들어가도 결국 텍스트 응답이 전부였다. 2025년 말 등장한 네이티브 앱(Native Apps) 개념부터 분위기가 달라졌다. 핵심 차이는 액션(Actions)에 있다. 이전 GPT는 말을 만들어 냈고, 네이티브 앱은 행동을 한다. 예약, 결제, 재생, 구매 같은 실제 동작이 ChatGPT 창 안에서 끝난다.

    왜 하필 Tubi가 첫 타자였나

    흥미로운 건 Netflix도, Disney+도 아니고 Tubi였다는 점이다. Fox Corporation 산하의 무료 광고 기반 스트리밍 서비스. 30만 편 넘는 영화와 TV 프로그램을 무료로 푼다. 유료 구독 모델인 거대 OTT들은 ChatGPT를 통한 재생이 자기 앱 수익 구조를 위협한다고 본다. 반대로 Tubi는 광고 모델이라 노출이 늘어날수록 이득이다. 이해관계가 정확히 일치하는 첫 후보가 Tubi였던 셈이다.

    사용자 흐름은 단순하다. ChatGPT 대화창에서 @Tubi를 멘션하고 자연어로 요청하면, 모델이 Tubi 콘텐츠 DB를 조회하고 추천 목록을 보여 준다. 마음에 드는 작품을 누르면 그대로 Tubi 플레이어가 열린다. 이 한 사이클이 ChatGPT 한 화면에서 끝난다는 게 핵심이다.

    개발자 입장에서 본 진입 장벽

    네이티브 앱은 OpenAI의 Actions와 Plugin Manifest 구조 위에서 돌아간다. 기술적으로 보면 OpenAPI 스펙(openapi.yaml)을 따르는 REST API만 있으면 된다. 이 스펙을 OpenAI Developer Portal에 등록해 두면, ChatGPT가 사용자의 요청을 보고 언제 어떤 API를 호출할지 스스로 판단한다. 서버 쪽 코드는 일반적인 REST API 개발과 다를 게 없다.

    현재는 OpenAI 심사를 거쳐야 등록이 가능하고, 노출 대상은 ChatGPT Plus·Team·Enterprise 구독자다. Free 플랜으로의 확대는 예정 단계다. 진입 장벽이 그렇게 높지 않다는 점이 의미 있다. 이미 외부 서비스 API를 운영 중인 팀이라면 며칠이면 프로토타입을 띄울 수 있다.

    한국 사용자에게 진짜 의미

    지금 당장 한국 서비스의 ChatGPT 앱이 있는 건 아니다. 하지만 Tubi가 만든 선례 위에서 두 가지 길이 보인다. 하나는 글로벌을 노리는 한국 스타트업에게 새로 열린 배포 채널이다. App Store와 Play Store 외에 ChatGPT 안이 또 다른 진입점이 됐다. 다른 하나는 사내 도구 쪽이다. 사내 GPT를 따로 만들 필요 없이 회사 시스템 API를 ChatGPT 앱으로 등록하면, 직원들이 평소 쓰는 ChatGPT 안에서 그대로 사내 시스템에 접근할 수 있다. 두 시나리오 모두 지금 시점에 실험할 가치가 있는 영역이다.

    지금 할 일

    ChatGPT Plus 구독이 있다면 사이드바의 Explore GPTs에서 현재 어떤 앱이 올라와 있는지 한 번 둘러보는 게 첫 단계다. 개발자라면 platform.openai.com/docs/actions에서 Actions 개발 가이드를 훑어 두자. 자기 서비스에 맞는 연동 방식을 결정하려면 OpenAI Actions와 Anthropic 진영의 MCP가 어떻게 다른지 비교해 두는 것이 도움이 된다.

    관련 글

    출처