[카테고리:] AI에이전트

  • Claude Managed Agents 공개 베타 완전 정리 — Anthropic이 에이전트 인프라를 판다

    Anthropic이 4월 8일(현지시간) Claude Managed Agents 공개 베타를 공개했다. 한 줄로 요약하면 “에이전트의 뇌는 당신이 짜고, 손발(infra)은 Anthropic이 맡는다”는 제품이다. 샌드박스, 장기 세션, 권한, 툴 실행, 트레이싱까지 한 통으로 묶어서 판다. 직접 harness 만들어 본 팀이면 “아, 결국 이렇게 가는구나” 싶은 발표다.

    뭘 대신 해주는가

    기존에는 에이전트 하나 돌리려면 Docker로 sandbox 격리하고, Redis로 상태 저장하고, credential vault 붙이고, 끊겼을 때 재시작까지 직접 구현해야 했다. Managed Agents는 이걸 그대로 대체한다.

    • 보안 샌드박스에서 코드 실행·파일 읽기·웹 브라우징
    • 몇 시간 이어지는 long-running 세션, 연결이 끊겨도 진행 상태 복원
    • 자격증명·시크릿 저장, 툴마다 권한 스코프 지정
    • end-to-end tracing으로 “어느 단계에서 엉켰는지” 확인 가능

    에이전트 정의는 자연어 프롬프트 혹은 YAML 파일 두 가지 방식이다. 콘솔, Claude Code, 신규 CLI에서 모두 띄울 수 있다.

    가격 — 싸 보이지만 계산이 필요하다

    공식 가격은 세션 러닝 시간당 $0.08. 여기에 Claude 모델 토큰 비용이 별도로 붙는다. 중요한 건 과금 기준이 “wall-clock”이 아니라 실제 실행 시간이라는 점이다. 사용자 응답 기다리거나 tool confirmation 대기 중인 시간은 빠진다.

    24시간 내내 돌리는 에이전트면 런타임만 월 약 $58. 문제는 토큰이다. Opus 4.6을 장시간 세션에 쓰면 토큰 비용이 런타임의 10~20배를 가볍게 넘긴다. “$0.08이라니 싸네”에 속으면 안 되고, 실제로는 Sonnet을 언제 쓰고 Opus를 언제 꺼낼지가 비용을 좌우한다.

    초기 고객, 그리고 Anthropic이 노리는 시장

    Notion, 라쿠텐, Asana가 이미 제품에 통합했다고 밝혔다. 셋 다 “우리 앱 안에서 백그라운드로 일하는 AI”를 필요로 하는 SaaS다. Anthropic의 그림은 분명하다 — 에이전트 런타임을 AWS Lambda 같은 공용 인프라로 만들어, OpenAI Codex가 IDE 안쪽을 잡는 사이 뒤쪽 서버 레이어를 선점하는 것.

    발표 직후인 4월 10~11일, SaaS 종목이 흔들렸다. 24/7 Wall St.는 “Anthropic이 소프트웨어 산업 전체를 다시 투자 불가로 만들 수 있다”고 썼다. 과장이지만, 투자자들이 왜 긴장했는지는 이해된다. 기존 SaaS의 UI-구독 모델 대신 “내 워크플로우 대신 돌아가는 에이전트 + 러닝 타임 과금”이 표준이 되면 그림이 완전히 달라진다.

    So What?! — 한국 개발자·기술리더에게

    세 가지로 정리된다.

    • 직접 harness 만들던 팀 — 프로덕션 가기 전 “세션 유지·권한·샌드박스” 부분은 이제 만들지 말고 사보는 게 맞다. 만들어도 대부분 Anthropic 스펙을 재현하게 된다.
    • SaaS 기획·운영 쪽 — 구독 모델에 “AI 에이전트가 대신 실행하는 시간”을 과금 단위로 붙이는 실험이 곧 퍼진다. Notion이 이미 안 한다고 못 박지도 않았다.
    • 비용 판단 — 베타 가격 $0.08/hour는 미끼다. 실비용은 토큰이 결정하고, 토큰 선택은 모델 라우팅 설계 문제다. “언제 Sonnet, 언제 Opus”에 대한 회사 기준이 없다면 지금 만들 타이밍.

    지금 바로 할 수 있는 것

    1. 베타 요청: platform.claude.com/docs/en/managed-agents/quickstart — 대기 목록 없이 기존 API 키로 바로 시작. 베타 헤더 managed-agents-2026-04-01 필요.
    2. YAML 정의 한 번 써보기: 회사에서 반복되는 작업(예: 매일 아침 로그 이상 탐지, PR 리뷰 요약) 하나를 YAML로 기술해 돌려본다. 자체 harness 대비 얼마나 줄어드는지 체감한다.
    3. 비용 상한 설정: 콘솔에서 세션 타임아웃과 모델 라우팅을 먼저 지정한다. “돌려놓고 까먹어서 월말 청구서 터지는” 사고가 베타 기간에 이미 몇 건 보고됐다.

    관련 글

    출처

    대표이미지 출처: Anthropic

  • Perplexity Billion Dollar Build M 챌린지 완전 정리 — 8주 안에 유니콘 만드는 게임의 룰과 캐치

    Perplexity Billion Dollar Build M 챌린지 완전 정리 — 8주 안에 유니콘 만드는 게임의 룰과 캐치

    Perplexity가 4월 9일 던진 한 줄. “8주 안에 유니콘으로 갈 수 있는 회사를 만들어 봐라. 우리가 최대 200만 달러를 줄게.”

    이름은 Billion Dollar Build. 자기네 에이전트 제품인 Perplexity Computer를 써서 회사를 만드는 8주짜리 컴페티션이다. 한국 1인 빌더 입장에서 정확히 어떤 의미인지, 그리고 못 본 척 넘어가면 안 되는 이유를 정리한다.

    대회 한 줄 정리

    항목 내용
    기간 8주
    상금 최대 $1M 시드(최대 3팀에 분배) + $1M Computer 크레딧
    자격 미국 거주자 18세+ / 개인 또는 2인 팀
    전제 조건 2026년 4월 13일 PT 자정까지 Perplexity Max 또는 Pro 구독
    등록 시작 4월 14일
    제출 마감 6월 2일 (데모 영상 + 트랙션 지표 포함)
    피칭 → 발표 6월 9일 라이브 피칭 → 6월 10일 우승팀 발표

    표면만 보면 깔끔한 액셀러레이터다. 그런데 약관을 읽으면 두 줄이 눈에 박힌다.

    읽어야 하는 두 가지 캐치

    캐치 1. 투자는 “약속”이 아니다. Perplexity Fund는 어떤 참가자에게도 투자할 의무가 없다고 약관에 명시돼 있다. 즉 우승해도 시드 $1M이 자동으로 들어오는 게 아니다. 별도 듀딜리전스 통과가 조건이다.

    캐치 2. 라이선스 범위가 매우 넓다. 참가만 해도 Perplexity는 회사명·제품·코드·컨셉·워크플로우·창업자 본인 모습·데모 영상 일체를 마케팅·IR·기타 상업적 목적으로 무료·전세계 영구 사용할 권리를 가져간다. “참가비 0원”의 진짜 가격이다.

    왜 200만 달러를 거는가

    Perplexity는 지금 검색 트래픽으론 구글을 못 잡는다. 그 대신 “AI 에이전트가 대신 일해 주는 다음 시대의 OS는 우리”라는 내러티브를 사고 싶다. 그래서 Computer라는 제품을 사람들이 실제로 쓰면서 회사를 만드는 그림이 필요하다.

    유니콘 후보 3개를 8주 안에 양산해 낸다면, 그건 Perplexity의 다음 시리즈 라운드 피치덱 첫 페이지다. 200만 달러는 마케팅 예산 치고 싸다.

    한국에서 못 들어가는데, 왜 봐야 하나

    한국 거주 빌더는 직접 참가 못 한다. 그래도 챙겨야 할 이유 셋.

    ① Perplexity Computer의 진짜 한계가 8주 안에 공개된다. 200만 달러를 걸고 외부인이 두들기는 만큼, 6월 라이브 피칭 회차는 이 제품의 실전 능력을 가장 정직하게 볼 수 있는 무대다. 한국에서 같은 영역(Manus·Genspark·OpenClaw 등)을 검토 중이라면 6월 10일 발표 직후가 비교의 적기다.

    ② “8주 유니콘”이라는 작업 단위가 새 표준이 된다. 6개월 MVP가 아니다. 8주에 데모 영상 + 트랙션 지표까지 만들어 와야 한다. AI 시대의 빌더 사이클이 분기 단위에서 8주 단위로 짧아지고 있다는 신호다.

    ③ “광범위 라이선스 약관”이 곧 한국 대회·해커톤에도 온다. 한국에서도 카카오·네이버·통신사 주최 AI 해커톤이 줄줄이 예정돼 있다. 약관 읽는 습관, 지금부터 들이는 게 좋다.

    지금 바로 할 수 있는 것

    1. 본인 사이드 프로젝트를 “8주 유니콘” 프레임으로 다시 적어 본다. 무슨 시장, 무슨 트랙션 지표, 8주 안에 어디까지. 못 적어 내려가면 그건 좋은 신호다 — 대상이 너무 넓다는 뜻이다.
    2. Perplexity Pro/Max를 안 써 봤다면 이번 주 한 달 무료 또는 학생 플랜으로 Computer 기능을 직접 만져 본다. 6월 라이브 피칭 영상을 그냥 보는 사람과, 만져 본 채로 보는 사람은 흡수율이 다르다.
    3. 참가하는 미국 친구가 있다면, 한국 시장 진출 자문 역할로 묻어 들어가는 것도 옵션이다. 2인 팀 허용이라 가능성 있다. 나도 좀… 🙂 !!!

    관련 글

    출처

  • Anthropic Claude Managed Agents 출시: 시간당 $0.08에 에이전트 인프라 통째로 빌리기

    Anthropic Claude Managed Agents 출시: 시간당 $0.08에 에이전트 인프라 통째로 빌리기

    4월 8일, Anthropic이 Claude Managed Agents를 공개 베타로 풀었다. 이름은 평범한데 안에 들어 있는 건 평범하지 않다. 에이전트를 돌리는 데 필요한 샌드박스, 권한, 상태 관리, 에러 복구 — 그 동안 직접 짜야 했던 인프라 레이어를 Anthropic이 통째로 흡수해 운영해 준다. 가격은 시간당 $0.08, 모델 토큰 비용 별도. 24시간 내내 돌리면 런타임만 월 $58 정도다.

    “에이전트”와 “에이전트 인프라”의 분리

    지난 1년 동안 AI 에이전트를 실제로 만들어 본 팀은 같은 벽에 부딪혔다. 모델 호출은 어렵지 않다. 어려운 건 그 모델이 파일을 만들고, 명령을 실행하고, 상태를 잃지 않고, 실패하면 다시 일어나도록 만드는 부분이다. 흔히 말하는 “agent loop” 자체보다 그 주변의 운영 코드가 더 무겁다.

    Managed Agents는 그 운영 코드를 통째로 가져간다. 개발자는 에이전트가 무엇을 해야 하는지(prompt, tool, 정책)만 정의하면, 컨테이너 격리·시크릿 관리·재시도·세션 상태 보존을 Anthropic이 처리한다. 대신 모든 워크로드는 Anthropic 인프라 위에서만 돈다 — 자체 클라우드에 두고 싶다면 이 옵션은 맞지 않는다.

    이미 베타 공개일에 프로덕션이 있는 회사들

    흥미로운 건 베타 공개가 아니라 사용 사례다. 발표 시점에 Notion, Rakuten, Asana, Sentry 네 곳이 이미 Managed Agents 위에서 실제 제품을 돌리고 있었다.

    • Notion — 워크스페이스 안에서 코드, 슬라이드, 스프레드시트 작업을 Claude 에이전트에게 떼어준다. 한 사용자가 동시에 수십 개 세션을 병렬로 돌리는 형태로, “에이전트가 한 번에 한 개의 일만 한다”는 가정이 깨졌다.
    • Rakuten — 제품·영업·마케팅·재무·HR 다섯 부서에 각각 전용 에이전트를 띄웠다. 각 부서당 1주일 미만으로 라이브. Slack·Teams에서 업무를 받고 결과를 돌려보낸다.
    • Asana — “AI Teammates”라는 이름으로, 프로젝트 안에 인간 팀원처럼 들어와 할당받은 태스크의 초안을 생성한다. CTO는 “이전 방식보다 극적으로 빠르게” 고급 기능을 출시했다고 말했다.
    • Sentry — 디버깅 에이전트 옆에 Claude 에이전트를 짝지웠다. 에러가 잡히면 패치를 작성하고 PR까지 자동으로 연다. 사람 손이 닿지 않는 흐름이다.

    4개 회사의 공통점은 “AI 데모”가 아니라 “이미 매출 책임이 있는 제품 라인”에 에이전트가 들어갔다는 점이다. 베타라고 부르기엔 사용 강도가 꽤 진하다.

    가격을 다시 보자: 시간당 $0.08의 의미

    $0.08/hour가 싸 보이는 데는 이유가 있다. 이 가격은 런타임 — 즉 컨테이너가 살아 있는 시간 — 에만 붙는다. 모델 호출 토큰은 별도다. 그러니까 Sonnet 4.6이나 Opus 4.6을 본격적으로 돌리면 청구서의 대부분은 결국 토큰에서 나온다. 런타임 비용은 “그 동안 안 보였던 인프라 운영비”를 명시적으로 분리해 보여주는 라인 아이템에 가깝다.

    그래도 변화는 분명하다. 에이전트를 만들기 위해 K8s, queue, secret manager, 로깅을 따로 깔던 비용이 거의 0으로 수렴한다. 4명짜리 팀이 1주일 안에 사내 에이전트를 띄울 수 있게 됐다는 뜻이다.

    한국 입장에서 뭐가 달라지나

    그 동안 한국 기업이 사내 AI 에이전트를 검토할 때 가장 큰 진입 장벽은 “사람이 없다”였다. 모델 자체보다 그 모델을 “안전하게 24시간 돌리는 인프라”를 만들 사람이 부족했다. Managed Agents는 그 부분을 Anthropic이 외주받는 구조다. 진입 장벽이 한 단계 내려간다.

    대신 두 가지 트레이드오프가 명확해진다. 첫째, 데이터가 Anthropic 인프라를 거쳐 간다. 보안·컴플라이언스 부서가 검토할 항목이 늘어난다. 둘째, 락인이다. 한 번 Managed Agents 위에 사내 워크플로우를 올리면, 같은 모양으로 OpenAI나 Gemini로 옮기기는 쉽지 않다. 그래서 빠른 1차 PoC에는 이상적이지만, 회사 전체 표준으로 깔기 전엔 한 번 더 멈춰서 비교해 봐야 한다.

    지금 바로 할 수 있는 것

    1. Claude Platform 콘솔에서 Managed Agents 메뉴를 켜보고, “내 회사에 이미 있는 한 가지 반복 업무”를 후보로 적어보기. 영업 메일 분류, 코드 리뷰 PR 초안, 회의록 요약 등 주기적으로 도는 작업이 1순위다.
    2. 해당 워크플로우의 데이터가 외부로 나가도 되는지 보안팀에 먼저 확인. 안 되면 Managed Agents 대신 자체 호스팅 옵션을 따로 검토.
    3. 토큰 비용 시뮬레이션을 미리 돌려보기. 런타임 $58은 기준선일 뿐이고, 실제 청구서는 모델 사용량이 결정한다.

    관련 글

    출처

    대표이미지 출처: Anthropic

  • SaaS-pocalypse: ServiceNow 46% 폭락·Oracle 반격, Anthropic이 SaaS를 깨고 있다

    SaaS-pocalypse: ServiceNow 46% 폭락·Oracle 반격, Anthropic이 SaaS를 깨고 있다

    ServiceNow 주가가 연초 대비 46% 빠졌다. 4월 10일에는 하루에만 -8.98%. Cloudflare, CrowdStrike, Salesforce, Snowflake도 같이 주저앉았다. 시장이 부르는 이름은 점점 굳어지고 있다 — “SaaS-pocalypse”. 그리고 사람들은 한 회사를 손가락으로 가리킨다. Anthropic.

    무엇이 무너지고 있는가

    SaaS가 지난 15년 동안 쌓아 올린 해자는 단순했다. 데이터를 보관하고, 워크플로우를 정의하고, 사용자가 매달 자동으로 결제한다. 한 번 들어가면 잘 안 빠져나간다. 그런데 Anthropic의 Claude Managed Agents가 공개 베타로 풀린 직후, 시장은 다른 그림을 그리기 시작했다.

    핵심 가설은 이것이다 — AI 에이전트가 기존 SaaS의 UI 레이어를 우회한다. 사용자는 ServiceNow 화면에서 티켓을 끊지 않고, Claude에게 “이 장애 해결 워크플로우를 돌려”라고 말한다. 에이전트가 ServiceNow API를 호출해 같은 일을 한다. 결과적으로 ServiceNow는 데이터를 들고는 있지만, 사용자 인터랙션의 대부분이 에이전트로 옮겨간다. 좌석당 라이선스 모델은 그 순간 무너진다.

    UBS는 ServiceNow 목표가를 내렸고, 한 달 만에 시가총액 수십조 원이 증발했다. 시장이 보고 있는 건 일시적 하락이 아니라 구조적 압박이다.

    ServiceNow의 반격: 구독 + 토큰 하이브리드 가격제

    ServiceNow는 손 놓고 있지 않다. 회사가 새로 들고나온 가격 모델은 좌석당 월 구독료에 AI 사용량 기반 토큰 비용을 얹는 하이브리드 구조다. “사람이 많으면 비싸다”에서 “AI가 일을 많이 하면 비싸다”로 청구 기준 자체가 옮겨간다.

    CEO Bill McDermott는 “SaaS가 죽고 있다는 게 아니라 기회”라고 말했다. 4년 전부터 AI에 베팅해온 자사가 지금이야말로 점유를 늘릴 시점이라는 것이다. 메시지는 분명한데, 시장은 아직 못 믿는 분위기다 — 하이브리드 가격제는 단기적으로 매출 인식 패턴을 흔들고, 기존 좌석당 라이선스 매출을 잠식할 수 있어서다.

    Oracle의 반격: Systems of Record에서 Systems of Outcomes로

    Oracle은 더 큰 쪽을 친다. 회사가 새로 발표한 Fusion Agentic Applications는 한 줄로 요약된다 — 데이터베이스 안에 에이전트를 박아둔다. 에이전트가 외부에서 API로 들어와 데이터를 바꾸는 게 아니라, DB 엔진과 같은 레벨에서 트랜잭션을 만들고 감사 로그를 남긴다.

    Oracle이 쓰는 표현이 정확하다. “Systems of Record(기록 시스템)에서 Systems of Outcomes(결과 시스템)으로.” 기존 ERP는 사람이 입력하면 기록을 남기는 게 일이었다. 에이전트가 들어오면 사람을 거치지 않고 결과 — 인보이스 발행, 재고 조정, 예산 재배분 — 자체를 만들어낸다. Oracle은 자사 ERP 위에 에이전트를 직접 얹어 이 흐름을 잡으려 한다.

    진짜 종말인가

    SaaS가 사라진다는 서사는 자극적이지만 지나치게 단순하다. 짚어둘 세 가지가 있다.

    첫째, 에이전트도 결국 어떤 시스템 위에서 돈다. 데이터 자체와 권한·감사·SOC2 컴플라이언스 레이어는 여전히 누군가가 들고 있어야 한다. ServiceNow·Salesforce·Oracle이 이걸 놓을 가능성은 낮다.

    둘째, 가격 모델은 흔들리지만 매출 자체는 꼭 줄지 않는다. 하이브리드 가격제는 “사람 100명 × 월 50달러”가 “사람 30명 × 월 30달러 + AI 토큰 월 5,000달러”로 모양만 바뀌는 식이 될 수 있다. 합계는 더 커질 수도 있다.

    셋째, 정말로 위협받는 건 “워크플로우 UI에만 가치가 있던” SaaS다. 데이터 통합·도메인 컴플라이언스·산업 특화 로직이 약한 서비스부터 잘려 나간다. 시장은 지금 “어디부터 잘릴까”를 가격에 반영하는 중이다.

    그래서 한국 기업이 지금 점검해야 할 것

    한국 기업의 SaaS 청구서는 보통 매년 자동 갱신된다. 올해는 그 자동 갱신을 한 번 멈춰볼 가치가 있다. 미국에서 벌어지는 가격 모델 재편은 한국 기업 청구서에도 1~2분기 안에 들어온다. 좌석당 단가는 내려가고 사용량 기반 라인이 새로 붙는 형식이 표준이 될 가능성이 높다. 갱신 협상 테이블에서 이걸 미리 알고 들어가는 것과 모르고 들어가는 것의 차이는 크다.

    지금 바로 할 수 있는 것

    1. 현재 사용 중인 SaaS 리스트와 좌석 수를 한 페이지로 정리. 분기마다 한 번씩 “이 좌석 중 몇 %가 AI 에이전트로 대체 가능한가”를 추정해본다.
    2. 다음 SaaS 갱신 협상 전에, 공급사에 “하이브리드 가격제 옵션이 있는지”를 명시적으로 묻기. 없다면 1년만 계약하고 6개월 후 재협상 조항을 넣는다.
    3. 핵심 워크플로우 1~2개를 골라 자체 에이전트로 PoC. ROI 비교는 “구독료 절감”이 아니라 “처리 건수 × 인건비 절감”으로 잡는다.

    관련 글

    출처

    대표이미지 출처: Oracle

  • NVIDIA Open Agent Development Platform: 17개 엔터프라이즈가 같은 표준 위에 올라타는 이유

    NVIDIA Open Agent Development Platform: 17개 엔터프라이즈가 같은 표준 위에 올라타는 이유

    “Claude Code와 OpenClaw가 에이전트의 변곡점을 만들었다. AI를 생성과 추론 너머, 행동의 영역으로 끌어냈다.” — Jensen Huang의 GTC 2026 키노트는 이 한 줄로 시작했다. 그날 NVIDIA가 함께 발표한 게 Open Agent Development Platform이다. 3월 16일 GTC에서 공개된 이 플랫폼은 4월에 들어서며 17개 엔터프라이즈 파트너의 본격 채택이 이어지면서 다시 한번 화제로 올라왔다.

    NVIDIA가 내놓은 것: 한 줄이 아니라 한 스택

    Open Agent Development Platform(OADP)은 단일 제품이 아니다. NVIDIA가 “오픈 소스 에이전트 풀스택”이라고 부르는 묶음 안에는 네 개의 레이어가 들어 있다.

    • Open models — NVIDIA Nemotron. 추론과 도구 사용에 튜닝된 NVIDIA의 자체 오픈 모델 패밀리. 라이선스는 상업적 이용 가능.
    • Open agents — NVIDIA AI-Q. 모델 위에 올라가는 사전 구성된 에이전트 청사진들. 도메인별 구현 템플릿이라고 보면 된다.
    • Open skills — NVIDIA cuOpt 등. 에이전트가 호출해 쓰는 능력 라이브러리. 최적화·문서 처리·그래프 등 영역별로 묶여 있다.
    • Open runtime — NVIDIA OpenShell. 에이전트를 실제로 실행하는 컨테이너 런타임. 정책 기반 보안·네트워크·프라이버시 가드레일이 기본으로 깔린다.

    지난 1년 동안 에이전트 도구는 모델·프롬프트 라이브러리·실행 환경이 모두 따로 놀았다. NVIDIA가 시도하는 건 그 네 조각을 한 단일 스택으로 묶어 “엔터프라이즈가 직접 깔아 쓰는 표준”을 만드는 일이다. 그것도 오픈 소스로.

    17개 파트너 명단이 이 발표의 진짜 무게다

    플랫폼 자체보다 더 의미 있는 건 1차 채택사 명단이다. Adobe, Atlassian, Amdocs, Box, Cadence, Cisco, Cohesity, CrowdStrike, Dassault Systèmes, IQVIA, Red Hat, SAP, Salesforce, Siemens, ServiceNow, Synopsys — 그리고 17번째까지. 엔터프라이즈 소프트웨어 카테고리마다 한 칸씩을 점유하는 상위 사업자들이 한 발표에 일제히 이름을 올렸다.

    이 명단이 보여주는 건 단순한 마케팅 협업이 아니다. ERP(SAP), CRM(Salesforce), 디자인(Adobe·Dassault·Siemens), 네트워크/보안(Cisco·CrowdStrike), 협업(Atlassian·Box), EDA(Cadence·Synopsys), 생명과학(IQVIA), 시스템 SaaS(ServiceNow) — 거의 모든 엔터프라이즈 도메인의 대표 SaaS가 NVIDIA Agent Toolkit을 자기 제품 안에 끼워 넣고 있다는 뜻이다. 같은 주에 SaaS 종목이 무너지고 있는 와중에 — 같은 회사들이 NVIDIA의 에이전트 표준 위로 옮겨 타고 있다.

    “지식노동의 산업혁명”이라는 표현의 진짜 뜻

    NVIDIA가 발표 헤드라인에 박은 표현이 있다. “Next Industrial Revolution in Knowledge Work” — 지식노동의 다음 산업혁명. 마케팅 멘트로 흘려듣기 쉬운데, 자세히 보면 NVIDIA가 시장을 어떻게 보고 있는지가 드러난다.

    지난 30년 동안 지식노동의 생산성은 SaaS와 클라우드 위에서 천천히 오르긴 했지만, 사람 한 명이 처리하는 단위 업무량은 본질적으로 비슷했다. 에이전트가 들어오면 이 단위가 깨진다. NVIDIA가 노리는 자리는 그 깨진 단위 위에 새로 올라갈 인프라 — GPU·런타임·표준 — 의 공급자다. 산업혁명 시기에 증기기관을 만들던 회사가 한 일과 정확히 같은 포지션이다.

    그래서 OADP가 오픈 소스라는 점이 중요하다. NVIDIA는 에이전트 소프트웨어로 돈을 벌 생각이 없다. 그 소프트웨어가 더 많이 깔릴수록 결국 GPU·DGX·CUDA가 더 많이 팔린다. 런타임과 표준을 무료로 푸는 이유다.

    한국 기업 입장에서 짚어야 할 세 가지

    1. SAP·Salesforce·ServiceNow를 쓰고 있다면 이미 영향권 안이다. 자신이 도입한 SaaS의 다음 메이저 업데이트에 NVIDIA Agent Toolkit이 들어올 가능성이 높다. 별도 결정 없이도 사내 워크플로우에 에이전트가 따라 들어온다.

    2. 사내 자체 에이전트를 검토 중이라면 OADP는 진지한 후보다. Anthropic Managed Agents가 “운영 부담을 통째로 외주”하는 모델이라면, OADP는 “통제권을 우리가 들고 가는” 모델이다. 데이터가 외부로 못 나가는 산업(금융·공공·의료)에서는 두 번째가 더 맞는다.

    3. GPU 조달 계획을 다시 짜야 한다. 표준이 NVIDIA OpenShell 쪽으로 굳어지면, 에이전트 추론용 GPU 수요는 학습용 수요와 별개로 분리되어 늘어난다. 한국 기업의 2027년 IT 예산 라인에 “에이전트 추론 컴퓨트”가 새 항목으로 들어가야 할 시점이다.

    지금 바로 할 수 있는 것

    1. NVIDIA 공식 발표 페이지에서 17개 파트너 명단을 확인하고, 그중 회사가 쓰는 SaaS가 몇 개인지 카운트. 3개 이상이면 다음 분기 IT 로드맵 회의에서 이 주제를 의제로 올린다.
    2. Nemotron 모델 카드와 OpenShell 런타임 문서를 한 번 훑어보기. 사내 PoC를 OADP 위에 올릴지 Managed Agents 위에 올릴지 비교 기준이 잡힌다.
    3. 현재 NVIDIA H100/H200 보유 현황과 1년 안에 추가로 필요할 추론 GPU 수량을 한 줄로 적어보기. 표준이 굳어지기 전에 조달 협상을 시작해야 가격이 산다.

    관련 글

    출처

    대표이미지 출처: NVIDIA Newsroom

  • MCP 완전 입문 가이드: 9,700만 다운로드 AI 에이전트 표준, 한국 개발자가 지금 알아야 할 것

    MCP 완전 입문 가이드: 9,700만 다운로드 AI 에이전트 표준, 한국 개발자가 지금 알아야 할 것

    USB-C 케이블이 등장하기 전까지, 노트북마다 충전 포트가 다 달랐다. 어댑터 가방을 챙겨 다녀야 했고 새 기기를 살 때마다 케이블도 같이 사야 했다. 어느 시점부터 그게 사라졌다. 표준 하나가 자리를 잡으면 산업 전체의 비용이 한 번에 떨어지는 일이 일어난다. AI 에이전트 영역에서 지금 그 일이 진행 중이다. 이름은 MCP — Model Context Protocol.

    숫자로 보면 더 분명해진다. SDK 누적 다운로드 9,700만 건. React가 npm 1억 건에 도달하는 데 3년이 걸렸는데 MCP는 16개월이었다. OpenAI, Google, Microsoft, AWS가 모두 채택했고 운영은 Linux Foundation으로 넘어갔다. “AI 인프라의 HTTP”라는 말이 더 이상 마케팅 멘트가 아닌 단계다.

    그래서 정확히 뭘 하는 표준인가

    MCP는 Anthropic이 2024년 말 오픈소스로 푼 인터페이스 규약이다. AI 모델이 외부 툴이나 데이터(파일시스템, DB, API, SaaS 서비스)에 접근하는 방법을 통일했다. 핵심 아이디어가 USB-C와 같다. 한 번 표준에 맞춰 만든 어댑터(MCP 서버)는 어떤 AI(MCP 클라이언트)에서도 그대로 동작한다.

    구조 자체는 단순하다. 한쪽은 MCP 서버 — 특정 데이터나 툴을 AI가 쓸 수 있게 노출하는 작은 프로그램(GitHub 서버, Slack 서버, PostgreSQL 서버 같은 식). 다른 한쪽은 MCP 클라이언트 — 그 서버를 호출해 쓰는 AI 애플리케이션(Claude Code, Cursor, Claude Desktop). GitHub 위에 공개돼 있는 MCP 서버가 이미 1만 3천 개를 넘었다. Slack, Figma, Linear, Notion, Postgres, Google Drive — 자주 쓰는 거의 모든 서비스에 누군가가 이미 만들어 놨다.

    Claude Code에서 5분 만에 붙여 보기

    가장 쉬운 진입은 Claude Code다. 프로젝트 루트의 .claude/settings.json에 MCP 서버 정의를 추가한다.

    {
      "mcpServers": {
        "github": {
          "command": "npx",
          "args": ["-y", "@modelcontextprotocol/server-github"],
          "env": {
            "GITHUB_PERSONAL_ACCESS_TOKEN": "ghp_xxxx"
          }
        },
        "postgres": {
          "command": "npx",
          "args": ["-y", "@modelcontextprotocol/server-postgres",
                   "postgresql://localhost/mydb"]
        }
      }
    }

    저장하고 Claude Code를 재시작하면 끝이다. 이제 자연어로 “내 GitHub 이슈 중 라벨이 bug인 것만 보여 줘”나 “users 테이블에서 최근 가입자 10명 뽑아줘”라고 시킬 수 있다. 코드 한 줄 안 써도 된다.

    사내 시스템을 직접 노출하고 싶다면

    유명 서비스는 이미 다 있지만, 진짜 효과가 큰 건 사내 전용 시스템을 MCP로 만드는 쪽이다. TypeScript SDK가 가장 손쉽다.

    npm install @modelcontextprotocol/sdk
    // my-mcp-server.ts
    import { Server } from "@modelcontextprotocol/sdk/server/index.js";
    import { StdioServerTransport } from "@modelcontextprotocol/sdk/server/stdio.js";
    
    const server = new Server({ name: "my-server", version: "1.0.0" });
    
    server.setRequestHandler("tools/list", async () => ({
      tools: [{
        name: "get_user_info",
        description: "사용자 정보 조회",
        inputSchema: {
          type: "object",
          properties: { userId: { type: "string" } }
        }
      }]
    }));
    
    server.setRequestHandler("tools/call", async (req) => {
      if (req.params.name === "get_user_info") {
        // 내부 API 호출 로직
        return { content: [{ type: "text", text: JSON.stringify(userData) }] };
      }
    });
    
    const transport = new StdioServerTransport();
    await server.connect(transport);

    이렇게 만든 서버를 settings.json에 등록하면 Claude Code가 즉시 그 도구를 인식한다. 사내 API에 추가 코드를 넣을 필요도 없다. MCP 서버가 wrapper 역할만 해 준다.

    진짜 의미 — 한 번 만들면 모든 AI에서 동작

    가장 큰 변화는 재활용성이다. 사내 시스템 위에 MCP 서버 하나를 올려 두면 그게 Claude뿐 아니라 ChatGPT, Cursor, 그리고 1년 뒤에 나올 새 에이전트에서도 그대로 동작한다. 특정 벤더에 종속되는 코드를 짤 필요가 사라진다는 뜻이다. 반대로 외부 서비스 쪽도 마찬가지다. Jira나 Confluence를 AI에게 읽히고 싶다면 직접 통합 코드를 짤 게 아니라 이미 공개된 MCP 서버를 그냥 가져다 꽂으면 된다.

    지금 할 일

    가장 빠른 진입은 github.com/modelcontextprotocol/servers에 들어가 공식 서버 목록을 한 번 훑는 것이다. 이미 본인이 자주 쓰는 서비스(GitHub, Notion, Slack 등)가 있을 가능성이 높다. 그중 하나를 골라 위 settings.json 예시처럼 Claude Code에 붙여 보고, 가장 자주 묻고 싶었던 질문을 한 번 던져 보자. 그 다음 단계는 사내 시스템 차례다. 회사 동료가 AI에게 가장 자주 묻는 정보가 무엇인지 떠올려 보고, 그걸 노출하는 작은 MCP 서버를 만들어 보면 사내 도입의 첫 사례가 된다.

    관련 글

    출처

  • ChatGPT 앱스토어란 무엇인가: Tubi 사례로 보는 AI 슈퍼앱 생태계 완전 정리

    ChatGPT 앱스토어란 무엇인가: Tubi 사례로 보는 AI 슈퍼앱 생태계 완전 정리

    퇴근 후 소파에 앉아 휴대폰을 켠다. ChatGPT를 열고 한 줄을 친다. “@Tubi 오늘 밤 볼 만한 90분짜리 스릴러 있을까?” 답이 돌아온다. 추천 목록 세 편, 그 자리에서 재생 버튼. 다른 앱을 열 필요는 없다. 4월 8일, 무료 스트리밍 서비스 Tubi가 ChatGPT 앱스토어 최초의 스트리밍 네이티브 앱을 띄운 날이 만들어 낸 풍경이다.

    이게 단순한 신기능 발표가 아닌 이유가 있다. ChatGPT가 운영체제처럼 작동하기 시작했다는 신호다.

    ‘챗봇 안의 챗봇’에서 ‘챗봇 안의 진짜 앱’으로

    OpenAI는 2024년 말 GPT 스토어를 열었지만, 그건 사실상 프롬프트 컬렉션에 가까웠다. 누가 만든 GPT를 골라 들어가도 결국 텍스트 응답이 전부였다. 2025년 말 등장한 네이티브 앱(Native Apps) 개념부터 분위기가 달라졌다. 핵심 차이는 액션(Actions)에 있다. 이전 GPT는 말을 만들어 냈고, 네이티브 앱은 행동을 한다. 예약, 결제, 재생, 구매 같은 실제 동작이 ChatGPT 창 안에서 끝난다.

    왜 하필 Tubi가 첫 타자였나

    흥미로운 건 Netflix도, Disney+도 아니고 Tubi였다는 점이다. Fox Corporation 산하의 무료 광고 기반 스트리밍 서비스. 30만 편 넘는 영화와 TV 프로그램을 무료로 푼다. 유료 구독 모델인 거대 OTT들은 ChatGPT를 통한 재생이 자기 앱 수익 구조를 위협한다고 본다. 반대로 Tubi는 광고 모델이라 노출이 늘어날수록 이득이다. 이해관계가 정확히 일치하는 첫 후보가 Tubi였던 셈이다.

    사용자 흐름은 단순하다. ChatGPT 대화창에서 @Tubi를 멘션하고 자연어로 요청하면, 모델이 Tubi 콘텐츠 DB를 조회하고 추천 목록을 보여 준다. 마음에 드는 작품을 누르면 그대로 Tubi 플레이어가 열린다. 이 한 사이클이 ChatGPT 한 화면에서 끝난다는 게 핵심이다.

    개발자 입장에서 본 진입 장벽

    네이티브 앱은 OpenAI의 Actions와 Plugin Manifest 구조 위에서 돌아간다. 기술적으로 보면 OpenAPI 스펙(openapi.yaml)을 따르는 REST API만 있으면 된다. 이 스펙을 OpenAI Developer Portal에 등록해 두면, ChatGPT가 사용자의 요청을 보고 언제 어떤 API를 호출할지 스스로 판단한다. 서버 쪽 코드는 일반적인 REST API 개발과 다를 게 없다.

    현재는 OpenAI 심사를 거쳐야 등록이 가능하고, 노출 대상은 ChatGPT Plus·Team·Enterprise 구독자다. Free 플랜으로의 확대는 예정 단계다. 진입 장벽이 그렇게 높지 않다는 점이 의미 있다. 이미 외부 서비스 API를 운영 중인 팀이라면 며칠이면 프로토타입을 띄울 수 있다.

    한국 사용자에게 진짜 의미

    지금 당장 한국 서비스의 ChatGPT 앱이 있는 건 아니다. 하지만 Tubi가 만든 선례 위에서 두 가지 길이 보인다. 하나는 글로벌을 노리는 한국 스타트업에게 새로 열린 배포 채널이다. App Store와 Play Store 외에 ChatGPT 안이 또 다른 진입점이 됐다. 다른 하나는 사내 도구 쪽이다. 사내 GPT를 따로 만들 필요 없이 회사 시스템 API를 ChatGPT 앱으로 등록하면, 직원들이 평소 쓰는 ChatGPT 안에서 그대로 사내 시스템에 접근할 수 있다. 두 시나리오 모두 지금 시점에 실험할 가치가 있는 영역이다.

    지금 할 일

    ChatGPT Plus 구독이 있다면 사이드바의 Explore GPTs에서 현재 어떤 앱이 올라와 있는지 한 번 둘러보는 게 첫 단계다. 개발자라면 platform.openai.com/docs/actions에서 Actions 개발 가이드를 훑어 두자. 자기 서비스에 맞는 연동 방식을 결정하려면 OpenAI Actions와 Anthropic 진영의 MCP가 어떻게 다른지 비교해 두는 것이 도움이 된다.

    관련 글

    출처

  • Claude Mythos & Project Glasswing: Anthropic이 최강 모델 배포를 거부한 이유

    Claude Mythos & Project Glasswing: Anthropic이 최강 모델 배포를 거부한 이유

    4월 7일, Anthropic이 보기 드문 발표를 했다. 자사 역사상 가장 강력한 모델을 만들었는데, 일반 사용자에게는 풀지 않겠다는 결정. 이름은 Claude Mythos. 그리고 그 모델에 접근할 수 있는 좁은 문의 이름은 Project Glasswing이다. AI 회사가 자기 모델 출시를 스스로 막은 사례는 업계에서 이례적이다.

    이번 결정을 어떻게 봐야 하는지, 경쟁 구도 안에서 어떤 의미인지 정리한다.

    Mythos가 어떤 모델인가

    공식 파라미터 수는 공개되지 않았다. 업계에서는 10조(10T) 파라미터 수준으로 추정한다. 단, 숫자 자체보다 중요한 건 포지셔닝이다. 기존 Claude 라인업은 글쓰기·코딩·분석을 두루 잘하는 범용 모델이었지만, Mythos는 다르게 설계됐다. 특정 영역의 추론 능력을 극단까지 끌어올린 전문 모델이다. Anthropic 내부 평가로는 같은 분야에서 GPT-5.4, Gemini Ultra를 앞선다.

    이 능력이 양날의 검이라는 게 출시 거부 결정의 핵심 근거다. 같은 추론 능력이 방어에도, 공격에도 쓰일 수 있기 때문이다. Anthropic은 이 모델을 무제한으로 풀면 의도와 정반대의 결과로 이어질 수 있다고 판단했다.

    Project Glasswing — 좁고 명확한 문

    대신 선택한 게 Glasswing이라는 제한 배포 프레임워크다. Apple, Microsoft, Amazon, Google을 포함한 40개 파트너사에만 접근권을 주고, 사용 목적과 범위를 사전에 심사한다. 단순한 API 키 발급 프로그램이 아니다. 참여 기업은 다음과 같은 조건을 충족해야 한다.

    • 해당 분야 전문 인력 보유 인증
    • 모델 출력물의 사용 목적 사전 신고
    • 발견 결과의 책임 있는 공개 절차 서약
    • Anthropic의 정기 감사 수용

    특히 Apple과의 협력이 주목할 만하다. WWDC 2026에서 발표된 시리 2.0의 일부 기능이 Mythos 기반으로 알려졌다. 아이폰·맥에 들어가는 온디바이스 모델이 아니라, 클라우드 측 추론 레이어에서 Mythos가 활용되는 구조다.

    경쟁 구도 안에서 본 의미

    가장 흥미로운 해석은 “안전성을 경쟁 우위로 만들 수 있다”는 점이다. OpenAI는 GPT-5.4를 가능한 한 빠르게 풀어 시장 점유율을 가져가는 전략을 쓴다. Anthropic은 정반대 카드를 꺼냈다. “우리는 너무 강력한 모델은 일부러 안 푼다”는 메시지를 던지면서 신뢰를 차별점으로 만든다. 규제 리스크가 큰 산업이나 정부 계약 시장에서는 이게 결정적인 차이가 될 수 있다.

    또 다른 해석은 영업 차원이다. Glasswing 파트너십에 들어가는 40개사는 모두 Anthropic의 가장 큰 잠재 고객이다. 일반 API로 풀었다면 누구나 쓸 수 있었을 모델을 한정 공급으로 만들면서 가치가 더 올라갔다. 선택지를 줄이는 게 오히려 협상력을 키우는 사례다.

    한국 사용자에게 의미

    당장 일반 사용자가 Mythos를 직접 쓸 수는 없다. 다만 두 가지 변화는 곧 체감될 가능성이 높다. 먼저 Glasswing 파트너로 들어간 글로벌 대기업들의 제품에 Mythos 기반 추론이 점점 들어간다. Apple, Microsoft 제품을 한국에서도 쓰는 만큼 간접적인 영향을 받는다. 두 번째는 한국 대기업의 파트너십 신청 가능성이다. 현재는 글로벌 40개사 제한이지만 점차 확대될 가능성이 있다. 보안과 컴플라이언스가 핵심인 금융, 통신, 공공 부문이라면 검토해 볼 카드다.

    지금 할 일

    일반 사용자라면 우선 anthropic.com/glasswing에서 공식 발표 내용을 직접 확인해 보는 게 시작이다. Anthropic의 안전 정책 방향성이 다른 AI 회사와 어떻게 다른지 비교해 보면 모델 선택 기준 자체가 명확해진다. 기업 보안·컴플라이언스 담당자라면 Glasswing 파트너십 조건이 자기 조직과 맞는지 검토하고, 향후 확대 시점을 대비해 사전 협의 채널을 열어 두는 것도 의미 있다.

    관련 글

    출처

  • Junie CLI 완전 정리: Claude Code 대신 어떤 LLM도 쓸 수 있는 코딩 에이전트

    Junie CLI 완전 정리: Claude Code 대신 어떤 LLM도 쓸 수 있는 코딩 에이전트

    코딩 에이전트는 이미 충분히 많다. Claude Code, Cursor, Codex, Aider, Windsurf — 손가락 두 손으로도 다 안 꼽힌다. 그런데 JetBrains가 3월 베타로 푼 Junie CLI는 그 사이에 또 하나의 자리를 만들었다. 이유는 단순하다. 모델을 묶지 않는다.

    Claude Code는 Anthropic 모델만 돈다. Cursor는 IDE 안에서만 살아 있다. Junie는 두 제약을 동시에 푼다. BYOK(Bring Your Own Key) 방식으로 OpenAI, Anthropic, Google, xAI, 로컬 Ollama까지 — 어떤 모델이든 갈아 끼우면서 터미널·IDE·CI/CD 어디서든 굴린다.

    Claude Code와의 차이를 한 표로

    구분 Claude Code Junie CLI
    사용 모델 Anthropic 전용 모든 LLM (BYOK)
    실행 환경 터미널 터미널 + IDE + CI/CD
    비용 구조 Claude 구독 필요 사용 모델 API 비용만
    GitHub 통합 제한적 GitHub/GitLab Actions 직접 연결
    멀티 에이전트 단일 병렬 에이전트 실행 지원

    설치는 한 줄

    npm 한 줄이면 설치가 끝난다.

    npm install -g @jetbrains/junie-cli

    처음 한 번은 어떤 LLM 제공자를 쓸지 정해 줘야 한다.

    junie init
    # 제공자 선택: OpenAI / Anthropic / Google / xAI / Ollama(로컬) 등
    # API 키 입력
    # 기본 모델 설정

    이후엔 프로젝트 디렉토리 안에서 자연어 한 줄로 작업을 던진다.

    cd my-project
    junie "로그인 API에 JWT 갱신 로직 추가해줘"

    실전에서 빛나는 세 가지 시나리오

    Junie의 진가는 모델 교체 자유도에서 나온다. 첫 번째 시나리오는 비용 최적화다. 복잡한 아키텍처 설계는 Claude Opus 4.6에 맡기고, 단순 반복 코드 생성은 GLM-5.1 API나 로컬 Ollama로 돌리도록 작업 종류별로 모델을 분리할 수 있다. 같은 한 달 동안 비용을 절반 이하로 줄이는 게 어렵지 않다.

    두 번째는 CI/CD 파이프라인 통합이다. GitHub Actions에서 Junie를 트리거하면 PR이 올라올 때마다 자동으로 코드 리뷰, 테스트 보완, 문서 업데이트를 실행할 수 있다.

    # .github/workflows/junie-review.yml
    - name: Junie Code Review
      run: junie review --model claude-opus-4-6 --pr ${{ github.event.pull_request.number }}

    세 번째 시나리오가 가장 중요할 수 있다. 회사 보안 정책으로 외부 API 사용이 막힌 환경. Ollama와 연결해 완전히 오프라인 상태에서 에이전트 코딩이 가능하다. 코드를 사외로 보낼 일이 0이 된다. 이게 한국 대기업·금융권에서 의미가 큰 이유다.

    아직 베타라는 점은 잊지 말 것

    장점만 있는 도구는 없다. 복잡한 멀티파일 리팩토링에서는 Claude Code 대비 컨텍스트 유지력이 떨어진다는 사용자 피드백이 있다. JetBrains IDE(IntelliJ, PyCharm 등)와의 통합은 매끄럽지만 VS Code 쪽은 별도 설정이 필요하다. 베타 단계임을 감안하고 작은 작업부터 시작하는 게 안전하다.

    한국 개발자에게 의미

    Anthropic 모델에 종속되고 싶지 않거나, 모델별로 비용·성능을 직접 조정하고 싶은 개발자에게 Junie CLI는 실질적인 카드다. 특히 Java·Kotlin·Python을 주로 쓰면서 JetBrains IDE를 일상으로 쓰는 환경이라면 통합 완성도가 가장 높다. 비용에 민감한 스타트업·프리랜서, 그리고 외부 API가 막힌 보안 조직 — 이 세 그룹이 가장 빠르게 효과를 본다.

    지금 할 일

    일단 설치한 다음 평소에 자주 하던 작업 하나를 던져 본다. 같은 작업을 OpenAI 모델, Anthropic 모델, 그리고 GLM-5.1 같은 저가 모델로 차례차례 돌려 보면 자기 워크플로에 어떤 모델 조합이 맞는지 한 시간이면 감이 잡힌다. 그 다음 단계는 GitHub Actions에 PR 리뷰 자동화 한 줄을 붙여 보는 것. 이게 Junie가 다른 도구들과 가장 크게 차이 나는 지점이다.

    관련 글

    출처

  • Google Scion 완전 정리: 여러 AI 에이전트를 동시에 돌리는 멀티 에이전트 오케스트레이션

    Google Scion 완전 정리: 여러 AI 에이전트를 동시에 돌리는 멀티 에이전트 오케스트레이션

    지난 1년의 코딩 에이전트 발전사는 한 줄로 요약된다. “한 명의 슈퍼 에이전트를 어떻게 더 똑똑하게 만들까.” Claude Code, Cursor, Codex가 그 방향이었다. 그런데 4월에 Google이 오픈소스로 푼 Scion은 다른 질문을 던진다. “왜 한 명만 써야 하지?”

    Scion은 Google Cloud Platform이 GitHub에 공개한 멀티 에이전트 테스트베드다. 핵심 개념은 단순하다. Claude Code, Gemini CLI, OpenAI Codex 같은 서로 다른 코딩 에이전트를 각자의 컨테이너에서 동시에 띄우고, 그 결과물을 위에서 조율하는 레이어를 제공한다. 일부 개발자가 “에이전트의 하이퍼바이저”라고 부르기 시작한 이유가 여기에 있다.

    왜 굳이 여러 명을 쓰나

    단일 에이전트의 한계는 두 가지다. 첫째, 한 명이 백엔드 API 수정 → 프론트엔드 컴포넌트 업데이트 → 테스트 코드 작성을 순차로 처리하면 시간이 그대로 누적된다. 둘째, 각 작업에 가장 잘 맞는 모델이 다르다. 코드 리뷰는 Claude Opus 4.6의 추론 깊이가 좋고, 단순 코드 생성은 GLM-5.1이 비용 대비 효율적이고, 테스트 작성은 Gemini Flash로도 충분하다. 한 모델이 모든 영역에서 최적인 경우는 거의 없다.

    멀티 에이전트는 이 두 한계를 동시에 푼다. 작업을 나눠 병렬로 돌리고, 작업별로 최적 모델을 매칭한다. 시간도 비용도 줄어든다.

    구조 — 컨테이너 단위 격리

    Scion Orchestrator
    ├── Agent Container A (Claude Code)
    │     └── 담당: 백엔드 API 설계 + 구현
    ├── Agent Container B (Gemini CLI)
    │     └── 담당: 테스트 코드 + 문서화
    └── Agent Container C (Codex)
          └── 담당: 프론트엔드 컴포넌트

    각 컨테이너는 독립된 파일시스템과 환경변수를 갖는다. 같은 코드베이스를 동시에 수정하면서도 충돌이 안 나는 이유는 Scion이 내부적으로 git 브랜치 전략을 관리하기 때문이다. 작업이 끝나면 머지 충돌을 해결하고 통합한다.

    실제 실행

    설치는 GitHub 클론 + Docker Compose다.

    git clone https://github.com/GoogleCloudPlatform/scion
    cd scion
    cp .env.example .env
    # .env에 각 에이전트 API 키 설정
    docker compose up

    워크플로는 YAML로 선언한다. 어떤 에이전트가 무엇을 담당하고, 어떤 작업이 어떤 작업에 의존하는지 단순한 문법으로 적어 두면 된다.

    workflow:
      - agent: claude-code
        task: "백엔드 /api/users 엔드포인트 구현"
        branch: feat/backend
      - agent: gemini-cli
        task: "위 엔드포인트 단위테스트 작성"
        depends_on: claude-code
        branch: feat/tests

    아직 실험 단계라는 점

    Google 스스로 “experimental”이라고 표시해 둔 프로젝트다. 에이전트 간 컨텍스트 공유는 아직 제한적이고, 대형 코드베이스에서는 머지 충돌 해결 품질이 들쑥날쑥하다. 프로덕션 도입보다는 실험과 학습 목적으로 보는 게 정확하다. 단, 멀티 에이전트 협업이 1~2년 안에 표준이 될 가능성이 높은 만큼, 지금 손에 익혀 두는 가치는 크다.

    한국 개발자에게 의미

    Scion 자체를 당장 회사 인프라에 올리기는 이르다. 하지만 이 방향성은 분명하다. 머지않아 여러 에이전트를 조율하는 오케스트레이션 레이어가 개발 워크플로의 기본 인프라가 된다. 지금 Scion을 손으로 굴려 보는 건 그 흐름을 미리 익히는 작업이다. 비교 학습 대상으로 Paperclip AI나 LangGraph 같은 다른 오케스트레이션 프레임워크를 같이 봐 두면 멀티 에이전트 아키텍처에 대한 감이 더 빠르게 잡힌다.

    지금 할 일

    가장 가벼운 시작은 GitHub에서 Scion 레포를 클론해 Docker Compose 데모를 한 번 띄워 보는 것이다. 처음부터 4개 에이전트를 동시에 굴리지 말고 Claude Code + Gemini CLI 두 명만으로 단순한 분리 작업(예: 백엔드 함수 + 그 함수의 단위 테스트)을 돌려 보면 멀티 에이전트의 감이 가장 빠르게 잡힌다. 그 다음 단계로 Paperclip이나 LangGraph 같은 대안과 어떤 차이가 있는지 비교해 두면 자기 워크플로에 맞는 도구를 고르는 기준이 생긴다.

    관련 글

    출처