[태그:] AI 에이전트

  • Anthropic Claude Managed Agents 출시: 시간당 $0.08에 에이전트 인프라 통째로 빌리기

    Anthropic Claude Managed Agents 출시: 시간당 $0.08에 에이전트 인프라 통째로 빌리기

    4월 8일, Anthropic이 Claude Managed Agents를 공개 베타로 풀었다. 이름은 평범한데 안에 들어 있는 건 평범하지 않다. 에이전트를 돌리는 데 필요한 샌드박스, 권한, 상태 관리, 에러 복구 — 그 동안 직접 짜야 했던 인프라 레이어를 Anthropic이 통째로 흡수해 운영해 준다. 가격은 시간당 $0.08, 모델 토큰 비용 별도. 24시간 내내 돌리면 런타임만 월 $58 정도다.

    “에이전트”와 “에이전트 인프라”의 분리

    지난 1년 동안 AI 에이전트를 실제로 만들어 본 팀은 같은 벽에 부딪혔다. 모델 호출은 어렵지 않다. 어려운 건 그 모델이 파일을 만들고, 명령을 실행하고, 상태를 잃지 않고, 실패하면 다시 일어나도록 만드는 부분이다. 흔히 말하는 “agent loop” 자체보다 그 주변의 운영 코드가 더 무겁다.

    Managed Agents는 그 운영 코드를 통째로 가져간다. 개발자는 에이전트가 무엇을 해야 하는지(prompt, tool, 정책)만 정의하면, 컨테이너 격리·시크릿 관리·재시도·세션 상태 보존을 Anthropic이 처리한다. 대신 모든 워크로드는 Anthropic 인프라 위에서만 돈다 — 자체 클라우드에 두고 싶다면 이 옵션은 맞지 않는다.

    이미 베타 공개일에 프로덕션이 있는 회사들

    흥미로운 건 베타 공개가 아니라 사용 사례다. 발표 시점에 Notion, Rakuten, Asana, Sentry 네 곳이 이미 Managed Agents 위에서 실제 제품을 돌리고 있었다.

    • Notion — 워크스페이스 안에서 코드, 슬라이드, 스프레드시트 작업을 Claude 에이전트에게 떼어준다. 한 사용자가 동시에 수십 개 세션을 병렬로 돌리는 형태로, “에이전트가 한 번에 한 개의 일만 한다”는 가정이 깨졌다.
    • Rakuten — 제품·영업·마케팅·재무·HR 다섯 부서에 각각 전용 에이전트를 띄웠다. 각 부서당 1주일 미만으로 라이브. Slack·Teams에서 업무를 받고 결과를 돌려보낸다.
    • Asana — “AI Teammates”라는 이름으로, 프로젝트 안에 인간 팀원처럼 들어와 할당받은 태스크의 초안을 생성한다. CTO는 “이전 방식보다 극적으로 빠르게” 고급 기능을 출시했다고 말했다.
    • Sentry — 디버깅 에이전트 옆에 Claude 에이전트를 짝지웠다. 에러가 잡히면 패치를 작성하고 PR까지 자동으로 연다. 사람 손이 닿지 않는 흐름이다.

    4개 회사의 공통점은 “AI 데모”가 아니라 “이미 매출 책임이 있는 제품 라인”에 에이전트가 들어갔다는 점이다. 베타라고 부르기엔 사용 강도가 꽤 진하다.

    가격을 다시 보자: 시간당 $0.08의 의미

    $0.08/hour가 싸 보이는 데는 이유가 있다. 이 가격은 런타임 — 즉 컨테이너가 살아 있는 시간 — 에만 붙는다. 모델 호출 토큰은 별도다. 그러니까 Sonnet 4.6이나 Opus 4.6을 본격적으로 돌리면 청구서의 대부분은 결국 토큰에서 나온다. 런타임 비용은 “그 동안 안 보였던 인프라 운영비”를 명시적으로 분리해 보여주는 라인 아이템에 가깝다.

    그래도 변화는 분명하다. 에이전트를 만들기 위해 K8s, queue, secret manager, 로깅을 따로 깔던 비용이 거의 0으로 수렴한다. 4명짜리 팀이 1주일 안에 사내 에이전트를 띄울 수 있게 됐다는 뜻이다.

    한국 입장에서 뭐가 달라지나

    그 동안 한국 기업이 사내 AI 에이전트를 검토할 때 가장 큰 진입 장벽은 “사람이 없다”였다. 모델 자체보다 그 모델을 “안전하게 24시간 돌리는 인프라”를 만들 사람이 부족했다. Managed Agents는 그 부분을 Anthropic이 외주받는 구조다. 진입 장벽이 한 단계 내려간다.

    대신 두 가지 트레이드오프가 명확해진다. 첫째, 데이터가 Anthropic 인프라를 거쳐 간다. 보안·컴플라이언스 부서가 검토할 항목이 늘어난다. 둘째, 락인이다. 한 번 Managed Agents 위에 사내 워크플로우를 올리면, 같은 모양으로 OpenAI나 Gemini로 옮기기는 쉽지 않다. 그래서 빠른 1차 PoC에는 이상적이지만, 회사 전체 표준으로 깔기 전엔 한 번 더 멈춰서 비교해 봐야 한다.

    지금 바로 할 수 있는 것

    1. Claude Platform 콘솔에서 Managed Agents 메뉴를 켜보고, “내 회사에 이미 있는 한 가지 반복 업무”를 후보로 적어보기. 영업 메일 분류, 코드 리뷰 PR 초안, 회의록 요약 등 주기적으로 도는 작업이 1순위다.
    2. 해당 워크플로우의 데이터가 외부로 나가도 되는지 보안팀에 먼저 확인. 안 되면 Managed Agents 대신 자체 호스팅 옵션을 따로 검토.
    3. 토큰 비용 시뮬레이션을 미리 돌려보기. 런타임 $58은 기준선일 뿐이고, 실제 청구서는 모델 사용량이 결정한다.

    관련 글

    출처

    대표이미지 출처: Anthropic

  • SaaS-pocalypse: ServiceNow 46% 폭락·Oracle 반격, Anthropic이 SaaS를 깨고 있다

    SaaS-pocalypse: ServiceNow 46% 폭락·Oracle 반격, Anthropic이 SaaS를 깨고 있다

    ServiceNow 주가가 연초 대비 46% 빠졌다. 4월 10일에는 하루에만 -8.98%. Cloudflare, CrowdStrike, Salesforce, Snowflake도 같이 주저앉았다. 시장이 부르는 이름은 점점 굳어지고 있다 — “SaaS-pocalypse”. 그리고 사람들은 한 회사를 손가락으로 가리킨다. Anthropic.

    무엇이 무너지고 있는가

    SaaS가 지난 15년 동안 쌓아 올린 해자는 단순했다. 데이터를 보관하고, 워크플로우를 정의하고, 사용자가 매달 자동으로 결제한다. 한 번 들어가면 잘 안 빠져나간다. 그런데 Anthropic의 Claude Managed Agents가 공개 베타로 풀린 직후, 시장은 다른 그림을 그리기 시작했다.

    핵심 가설은 이것이다 — AI 에이전트가 기존 SaaS의 UI 레이어를 우회한다. 사용자는 ServiceNow 화면에서 티켓을 끊지 않고, Claude에게 “이 장애 해결 워크플로우를 돌려”라고 말한다. 에이전트가 ServiceNow API를 호출해 같은 일을 한다. 결과적으로 ServiceNow는 데이터를 들고는 있지만, 사용자 인터랙션의 대부분이 에이전트로 옮겨간다. 좌석당 라이선스 모델은 그 순간 무너진다.

    UBS는 ServiceNow 목표가를 내렸고, 한 달 만에 시가총액 수십조 원이 증발했다. 시장이 보고 있는 건 일시적 하락이 아니라 구조적 압박이다.

    ServiceNow의 반격: 구독 + 토큰 하이브리드 가격제

    ServiceNow는 손 놓고 있지 않다. 회사가 새로 들고나온 가격 모델은 좌석당 월 구독료에 AI 사용량 기반 토큰 비용을 얹는 하이브리드 구조다. “사람이 많으면 비싸다”에서 “AI가 일을 많이 하면 비싸다”로 청구 기준 자체가 옮겨간다.

    CEO Bill McDermott는 “SaaS가 죽고 있다는 게 아니라 기회”라고 말했다. 4년 전부터 AI에 베팅해온 자사가 지금이야말로 점유를 늘릴 시점이라는 것이다. 메시지는 분명한데, 시장은 아직 못 믿는 분위기다 — 하이브리드 가격제는 단기적으로 매출 인식 패턴을 흔들고, 기존 좌석당 라이선스 매출을 잠식할 수 있어서다.

    Oracle의 반격: Systems of Record에서 Systems of Outcomes로

    Oracle은 더 큰 쪽을 친다. 회사가 새로 발표한 Fusion Agentic Applications는 한 줄로 요약된다 — 데이터베이스 안에 에이전트를 박아둔다. 에이전트가 외부에서 API로 들어와 데이터를 바꾸는 게 아니라, DB 엔진과 같은 레벨에서 트랜잭션을 만들고 감사 로그를 남긴다.

    Oracle이 쓰는 표현이 정확하다. “Systems of Record(기록 시스템)에서 Systems of Outcomes(결과 시스템)으로.” 기존 ERP는 사람이 입력하면 기록을 남기는 게 일이었다. 에이전트가 들어오면 사람을 거치지 않고 결과 — 인보이스 발행, 재고 조정, 예산 재배분 — 자체를 만들어낸다. Oracle은 자사 ERP 위에 에이전트를 직접 얹어 이 흐름을 잡으려 한다.

    진짜 종말인가

    SaaS가 사라진다는 서사는 자극적이지만 지나치게 단순하다. 짚어둘 세 가지가 있다.

    첫째, 에이전트도 결국 어떤 시스템 위에서 돈다. 데이터 자체와 권한·감사·SOC2 컴플라이언스 레이어는 여전히 누군가가 들고 있어야 한다. ServiceNow·Salesforce·Oracle이 이걸 놓을 가능성은 낮다.

    둘째, 가격 모델은 흔들리지만 매출 자체는 꼭 줄지 않는다. 하이브리드 가격제는 “사람 100명 × 월 50달러”가 “사람 30명 × 월 30달러 + AI 토큰 월 5,000달러”로 모양만 바뀌는 식이 될 수 있다. 합계는 더 커질 수도 있다.

    셋째, 정말로 위협받는 건 “워크플로우 UI에만 가치가 있던” SaaS다. 데이터 통합·도메인 컴플라이언스·산업 특화 로직이 약한 서비스부터 잘려 나간다. 시장은 지금 “어디부터 잘릴까”를 가격에 반영하는 중이다.

    그래서 한국 기업이 지금 점검해야 할 것

    한국 기업의 SaaS 청구서는 보통 매년 자동 갱신된다. 올해는 그 자동 갱신을 한 번 멈춰볼 가치가 있다. 미국에서 벌어지는 가격 모델 재편은 한국 기업 청구서에도 1~2분기 안에 들어온다. 좌석당 단가는 내려가고 사용량 기반 라인이 새로 붙는 형식이 표준이 될 가능성이 높다. 갱신 협상 테이블에서 이걸 미리 알고 들어가는 것과 모르고 들어가는 것의 차이는 크다.

    지금 바로 할 수 있는 것

    1. 현재 사용 중인 SaaS 리스트와 좌석 수를 한 페이지로 정리. 분기마다 한 번씩 “이 좌석 중 몇 %가 AI 에이전트로 대체 가능한가”를 추정해본다.
    2. 다음 SaaS 갱신 협상 전에, 공급사에 “하이브리드 가격제 옵션이 있는지”를 명시적으로 묻기. 없다면 1년만 계약하고 6개월 후 재협상 조항을 넣는다.
    3. 핵심 워크플로우 1~2개를 골라 자체 에이전트로 PoC. ROI 비교는 “구독료 절감”이 아니라 “처리 건수 × 인건비 절감”으로 잡는다.

    관련 글

    출처

    대표이미지 출처: Oracle

  • NVIDIA Open Agent Development Platform: 17개 엔터프라이즈가 같은 표준 위에 올라타는 이유

    NVIDIA Open Agent Development Platform: 17개 엔터프라이즈가 같은 표준 위에 올라타는 이유

    “Claude Code와 OpenClaw가 에이전트의 변곡점을 만들었다. AI를 생성과 추론 너머, 행동의 영역으로 끌어냈다.” — Jensen Huang의 GTC 2026 키노트는 이 한 줄로 시작했다. 그날 NVIDIA가 함께 발표한 게 Open Agent Development Platform이다. 3월 16일 GTC에서 공개된 이 플랫폼은 4월에 들어서며 17개 엔터프라이즈 파트너의 본격 채택이 이어지면서 다시 한번 화제로 올라왔다.

    NVIDIA가 내놓은 것: 한 줄이 아니라 한 스택

    Open Agent Development Platform(OADP)은 단일 제품이 아니다. NVIDIA가 “오픈 소스 에이전트 풀스택”이라고 부르는 묶음 안에는 네 개의 레이어가 들어 있다.

    • Open models — NVIDIA Nemotron. 추론과 도구 사용에 튜닝된 NVIDIA의 자체 오픈 모델 패밀리. 라이선스는 상업적 이용 가능.
    • Open agents — NVIDIA AI-Q. 모델 위에 올라가는 사전 구성된 에이전트 청사진들. 도메인별 구현 템플릿이라고 보면 된다.
    • Open skills — NVIDIA cuOpt 등. 에이전트가 호출해 쓰는 능력 라이브러리. 최적화·문서 처리·그래프 등 영역별로 묶여 있다.
    • Open runtime — NVIDIA OpenShell. 에이전트를 실제로 실행하는 컨테이너 런타임. 정책 기반 보안·네트워크·프라이버시 가드레일이 기본으로 깔린다.

    지난 1년 동안 에이전트 도구는 모델·프롬프트 라이브러리·실행 환경이 모두 따로 놀았다. NVIDIA가 시도하는 건 그 네 조각을 한 단일 스택으로 묶어 “엔터프라이즈가 직접 깔아 쓰는 표준”을 만드는 일이다. 그것도 오픈 소스로.

    17개 파트너 명단이 이 발표의 진짜 무게다

    플랫폼 자체보다 더 의미 있는 건 1차 채택사 명단이다. Adobe, Atlassian, Amdocs, Box, Cadence, Cisco, Cohesity, CrowdStrike, Dassault Systèmes, IQVIA, Red Hat, SAP, Salesforce, Siemens, ServiceNow, Synopsys — 그리고 17번째까지. 엔터프라이즈 소프트웨어 카테고리마다 한 칸씩을 점유하는 상위 사업자들이 한 발표에 일제히 이름을 올렸다.

    이 명단이 보여주는 건 단순한 마케팅 협업이 아니다. ERP(SAP), CRM(Salesforce), 디자인(Adobe·Dassault·Siemens), 네트워크/보안(Cisco·CrowdStrike), 협업(Atlassian·Box), EDA(Cadence·Synopsys), 생명과학(IQVIA), 시스템 SaaS(ServiceNow) — 거의 모든 엔터프라이즈 도메인의 대표 SaaS가 NVIDIA Agent Toolkit을 자기 제품 안에 끼워 넣고 있다는 뜻이다. 같은 주에 SaaS 종목이 무너지고 있는 와중에 — 같은 회사들이 NVIDIA의 에이전트 표준 위로 옮겨 타고 있다.

    “지식노동의 산업혁명”이라는 표현의 진짜 뜻

    NVIDIA가 발표 헤드라인에 박은 표현이 있다. “Next Industrial Revolution in Knowledge Work” — 지식노동의 다음 산업혁명. 마케팅 멘트로 흘려듣기 쉬운데, 자세히 보면 NVIDIA가 시장을 어떻게 보고 있는지가 드러난다.

    지난 30년 동안 지식노동의 생산성은 SaaS와 클라우드 위에서 천천히 오르긴 했지만, 사람 한 명이 처리하는 단위 업무량은 본질적으로 비슷했다. 에이전트가 들어오면 이 단위가 깨진다. NVIDIA가 노리는 자리는 그 깨진 단위 위에 새로 올라갈 인프라 — GPU·런타임·표준 — 의 공급자다. 산업혁명 시기에 증기기관을 만들던 회사가 한 일과 정확히 같은 포지션이다.

    그래서 OADP가 오픈 소스라는 점이 중요하다. NVIDIA는 에이전트 소프트웨어로 돈을 벌 생각이 없다. 그 소프트웨어가 더 많이 깔릴수록 결국 GPU·DGX·CUDA가 더 많이 팔린다. 런타임과 표준을 무료로 푸는 이유다.

    한국 기업 입장에서 짚어야 할 세 가지

    1. SAP·Salesforce·ServiceNow를 쓰고 있다면 이미 영향권 안이다. 자신이 도입한 SaaS의 다음 메이저 업데이트에 NVIDIA Agent Toolkit이 들어올 가능성이 높다. 별도 결정 없이도 사내 워크플로우에 에이전트가 따라 들어온다.

    2. 사내 자체 에이전트를 검토 중이라면 OADP는 진지한 후보다. Anthropic Managed Agents가 “운영 부담을 통째로 외주”하는 모델이라면, OADP는 “통제권을 우리가 들고 가는” 모델이다. 데이터가 외부로 못 나가는 산업(금융·공공·의료)에서는 두 번째가 더 맞는다.

    3. GPU 조달 계획을 다시 짜야 한다. 표준이 NVIDIA OpenShell 쪽으로 굳어지면, 에이전트 추론용 GPU 수요는 학습용 수요와 별개로 분리되어 늘어난다. 한국 기업의 2027년 IT 예산 라인에 “에이전트 추론 컴퓨트”가 새 항목으로 들어가야 할 시점이다.

    지금 바로 할 수 있는 것

    1. NVIDIA 공식 발표 페이지에서 17개 파트너 명단을 확인하고, 그중 회사가 쓰는 SaaS가 몇 개인지 카운트. 3개 이상이면 다음 분기 IT 로드맵 회의에서 이 주제를 의제로 올린다.
    2. Nemotron 모델 카드와 OpenShell 런타임 문서를 한 번 훑어보기. 사내 PoC를 OADP 위에 올릴지 Managed Agents 위에 올릴지 비교 기준이 잡힌다.
    3. 현재 NVIDIA H100/H200 보유 현황과 1년 안에 추가로 필요할 추론 GPU 수량을 한 줄로 적어보기. 표준이 굳어지기 전에 조달 협상을 시작해야 가격이 산다.

    관련 글

    출처

    대표이미지 출처: NVIDIA Newsroom

  • GPT-5.4 출시 — AI가 드디어 사람보다 컴퓨터를 잘 쓴다

    OpenAI가 3월 5일 GPT-5.4를 출시했다. 자율 데스크톱 조작 벤치마크에서 인간 전문가 점수를 처음으로 넘어섰다.

    무슨 일인가

    OpenAI가 GPT-5.4를 공개했다. 이번 버전의 핵심은 Computer Use 기능이다. 모델이 스크린을 직접 보고 마우스 클릭, 키보드 입력, 앱 전환까지 스스로 실행한다. 별도 플러그인이 아니라 모델 자체에 내장된 기능이다.

    성능 수치를 보면, 실제 데스크톱 작업 능력을 측정하는 OSWorld-Verified 벤치마크에서 75.0%를 기록했다. 인간 전문가 기준점인 72.4%를 처음으로 넘어선 수치다. 직전 모델인 GPT-5.2가 같은 테스트에서 47.3%였다는 점을 감안하면, 한 세대 만에 약 28포인트가 올라간 셈이다.

    주요 스펙을 정리하면 이렇다.

    • 컨텍스트 윈도우: API 기준 최대 100만 토큰 (GPT-5.2의 40만에서 확장)
    • 토큰 효율: 복잡한 작업 기준 이전 대비 약 47% 절감
    • 오류율: 개별 주장 기준 허위 응답 33% 감소
    • Tool Search: 수만 개 규모의 툴 생태계에서 필요한 툴을 실시간으로 검색·선택하는 신규 기능
    • 출시 형태: Standard, Pro, Thinking 세 가지 변형. ChatGPT Plus·Team·Pro 구독자에게 순차 배포 중

    전문 지식 업무를 측정하는 GDPval 벤치마크에서는 44개 직군 기준 83%를 기록했다. GPT-5.2의 71%에서 크게 올라간 수치다.

    왜 중요한가

    이전까지 AI는 “말로 설명해주면 내가 실행할게” 방식이었다. 브라우저 탭을 직접 열거나, 엑셀 파일을 조작하거나, 사내 시스템에 로그인해서 데이터를 가져오는 일은 여전히 사람이 해야 했다. GPT-5.4는 그 경계를 넘는다.

    OSWorld 벤치마크가 인간 기준점을 넘겼다는 사실의 의미는 단순히 “AI가 더 똑똑해졌다”가 아니다. 반복적인 멀티 앱 워크플로 — 데이터 추출, 양식 작성, 보고서 취합 같은 작업 — 가 이제 자동화 가능한 영역으로 넘어왔다는 신호다. 이전까지 RPA(로보틱 프로세스 자동화) 전담 팀이나 맞춤형 스크립트 없이는 처리하기 어려웠던 일들이다.

    경쟁 구도도 주목할 만하다. 현 시점 기준으로 세 모델은 각자 다른 영역을 선도하고 있다. GPT-5.4는 업무 자동화와 컴퓨터 조작, Claude Opus 4.6은 코딩(SWE-Bench 80.8%), Gemini 3.1 Pro는 추론과 가격 경쟁력($2/$12 per MTok)에서 각각 앞선다. 어느 한 모델이 모든 영역을 압도하는 시대는 아직 아니다.

    So what — Kevin 코멘트

    집에서 작업할 때 컴퓨터를 AI에 맡기고 가끔 사용료만 확인하는 루틴이 생긴 지 꽤 됐다. 아직 복잡한 일은 아니지만, 그 자체로 꽤 든든하다. 오래전 좋아했던 일본 애니메이션 쵸비츠에서 사람들이 퍼스컴(퍼스널 컴퓨터)을 생활 파트너처럼 쓰던 세계관이 있었는데, GPT-5.4의 Computer Use를 쓰다 보면 그 시대가 생각보다 빨리 왔다는 느낌이 든다.

    다만 보안 문제는 아직 현실적인 걸림돌이다. 기업 시스템에 AI가 직접 로그인하고 파일을 조작하는 구조는, 인증 처리와 권한 관리가 충분히 성숙하지 않으면 새로운 공격 벡터가 될 수 있다. 그게 Computer Use의 실제 도입을 늦추는 가장 큰 이유라고 본다. 그렇지만 요즘 발전 속도를 보면 이 문제도 오래 가지 않을 것 같다. 지금 당장 전면 도입보다는, 내부 시스템과 격리된 환경에서 반복 작업부터 실험해보는 것이 현실적인 시작점이다.

    관련 맥락

    GPT-5.4 출시 직전인 3월 초, OpenAI는 GPT-5.3 Instant를 먼저 공개했다. 2~3주 간격으로 두 번의 출시가 연속으로 이어진 것이다. Anthropic도 2월 초 Claude Opus 4.6, 2월 중순 Claude Sonnet 4.6을 릴리스했다. Google은 2월 말 Gemini 3.1 Pro를 내놨다. 주요 랩 세 곳 모두 이제 수개월 단위가 아니라 2~3주 단위로 업데이트를 내보내고 있다.

    배경에 있는 경쟁 압력도 뚜렷하다. Anthropic의 Claude Code는 출시 1년도 되지 않아 연간 반복 매출 25억 달러를 기록했다는 보도가 나왔다. GPT-5.4가 GPT-5.3 Codex의 코딩 특화 기능을 메인 모델로 통합한 것도 이 맥락과 무관하지 않다.

    앞으로 어떻게 될까

    단기적으로는 Computer Use가 실무에서 얼마나 신뢰할 수 있는지가 관건이다. 벤치마크 환경과 실제 기업 시스템은 다르다. 인증 처리, 예외 상황 대응, 보안 정책 등 실제 배포 과정에서 드러날 문제들이 아직 검증되지 않았다.

    중기적으로는 이 기능이 RPA 시장에 구조적 압력을 가할 가능성이 크다. UiPath나 Automation Anywhere 같은 기존 RPA 툴이 경쟁해야 하는 상대가 바뀌는 셈이다. 반면 GPT-5.4를 활용해 내부 워크플로를 자동화하려는 팀에게는 지금이 실험 시작 시점으로 적합하다.

    한 가지 유의할 점은 GPT-5.2 Thinking이 2026년 6월 5일 종료된다는 것이다. 해당 버전을 API로 연동 중인 팀이라면 마이그레이션 일정을 미리 잡아둬야 한다.


    출처

    OpenAI — Introducing GPT-5.4 (2026.03.05)
    Build Fast with AI — GPT-5.4 Review: Features, Benchmarks & Access (2026.03)
    Digital Applied — GPT-5.4 vs Claude Opus 4.6 vs Gemini 3.1 Pro (2026.03)
    NxCode — GPT-5.4 vs GPT-5.2: What Changed & Should You Upgrade? (2026.03)
    Turing College — GPT-5.4 Review: Is It Worth Leaving GPT-5.3 Codex Behind? (2026.03)

  • OpenClaw이 뭔가요? 72시간 만에 GitHub 역사를 바꾼 AI 에이전트

    https://opengraph.githubassets.com/1/openclaw/openclaw
    이미지 출처: OpenClaw 공식 GitHub (github.com/openclaw/openclaw) — MIT License

    오스트리아 개발자 1명이 만든 오픈소스 AI 에이전트 OpenClaw이 72시간 만에 GitHub 별 6만 개를 획득하며 역사상 가장 빠르게 성장한 소프트웨어 프로젝트가 됐다.

    무슨 일인가 (What)

    OpenClaw은 오스트리아의 소프트웨어 엔지니어 피터 슈타인베르거가 개발한 자유-오픈소스 자율 AI 에이전트다. 원래 2025년 11월 Clawdbot이라는 이름으로 공개됐고, Anthropic의 상표 이슈로 Moltbook을 거쳐 지금의 OpenClaw로 리브랜딩됐다.

    2026년 1월 출시 직후 72시간 만에 GitHub 별 6만 개를 달성했고, 3월 현재 25만 개를 넘어서며 React를 제치고 GitHub 역사상 가장 많은 별을 받은 프로젝트가 됐다.

    OpenClaw은 단순한 챗봇이 아니다. 로컬에서 실행되고, 대화 간 컨텍스트를 기억하며, 실제로 사용자 머신에서 작업을 수행하는 진짜 개인 AI 에이전트다. 구독료 없이 자신의 API 키만 가져오면 된다.

    MIT 라이선스로 공개된 이 프레임워크는 현재 커뮤니티가 만든 5,700개 이상의 스킬 마켓플레이스와 WhatsApp, Slack, 스마트홈 기기를 포함한 50개 이상의 채널 통합을 갖추고 있다.

    왜 중요한가 (Why it matters)

    전통적인 AI 툴은 수동적 시스템이다. 사용자가 질문하면 AI가 답한다. AI 에이전트는 반대다. 사용자가 목표를 설정하면 AI가 자율적으로 계획을 세우고, 툴을 호출하고, 작업을 실행한 뒤 결과를 돌려준다. OpenClaw은 이 패러다임을 오픈소스로, 누구나 자기 서버에서 돌릴 수 있는 형태로 구현했다는 점에서 의미가 크다.

    OpenClaw의 아키텍처는 5개 컴포넌트로 구성된다. 메시지를 받아 라우팅하는 Gateway, LLM 호출을 조율하는 Brain, 컨텍스트를 로컬 Markdown 파일에 저장하는 Memory, 기능을 확장하는 Skills, 그리고 예약 작업을 처리하는 Heartbeat다. Brain은 ReAct(Reasoning + Acting) 루프로 동작해 목표 달성까지 추론과 행동을 반복한다.

    보안 측면의 리스크도 명확하다. 이메일, 캘린더, 메시징 플랫폼에 접근 가능한 자율 에이전트를 실행한다는 것은 기존 소프트웨어 보안 모델이 설계하지 않은 새로운 공격 표면을 만든다는 뜻이다. ClawJacked 취약점처럼 로컬 WebSocket 서비스를 통해 AI 에이전트를 원격 제어하거나, ClawHub 플러그인 생태계를 악성 스킬 배포 경로로 악용하는 사례도 이미 보고됐다.

    So what — Kevin

    매일 새로운 툴이 나온다. 어제의 혁신이 오늘의 기본값이 되는 속도다. OpenClaw도 그 흐름 중 하나다.

    그런데 이 프로젝트가 유독 눈에 띈 건 기술적 복잡함 때문이 아니었다. crontab 연동, 모바일 알림, 슬랙 메시지 트리거 — 개발자라면 누구나 이거 만들면 편하겠다 생각은 했지만 직접 짜기엔 귀찮았던 것들이다. OpenClaw은 그 귀찮음을 오픈소스로 해결해버렸다.

    진짜 의미는 여기에 있다고 본다. AI 에이전트의 킬러 피처는 AGI 수준의 추론이 아니라, 내 루틴에 조용히 붙어서 돌아가는 자동화다. 혁신처럼 보이지만 사실은 오래된 수요다.

    그래서 후속 유사 프로젝트들이 계속 나오는 것도 자연스럽다. 이미 OpenClaw이 정답지를 공개했고, 나머지는 각자의 스택과 환경에 맞게 변형하는 단계다. 어떤 걸 골라야 할지 고민하기보다, 지금 내 워크플로에서 가장 반복적인 작업 하나에 붙여보는 게 시작이다.

    관련 맥락

    OpenClaw의 바이럴 확산에는 Moltbook이 결정적인 역할을 했다. 기업가 맷 슐리히트가 OpenClaw 같은 AI 에이전트만 사용할 수 있는 소셜 네트워크 서비스 Moltbook을 출시하면서 전 세계적으로 주목을 받았다. 중국 개발자들은 DeepSeek 모델과 자국 슈퍼앱에 연동되도록 OpenClaw를 수정해 배포했다.

    DigitalOcean은 원클릭 OpenClaw 배포 이미지를 공식 출시했고, 커뮤니티에서는 Raspberry Pi부터 기업용 Kubernetes 클러스터까지 다양한 환경에 배포하는 사례가 쏟아지고 있다.

    앞으로 어떻게 될까

    AI 에이전트 보안은 2026년 독립적인 제품 카테고리로 부상할 가능성이 높다. 에이전트 행동을 실시간으로 감시하는 AI 방화벽, 격리 실행 환경, 세밀한 권한 프레임워크, 완전한 감사 추적 기능이 필요하다는 공감대가 형성되고 있다.

    OpenClaw의 부상은 단순한 오픈소스 성공 스토리가 아니다. 이는 AI 에이전트 시대의 도래를 알리는 신호다. 앞으로 AI 에이전트와 멀티에이전트 협업이 AI 산업의 다음 성장 동력이 될 것이라는 전망이 나온다.

    출처

    • Wikipedia — OpenClaw (2026.02)
    • DigitalOcean — What is OpenClaw? Your Open-Source AI Assistant for 2026 (2026)
    • SimilarLabs — OpenClaw: Why 2026’s Hottest AI Agent Project Got 60K GitHub Stars in 72 Hours (2026.03)
    • Medium (Steven Cen) — OpenClaw Explained: How the Hottest Agent Framework Works (2026.03)
    • Gate.com — What Is OpenClaw? In-Depth Analysis of the Open-Source AI Agent Framework (2026.03)
  • Nvidia GTC 2026 총정리: AI 에이전트 시대 본격 선언

    헤드라인 한 줄 요약

    젠슨 황이 산호세 무대에서 AI 컴퓨팅 수요 전망을 2배로 올렸다. 숫자는 1조 달러.

    이미지 출처: © NVIDIA Corporation

    무슨 일인가 (What)

    GTC 2026 키노트는 3월 16일 산호세 SAP 센터에서 열렸다. 주요 발표는 차세대 AI 컴퓨팅 플랫폼, 오픈소스 기반 에이전트 AI 프레임워크, 자율주행·로보틱스 분야의 물리적 AI 진전으로 요약된다.

    Vera Rubin 플랫폼

    Vera Rubin은 7종의 신규 칩과 5가지 랙 스케일 설계로 구성된 완전 통합 시스템이다. Vera CPU는 에이전트 워크로드 전용으로 설계됐으며 기존 대비 효율 2배, 단일 스레드 성능 50% 향상을 내세운다.

    OpenClaw & NemoClaw

    OpenClaw는 에이전트 컴퓨터를 위한 오픈소스 플랫폼으로, 역사상 가장 빠르게 성장한 오픈소스 프로젝트 중 하나다. 로컬에서 실행되며 대화 간 맥락을 기억하고, 사용자 머신에서 실제 작업을 자율적으로 수행한다.

    NemoClaw는 OpenClaw 위에 구축된 엔터프라이즈급 소프트웨어 스택이다. OpenShell 런타임 샌드박싱, 프라이버시 라우터, 네트워크 가드레일을 단일 명령어로 설치할 수 있다.

    Groq 3 LPU

    Nvidia가 지난해 말 인수한 Groq의 첫 번째 칩이다. 초저지연 추론에 특화됐으며 3분기 출하 예정이다.


    왜 중요한가 (Why it matters)

    젠슨 황은 OpenClaw가 Linux, Kubernetes, HTML만큼 중요한 툴이 될 것이라고 밝혔다. 이번 GTC의 핵심 메시지는 두 가지다. 첫째, AI 워크로드의 무게 중심이 학습(Training)에서 추론(Inference)으로 이동했다. 둘째, 에이전트 AI는 더 이상 실험 단계가 아니다. OpenClaw 기반의 에이전트는 코드 작성, 웹 브라우징, 파일 조작, API 호출을 인간 개입 없이 연속으로 수행한다.


    So what — Kevin 코멘트

    나는 이번 발표를 보면서 가장 눈에 띈 건 OpenClaw가 단순한 툴이 아니라 OS라는 포지셔닝이었다. 실제로 젠슨 황은 “Mac과 Windows가 PC의 운영체제라면, OpenClaw는 개인 AI의 운영체제”라고 직접 선언했다.

    이 말의 무게를 흘려듣기 쉽다. 하지만 OS 포지셔닝이 의미하는 건 하나다. Nvidia는 OpenClaw를 에이전트 AI의 인프라 레이어로 굳히겠다는 것이다. 그 위에 NemoClaw라는 엔터프라이즈 보안 스택을 얹고, 아래에는 자사 하드웨어(DGX Spark, Vera Rubin)를 깐다. 에이전트는 상시 가동되어야 하고, 그 전용 컴퓨팅 수요는 자연스럽게 Nvidia 하드웨어로 연결된다. 수직 통합의 교과서다.

    개발자 입장에서 실질적인 의미는 이렇다. 지금 OpenClaw는 강력하지만 보안이 취약하다. 쉘 접근 권한을 AI에게 주는 건 사실상 God Mode를 허용하는 것이다. NemoClaw가 이 문제를 해결하는 레퍼런스 아키텍처를 제공했다는 점에서, 기업 도입의 실질적인 출발선이 이번 GTC로 당겨졌다고 본다.


    관련 맥락

    OpenClaw는 오스트리아 개발자 피터 슈타인베르거가 2025년 11월 Clawdbot이라는 이름으로 처음 공개했다. 이후 Moltbot으로 이름을 바꿨다가 2026년 1월 OpenClaw로 최종 정착했다. GitHub에서 145,000개 이상의 별과 20,000개 이상의 포크를 기록했다.

    슈타인베르거는 이후 OpenAI에 합류했고, Sam Altman은 그를 “매우 뛰어난 아이디어를 가진 천재”라고 평가하며 OpenClaw를 오픈소스 재단 프로젝트로 유지하겠다고 밝혔다.


    앞으로 어떻게 될까

    Nvidia는 차세대 Feynman 플랫폼도 예고했다. 현재 최소 공정인 3nm를 훨씬 뛰어넘는 1.6nm 기반으로 설계된다. 에이전트 AI의 연산 한계가 또 한 번 뒤로 밀릴 것이다.

    단기적으로는 OpenClaw 생태계가 빠르게 확산될 가능성이 높다. 젠슨 황은 모든 기업이 이제 OpenClaw 전략을 가져야 한다고 말했다. 국내 클라우드·SaaS 기업이 에이전트 AI 도입 로드맵을 세우고 있다면, NemoClaw 기반으로 출발점을 잡는 것이 현실적인 선택이다.


    출처

    • NVIDIA Newsroom — NemoClaw 공식 발표
    • VentureBeat — NemoClaw & OpenShell 심층 분석
    • Next Platform — GTC 2026 젠슨 황 키노트 리뷰
    • KDnuggets — OpenClaw 기술 해설