[카테고리:] AI에이전트

  • Stripe “Minions”: AI 에이전트가 주당 PR 1,300개 생성하는 기업의 실체

    Slack 메시지 하나가 PR이 된다

    Stripe 엔지니어가 Slack에 메시지를 보낸다. 자리를 비운다. 돌아오면 PR이 완성돼 있다. 자동화 테스트도 통과했고, 코드 리뷰 설명도 자동 생성돼 있다. 엔지니어가 작성한 코드는 단 한 줄도 없다.

    이것이 Stripe의 “Minions” 시스템이다. 2026년 3월 기준, Minions는 매주 1,300개 이상의 PR을 생성하고 있다. 2주 전만 해도 1,000개였다. 30% 주간 성장률이다.

    $1조(약 1,300조 원)의 결제 흐름을 처리하는 코드베이스에서, AI 에이전트가 인간의 검토 없이 자동으로 머지되는 건 아니지만—PR 생성 자체는 완전히 자율로 이뤄지고 있다.

    Minions는 어떻게 작동하는가

    핵심 구조는 세 가지다.

    1. 블루프린트(Blueprint): Minion이 작업을 받으면 결정론적 코드와 유연한 에이전트 루프가 결합된 블루프린트를 실행한다. “이 버그를 수정하라”는 지시가 들어오면 블루프린트가 어떤 파일을 읽고, 어떤 테스트를 돌리고, 어떤 형식의 PR을 만들지 결정한다.

    2. 데브박스(Devbox): 각 Minion은 독립된 AWS EC2 인스턴스에서 실행된다. Stripe 전체 소스 트리가 탑재돼 있고, Bazel 캐시와 타입 체크 캐시가 미리 워밍돼 있다. 웜 풀에서 10초 이내에 프로비저닝된다.

    3. Toolshed: Stripe 내부 MCP 서버로, 약 500개의 내부 도구와 서드파티 SaaS 플랫폼 연동을 제공한다. 에이전트는 작업에 필요한 도구 서브셋만 요청해 전체를 로드하지 않는다.

    아키텍처의 기반은 Block(Square 모회사)이 오픈소스로 공개한 Goose 에이전트를 Stripe가 대폭 수정한 버전이다. Cursor나 Claude Code가 인간과 상호작용을 전제로 설계됐다면, Minions는 처음부터 무인(unattended) 운영을 위해 최적화됐다.

    인간은 어디에 남아 있나

    Minions는 코드를 자동으로 머지하지 않는다. 모든 PR은 사람이 검토한다. 달라진 건 검토 대상이 ‘인간이 쓴 코드’에서 ‘AI가 쓴 코드’로 바뀐 것이다.

    PR 설명은 에이전트가 무엇을, 왜 했는지 자동 생성한다. 엔지니어는 코드를 직접 작성하는 대신 스펙 템플릿을 개선하고, 에이전트가 잘 처리하지 못하는 작업에 집중한다. 흥미로운 부분은 비엔지니어에게도 소프트웨어 기여 문이 열렸다는 점이다. 코드를 모르더라도 블루프린트 작성 방법을 배우면 Minion을 실행할 수 있다.

    한편 Stripe는 Cursor의 룰 파일 포맷을 채택해 Minions, Cursor, Claude Code 세 시스템이 동일한 가이드를 공유한다. 어느 한 시스템을 위해 작성된 지침이 나머지에도 자동으로 적용된다.

    이게 한국 개발팀에 의미하는 것

    Stripe는 AI 에이전트를 실험한 게 아니다. 인프라로 운영하고 있다. 그 코드베이스는 수억 줄의 Ruby, 연간 $1조의 결제 처리 시스템이다. “AI 에이전트는 아직 프로덕션에 쓰기 어렵다”는 말이 설득력을 잃는 데이터다.

    핵심은 아키텍처다. Minions가 성공한 이유는 모델이 좋아서가 아니라—샌드박스, 블루프린트, MCP 서버, 인간 리뷰 게이트라는 구조 때문이다. 이 구조를 갖추기 전에 AI 에이전트를 도입하면 실패한다. 구조를 먼저 설계하면 Stripe처럼 쓸 수 있다.

    당장 1,300개 PR을 목표로 할 필요는 없다. 반복적인 테스트 코드 작성, 타입 정의 업데이트, 문서 동기화—이런 작업 하나에 Minions 방식의 블루프린트를 만들어 시작하는 것이 현실적인 첫 걸음이다.

    지금 바로 할 수 있는 것

    • Stripe Minions 원문 읽기: stripe.dev 블로그에 시스템 설계 전문이 공개돼 있다.
    • 우리 팀의 반복 작업 목록 작성: 주당 3회 이상 반복되는 코딩 작업을 리스트업. 에이전트 적용 1순위 후보다.
    • Goose 오픈소스 탐색: Minions의 기반인 Block의 Goose는 GitHub에 오픈소스로 공개돼 있다. 무료로 에이전트 파이프라인 프로토타입을 만들 수 있다.

    관련 글


    출처

  • AI 에이전트, 어디까지 믿어야 하나: 기업 도입 전 필수 체크리스트 7가지

    AI 에이전트, 어디까지 믿어야 하나: 기업 도입 전 필수 체크리스트 7가지

    파일럿은 성공했는데 실제 도입하면 왜 실패할까. 2026년 AI 에이전트는 “다음 단계”가 아니라 지금 당장 기업 현장에 들어오고 있다. 그런데 가트너는 2027년까지 에이전틱 AI 프로젝트의 40%가 취소될 것으로 전망했다. 도입 전에 반드시 확인해야 할 것들을 정리했다.

    왜 파일럿은 성공하고 실제 도입은 실패하나

    반복되는 패턴이 있다. 파일럿 단계에서는 범위가 좁고 통제된 환경이라 결과가 좋다. 그런데 실제 조직 전체로 확장하면 문제가 터진다. 리스크를 통제하려고 검증 레이어·사람 감독을 추가하다 보면 당초 기대했던 자동화 효과가 사라진다. 비용 대비 효과가 안 나오는 것이다.

    살아남는 프로젝트에는 공통점이 있다. 범용 에이전트가 아니라 특정 업무 하나에 집중한다. 성과를 “생산성 향상” 같은 추상적 지표가 아니라 측정 가능한 수치로 정의한다.

    통제 불가 문제: AI 에이전트는 스스로 멈추지 않는다

    AI 에이전트의 가장 큰 리스크는 “과도한 실행”이다. 에이전트는 목표를 달성하기 위해 가능한 모든 방법을 동원하며 계속 시도한다. 스스로 멈추지 않기 때문에 외부 서비스에 과부하를 일으키거나, 사용자 승인 없이 의도하지 않은 작업을 실행할 수 있다.

    특히 여러 에이전트가 서로 상호작용하는 환경에서는 통제가 더 복잡해진다. “누가 어떤 조건에서 이 행동을 승인했는가”라는 기본적인 거버넌스 질문에 답하기 어려워진다.

    출처: 통제 벗어난 AI 에이전트, 리스크 막는 해법 | GTT Korea

    보안 리스크: 섀도우 AI와 프롬프트 인젝션

    팔로알토 네트웍스는 AI 에이전트를 2026년 가장 빠르게 진화하는 내부자 리스크로 지목했다. 에이전트는 시스템에 특권 접근 권한을 갖고 사람보다 빠르게 대규모 의사결정을 내린다. 여기서 발생하는 4가지 주요 취약점이 있다.

    • 목표 탈취(Goal Hijacking): 외부 입력으로 에이전트의 목표 자체를 바꾸는 공격
    • 프롬프트 인젝션: 악의적 텍스트를 통해 에이전트를 조작
    • 섀도우 AI: IT 부서 모르게 조직 내에서 쓰이는 비승인 AI 에이전트
    • 도구 오용: 에이전트가 연결된 API·툴을 의도와 다르게 사용

    도입 전 필수 체크리스트 7가지

    기술보다 먼저 이 질문에 답할 수 있어야 한다.

    1. 업무 범위가 명확한가? — “고객 이메일 분류”처럼 구체적이어야 함. “업무 효율화”는 너무 추상적
    2. 데이터 품질이 준비됐는가? — AI-ready 데이터 없이 에이전트를 도입하면 쓰레기 입력 → 쓰레기 출력
    3. 성과 지표가 측정 가능한가? — “처리 시간 X분 단축”, “오류율 X% 감소”처럼 숫자로 정의
    4. 사람 감독 체계가 있는가? — 에이전트가 실행하기 전 승인이 필요한 작업과 자동 실행 허용 범위를 명문화
    5. 비상 정지 메커니즘이 있는가? — 에이전트가 이상 동작 시 즉시 중단시킬 수 있는 Kill Switch
    6. 보안 접근 권한이 최소화됐는가? — 에이전트에 필요 이상의 시스템 권한을 주지 말 것 (최소 권한 원칙)
    7. 로그 감사 추적이 가능한가? — 에이전트가 무엇을 했는지 사후에 추적·설명할 수 있어야 법적·내부 감사에 대응 가능

    So What: 한국 직장인·팀장이 지금 해야 할 것

    AI 에이전트 도입을 검토 중이라면 “뭘 쓸까”보다 “어떻게 통제할까”를 먼저 설계해야 한다. 아직 도입 전이라면 오히려 유리한 위치다. 남들의 실패 사례를 보고 체계를 갖출 시간이 있다. 가트너가 경고한 40% 실패율은 준비 없이 뛰어든 조직의 이야기다.

    지금 바로 할 수 있는 것

    1. 업무 목록 점검 — 현재 반복적·규칙 기반 업무 3가지를 골라 “에이전트로 대체 가능한가?” 기준으로 평가해보기
    2. 사내 AI 사용 현황 파악 — 팀원들이 이미 어떤 AI 툴을 쓰고 있는지 조사 (섀도우 AI 파악)
    3. 파일럿 범위 설계 — 도입하기로 했다면 한 팀, 한 업무 프로세스로 한정해서 3개월 성과 측정부터

    관련 글

  • AI 하나로는 부족하다: Perplexity Computer, 19개 모델을 동시에 쓰는 시대 열었다

    AI 하나로는 부족하다: Perplexity Computer, 19개 모델을 동시에 쓰는 시대 열었다

    ChatGPT를 쓰다가 Claude로 넘어가고, 검색은 따로 Perplexity로 하는 경험, 누구나 한 번쯤 있을 것이다. AI 툴마다 잘하는 게 다르기 때문이다. Perplexity는 이 불편함을 끝내겠다고 나섰다. 2026년 2월 출시된 Perplexity Computer는 19개의 AI 모델을 하나의 인터페이스에서 자동으로 골라 쓰는 범용 에이전트다.

    19개 모델, 자동으로 알아서 고른다

    Perplexity Computer의 핵심은 멀티모델 라우팅이다. 사용자가 작업을 요청하면, 메타 라우터가 작업 유형을 분석해 최적의 모델에 자동 배분한다. 코딩은 GPT-5.3-Codex, 딥 리서치는 Gemini 3.1 Pro, 핵심 추론은 Claude Opus 4.6, 빠른 경량 작업은 Grok이 맡는다. 어떤 모델을 써야 할지 고민할 필요가 없다.

    출처: Perplexity launches Computer AI agent that coordinates 19 models | VentureBeat

    단순 대화가 아니라 실행이 다르다

    기존 AI는 답을 알려주는 데 그쳤다. Computer는 직접 실행한다. Slack, Gmail, GitHub, Notion 등 400개 이상의 앱과 연동해 조사 → 문서 작성 → 이메일 발송까지 하나의 명령으로 처리한다. 모든 작업은 격리된 클라우드 환경에서 실행되며, 민감한 작업은 사용자 승인이 필요하다. 몇 달에 걸친 장기 워크플로도 자동 실행 가능하다.

    출처: 퍼플렉시티, 화제의 에이전트 컴퓨터 개인·기업용으로 출시 | AI타임스

    Model Council: 세 AI가 동시에 답한다

    3월 업데이트로 추가된 Model Council 기능이 주목받고 있다. 하나의 질문에 GPT-5.4, Claude Opus 4.6, Gemini 3.1 Pro가 동시에 답하고, 세 모델이 어디서 동의하고 어디서 갈리는지 한눈에 보여준다. 중요한 의사결정이나 조사 작업에서 단일 모델의 한계를 넘을 수 있는 기능이다.

    출처: Perplexity March 2026 Updates | The Agency Journal

    So What: 한국 직장인·개발자에게 뭐가 달라지나

    지금까지는 AI 툴 여러 개를 구독하고 직접 전환하며 썼다. Perplexity Computer는 그 과정을 없앤다. 특히 개발자에게는 조사 → 코딩 → 배포까지 단일 플랫폼 자동화가 현실이 됐다. 단, 월 가격이 진입 허들이다. 팀 단위라면 Enterprise Max도 검토할 만하다.

    지금 바로 할 수 있는 것

    1. 무료로 Perplexity 써보기 — 기본 검색은 무료. perplexity.ai 가입 후 리서치 워크플로 체험
    2. Pro 플랜(/월) 먼저 시작 — Computer 정식 접근 전 기능 탐색용으로 충분
    3. 공식 소개 영상 확인Perplexity 공식 블로그에서 실제 사용 사례 확인
  • OpenClaw이 뭔가요? 72시간 만에 GitHub 역사를 바꾼 AI 에이전트

    https://opengraph.githubassets.com/1/openclaw/openclaw
    이미지 출처: OpenClaw 공식 GitHub (github.com/openclaw/openclaw) — MIT License

    오스트리아 개발자 1명이 만든 오픈소스 AI 에이전트 OpenClaw이 72시간 만에 GitHub 별 6만 개를 획득하며 역사상 가장 빠르게 성장한 소프트웨어 프로젝트가 됐다.

    무슨 일인가 (What)

    OpenClaw은 오스트리아의 소프트웨어 엔지니어 피터 슈타인베르거가 개발한 자유-오픈소스 자율 AI 에이전트다. 원래 2025년 11월 Clawdbot이라는 이름으로 공개됐고, Anthropic의 상표 이슈로 Moltbook을 거쳐 지금의 OpenClaw로 리브랜딩됐다.

    2026년 1월 출시 직후 72시간 만에 GitHub 별 6만 개를 달성했고, 3월 현재 25만 개를 넘어서며 React를 제치고 GitHub 역사상 가장 많은 별을 받은 프로젝트가 됐다.

    OpenClaw은 단순한 챗봇이 아니다. 로컬에서 실행되고, 대화 간 컨텍스트를 기억하며, 실제로 사용자 머신에서 작업을 수행하는 진짜 개인 AI 에이전트다. 구독료 없이 자신의 API 키만 가져오면 된다.

    MIT 라이선스로 공개된 이 프레임워크는 현재 커뮤니티가 만든 5,700개 이상의 스킬 마켓플레이스와 WhatsApp, Slack, 스마트홈 기기를 포함한 50개 이상의 채널 통합을 갖추고 있다.

    왜 중요한가 (Why it matters)

    전통적인 AI 툴은 수동적 시스템이다. 사용자가 질문하면 AI가 답한다. AI 에이전트는 반대다. 사용자가 목표를 설정하면 AI가 자율적으로 계획을 세우고, 툴을 호출하고, 작업을 실행한 뒤 결과를 돌려준다. OpenClaw은 이 패러다임을 오픈소스로, 누구나 자기 서버에서 돌릴 수 있는 형태로 구현했다는 점에서 의미가 크다.

    OpenClaw의 아키텍처는 5개 컴포넌트로 구성된다. 메시지를 받아 라우팅하는 Gateway, LLM 호출을 조율하는 Brain, 컨텍스트를 로컬 Markdown 파일에 저장하는 Memory, 기능을 확장하는 Skills, 그리고 예약 작업을 처리하는 Heartbeat다. Brain은 ReAct(Reasoning + Acting) 루프로 동작해 목표 달성까지 추론과 행동을 반복한다.

    보안 측면의 리스크도 명확하다. 이메일, 캘린더, 메시징 플랫폼에 접근 가능한 자율 에이전트를 실행한다는 것은 기존 소프트웨어 보안 모델이 설계하지 않은 새로운 공격 표면을 만든다는 뜻이다. ClawJacked 취약점처럼 로컬 WebSocket 서비스를 통해 AI 에이전트를 원격 제어하거나, ClawHub 플러그인 생태계를 악성 스킬 배포 경로로 악용하는 사례도 이미 보고됐다.

    So what — Kevin

    매일 새로운 툴이 나온다. 어제의 혁신이 오늘의 기본값이 되는 속도다. OpenClaw도 그 흐름 중 하나다.

    그런데 이 프로젝트가 유독 눈에 띈 건 기술적 복잡함 때문이 아니었다. crontab 연동, 모바일 알림, 슬랙 메시지 트리거 — 개발자라면 누구나 이거 만들면 편하겠다 생각은 했지만 직접 짜기엔 귀찮았던 것들이다. OpenClaw은 그 귀찮음을 오픈소스로 해결해버렸다.

    진짜 의미는 여기에 있다고 본다. AI 에이전트의 킬러 피처는 AGI 수준의 추론이 아니라, 내 루틴에 조용히 붙어서 돌아가는 자동화다. 혁신처럼 보이지만 사실은 오래된 수요다.

    그래서 후속 유사 프로젝트들이 계속 나오는 것도 자연스럽다. 이미 OpenClaw이 정답지를 공개했고, 나머지는 각자의 스택과 환경에 맞게 변형하는 단계다. 어떤 걸 골라야 할지 고민하기보다, 지금 내 워크플로에서 가장 반복적인 작업 하나에 붙여보는 게 시작이다.

    관련 맥락

    OpenClaw의 바이럴 확산에는 Moltbook이 결정적인 역할을 했다. 기업가 맷 슐리히트가 OpenClaw 같은 AI 에이전트만 사용할 수 있는 소셜 네트워크 서비스 Moltbook을 출시하면서 전 세계적으로 주목을 받았다. 중국 개발자들은 DeepSeek 모델과 자국 슈퍼앱에 연동되도록 OpenClaw를 수정해 배포했다.

    DigitalOcean은 원클릭 OpenClaw 배포 이미지를 공식 출시했고, 커뮤니티에서는 Raspberry Pi부터 기업용 Kubernetes 클러스터까지 다양한 환경에 배포하는 사례가 쏟아지고 있다.

    앞으로 어떻게 될까

    AI 에이전트 보안은 2026년 독립적인 제품 카테고리로 부상할 가능성이 높다. 에이전트 행동을 실시간으로 감시하는 AI 방화벽, 격리 실행 환경, 세밀한 권한 프레임워크, 완전한 감사 추적 기능이 필요하다는 공감대가 형성되고 있다.

    OpenClaw의 부상은 단순한 오픈소스 성공 스토리가 아니다. 이는 AI 에이전트 시대의 도래를 알리는 신호다. 앞으로 AI 에이전트와 멀티에이전트 협업이 AI 산업의 다음 성장 동력이 될 것이라는 전망이 나온다.

    출처

    • Wikipedia — OpenClaw (2026.02)
    • DigitalOcean — What is OpenClaw? Your Open-Source AI Assistant for 2026 (2026)
    • SimilarLabs — OpenClaw: Why 2026’s Hottest AI Agent Project Got 60K GitHub Stars in 72 Hours (2026.03)
    • Medium (Steven Cen) — OpenClaw Explained: How the Hottest Agent Framework Works (2026.03)
    • Gate.com — What Is OpenClaw? In-Depth Analysis of the Open-Source AI Agent Framework (2026.03)
  • Nvidia GTC 2026 총정리: AI 에이전트 시대 본격 선언

    헤드라인 한 줄 요약

    젠슨 황이 산호세 무대에서 AI 컴퓨팅 수요 전망을 2배로 올렸다. 숫자는 1조 달러.

    이미지 출처: © NVIDIA Corporation

    무슨 일인가 (What)

    GTC 2026 키노트는 3월 16일 산호세 SAP 센터에서 열렸다. 주요 발표는 차세대 AI 컴퓨팅 플랫폼, 오픈소스 기반 에이전트 AI 프레임워크, 자율주행·로보틱스 분야의 물리적 AI 진전으로 요약된다.

    Vera Rubin 플랫폼

    Vera Rubin은 7종의 신규 칩과 5가지 랙 스케일 설계로 구성된 완전 통합 시스템이다. Vera CPU는 에이전트 워크로드 전용으로 설계됐으며 기존 대비 효율 2배, 단일 스레드 성능 50% 향상을 내세운다.

    OpenClaw & NemoClaw

    OpenClaw는 에이전트 컴퓨터를 위한 오픈소스 플랫폼으로, 역사상 가장 빠르게 성장한 오픈소스 프로젝트 중 하나다. 로컬에서 실행되며 대화 간 맥락을 기억하고, 사용자 머신에서 실제 작업을 자율적으로 수행한다.

    NemoClaw는 OpenClaw 위에 구축된 엔터프라이즈급 소프트웨어 스택이다. OpenShell 런타임 샌드박싱, 프라이버시 라우터, 네트워크 가드레일을 단일 명령어로 설치할 수 있다.

    Groq 3 LPU

    Nvidia가 지난해 말 인수한 Groq의 첫 번째 칩이다. 초저지연 추론에 특화됐으며 3분기 출하 예정이다.


    왜 중요한가 (Why it matters)

    젠슨 황은 OpenClaw가 Linux, Kubernetes, HTML만큼 중요한 툴이 될 것이라고 밝혔다. 이번 GTC의 핵심 메시지는 두 가지다. 첫째, AI 워크로드의 무게 중심이 학습(Training)에서 추론(Inference)으로 이동했다. 둘째, 에이전트 AI는 더 이상 실험 단계가 아니다. OpenClaw 기반의 에이전트는 코드 작성, 웹 브라우징, 파일 조작, API 호출을 인간 개입 없이 연속으로 수행한다.


    So what — Kevin 코멘트

    나는 이번 발표를 보면서 가장 눈에 띈 건 OpenClaw가 단순한 툴이 아니라 OS라는 포지셔닝이었다. 실제로 젠슨 황은 “Mac과 Windows가 PC의 운영체제라면, OpenClaw는 개인 AI의 운영체제”라고 직접 선언했다.

    이 말의 무게를 흘려듣기 쉽다. 하지만 OS 포지셔닝이 의미하는 건 하나다. Nvidia는 OpenClaw를 에이전트 AI의 인프라 레이어로 굳히겠다는 것이다. 그 위에 NemoClaw라는 엔터프라이즈 보안 스택을 얹고, 아래에는 자사 하드웨어(DGX Spark, Vera Rubin)를 깐다. 에이전트는 상시 가동되어야 하고, 그 전용 컴퓨팅 수요는 자연스럽게 Nvidia 하드웨어로 연결된다. 수직 통합의 교과서다.

    개발자 입장에서 실질적인 의미는 이렇다. 지금 OpenClaw는 강력하지만 보안이 취약하다. 쉘 접근 권한을 AI에게 주는 건 사실상 God Mode를 허용하는 것이다. NemoClaw가 이 문제를 해결하는 레퍼런스 아키텍처를 제공했다는 점에서, 기업 도입의 실질적인 출발선이 이번 GTC로 당겨졌다고 본다.


    관련 맥락

    OpenClaw는 오스트리아 개발자 피터 슈타인베르거가 2025년 11월 Clawdbot이라는 이름으로 처음 공개했다. 이후 Moltbot으로 이름을 바꿨다가 2026년 1월 OpenClaw로 최종 정착했다. GitHub에서 145,000개 이상의 별과 20,000개 이상의 포크를 기록했다.

    슈타인베르거는 이후 OpenAI에 합류했고, Sam Altman은 그를 “매우 뛰어난 아이디어를 가진 천재”라고 평가하며 OpenClaw를 오픈소스 재단 프로젝트로 유지하겠다고 밝혔다.


    앞으로 어떻게 될까

    Nvidia는 차세대 Feynman 플랫폼도 예고했다. 현재 최소 공정인 3nm를 훨씬 뛰어넘는 1.6nm 기반으로 설계된다. 에이전트 AI의 연산 한계가 또 한 번 뒤로 밀릴 것이다.

    단기적으로는 OpenClaw 생태계가 빠르게 확산될 가능성이 높다. 젠슨 황은 모든 기업이 이제 OpenClaw 전략을 가져야 한다고 말했다. 국내 클라우드·SaaS 기업이 에이전트 AI 도입 로드맵을 세우고 있다면, NemoClaw 기반으로 출발점을 잡는 것이 현실적인 선택이다.


    출처

    • NVIDIA Newsroom — NemoClaw 공식 발표
    • VentureBeat — NemoClaw & OpenShell 심층 분석
    • Next Platform — GTC 2026 젠슨 황 키노트 리뷰
    • KDnuggets — OpenClaw 기술 해설