[태그:] AI에이전트

  • Claude Managed Agents 공개 베타 완전 정리 — Anthropic이 에이전트 인프라를 판다

    Anthropic이 4월 8일(현지시간) Claude Managed Agents 공개 베타를 공개했다. 한 줄로 요약하면 “에이전트의 뇌는 당신이 짜고, 손발(infra)은 Anthropic이 맡는다”는 제품이다. 샌드박스, 장기 세션, 권한, 툴 실행, 트레이싱까지 한 통으로 묶어서 판다. 직접 harness 만들어 본 팀이면 “아, 결국 이렇게 가는구나” 싶은 발표다.

    뭘 대신 해주는가

    기존에는 에이전트 하나 돌리려면 Docker로 sandbox 격리하고, Redis로 상태 저장하고, credential vault 붙이고, 끊겼을 때 재시작까지 직접 구현해야 했다. Managed Agents는 이걸 그대로 대체한다.

    • 보안 샌드박스에서 코드 실행·파일 읽기·웹 브라우징
    • 몇 시간 이어지는 long-running 세션, 연결이 끊겨도 진행 상태 복원
    • 자격증명·시크릿 저장, 툴마다 권한 스코프 지정
    • end-to-end tracing으로 “어느 단계에서 엉켰는지” 확인 가능

    에이전트 정의는 자연어 프롬프트 혹은 YAML 파일 두 가지 방식이다. 콘솔, Claude Code, 신규 CLI에서 모두 띄울 수 있다.

    가격 — 싸 보이지만 계산이 필요하다

    공식 가격은 세션 러닝 시간당 $0.08. 여기에 Claude 모델 토큰 비용이 별도로 붙는다. 중요한 건 과금 기준이 “wall-clock”이 아니라 실제 실행 시간이라는 점이다. 사용자 응답 기다리거나 tool confirmation 대기 중인 시간은 빠진다.

    24시간 내내 돌리는 에이전트면 런타임만 월 약 $58. 문제는 토큰이다. Opus 4.6을 장시간 세션에 쓰면 토큰 비용이 런타임의 10~20배를 가볍게 넘긴다. “$0.08이라니 싸네”에 속으면 안 되고, 실제로는 Sonnet을 언제 쓰고 Opus를 언제 꺼낼지가 비용을 좌우한다.

    초기 고객, 그리고 Anthropic이 노리는 시장

    Notion, 라쿠텐, Asana가 이미 제품에 통합했다고 밝혔다. 셋 다 “우리 앱 안에서 백그라운드로 일하는 AI”를 필요로 하는 SaaS다. Anthropic의 그림은 분명하다 — 에이전트 런타임을 AWS Lambda 같은 공용 인프라로 만들어, OpenAI Codex가 IDE 안쪽을 잡는 사이 뒤쪽 서버 레이어를 선점하는 것.

    발표 직후인 4월 10~11일, SaaS 종목이 흔들렸다. 24/7 Wall St.는 “Anthropic이 소프트웨어 산업 전체를 다시 투자 불가로 만들 수 있다”고 썼다. 과장이지만, 투자자들이 왜 긴장했는지는 이해된다. 기존 SaaS의 UI-구독 모델 대신 “내 워크플로우 대신 돌아가는 에이전트 + 러닝 타임 과금”이 표준이 되면 그림이 완전히 달라진다.

    So What?! — 한국 개발자·기술리더에게

    세 가지로 정리된다.

    • 직접 harness 만들던 팀 — 프로덕션 가기 전 “세션 유지·권한·샌드박스” 부분은 이제 만들지 말고 사보는 게 맞다. 만들어도 대부분 Anthropic 스펙을 재현하게 된다.
    • SaaS 기획·운영 쪽 — 구독 모델에 “AI 에이전트가 대신 실행하는 시간”을 과금 단위로 붙이는 실험이 곧 퍼진다. Notion이 이미 안 한다고 못 박지도 않았다.
    • 비용 판단 — 베타 가격 $0.08/hour는 미끼다. 실비용은 토큰이 결정하고, 토큰 선택은 모델 라우팅 설계 문제다. “언제 Sonnet, 언제 Opus”에 대한 회사 기준이 없다면 지금 만들 타이밍.

    지금 바로 할 수 있는 것

    1. 베타 요청: platform.claude.com/docs/en/managed-agents/quickstart — 대기 목록 없이 기존 API 키로 바로 시작. 베타 헤더 managed-agents-2026-04-01 필요.
    2. YAML 정의 한 번 써보기: 회사에서 반복되는 작업(예: 매일 아침 로그 이상 탐지, PR 리뷰 요약) 하나를 YAML로 기술해 돌려본다. 자체 harness 대비 얼마나 줄어드는지 체감한다.
    3. 비용 상한 설정: 콘솔에서 세션 타임아웃과 모델 라우팅을 먼저 지정한다. “돌려놓고 까먹어서 월말 청구서 터지는” 사고가 베타 기간에 이미 몇 건 보고됐다.

    관련 글

    출처

    대표이미지 출처: Anthropic

  • Perplexity Billion Dollar Build M 챌린지 완전 정리 — 8주 안에 유니콘 만드는 게임의 룰과 캐치

    Perplexity Billion Dollar Build M 챌린지 완전 정리 — 8주 안에 유니콘 만드는 게임의 룰과 캐치

    Perplexity가 4월 9일 던진 한 줄. “8주 안에 유니콘으로 갈 수 있는 회사를 만들어 봐라. 우리가 최대 200만 달러를 줄게.”

    이름은 Billion Dollar Build. 자기네 에이전트 제품인 Perplexity Computer를 써서 회사를 만드는 8주짜리 컴페티션이다. 한국 1인 빌더 입장에서 정확히 어떤 의미인지, 그리고 못 본 척 넘어가면 안 되는 이유를 정리한다.

    대회 한 줄 정리

    항목 내용
    기간 8주
    상금 최대 $1M 시드(최대 3팀에 분배) + $1M Computer 크레딧
    자격 미국 거주자 18세+ / 개인 또는 2인 팀
    전제 조건 2026년 4월 13일 PT 자정까지 Perplexity Max 또는 Pro 구독
    등록 시작 4월 14일
    제출 마감 6월 2일 (데모 영상 + 트랙션 지표 포함)
    피칭 → 발표 6월 9일 라이브 피칭 → 6월 10일 우승팀 발표

    표면만 보면 깔끔한 액셀러레이터다. 그런데 약관을 읽으면 두 줄이 눈에 박힌다.

    읽어야 하는 두 가지 캐치

    캐치 1. 투자는 “약속”이 아니다. Perplexity Fund는 어떤 참가자에게도 투자할 의무가 없다고 약관에 명시돼 있다. 즉 우승해도 시드 $1M이 자동으로 들어오는 게 아니다. 별도 듀딜리전스 통과가 조건이다.

    캐치 2. 라이선스 범위가 매우 넓다. 참가만 해도 Perplexity는 회사명·제품·코드·컨셉·워크플로우·창업자 본인 모습·데모 영상 일체를 마케팅·IR·기타 상업적 목적으로 무료·전세계 영구 사용할 권리를 가져간다. “참가비 0원”의 진짜 가격이다.

    왜 200만 달러를 거는가

    Perplexity는 지금 검색 트래픽으론 구글을 못 잡는다. 그 대신 “AI 에이전트가 대신 일해 주는 다음 시대의 OS는 우리”라는 내러티브를 사고 싶다. 그래서 Computer라는 제품을 사람들이 실제로 쓰면서 회사를 만드는 그림이 필요하다.

    유니콘 후보 3개를 8주 안에 양산해 낸다면, 그건 Perplexity의 다음 시리즈 라운드 피치덱 첫 페이지다. 200만 달러는 마케팅 예산 치고 싸다.

    한국에서 못 들어가는데, 왜 봐야 하나

    한국 거주 빌더는 직접 참가 못 한다. 그래도 챙겨야 할 이유 셋.

    ① Perplexity Computer의 진짜 한계가 8주 안에 공개된다. 200만 달러를 걸고 외부인이 두들기는 만큼, 6월 라이브 피칭 회차는 이 제품의 실전 능력을 가장 정직하게 볼 수 있는 무대다. 한국에서 같은 영역(Manus·Genspark·OpenClaw 등)을 검토 중이라면 6월 10일 발표 직후가 비교의 적기다.

    ② “8주 유니콘”이라는 작업 단위가 새 표준이 된다. 6개월 MVP가 아니다. 8주에 데모 영상 + 트랙션 지표까지 만들어 와야 한다. AI 시대의 빌더 사이클이 분기 단위에서 8주 단위로 짧아지고 있다는 신호다.

    ③ “광범위 라이선스 약관”이 곧 한국 대회·해커톤에도 온다. 한국에서도 카카오·네이버·통신사 주최 AI 해커톤이 줄줄이 예정돼 있다. 약관 읽는 습관, 지금부터 들이는 게 좋다.

    지금 바로 할 수 있는 것

    1. 본인 사이드 프로젝트를 “8주 유니콘” 프레임으로 다시 적어 본다. 무슨 시장, 무슨 트랙션 지표, 8주 안에 어디까지. 못 적어 내려가면 그건 좋은 신호다 — 대상이 너무 넓다는 뜻이다.
    2. Perplexity Pro/Max를 안 써 봤다면 이번 주 한 달 무료 또는 학생 플랜으로 Computer 기능을 직접 만져 본다. 6월 라이브 피칭 영상을 그냥 보는 사람과, 만져 본 채로 보는 사람은 흡수율이 다르다.
    3. 참가하는 미국 친구가 있다면, 한국 시장 진출 자문 역할로 묻어 들어가는 것도 옵션이다. 2인 팀 허용이라 가능성 있다. 나도 좀… 🙂 !!!

    관련 글

    출처

  • AI가 쓴 논문이 동료 심사 통과 — Sakana AI Scientist v2의 충격적 성과

    심사위원 세 명이 한 논문을 읽고 점수를 매겼다. 6점, 7점, 6점. 평균 6.33점으로 동료 심사를 통과했다. 그런데 저자 칸에 사람 이름이 없었다. 가설을 세운 것도, 실험을 설계한 것도, 데이터를 분석하고 글을 쓴 것도 모두 AI였다. 2025년 4월, Sakana AI가 공개한 AI Scientist v2의 논문이 머신러닝 최상위 학술 행사 ICLR의 워크숍 동료 심사를 통과하면서 연구계에 조용한 충격이 퍼졌다.

    이 사건이 단순한 기술 시연인지, 대학원생과 연구자의 일하는 방식이 바뀌는 신호탄인지 — 두 질문 모두 진지하게 다뤄야 할 시점이다.

    심사위원은 몰랐다

    Sakana AI는 세 편의 완전 자동 생성 논문을 ICLR 2025 워크숍에 제출했다. 심사는 이중 맹검으로 진행됐고, 심사위원들은 “AI가 쓴 논문이 포함됐을 수 있다”는 사실만 안내받았을 뿐 어느 논문이 AI 작성인지는 알지 못했다. 결과는 세 편 중 한 편 통과. 통과한 논문 제목은 「Compositional Regularization: Unexpected Obstacles in Enhancing Neural Network Generalization」이다.

    중요한 디테일 한 가지. Sakana AI는 ICLR 조직위와 브리티시컬럼비아대 IRB(연구윤리위원회) 승인을 받고 실험을 진행했다. 심사 통과 이후에는 논문을 자진 철회했는데, 이유는 명확했다. “AI 생성 논문을 동일 학술지에 게재할지에 대해 커뮤니티가 아직 합의에 이르지 못했다.” 학술 무결성에 대한 자기 절제가 포함된 실험이었다.

    v1과 v2의 결정적 차이 — 코드 템플릿이 사라졌다

    AI Scientist v2가 이전 버전과 결정적으로 다른 점은 한 가지다. 인간이 작성한 코드 템플릿에 의존하지 않는다. v1은 사전에 작성된 실험 코드 틀 위에서만 작동했다. v2는 백지에서 시작해 스스로 실험을 구성한다.

    핵심 기술은 프로그레시브 에이전틱 트리 탐색(Progressive Agentic Tree Search)이다. 연구 방향을 트리 구조로 탐색하면서 유망한 가지는 확장하고 성과가 낮은 경로는 자동으로 가지치기한다. 실험 관리 전담 에이전트가 이 과정을 조율하고, VLM(시각 언어 모델) 피드백 루프가 그래프와 수식을 포함한 논문의 시각적 완성도를 반복 개선한다. 전체 파이프라인이 가설 수립 → 실험 설계 → 코드 작성 → 데이터 분석 → 시각화 → 논문 작성 → 자체 검토까지 완전 자동화돼 있다.

    한계와 맥락 — 과장 광고인가, 진짜 이정표인가

    이 결과를 균형 있게 읽으려면 몇 가지 단서를 같이 봐야 한다. TechCrunch 등 주요 매체는 통과한 워크숍 트랙의 수락률이 약 30~60%로, ICLR 메인 트랙(수락률 약 20%)보다 관문이 낮다는 점을 지적했다. 세 편 중 한 편만 통과했고, Sakana AI 자체 검토에서도 메인 트랙 기준을 충족하는 논문은 없었다.

    기술적 한계도 분명하다. 실험의 42%가 코딩 오류로 실패했고, 인용 오류도 발견됐다. 기존에 알려진 개념을 새로운 발견으로 오분류하는 사례도 있었다. 학술 무결성 측면의 우려도 가볍지 않다. AI 생성 논문이 급격히 늘면 할루시네이션 인용을 포함한 논문이 학술 데이터베이스를 오염시킬 위험이 있고, 심사위원의 부담도 늘어난다. 이건 단순한 기술 진보가 아니라 학술 인프라 전체의 구조 변화를 요구하는 사건이다.

    그러나 이 모든 한계에도 불구하고 부정할 수 없는 한 가지 사실이 남는다. AI가 인간 심사위원이 모르는 상태에서 동료 심사를 통과했다. 이전에는 없던 일이다.

    한국 연구자·대학원생에게 의미

    이 사건을 한국 학술 현장 관점에서 읽으면 세 층위로 나뉜다. 첫째, 연구 보조 도구로서의 현실적 활용. AI Scientist v2의 파이프라인은 GitHub에 오픈소스로 올라와 있다. 지금 당장 논문을 통째로 AI에 맡기는 건 무리지만, 가설 탐색·실험 설계 초안·문헌 정리 단계에서 연구 속도를 높이는 도구로 활용하는 건 충분히 현실적이다. 특히 반복 실험이 많은 딥러닝·ML 연구실에서 즉각적인 생산성 향상이 가능하다.

    둘째, 논문 심사와 학술 투명성 기준 변화. 국내 주요 학회와 저널도 조만간 AI 생성 논문 표기 의무화, AI 심사 보조 도입 같은 정책 변화를 검토해야 할 시점이다. 본인이 투고하는 저널의 AI 활용 정책을 지금부터 파악해 두는 게 안전하다. 셋째, 대학원생 역할의 재정의. AI가 실험 설계와 데이터 분석을 대신할 수 있다면 연구자의 핵심 가치는 “무엇을 왜 연구할 것인가”라는 질문 설정 능력과 결과를 비판적으로 검증하는 능력으로 옮겨 간다. AI 도구를 모르는 게 리스크가 되는 시대로 들어서고 있다.

    지금 할 일

    ML 연구자라면 github.com/SakanaAI/AI-Scientist-v2 레포를 한 번 클론해 보는 게 가장 빠른 시작이다. 에이전틱 트리 탐색이 실제로 어떻게 작동하는지 코드 단위로 볼 수 있다. 더 가벼운 진입은 arxiv.org/abs/2504.08066에서 원문을 30분 정독하는 것이다. 마지막으로 본인이 준비 중인 논문이 있다면 투고 예정 저널의 Author Guidelines에서 AI 관련 항목을 지금 확인해 두자. Nature, ACM, IEEE 등 주요 출판사는 이미 AI 활용 표기 의무 정책을 시행 중이다.

    관련 글

    출처

  • MCP 9,700만 설치 돌파 — AI 에이전트 인프라 표준은 이미 결정됐다

    표준 전쟁의 승자가 결정되는 순간은 보통 조용하다. AI 인프라 영역에서 그 일이 막 일어났다. 2024년 11월 Anthropic이 공개한 Model Context Protocol(MCP)이 16개월 만에 SDK 누적 다운로드 9,700만 건을 돌파했고, OpenAI·Google·Microsoft·AWS가 모두 채택했으며, 운영 주체는 Linux Foundation 산하 비영리 재단으로 넘어갔다. 종합하면 한 줄이다. AI 에이전트 인프라의 표준은 이미 정해졌다.

    9,700만이라는 숫자가 흔치 않은 이유

    16개월. 일반적인 개발자 인프라 표준이 5년에 걸쳐 도달하는 규모를 16개월에 이뤘다. 비교를 위해 다른 표준의 채택 곡선을 떠올려 보면 이 차이가 더 분명해진다. React가 npm 누적 1억 건에 도달하는 데 3년이 걸렸고, Kubernetes가 사실상 표준이 되기까지는 약 4년이 걸렸다. MCP는 그 곡선을 압축했다.

    현재 프로덕션 환경에서 운영 중인 MCP 서버는 1만 개 이상. ChatGPT, Cursor, Gemini, Microsoft Copilot, Visual Studio Code 같은 주요 AI 플랫폼이 모두 MCP를 기본 지원한다. 더 무거운 사실은 그 뒤에 있는 기업들의 면면이다. 평소에는 서로 직접 경쟁하는 OpenAI·Google·Microsoft·AWS·Cloudflare·Bloomberg가 단 하나의 프로토콜에 동시에 손을 들었다. 기술적 우수성을 넘어서 생태계 전략 차원의 합의가 이뤄졌다는 신호다.

    Linux Foundation으로의 이관 — 중립 표준의 완성

    2025년 12월 9일, Anthropic은 MCP를 Linux Foundation 산하의 새로운 비영리 단체에 기증했다. 이름은 Agentic AI Foundation(AAIF). 이 재단은 Anthropic·Block·OpenAI가 공동 창립했고, Google·Microsoft·AWS·Cloudflare·Bloomberg가 플래티넘 멤버로 참여한다. 한 회사가 독점적으로 소유하는 기술이 아니라 업계 공동의 표준 거버넌스 아래 관리되는 인프라가 됐다는 뜻이다.

    AAIF가 출범하면서 함께 발표한 메시지가 흥미롭다. “AI 에이전트가 투명하고 협력적인 방식으로, 공공 이익에 부합하도록 진화하는 것을 보장한다.” 자기 회사가 만든 프로토콜을 자기가 통제하기를 포기한 결정의 배경이다. AAIF는 MCP 외에도 Block의 goose와 OpenAI의 AGENTS.md를 초기 프로젝트로 포함하며 에이전트 생태계 표준화를 본격적으로 추진하고 있다.

    MCP가 실제로 하는 일 — 한 줄 비유

    MCP를 가장 정확히 설명하는 비유가 있다. AI 에이전트용 USB-C. USB-C가 등장하기 전까지는 노트북마다 충전 단자가 달랐다. 어댑터 가방을 챙기는 게 일상이었다. MCP 이전에도 비슷했다. AI 모델마다, 도구마다, 데이터 소스마다 별도의 연동 코드를 짜야 했다. 같은 Slack을 Claude에서 쓰려면 Claude용 어댑터, ChatGPT에서 쓰려면 ChatGPT용 어댑터가 따로 필요했다.

    MCP는 이걸 단일 인터페이스로 정리한다. AI 모델이 외부 데이터베이스, CRM, 개발 도구, 클라우드 서비스에 표준화된 방식으로 접근하고 도구를 호출할 수 있게 만든다. 한 번 잘 만든 MCP 서버는 어떤 AI에서도 그대로 동작한다. 현재 공개된 MCP 서버만 5,800개가 넘고, 사내 운영을 포함한 전체 프로덕션 서버는 1만 개를 넘었다.

    한국 개발자·기업에게 의미

    표준이 결정됐다는 추상적인 사실은 현장에서 네 가지 구체적 변화로 떨어진다.

    첫째, 새로운 AI 에이전트를 도입할 때 “MCP를 지원하는가”가 필수 체크 항목이 됐다. MCP를 지원하지 않는 솔루션은 점점 고립된 섬이 된다. 기업 도입 평가 표에 한 줄로 추가해 둘 만하다. 둘째, 사내 시스템 데이터 연동 비용이 결정적으로 낮아진다. ERP·CRM·DB 위에 MCP 서버를 한 번 올려 두면 이후 어떤 MCP 호환 AI도 별도 작업 없이 바로 붙는다. 사내 표준 인프라 후보 1순위다. 셋째, 한국어·한국 서비스 MCP 서버라는 빈자리가 있다. 현재 글로벌 MCP 서버의 대부분은 영어권 서비스에 집중돼 있다. 네이버 클라우드, 카카오, 쿠팡, 국내 금융 시스템 연동 MCP 서버는 아직 개척지다. 넷째, AI 개발자 채용 공고에 MCP 이해가 기본 스펙으로 등장하기 시작했다. 지금 익혀 두면 향후 1~2년 동안 시장에서 우위를 점할 수 있다.

    지금 할 일

    가장 가벼운 시작은 modelcontextprotocol.io에서 공식 사양과 튜토리얼을 한 번 훑는 것이다. Python·TypeScript SDK가 모두 준비돼 있다. 개발 경험이 적다면 Claude Desktop 설정에서 로컬 MCP 서버 하나를 연결해 보는 게 가장 직관적이다. 파일 시스템이나 GitHub 같은 오픈소스 MCP 서버를 5분 안에 붙여 보면 AI가 외부 도구를 어떻게 호출하는지 한눈에 들어온다. 사내 도입을 검토 중이라면 벤더 평가 항목에 “MCP 호환 여부” 한 줄을 지금 추가해 두자. 2~3년 안에 결정의 무게가 분명해진다.

    관련 글

    출처

  • Sycamore 910억 시드 투자 — AI 에이전트 거버넌스가 뜨는 이유

    Sycamore 910억 시드 투자 — AI 에이전트 거버넌스가 뜨는 이유

    시드 라운드 6,500만 달러. 일반 시드의 13~32배 규모다. 보통 이런 숫자는 헤드라인에서 끝나지만, 이 케이스는 카테고리 전체의 신호로 읽어야 한다. 전 Atlassian CTO Sri Viswanath가 창업한 Sycamore가 Coatue·Lightspeed 리드로 6,500만 달러(약 910억 원)를 유치하며 들고 나온 한 줄. 기업용 AI 에이전트 운영체제.

    왜 거버넌스가 한 카테고리로 떠올랐는지를 풀어 본다.

    Sycamore가 정확히 무엇을 만드나

    Sycamore의 핵심 제품은 기업용 AI 에이전트 운영체제(Agent OS)다. 한 마디로 정리하면 — 기업이 여러 AI 에이전트를 발견·구축·배포·모니터링할 수 있는 통합 플랫폼이다.

    이 설명이 추상적으로 들린다면 현장 풍경 하나를 떠올리면 된다. 회사 안에서 마케팅팀이 AI 에이전트를 하나 도입했고, 영업팀이 다른 에이전트를 쓰기 시작했고, 개발팀이 자체 에이전트를 만들고 있다. 한두 달이 지나면 누구도 전체 그림을 모르는 상태가 된다. 어느 에이전트가 어떤 데이터에 접근하는지, 누가 승인했는지, 한 달에 비용이 얼마나 발생했는지 — 이 세 가지 질문에 답할 수 있는 사람이 회사에 한 명도 없는 상황이 만들어진다. Sycamore가 정조준하는 게 이 풍경이다.

    왜 이 시점에 6,500만 달러가 한 번에 들어왔나

    투자 라인업을 보면 시장이 이 카테고리에 거는 기대가 보인다. 리드는 Coatue와 Lightspeed Venture Partners. 참여로 Dell Technologies Capital, 8VC, Abstract Ventures, Fellows Fund, E14 Fund. 엔젤 라운드에는 더 흥미로운 이름들이 들어와 있다. Databricks CEO Ali Ghodsi, 전 OpenAI 수석 과학자 Bob McGrew, Intel CEO Lip Bu-Tan, Palo Alto Networks 사장 BJ Jenkins, AI 연구자 François Chollet.

    이 사람들이 같은 시드 라운드에 동시에 들어왔다는 건 단순한 신뢰 표시 이상의 의미를 갖는다. 데이터·인프라·반도체·보안·연구 — 각자 자기 영역에서 같은 신호를 봤다는 뜻이다. AI 에이전트 거버넌스는 곧 필수 인프라가 된다는 합의.

    왜 지금 거버넌스가 한 카테고리가 됐나

    2026년 들어 기업의 AI 에이전트 도입이 빠르게 늘면서 세 가지 문제가 동시에 폭발했다.

    첫째는 보안이다. 에이전트가 민감한 사내 데이터에 접근할 때 누가 그 권한을 통제하고 추적하는가. 사람이 데이터에 접근할 때는 IAM과 권한 시스템이 있지만, 에이전트의 경우 표준이 없는 상태에서 운영되는 경우가 많다. 둘째는 감사(Audit)다. 에이전트의 행동을 추적하고 기록할 수 있는가. 컴플라이언스가 중요한 산업에서는 이게 도입의 전제 조건이다. 셋째는 비용 관리다. 에이전트별 API 호출 비용을 추적하고 통제할 수 있는가. 한 달 만에 예산이 10배 폭증한 사례가 사내 사고 보고서에 등장하기 시작했다.

    Sycamore 창업자 Sri Viswanath는 이 문제를 한 줄로 정리한다. “AI 에이전트를 도입하는 것과 안전하게 운영하는 것은 완전히 다른 문제다.” Atlassian에서 대규모 SaaS 플랫폼을 운영한 경험이 직접 적용되는 영역이다. SaaS 시대에 IT 부서가 했던 역할 — 도구의 발견·평가·통제·비용 추적 — 을 에이전트 시대에는 새 인프라가 해야 한다는 인식이다.

    한국 기업에 의미

    한국에서도 AI 에이전트 도입은 빠르게 가속화되고 있다. 삼성SDS, LG CNS 같은 SI 기업이 에이전트 솔루션을 출시하고 있고, 스타트업들도 자체 에이전트를 만들고 있다. 그런데 도입 속도와 거버넌스 인프라의 격차가 점점 벌어지고 있다는 게 현장의 분위기다.

    거버넌스 없는 에이전트 도입의 위험은 추상적이지 않다. 데이터 유출 사고 한 건, 비용 폭주 한 건, 규정 위반 한 건이면 도입 프로젝트 전체의 신뢰가 무너진다. 그래서 Sycamore 같은 플랫폼 — 또는 그에 상응하는 사내 거버넌스 체계 — 는 도입 후에 만드는 게 아니라 도입과 동시에 시작해야 한다. 지금 한국 기업이 가장 자주 빠뜨리는 단계가 바로 이 부분이다.

    지금 할 일

    가장 가벼운 첫 단계는 사내 AI 에이전트 인벤토리를 만드는 것이다. 현재 회사에서 사용 중인 AI 에이전트와 봇이 몇 개인지, 각각이 어떤 데이터에 접근하는지를 한 페이지로 정리해 두면 거버넌스의 출발점이 잡힌다. 그다음 단계는 접근 권한 감사다. 각 에이전트의 API 키와 데이터베이스 접근 권한을 검토해 최소 권한 원칙이 적용되고 있는지 확인한다. 마지막으로 sycamore.so에 들어가 어떤 기능을 제공하는지 한 번 훑어보고 얼리 액세스를 신청해 두면, 본격적인 거버넌스 도구가 필요해질 시점에 빠르게 움직일 수 있다.

    관련 글

    출처

  • Cursor 3 출시, AI 에이전트 시대의 IDE가 왔다 – 핵심 기능·요금제·경쟁 구도 총정리

    Cursor 3 출시, AI 에이전트 시대의 IDE가 왔다 – 핵심 기능·요금제·경쟁 구도 총정리

    4월 2일, Cursor가 Cursor 3를 정식 출시했다. 단순한 버전 업데이트가 아니라 IDE의 기본 가정 자체를 다시 잡은 변화다. VS Code 기반 확장의 외피를 벗고 에이전트 중심으로 인터페이스를 통째로 다시 설계했다. 한 줄로 요약하면 이렇다. 개발자가 코드를 한 줄씩 수정하던 시대에서, AI 에이전트가 작업하고 개발자는 검토·지시하는 시대로의 전환을 Cursor가 정면에서 선언한 것이다.

    이 글은 출시 시점의 핵심 변화 정리다. 1주일 직접 사용기는 다른 글에서 다룬다.

    가장 큰 변화 — 에이전트 중심 워크스페이스

    Cursor 3의 핵심은 에이전트 중심 워크스페이스다. 이전 버전에서 자동완성(Tab)과 채팅(Composer)이 보조 역할이었다면, 이제는 여러 AI 에이전트가 동시에 작업하는 것을 한 화면에서 관리한다. 구체적인 변화는 세 갈래다.

    • 로컬 + 클라우드 에이전트 통합: 로컬에서 시작한 에이전트 작업을 클라우드로 넘겨 노트북을 덮어도 계속 실행. 반대로 클라우드 결과를 로컬로 가져와 즉시 테스트 가능
    • 멀티 레포 동시 작업: 여러 저장소에 걸친 에이전트를 하나의 사이드바에서 관리
    • 다양한 진입점: 데스크톱뿐 아니라 웹·모바일·Slack·GitHub·Linear에서도 에이전트를 실행하고 Cursor에서 통합 모니터링

    이 세 가지가 합쳐지면서 만들어지는 효과는 단순하다. 기존에는 터미널·GitHub·IDE를 왔다 갔다 하며 에이전트 상태를 확인해야 했다. Cursor 3는 그걸 한 화면에 모은다. 개발자가 코딩이 아니라 지휘에 집중할 수 있게 만든 게 이번 버전의 가장 큰 변화다.

    Design Mode와 자체 모델 Composer 2

    같이 들어온 두 가지 추가 기능 중 Design Mode가 특히 의미 있다. 내장 브라우저에서 UI 요소를 직접 클릭으로 선택하고, 자연어로 “이 버튼 색상을 파란색으로 바꿔 줘”라고 지시하면 에이전트가 그 자리에서 코드를 수정한다. 프론트엔드 개발의 피드백 루프가 한 단계 짧아졌다.

    또 하나는 Cursor의 자체 코딩 모델 Composer 2다. GPT-5.2, Opus 4.6, Gemini 3 Pro 같은 외부 LLM과 함께 선택해 쓸 수 있고, Cursor 측은 “다른 LLM 대비 비용 효율이 높다”고 밝혔다. 작업 특성에 따라 모델을 자유롭게 전환할 수 있고, 여러 모델에 동시에 요청해 응답을 비교하는 기능도 있다. 자체 모델을 보유한다는 것은 외부 모델 가격 변동에 덜 민감해진다는 뜻이기도 하다.

    Claude Code·Codex와의 경쟁 구도

    출시 타이밍이 의미심장하다. Anthropic의 Claude Code가 터미널 기반 에이전트 코딩으로 빠르게 확산되고 있고, OpenAI의 Codex도 에이전트 기능을 강화하는 상황에서 Cursor가 정면 대응에 나섰다.

    Cursor의 차별점은 IDE와 에이전트의 통합이다. Claude Code는 터미널에서 강력하지만 시각적 코드 탐색이 제한적이고, Codex는 모델 성능에 더 집중한다. Cursor 3는 코드 편집기·브라우저·에이전트 관리·버전 관리를 하나의 환경에 녹였다. Nvidia·Google 등에서 30억 달러 이상 투자받은 Anysphere(Cursor 모회사)의 자금력도 경쟁에서 유리하게 작용한다.

    요금제 — Pro $20부터 Ultra $200까지

    Cursor 3의 요금 체계는 크레딧 기반 사용량 모델을 유지한다.

    • Hobby (무료): 제한된 에이전트 요청과 Tab 자동완성
    • Pro ($20/월): 확장된 에이전트 요청, 프론티어 모델 접근, 클라우드 에이전트, MCP·스킬·훅 지원
    • Pro+ ($60/월): OpenAI·Claude·Gemini 모델 사용량 3배
    • Ultra ($200/월): 모델 사용량 20배, 신기능 우선 접근
    • Teams ($40/유저/월): 팀 분석, SSO, 역할 기반 접근 제어

    한국 개발자가 가장 자주 묻는 질문은 “Pro 플랜으로 충분한가”다. Pro $20 크레딧으로 Sonnet 4 기준 약 225회, Gemini 약 550회 에이전트 요청이 가능하다. 하루 8~10회 이상 에이전트를 적극 활용하는 패턴이라면 Pro+ 이상을 고려해야 한다.

    그래서 — 누가 지금 업그레이드해야 하나

    Cursor 1·2를 이미 쓰던 사용자라면 자동 업데이트로 변화를 그대로 받게 된다. 가장 큰 의미는 IDE 작업 흐름이 자동완성 중심에서 에이전트 중심으로 옮겨 간다는 점이다. 이 변화에 적응하는 데 약 1주일 정도가 필요한데, 익숙해지면 컨텍스트 스위칭 비용이 분명히 줄어든다.

    아직 Cursor를 쓰지 않는 개발자라면 무료 Hobby 플랜으로 시작해 Design Mode와 Agents Window의 차이를 직접 체감해 보는 게 가장 빠르다. Claude Code나 Codex와 동시에 비교 사용하면 어느 도구가 본인 워크플로에 맞는지가 한 시간 안에 판가름 난다.

    지금 할 일

    cursor.com에서 최신 빌드로 업데이트하는 게 첫 단계다. 기존 사용자는 자동 업데이트가 적용된다. 가장 빠른 체감 경험은 프론트엔드 프로젝트를 열고 Design Mode로 UI 한 군데를 수정해 보는 것이다. 그다음 단계로 같은 작업을 Composer 2와 외부 모델(예: Opus 4.6) 두 가지로 나눠 실행해 비용 대비 품질을 직접 비교하면 본인 작업에 맞는 모델 조합이 한 번에 잡힌다.

    관련 글

    출처

  • AWS Frontier Agents 정식 출시 · 침투 테스트 6주→1일 · DevOps 장애 복구 77% 단축

    AWS Frontier Agents 정식 출시 · 침투 테스트 6주→1일 · DevOps 장애 복구 77% 단축

    AWS가 DevOps 당직을 대신한다 — Frontier Agents 정식 출시

    2026년 3월 31일, AWS가 Security AgentDevOps Agent를 정식 출시(GA)했습니다. 기존 AI 어시스턴트와 달리, 이 에이전트들은 수 시간에서 수 일간 독립적으로 작동하며, 보안 점검과 장애 대응을 자율적으로 수행합니다. 침투 테스트는 수주에서 수시간으로, 장애 복구 시간(MTTR)은 77% 단축됩니다.

    DevOps Agent — 새벽 3시 장애 호출, 이제 AI가 받는다

    AWS DevOps Agent는 온콜 개발자의 ‘비상 호출기’를 없애기 위해 설계되었습니다.

    • 자동 장애 분석: 알림 수신 즉시 관측 도구, 런북, 코드 저장소, CI/CD 파이프라인을 분석
    • 경험 많은 DevOps 엔지니어 수준의 사고 조사 능력
    • 실제 사례: WGU(Western Governors University)는 서비스 장애 분석 시간을 2시간에서 28분으로 단축(MTTR 77% 개선)

    4월 10일부터 유료 전환되며, 초당 과금 방식으로 에이전트가 실제 작업하는 시간만 과금됩니다. Enterprise Support 고객은 75% 크레딧을 받습니다(AWS).

    Security Agent — 침투 테스트 6주를 1~2일로

    AWS Security Agent는 소프트웨어 개발 전 단계에 보안 감시를 제공합니다.

    • 설계 문서 리뷰: 아키텍처 단계부터 보안 취약점 식별
    • PR(Pull Request) 자동 스캔: 코드 리뷰 시 보안 정책 자동 적용
    • 침투 테스트 자동화: 기존 2~6주 소요 → 1~2일로 압축
    • 가격: 시간당 $50, 초당 과금, 신규 고객은 2개월 무료(월 200시간)

    AWS는 이를 “프론티어 에이전트”라는 새로운 카테고리로 정의하며, 단순 AI 챗봇이 아닌 자율 행동 에이전트임을 강조합니다(Help Net Security).

    기존 AI 어시스턴트와 무엇이 다른가?

    ChatGPT나 Copilot과 비교하면, Frontier Agent의 차별점은 명확합니다.

    • 지속성: 프롬프트 한 번이 아니라, 수 시간~수 일간 독립 작동
    • 다단계 의사결정: 여러 시스템을 오가며 스스로 판단
    • 조직 규모 확장: 애플리케이션 포트폴리오 전체를 동시 처리

    이는 “AI 에이전트”가 마케팅 용어에서 실제 프로덕션 도구로 전환되고 있다는 신호입니다(AWS Blog).

    So What — 한국 DevOps/보안팀에게 의미하는 것

    • 소규모 팀의 무기: 전담 보안팀이 없는 한국 스타트업도 AWS 수준의 침투 테스트를 시간당 $50에 실행할 수 있습니다.
    • 온콜 문화 변화: DevOps Agent가 새벽 장애 1차 대응을 맡으면, 개발자 번아웃을 크게 줄일 수 있습니다.
    • AI 에이전트 도입 기준점: AWS가 정식 출시한 만큼, 기업 내 AI 에이전트 도입 논의에서 레퍼런스로 활용할 수 있습니다.

    지금 바로 할 수 있는 것

    1. 2개월 무료 체험 신청: AWS 콘솔에서 DevOps Agent와 Security Agent를 활성화하세요. 신규 고객은 2개월간 무료입니다.
    2. Security Agent로 침투 테스트 돌려보기: 현재 운영 중인 서비스에 침투 테스트를 실행해 보안 현황을 점검하세요.
    3. DevOps Agent 장애 시나리오 테스트: 스테이징 환경에서 장애 시나리오를 만들고, DevOps Agent의 분석 능력을 직접 확인하세요.

    관련 글


    출처:

  • AI 직원을 고용하다: Paperclip으로 혼자 회사 운영하는 오픈소스 플랫폼

    AI 에이전트 하나를 다루는 건 이제 어렵지 않다. 진짜 문제는 여러 에이전트가 협력해서 일하도록 만드는 것이다. Paperclip은 바로 이 문제를 푼다. Claude, Codex, Cursor 등 다양한 AI 에이전트를 “직원”으로 고용하고, 조직도를 만들어 회사처럼 운영하는 오픈소스 플랫폼이다. 2026년 3월 기준 GitHub 스타 3만 5천 개를 넘기며 AI 에이전트 오케스트레이션 분야에서 가장 주목받는 프로젝트가 됐다.

    Paperclip이란? “AI 에이전트 조직도” 플랫폼

    Paperclip의 철학은 단순하다. “어떤 에이전트든, 어떤 런타임이든, 하나의 조직도로(Any agent, any runtime, one org chart)” 관리한다는 것이다.

    기존에는 AI 에이전트를 쓸 때 각각 따로 프롬프트를 입력하고 결과를 복사해 붙여넣는 방식이었다. Paperclip은 이걸 바꾼다. Claude에게는 콘텐츠 기획을 맡기고, Codex에게는 코드 작성을, Cursor에게는 코드 리뷰를 맡기는 식으로 역할을 분리하고, 각 에이전트가 서로의 결과물을 받아 이어서 작업하게 만든다.

    핵심 구성 요소는 세 가지다. 첫째, 하트비트(Heartbeat) — 에이전트를 정해진 일정에 자동으로 깨워 작업을 실행한다. 둘째, 티켓 시스템 — 모든 대화, 의사결정, 도구 호출이 감사 로그로 남는다. 셋째, 예산 관리 — 에이전트별 월간 비용 한도를 설정해 예상치 못한 과금을 막는다.

    출처: Paperclip 공식 사이트

    실제 어떻게 쓰나 — 혼자 스타트업 운영하기

    설치는 터미널 명령어 한 줄이면 끝난다.

    npx paperclipai onboard --yes

    설치 후 대시보드에서 “회사”를 만들고, 에이전트를 “채용”한다. 각 에이전트에게 역할(Role), 목표(Goal), 예산(Budget)을 설정하면 조직도가 완성된다. 예를 들어 1인 SaaS 운영자라면 이렇게 구성할 수 있다.

    • CEO (나) — 전략 승인 및 이사회 역할
    • Claude 에이전트 — 블로그 콘텐츠 작성, 고객 이메일 답변 초안
    • Codex 에이전트 — 버그 수정 PR 자동 생성
    • Cursor 에이전트 — 코드 리뷰 및 테스트 작성

    에이전트들은 하트비트 스케줄에 따라 자동으로 깨어나 작업을 처리하고, 완료 후 다시 대기 상태로 돌아간다. 예산 초과 시 자동으로 멈추기 때문에 새벽에 에이전트가 혼자 수백만 원짜리 API를 호출하는 사태를 막을 수 있다.

    2026년 3월 출시된 v2026.318.0에서는 플러그인 시스템이 추가돼, Gemini CLI 어댑터를 포함한 서드파티 에이전트 연결이 더 쉬워졌다.

    출처: Paperclip GitHub, MrDelegate Paperclip 리뷰

    장점과 한계 — 도입 전 알아야 할 것

    장점:

    • 완전 오픈소스 (MIT 라이선스) — 소스 코드 공개, 자체 서버에 무료 설치 가능
    • 에이전트 종류 무관 — Claude, Codex, Cursor, 직접 만든 HTTP 웹훅 에이전트도 연결 가능
    • 예산 및 거버넌스 내장 — 에이전트별 비용 추적, 승인 게이트, 롤백 기능
    • 상태 지속성 — 서버 재시작 후에도 에이전트가 같은 컨텍스트로 작업 재개

    한계:

    • 셀프 호스팅 필수 — Node.js + PostgreSQL 서버를 직접 운영해야 함. 관리 부담이 있다.
    • 오류 증폭 위험 — 에이전트끼리 결과물을 주고받을 때 초기 실수가 연쇄적으로 커질 수 있다. Flowtivity가 실제로 대량 발송 에이전트가 3건 대신 23건을 처리한 사례를 보고했다.
    • 클라우드 서비스 없음 — 관리형 SaaS 버전이 없어, 비개발자가 도입하기는 아직 어렵다.

    출처: Flowtivity — Zero-Human Companies 분석

    그래서 한국 개발자·1인 창업자에게 뭐가 달라지나

    Paperclip이 흥미로운 이유는 단순히 “자동화 툴”이 아니라 “AI로 조직을 구성하는 방식”을 제안하기 때문이다.

    지금까지 AI 도구는 내가 매번 프롬프트를 입력해야 했다. Paperclip은 그 반복을 없앤다. 한 번 설정한 조직도가 24시간 돌아가며 루틴 업무를 처리한다. 블로그 발행, 버그 수정 PR, 고객 응대 초안 — 이런 반복적인 작업을 에이전트에게 위임하고, 나는 승인과 전략만 담당할 수 있다.

    GitHub 스타 3만 5천 개, 3월 한 달에만 세 번의 major 릴리즈라는 모멘텀을 보면 이 프로젝트는 일회성이 아니다. 지금 배워두면 AI 에이전트 오케스트레이션 흐름의 최전선에 설 수 있다.

    지금 바로 할 수 있는 것

    1. GitHub 즐겨찾기github.com/paperclipai/paperclip 에서 Star를 눌러 업데이트를 추적한다.
    2. 로컬 설치 테스트 — Node.js 환경이 있다면 npx paperclipai onboard --yes 한 줄로 로컬 데모를 실행해볼 수 있다.
    3. 에이전트 목록 정리 — 지금 내가 반복적으로 하는 AI 작업 3가지를 적고, 어떤 에이전트에게 위임할 수 있을지 생각해본다.

    관련 글


    출처: Paperclip 공식 사이트 · GitHub paperclipai/paperclip · MrDelegate 리뷰 · Flowtivity 분석

    대표이미지 출처: Paperclip GitHub (MIT License)

  • 갤럭시 S26에서 Gemini가 앱을 직접 조작한다: 한국 동시 출시, 지금 쓸 수 있는 것

    말 한마디로 배달을 시킨다

    2026년 3월 12일, 갤럭시 S26 사용자들이 처음 경험했다. Gemini에게 “스타벅스에서 아메리카노 한 잔 주문해줘”라고 말하면, Gemini가 스타벅스 앱을 열고, 메뉴를 선택하고, 주소를 입력하고, 결제 직전 화면까지 진행한 뒤 멈춘다. 사용자가 확인 버튼을 누르면 끝이다.

    이것이 Gemini 스크린 자동화다. AI가 앱을 대신 조작한다. 이 기능의 첫 출시 국가는 미국과 한국, 두 나라뿐이다.

    어떻게 작동하는가

    기술적으로는 AI가 화면을 보고 터치를 흉내낸다. 가상 창(virtual window) 안에서 앱이 실행되고, Gemini가 각 단계를 진행하는 과정이 사용자 눈에 보인다. 중간에 멈추거나 직접 개입하는 것도 언제든 가능하다.

    작동 조건이 있다. One UI 8.5와 2026년 2월 보안 패치가 설치돼 있어야 한다. 개인 Google 계정만 지원된다. 직장·학교 계정은 제외된다. 현재 영어만 지원된다.

    출시 시점에 지원되는 앱은 Uber, Lyft, DoorDash, Grubhub, Uber Eats, Starbucks다. Instacart는 곧 추가 예정이다. AppFunctions라는 개발자 프레임워크가 열려 있어, 향후 더 많은 앱이 지원될 수 있다.

    사용 한도와 요금

    무제한이 아니다. 구글은 일일 사용 한도를 플랜별로 나눴다.

    • 무료: 하루 5회
    • Google AI Plus (월 $7.99): 하루 12회
    • Google AI Pro (월 $19.99): 하루 20회
    • Google AI Ultra (월 $249.99): 하루 120회

    일반 사용자라면 하루 5회면 충분하다. 점심 배달, 퇴근길 택시, 저녁 커피—세 번이면 하루 쓸 만한 기능을 커버한다. 무거운 사용자라면 AI Pro를 고려할 만하다.

    안전 장치는 어디에 있는가

    결제는 항상 사람이 확인한다. Gemini는 결제 직전 단계에서 반드시 멈추고 사용자 승인을 요청한다. AI가 돈을 직접 쓰는 구조가 아니다. 실수로 원하지 않는 주문이 완료되는 일은 설계상 불가능하다.

    작업 중 언제든 중단 가능하고, 사용자가 직접 개입해 수정할 수도 있다. Gemini가 판단하기 어려운 경우엔 사용자에게 결정을 넘긴다.

    갤럭시 S26이 없어도 되는가

    Pixel 10도 3월 말 같은 기능을 받았다. 단, Pixel 10 버전은 현재 미국만 지원이다. 한국에서 이 기능을 쓰려면 갤럭시 S26 시리즈가 필요하다.

    S25나 이전 기기는 현재 미지원이다. 향후 One UI 업데이트로 확장될 가능성은 있지만 공식 일정은 없다.

    그래서 얼마나 실용적인가

    솔직하게 말하면, 지금 당장은 “쓸 수 있는” 수준이다. 지원 앱이 아직 미국 기반 서비스 중심이다. 한국에서 쿠팡이츠, 배달의민족, 카카오T에서 쓸 수 없다는 뜻이다. 그러나 AppFunctions 프레임워크가 열려 있는 만큼, 국내 앱 지원이 추가되면 실용성이 크게 올라간다.

    더 중요한 포인트는 방향이다. 스마트폰 AI가 “답변해주는 것”에서 “대신 해주는 것”으로 바뀌는 첫 번째 실제 사례다. 갤럭시 S26으로 직접 써볼 수 있다.

    지금 바로 할 수 있는 것

    • 갤럭시 S26 사용자: 설정 → 소프트웨어 업데이트에서 One UI 8.5 + 2026년 2월 패치 확인 후 설치. Gemini 앱을 열고 “Uber로 [목적지] 가줘”로 테스트 시작.
    • 구글 계정 플랜 확인: 현재 무료 계정이라면 하루 5회 한도 안에서 충분히 활용 가능. 하루 20회 이상이 필요한 경우에만 AI Pro($19.99/월) 업그레이드 검토.
    • 갤럭시 S26이 없는 경우: AppFunctions 개발자 문서 확인(developer.android.com). 자신의 앱에 Gemini 스크린 자동화 연동을 준비해두면 지원 앱 리스트 확장 시 바로 활용 가능.

    관련 글


    출처

  • 아마존 프라임 2억 명에게 AI 주치의가 생겼다: Health AI 에이전트 출시

    아마존이 주치의를 만들었다

    2026년 3월 11일, 아마존이 미국 프라임 회원 2억 명에게 Health AI를 무료로 열었다. 증상을 물으면 의료 기록을 참조해 답한다. 검사 결과를 올리면 해석해준다. 처방전이 떨어지면 갱신을 처리한다. 진료가 필요하면 One Medical 의사와 연결한다.

    24시간, 대기 없이.

    이것이 AI 에이전트가 의료에 들어왔을 때 어떤 모습인지 가장 구체적으로 보여주는 사례다.

    어떻게 작동하는가

    Health AI는 Amazon Bedrock 위에 구축된 멀티에이전트 시스템이다. 단일 모델이 아니다. 네 종류의 에이전트가 동시에 작동한다.

    Core Agent가 환자와 대화한다. 증상, 질문, 요청을 받아 처리한다. 여기까지는 일반 AI 챗봇과 같다.

    다른 점은 뒤에 있다. Sub-Agent들이 특정 업무를 분담 처리한다. 처방전 갱신, 진료 예약, 검사 결과 해석 같은 각각의 작업이 전문화된 에이전트에게 배정된다. Auditor Agent는 대화 내용을 실시간으로 검토한다. Sentinel Agent는 전체 시스템을 감시하며 문제 발생 시 사람 의사에게 에스컬레이션한다.

    Health AI는 환자의 의료 기록, 검사 결과, 현재 복용 약물에 접근한다. 주(州) 건강정보 교류소를 통해 데이터를 가져온다. 일반적인 증상 검색이 아니라 실제 내 기록을 기반으로 한 개인화된 답변이 나온다.

    프라임 회원이 얻는 것

    기본 혜택은 명확하다. Health AI 사용 자체는 무료다. 여기에 소개 혜택으로 30개 이상 증상에 대해 One Medical 의사와의 직접 메시지 상담 5회 무료가 제공된다. 감기, 독감, 알레르기, 결막염, 요로감염 등 흔한 증상이 포함된다.

    One Medical 멤버십을 유지하면 더 깊은 기능을 쓸 수 있다. 프라임 회원 기준 연 99달러(일반가 199달러)다. AI가 처리하기 어려운 경우 화상 진료나 대면 진료로 자연스럽게 연결된다.

    AI 의료의 한계는 어디인가

    Health AI는 진단을 내리지 않는다. 이 점이 중요하다. “당신은 X 질환입니다”가 아니라 “이런 증상이 있을 때 일반적으로 이렇게 합니다, 더 확인이 필요하면 의사와 연결하겠습니다”가 작동 방식이다.

    최종 결제나 중요한 의료 결정에는 반드시 사람 확인이 필요한 구조다. Sentinel Agent가 위험 신호를 감지하면 AI는 개입을 멈추고 의사에게 넘긴다. 자율적으로 진단·처방하는 것이 아니라 의사의 접근성을 높이는 레이어로 설계됐다.

    한국에서는 언제 가능한가

    현재 미국 프라임 회원 전용이다. 한국 직접 출시 일정은 공개되지 않았다. 다만 이 구조 자체가 중요하다. 아마존이 만든 것이 아니라도, 같은 방식으로 의료 AI가 작동할 수 있다는 청사진이 나왔다.

    한국에서는 의료법상 AI의 진단 행위에 제한이 있다. 그러나 Health AI의 포지션은 진단이 아닌 정보 제공 + 예약 + 처방전 관리 + 의사 연결이다. 이 범위는 한국에서도 기술적·법적으로 가능한 영역이다. 카카오헬스케어, 네이버 클라우드, 대형 병원 앱에서 유사한 서비스가 나올 가능성이 있다.

    지금 바로 할 수 있는 것

    • 미국 거주자·교포: Amazon Prime 가입 후 Amazon Health 앱 또는 health.amazon.com에서 Health AI 활성화. One Medical 멤버십 없이도 기본 AI 상담 사용 가능.
    • 헬스케어 스타트업 개발자: Amazon Bedrock의 멀티에이전트 아키텍처(Core + Sub + Auditor + Sentinel) 구조를 레퍼런스로 참고. AWS Bedrock Agent 문서에서 유사 구조 구현 가능.
    • AI 에이전트에 관심 있는 기획자: Health AI의 “AI가 처리 → 위험 시 사람에게 에스컬레이션” 구조는 어떤 산업에도 적용 가능한 패턴이다. 자신의 서비스에 같은 패턴을 적용할 수 있는지 검토해볼 것.

    관련 글


    출처