[태그:] AI군사화

  • 경쟁사가 편든 소송: Anthropic vs 국방부, Jeff Dean과 Microsoft가 Anthropic 편에 선 이유

    AI 군사화를 둘러싼 법정 싸움에서 이례적인 장면이 펼쳐졌다. 경쟁사인 OpenAI와 Google DeepMind 직원 30여 명이, 그것도 Google 수석 과학자 Jeff Dean을 포함해, Anthropic의 편에 서서 법원에 의견서를 제출했다. 미 국방부를 상대로 한 Anthropic의 소송에 적군이 아군이 됐다. 실리콘밸리 AI 업계가 하나의 원칙을 두고 내부에서 갈라지는 순간이었다.

    소송의 시작 — 국방부가 Anthropic을 ‘국가 안보 위협’으로 지정

    사건의 발단은 계약 결렬이었다. Anthropic은 미 국방부(DoD)와 AI 활용 계약을 협상하며 두 가지 조건을 고수했다. Claude가 미국 시민 대규모 감시에 사용되지 않을 것, 완전 자율 무기에 사용되지 않을 것. 국방부가 “모든 합법적 용도(all lawful use)” 허용을 요구하며 거부하자 Anthropic이 먼저 협상을 결렬시켰다.

    국방부의 대응은 강경했다. Anthropic을 “국가 안보에 대한 허용 불가한 위험(unacceptable risk to national security)”이자 AI 공급망 위험 기업으로 지정하고, 기존의 모든 정부 계약을 취소했다. Anthropic은 이에 맞서 샌프란시스코 연방 법원에 트럼프 행정부를 상대로 소송을 제기했다.

    출처: TechCrunch — OpenAI·Google 직원들의 Anthropic 지지, State of Surveillance — 국방부의 Anthropic 지정 배경

    경쟁사 직원들이 Anthropic 편에 선 이유

    OpenAI와 Google DeepMind 직원 30명이 연명한 법원 의견서(amicus brief)의 핵심 논지는 이것이다. “정부가 윤리 기준을 이유로 특정 AI 기업을 공급망 위험으로 지정하는 것은 권력 남용이며, 미국 AI 산업 전체를 위협한다.”

    서명자 중 한 명인 Google DeepMind 수석 과학자 Jeff Dean은 파일링에서 이렇게 밝혔다. “이 조치는 미국의 AI 산업·과학 경쟁력에 심각한 결과를 초래할 것이다.” OpenAI 직원들 역시 회사가 DoD 계약을 맺은 상황에서도 동료 기업을 방어하는 의견서에 서명했다.

    이 외에도 Microsoft가 별도의 amicus brief를 제출했고, 퇴역 장교 22명도 Anthropic 편에 서서 “자율 무기에 대한 AI 기업의 윤리적 거부는 정당하다”는 의견을 냈다.

    출처: Fortune — Google·OpenAI 직원 의견서, Data Center Dynamics — Microsoft amicus brief

    AI 군사화 논쟁 — 어디까지 허용해야 하나

    이 소송의 핵심은 AI 기업이 ‘어떤 조건으로 정부와 계약해야 하는가’라는 근본 질문이다. 현재 실리콘밸리의 입장은 두 갈래로 나뉜다.

    • 협력론 (OpenAI, Google 일부): 미국이 중국보다 AI 군사력에서 앞서야 한다. 책임 있는 기업이 참여해 내부에서 통제하는 것이 낫다.
    • 거부론 (Anthropic, 일부 연구자): 자율 무기와 대규모 감시는 AI의 근본적 위험이다. 어떤 조건에서도 이를 가능하게 하는 계약은 맺을 수 없다.

    두 입장 모두 논리가 있다. 하지만 이번 소송은 법원이 AI 군사 계약의 한계를 처음으로 판단하게 된다는 점에서 전례 없는 사건이 될 전망이다.

    출처: Axios — AI 기업들의 국방부 계약 딜레마

    그래서 한국 독자에게 뭐가 달라지나

    이 소송의 결과는 전 세계 AI 기업이 정부와 계약하는 방식에 선례를 남긴다. 한국도 국방부·경찰청 등이 AI를 도입하는 속도가 빨라지고 있다. 어떤 윤리적 레드라인을 계약서에 명시할 것인가, 그리고 그 기준을 어기는 기업에 어떤 제재를 가할 것인가는 한국도 곧 마주할 질문이다.

    당장은 Anthropic의 소송 결과를 주목하자. 이 판결이 글로벌 AI 계약 표준을 바꿀 수 있다.

    지금 바로 할 수 있는 것

    1. 소송 경과 추적CourtListener에서 Anthropic v. DoD 케이스를 검색하면 판결문 전문을 무료로 열람할 수 있다.
    2. AI 윤리 가이드라인 확인 — 우리 조직이 AI를 도입할 때 “자율 의사결정 허용 범위”를 계약서에 명시하고 있는지 점검해본다.
    3. Anthropic 헌법 AI 읽기 — Anthropic이 공개한 Constitutional AI 논문을 읽으면 이 회사가 왜 이 원칙을 포기하지 않는지 이해할 수 있다.

    관련 글


    출처: TechCrunch · Fortune · Data Center Dynamics · Axios

    대표이미지 출처: Fortune