[태그:] AI윤리

  • ChatGPT·Claude에 극단주의 탐지 시스템 도입 — AI 안전의 새로운 차원

    ChatGPT·Claude에 극단주의 탐지 시스템 도입 — AI 안전의 새로운 차원

    ChatGPT·Claude에 ‘극단주의 탐지 시스템’이 붙는다

    뉴질랜드의 스타트업 ThroughLineChatGPT, Claude, Gemini에 극단주의 성향 사용자를 실시간으로 감지하고 위기 개입하는 도구를 개발하고 있습니다. AI 챗봇이 단순 도구를 넘어 사회 안전망 역할까지 맡게 되는 전례 없는 시도입니다(US News).

    ThroughLine은 어떤 회사인가?

    ThroughLine은 뉴질랜드에 기반한 위기 대응 전문 스타트업입니다. 이미 OpenAI, Anthropic, Google과 계약하여 AI 챗봇 사용자가 자해·자살 관련 대화를 할 때 전 세계 180개국 1,600개 위기 상담 전화로 연결하는 서비스를 운영 중입니다.

    이제 이 서비스를 극단주의·폭력적 급진화 탐지로 확장하려는 것입니다. AI가 대화 중 극단주의 성향을 감지하면, 전문 탈급진화 챗봇과의 대화 → 실제 정신건강·탈급진화 전문가 연결로 이어지는 하이브리드 대응 체계를 구축합니다.

    왜 지금 이 시스템이 필요한가?

    최근 AI 챗봇과 관련된 사건·사고가 급증하고 있습니다:

    • AI 기업 대상 소송 증가: 폭력을 막지 못했거나 오히려 조장했다는 소송이 늘고 있습니다.
    • 크라이스트처치 콜(Christchurch Call): 2019년 뉴질랜드 테러 이후 만들어진 온라인 혐오 근절 이니셔티브가 이번 프로젝트에 자문을 제공합니다.
    • AI 챗봇의 영향력 확대: 매일 수억 명이 AI와 대화하는 시대. 취약한 사용자가 잘못된 방향으로 빠지는 것을 방지할 메커니즘이 필요합니다.

    AI 안전의 새로운 차원

    기존 AI 안전 논의가 ‘AI가 나쁜 말을 하지 않게 하는 것’에 집중했다면, ThroughLine의 접근은 ‘AI가 위험한 사용자를 적극적으로 도와주는 것’으로 패러다임을 바꿉니다(Influencer Magazine).

    이는 세 가지 측면에서 중요합니다:

    1. 사후 대응 → 사전 예방: 문제가 발생한 후 대응하는 것이 아니라, 대화 중 실시간으로 위험 신호를 감지합니다.
    2. 기술적 차단 → 인간적 개입: 단순히 대화를 차단하는 것이 아니라, 전문가와 연결하여 근본적 해결을 시도합니다.
    3. 개별 기업 → 업계 공통 인프라: OpenAI, Anthropic, Google이 공동으로 도입함으로써 AI 안전의 업계 표준이 될 수 있습니다.

    그래서 한국에 왜 중요한가?

    한국은 세계적으로 AI 챗봇 사용률이 높은 국가입니다. 동시에 온라인 혐오 표현, 극단주의 커뮤니티 문제도 심각합니다. ThroughLine의 시스템이 글로벌 표준으로 자리잡으면:

    • 한국어 지원 확대: 현재 180개국 위기 상담 네트워크에 한국도 포함됩니다. 향후 극단주의 탐지도 한국어로 확장될 가능성이 있습니다.
    • 국내 AI 규제 방향에 영향: AI 기본법 논의에서 ‘위기 개입 의무화’가 새로운 의제로 떠오를 수 있습니다.
    • 한국 AI 기업도 대비 필요: 네이버 하이퍼클로바X, 카카오 등 국내 AI 서비스도 유사한 안전 메커니즘을 준비해야 할 시점입니다.

    지금 바로 할 수 있는 것

    1. AI 안전 정책 팔로우: OpenAI, Anthropic의 안전 정책 페이지를 북마크하세요. 각 사의 Safety 블로그에서 최신 안전 조치를 확인할 수 있습니다.
    2. 크라이스트처치 콜 알아보기: 온라인 혐오·극단주의 대응의 글로벌 프레임워크를 이해하면 AI 규제 방향을 예측하는 데 도움이 됩니다.
    3. AI 윤리·안전 분야 커리어 탐색: AI Safety, Trust & Safety 직무가 급격히 늘고 있습니다. 관련 자격증이나 교육 과정을 찾아보세요.

    관련 글

    출처: US News, Influencer Magazine, Cybernews

  • #QuitGPT: ChatGPT 삭제 295% 급증·Claude 앱스토어 1위, 하루 만에 뒤집힌 AI 판도

    2026년 2월 28일, OpenAI가 미 국방부(DoD)와 기밀망 AI 배치 계약을 체결하자 예상치 못한 일이 벌어졌다. ChatGPT 삭제율이 하루 만에 295% 폭등했다. 수백만 명이 앱을 지우고 ‘#QuitGPT’라는 해시태그를 달았다. 반대로 그 계약을 거절한 Anthropic의 Claude는 미국 앱스토어 1위에 올랐다. AI 업계 판도가 단 하루 만에 뒤집혔다.

    무슨 일이 있었나 — OpenAI 국방부 계약의 내막

    OpenAI는 2026년 2월 28일 미 국방부와 Claude가 아닌 GPT 모델을 기밀 네트워크에 배치하는 공식 계약을 맺었다. 문제는 계약의 범위였다. 계약서는 미군이 AI를 “모든 합법적 용도(all lawful use)”에 활용할 수 있도록 허용했다. 여기에는 대규모 민간 감시와 자율 무기 시스템 운용이 포함될 수 있다는 해석이 나왔다.

    Sam Altman 본인도 이후 인터뷰에서 계약 발표 방식이 “기회주의적이고 엉성해 보였다(opportunistic and sloppy)”고 인정했다. 뒤늦은 사과였지만, 이미 불은 번졌다.

    출처: TechCrunch — ChatGPT 삭제 295% 급증, TechRadar — Sam Altman 인터뷰

    #QuitGPT 운동 — 2.5백만 명이 동참한 AI 불매 운동

    시민들은 소셜미디어에서 빠르게 조직됐다. #QuitGPT 운동 주최 측은 온라인 참여자가 250만 명을 넘었다고 발표했다. 요구사항은 명확했다. OpenAI가 법적 구속력 있는 공개 선언을 통해 (1) 대규모 국내 감시 도구 개발 거부, (2) 완전 자율 무기 시스템 참여 거부를 약속하라는 것이었다.

    앱 분석 기업 Appfigures 데이터에 따르면 2월 28일 당일 Claude가 미국 내 일일 다운로드에서 처음으로 ChatGPT를 추월했고, 3월 2일에는 미국 앱스토어 무료 앱 전체 1위에 올라 3월 첫 주 내내 유지됐다.

    출처: Let’s Data Science — QuitGPT 참여자 통계, Euronews — QuitGPT 운동

    Anthropic은 왜 계약을 거절했나

    Anthropic은 국방부와 협상 테이블에 앉았지만, 두 가지 조건을 지키려 했다. Claude가 미국 시민 대규모 감시에 쓰이지 않을 것, 그리고 완전 자율 무기에 사용되지 않을 것. 국방부가 이를 거부하고 “모든 합법적 용도” 사용 허가를 요구하자 Anthropic은 협상을 결렬시켰다.

    국방부는 이에 대한 보복으로 Anthropic을 “국가 안보에 대한 허용 불가한 위험(unacceptable risk to national security)”으로 지정하고 기존 정부 계약을 전면 취소했다. Anthropic은 연방 법원에 소송을 제기하며 맞섰다.

    출처: Open Magazine — QuitGPT와 OpenAI 신뢰 붕괴

    그래서 한국 ChatGPT 사용자는 어떻게 봐야 하나

    한국은 직접적인 당사자는 아니다. 하지만 이 사건은 AI 서비스를 고를 때 기업의 윤리 기준과 계약 조건이 제품 성능만큼 중요해지고 있음을 보여준다. 직장에서 ChatGPT로 민감한 내부 문서를 처리하고 있다면, 해당 서비스가 어떤 기관과 어떤 조건으로 계약을 맺는지 알 필요가 있다.

    단기적으로는 Claude의 기업용 채택이 빨라질 가능성이 높다. Anthropic의 ‘거절’이 브랜드 자산이 된 사례다.

    지금 바로 할 수 있는 것

    1. Claude 체험claude.ai에서 ChatGPT와 직접 비교해본다. Claude 앱스토어 1위의 실체를 확인할 차례다.
    2. 사용 중인 AI 서비스 약관 확인 — 데이터 처리 방침과 제3자 제공 조건을 한 번쯤 읽어볼 것을 권한다.
    3. AI 윤리 동향 팔로우 — Future of Life Institute, AI Now Institute 등의 뉴스레터를 구독하면 이런 변화를 사전에 파악할 수 있다.

    관련 글


    출처: TechCrunch · Euronews · Let’s Data Science · TechRadar

    대표이미지 출처: Euronews

  • 경쟁사가 편든 소송: Anthropic vs 국방부, Jeff Dean과 Microsoft가 Anthropic 편에 선 이유

    AI 군사화를 둘러싼 법정 싸움에서 이례적인 장면이 펼쳐졌다. 경쟁사인 OpenAI와 Google DeepMind 직원 30여 명이, 그것도 Google 수석 과학자 Jeff Dean을 포함해, Anthropic의 편에 서서 법원에 의견서를 제출했다. 미 국방부를 상대로 한 Anthropic의 소송에 적군이 아군이 됐다. 실리콘밸리 AI 업계가 하나의 원칙을 두고 내부에서 갈라지는 순간이었다.

    소송의 시작 — 국방부가 Anthropic을 ‘국가 안보 위협’으로 지정

    사건의 발단은 계약 결렬이었다. Anthropic은 미 국방부(DoD)와 AI 활용 계약을 협상하며 두 가지 조건을 고수했다. Claude가 미국 시민 대규모 감시에 사용되지 않을 것, 완전 자율 무기에 사용되지 않을 것. 국방부가 “모든 합법적 용도(all lawful use)” 허용을 요구하며 거부하자 Anthropic이 먼저 협상을 결렬시켰다.

    국방부의 대응은 강경했다. Anthropic을 “국가 안보에 대한 허용 불가한 위험(unacceptable risk to national security)”이자 AI 공급망 위험 기업으로 지정하고, 기존의 모든 정부 계약을 취소했다. Anthropic은 이에 맞서 샌프란시스코 연방 법원에 트럼프 행정부를 상대로 소송을 제기했다.

    출처: TechCrunch — OpenAI·Google 직원들의 Anthropic 지지, State of Surveillance — 국방부의 Anthropic 지정 배경

    경쟁사 직원들이 Anthropic 편에 선 이유

    OpenAI와 Google DeepMind 직원 30명이 연명한 법원 의견서(amicus brief)의 핵심 논지는 이것이다. “정부가 윤리 기준을 이유로 특정 AI 기업을 공급망 위험으로 지정하는 것은 권력 남용이며, 미국 AI 산업 전체를 위협한다.”

    서명자 중 한 명인 Google DeepMind 수석 과학자 Jeff Dean은 파일링에서 이렇게 밝혔다. “이 조치는 미국의 AI 산업·과학 경쟁력에 심각한 결과를 초래할 것이다.” OpenAI 직원들 역시 회사가 DoD 계약을 맺은 상황에서도 동료 기업을 방어하는 의견서에 서명했다.

    이 외에도 Microsoft가 별도의 amicus brief를 제출했고, 퇴역 장교 22명도 Anthropic 편에 서서 “자율 무기에 대한 AI 기업의 윤리적 거부는 정당하다”는 의견을 냈다.

    출처: Fortune — Google·OpenAI 직원 의견서, Data Center Dynamics — Microsoft amicus brief

    AI 군사화 논쟁 — 어디까지 허용해야 하나

    이 소송의 핵심은 AI 기업이 ‘어떤 조건으로 정부와 계약해야 하는가’라는 근본 질문이다. 현재 실리콘밸리의 입장은 두 갈래로 나뉜다.

    • 협력론 (OpenAI, Google 일부): 미국이 중국보다 AI 군사력에서 앞서야 한다. 책임 있는 기업이 참여해 내부에서 통제하는 것이 낫다.
    • 거부론 (Anthropic, 일부 연구자): 자율 무기와 대규모 감시는 AI의 근본적 위험이다. 어떤 조건에서도 이를 가능하게 하는 계약은 맺을 수 없다.

    두 입장 모두 논리가 있다. 하지만 이번 소송은 법원이 AI 군사 계약의 한계를 처음으로 판단하게 된다는 점에서 전례 없는 사건이 될 전망이다.

    출처: Axios — AI 기업들의 국방부 계약 딜레마

    그래서 한국 독자에게 뭐가 달라지나

    이 소송의 결과는 전 세계 AI 기업이 정부와 계약하는 방식에 선례를 남긴다. 한국도 국방부·경찰청 등이 AI를 도입하는 속도가 빨라지고 있다. 어떤 윤리적 레드라인을 계약서에 명시할 것인가, 그리고 그 기준을 어기는 기업에 어떤 제재를 가할 것인가는 한국도 곧 마주할 질문이다.

    당장은 Anthropic의 소송 결과를 주목하자. 이 판결이 글로벌 AI 계약 표준을 바꿀 수 있다.

    지금 바로 할 수 있는 것

    1. 소송 경과 추적CourtListener에서 Anthropic v. DoD 케이스를 검색하면 판결문 전문을 무료로 열람할 수 있다.
    2. AI 윤리 가이드라인 확인 — 우리 조직이 AI를 도입할 때 “자율 의사결정 허용 범위”를 계약서에 명시하고 있는지 점검해본다.
    3. Anthropic 헌법 AI 읽기 — Anthropic이 공개한 Constitutional AI 논문을 읽으면 이 회사가 왜 이 원칙을 포기하지 않는지 이해할 수 있다.

    관련 글


    출처: TechCrunch · Fortune · Data Center Dynamics · Axios

    대표이미지 출처: Fortune