김과장
AI 뉴스 목록
2026-03-27AnthropicClaude미 국방부AI 규제자율무기법원 판결

Claude 만든 Anthropic, AI 자율무기 거부했다가 '적국'으로 찍혔는데 법원이 막았습니다

미 국방부가 Claude AI를 자율무기에 쓰라고 요구했고, Anthropic이 거부하자 '공급망 안보 위협'으로 지정했습니다. 연방 판사가 43쪽 판결문으로 '위헌적 보복'이라 막았습니다.


Claude를 만들고 있는 Anthropic이 미국 국방부(펜타곤)와 정면충돌했습니다. 국방부가 Claude AI를 자율무기와 대규모 국내 감시에 쓸 수 있게 해달라고 요구했고, Anthropic이 거부하자 미국 역사상 처음으로 자국 기업을 '공급망 안보 위협'으로 지정하는 초강수를 뒀습니다. 캘리포니아 연방법원의 리타 린 판사가 43쪽짜리 판결문으로 이를 막았습니다.

핵심 3줄 요약
• Anthropic이 Claude AI를 완전 자율무기·국민 감시에 쓰는 것을 거부
• 국방장관 피트 헤그세스가 Anthropic을 '공급망 안보 위협'으로 지정 — 미국 기업 최초
• 연방 판사가 "오웰적(조지 오웰의 감시사회를 떠올리게 하는)" 보복이라며 전면 차단
Anthropic의 국방부 관련 공식 성명

무슨 일이 있었는지 — 한 달간의 타임라인

이야기는 2월에 시작됐습니다. 미 국방부는 Anthropic과 2억 달러(약 2,600억 원) 규모의 계약을 맺고 Claude AI를 군사 목적으로 사용하고 있었습니다. 국방부는 "모든 합법적 용도"에 Claude를 제한 없이 쓸 수 있게 해달라고 요구했습니다.

Anthropic CEO 다리오 아모데이는 두 가지 '레드라인'은 양보할 수 없다고 밝혔습니다.

Anthropic이 거부한 두 가지
1. 완전 자율무기 — 사람의 최종 판단 없이 AI가 스스로 공격하는 무기 시스템
2. 대규모 국내 감시 — AI가 미국 시민의 상업 데이터를 자동으로 수집·분석하는 것

아모데이는 CBS News 인터뷰에서 "이 선을 넘는 것은 미국의 가치에 반한다고 믿습니다. 우리는 미국의 가치를 지키고 싶었습니다"라고 말했습니다.

국방장관의 '보복' — 미국 기업 최초로 '적국급' 낙인

피트 헤그세스 국방장관은 Anthropic을 "건방지다(sanctimonious)"고 비판하며, 아모데이를 "거짓말쟁이"이자 "신 콤플렉스를 가진 사람"이라고 공개적으로 공격했습니다.

2월 말, 헤그세스는 전례 없는 조치를 취합니다. Anthropic을 '공급망 안보 위협(supply chain risk)'으로 공식 지정한 것입니다. 이 지정은 그동안 중국·러시아 등 적성국 기업에만 적용되던 것으로, 미국 기업에 적용된 것은 역사상 처음이었습니다.

트럼프 대통령은 여기서 한 발 더 나아가 모든 연방 기관이 즉시 Anthropic 제품 사용을 중단하라고 명령했습니다. 군에는 6개월의 전환 기간이 주어졌지만, 사실상 Claude를 정부에서 퇴출시키겠다는 의미였습니다.

Anthropic 로고

판사의 판결 — "오웰적 발상"

Anthropic은 즉시 소송을 제기했고, 캘리포니아 북부 지방법원의 리타 린 판사가 43쪽짜리 판결문으로 국방부의 조치를 전면 차단했습니다.

판결문의 핵심 문구들을 직접 보면 판사가 얼마나 강하게 비판했는지 알 수 있습니다.

"미국 기업이 정부와 의견이 다르다는 이유로 잠재적 적국이자 파괴자로 낙인찍힐 수 있다는 오웰적 발상은 어떤 법률로도 뒷받침되지 않습니다."
"Anthropic이 정부의 계약 입장을 공개적으로 비판한 것에 대한 처벌은 전형적인 위헌적 수정헌법 제1조(표현의 자유) 보복입니다."

린 판사는 국방부가 적법한 절차를 전혀 따르지 않았다는 점도 지적했습니다. Anthropic에 반론 기회를 주지 않았고, 내부적으로는 우호적으로 협상하면서 대외적으로는 적대적 발표를 하는 모순된 행동을 보였다는 것입니다. 판사는 이를 "자의적이고 변덕스러운" 행정이라고 표현했습니다.

Microsoft와 ACLU도 Anthropic 편을 들었습니다

이 재판에는 마이크로소프트, ACLU(미국시민자유연합), 그리고 퇴역 군 지도자들이 Anthropic을 지지하는 의견서를 제출했습니다. 기업의 표현의 자유와 적법한 절차가 위협받고 있다는 공감대가 형성된 것입니다.

Anthropic은 판결 직후 "법원이 신속하게 움직여주신 것에 감사드리며, Anthropic이 본안에서도 승소할 가능성이 높다는 법원의 판단에 기쁘게 생각합니다"라는 성명을 발표했습니다.

380조 원짜리 AI 회사의 선택

Anthropic은 현재 기업가치 3,800억 달러(약 494조 원)로 평가받고 있으며, Claude Code만으로 연간 25억 달러(약 3.25조 원)의 매출을 올리고 있습니다. TIME지는 Anthropic을 "세계에서 가장 파괴적인 기업"이라고 평가했습니다.

돈만 보면 정부 요구를 들어주는 게 쉬운 선택이었을 수 있습니다. 하지만 아모데이는 자체 성명에서 "중국 공산당 연계 기업의 Claude 사용을 막기 위해 수억 달러의 매출을 포기했다"고 밝혔습니다. 안전 원칙을 지키기 위해 돈을 버린 것은 이번이 처음이 아닌 셈입니다.

Claude를 쓰고 있는 사람이라면

이번 판결로 Claude 서비스가 당장 바뀌는 것은 없습니다. 오히려 Anthropic이 안전 가이드라인을 지킬 수 있는 법적 근거가 마련된 것이라 긍정적입니다.

다만 판사는 정부의 항소를 위해 7일간 판결 집행을 유예했습니다. 정부가 항소할 경우 이 싸움은 더 길어질 수 있습니다. 이것은 단순히 한 회사의 문제가 아니라, AI 기업이 정부의 요구에 어디까지 'NO'라고 할 수 있는지를 결정하는 선례가 될 수 있습니다.

Fortune지는 이 사건을 "기업 살해 시도(attempted corporate murder)"라고 표현했습니다. AI 산업 전체가 지켜보고 있는 재판입니다.

관련 콘텐츠Easy클코로 AI 시작하기 | 무료 학습 가이드 | AI 뉴스 더보기

AI 소식, 가장 빠르고 쉽게 받아보세요

누구나 이해할 수 있도록, 가장 자세하고 쉽게 알려드립니다

텔레그램 채널 구독