내가 쓰는 AI가 '너무 안전하다'는 이유로 미국 군대에서 퇴출당했습니다
Claude를 만든 Anthropic이 '완전 자율 무기'와 '국민 감시'를 거부했더니, 미국 국방부가 적국에만 붙이는 '공급망 위험' 딱지를 미국 기업 최초로 붙였습니다. OpenAI 직원 30명이 법정에서 항의했습니다.
ChatGPT, Gemini와 함께 세계 3대 AI 중 하나인 Claude를 만든 Anthropic이 미국 역사상 처음으로 '공급망 위험(supply chain risk)'으로 지정됐습니다. 이 딱지는 이전까지 중국·러시아 같은 적국 기업에만 붙이던 것입니다. 이유가 충격적입니다 — Anthropic이 '완전 자율 무기'와 '대규모 국민 감시'에 AI를 쓰지 않겠다고 했기 때문입니다.
• Claude를 만든 Anthropic이 미국 국방부에게 '국가 안보 위험'으로 지정됨 — 미국 기업 최초
• 이유: AI가 사람 없이 스스로 공격하는 무기, 국민 감시에 쓰이는 것을 거부했기 때문
• 같은 시기 일론 머스크의 Grok은 제한 없이 군사 기밀 접근 허용 — AI 안전을 지키면 벌받는 구조
Anthropic이 끝까지 지키려는 단 2가지 원칙
Anthropic은 미국 군대에 AI를 제공하는 것 자체를 거부한 것이 아닙니다. 실제로 2024년부터 미국 정부의 기밀 네트워크에 Claude를 배치해왔고, 정보 분석, 사이버 작전, 군사 시뮬레이션 등 대부분의 군사 업무를 지원하고 있습니다. 또한 중국 공산당 관련 기업에 AI를 판매하지 않아 수천억 원의 매출을 포기한 이력도 있습니다.
Anthropic이 거부한 것은 딱 2가지입니다.
사람의 판단 없이 AI가 스스로 공격 대상을 선택하고 공격하는 무기입니다. CEO 다리오 아모데이는 "현재 AI 기술은 완전 자율 무기를 맡길 만큼 신뢰할 수 없다"고 밝혔습니다. 사람이 최종 판단에 참여하는 '부분 자율 무기'는 지원합니다.
AI를 이용해 국민의 이동 경로, 인터넷 사용, 통화 기록을 자동으로 수집·분석하는 것입니다. 아모데이는 "AI는 흩어진 데이터를 한 사람의 삶 전체를 보여주는 그림으로 자동 조합할 수 있다 — 이것은 민주주의와 양립할 수 없다"고 공식 성명에서 경고했습니다.
정보 분석, 사이버 작전, 모델링, 시뮬레이션, 작전 계획 수립 — 이 외의 군사 업무는 이미 모두 지원하고 있었습니다.
소환에서 '적국 취급'까지 — 3주간의 타임라인
2월 23일 — 피트 헤그세스 국방장관이 아모데이를 펜타곤에 소환합니다. 트럼프 행정부는 국방부(Department of Defense)를 1947년 이전 이름인 '전쟁부(Department of War)'로 되돌렸습니다. 헤그세스는 '모든 합법적 용도'에 AI를 제한 없이 사용하게 하라고 요구하며, 거부 시 '공급망 위험'으로 지정하겠다고 위협합니다.
2월 26일 — 아모데이가 첫 공식 성명을 발표합니다. "미국과 민주주의를 방어하기 위해 AI를 사용하는 것이 존재적으로 중요하다고 깊이 믿습니다"라면서도 2가지 원칙은 양보할 수 없다고 밝힙니다. 동시에 이 상황의 모순을 지적합니다 — 국방부가 한편으로는 Claude를 '안보 위험'이라 부르면서, 다른 한편으로는 '국가 안보에 필수적'이라고 하는 것은 앞뒤가 맞지 않는다고.
2월 27일 — Anthropic이 헤그세스에 직접 응답합니다. "전쟁부의 어떤 위협이나 처벌도 대규모 국민 감시와 완전 자율 무기에 대한 우리의 입장을 바꾸지 못할 것입니다." 법적 대응을 예고합니다.
3월 4일 — 미국 국방부가 공식 서한을 보내 Anthropic을 '공급망 위험'으로 지정합니다.
3월 5일 — 지정이 발효됩니다. Anthropic은 미국 기업으로는 역사상 처음으로 이 딱지를 받습니다. 이전에는 적대국 기업에만 적용됐던 조치입니다. 아모데이는 세 번째 성명에서 "법적으로 유효하지 않다고 판단하며, 법원에서 다툴 수밖에 없다"고 발표합니다.
3월 18일 — 국방부가 Anthropic의 안전 원칙을 "전시 작전 중 기술을 비활성화할 수 있는 국가 안보에 대한 용납할 수 없는 위험"이라고 공식 표현합니다.
Grok은 환영, Claude는 퇴출 — AI 안전의 역설
같은 시기에 벌어진 일을 비교하면 상황의 아이러니가 극명해집니다.
• 2024년부터 기밀 네트워크에 배치
• 정보분석·사이버작전 지원 중
• 완전 자율 무기·대규모 감시만 거부
• 결과: '공급망 위험' 지정, 적국 취급
• 안전 제한 없이 군사 기밀 접근 허용
• NSA(국가안보국)가 반대했음에도 계약
• 2,600억 원 규모
• 결과: 제한 없이 환영
상원의원 엘리자베스 워런은 3월 16일 펜타곤에 서한을 보내 "Grok이 유해한 결과물을 생성했으며 국가 안보 위험을 초래할 수 있다"고 경고했지만, 국방부는 xAI와의 계약을 유지했습니다.
정리하면 이런 구도입니다: 안전장치가 있는 AI는 벌을 받고, 안전장치가 없는 AI는 보상을 받는 구조.
경쟁사 직원 30명이 법정에서 Anthropic 편을 들었다
놀라운 것은 업계의 반응입니다.
3월 7일, OpenAI의 로보틱스 부문 임원 케이틀린 칼리나우스키가 펜타곤과의 거래에 항의하며 사임했습니다. OpenAI가 Anthropic이 거부한 군사 계약 기회를 가져간 것으로 알려졌습니다.
3월 9일, OpenAI와 구글 딥마인드 직원 30명 이상이 Anthropic의 법적 소송을 지지하는 법원 서류에 서명했습니다. 경쟁사의 직원들이 경쟁사의 편을 든 것입니다. AI 안전이라는 가치가 기업 간 경쟁보다 더 중요하다는 메시지였습니다.
Claude 사용자에게 미치는 영향
일반 사용자에게는 아무런 영향이 없습니다. '공급망 위험' 지정은 미국 국방부와의 직접 계약에만 적용되며, 기업이나 개인이 Claude를 사용하는 것에는 제한이 없습니다. Anthropic도 "대다수 고객은 이 지정에 영향을 받지 않는다"고 밝혔습니다.
하지만 이 사건은 더 큰 질문을 던집니다. AI에 안전장치를 두는 것이 비즈니스에 불이익이 되는 세상에서, AI 회사들은 어떤 선택을 하게 될까요?
Anthropic은 지정에도 불구하고 "필요한 한 국방부와 국가 안보 커뮤니티에 명목상의 비용으로 모델을 제공하고, 엔지니어의 지원을 계속하겠다"고 밝혔습니다. 퇴출당했지만 나라를 위해 계속 돕겠다는 입장입니다.
AI 기술이 군사·정치의 핵심 도구가 되면서, "안전한 AI"와 "강력한 AI" 사이의 긴장은 앞으로 더 커질 것입니다. 이번 사건은 그 갈등의 첫 번째 큰 폭발이었습니다.
관련 콘텐츠 — Easy클코로 AI 시작하기 | 무료 학습 가이드 | AI 뉴스 더보기
출처
- TechCrunch — DOD says Anthropic's red lines are unacceptable risk
- Anthropic — Where things stand with the Department of War
- Anthropic — A statement on our discussions with the Department of War
- Anthropic — Statement on comments by the Secretary of War
- TechCrunch — OpenAI and Google employees rush to Anthropic's defense
- TechCrunch — OpenAI robotics lead quits over Pentagon deal
- TechCrunch — Warren presses Pentagon over xAI classified access