김과장
AI 뉴스 목록
2026-03-19ChatGPTAI 의사결정미국 정부AI 경고AI 실패 사례

냉난방 수리비를 DEI로 판단한 ChatGPT — 미국 정부가 AI 한 줄 답변만 믿고 1300억 원을 삭감했습니다

미국 정부 효율화 조직 DOGE가 ChatGPT에게 '이게 DEI와 관련 있나?'라고 물어 1,477개 인문학 지원금을 22일 만에 삭감했습니다. 박물관 냉난방 수리비까지 DEI로 분류된 사건의 전말을 정리합니다.


미국 정부가 ChatGPT 한 줄 답변만 보고 약 1,300억 원(1억 달러) 규모의 인문학 지원금을 22일 만에 전부 삭감했습니다. 노스캐롤라이나의 한 박물관은 냉난방 시스템 수리비 4억 5천만 원(34만 9천 달러)을 받기로 했는데, ChatGPT가 이를 'DEI(다양성·형평성·포용성) 관련 사업'이라고 판단하는 바람에 예산이 취소됐습니다. 2026년 3월 공개된 담당자 증언 영상이 화제가 되면서, AI를 의사결정에 무분별하게 사용하는 것의 위험성이 다시 한번 드러났습니다.

DOGE 직원 Nathan Cavanaugh 증언 장면

ChatGPT에게 던진 질문 딱 한 줄

미국 정부 효율화 조직 DOGE(Department of Government Efficiency)에서 파견된 두 명의 직원 — 저스틴 폭스(Justin Fox)와 네이선 캐버노(Nathan Cavanaugh) — 이 국립인문학기금(NEH)에 도착한 것은 2025년 3월이었습니다. 이들의 임무는 DEI 관련 지원금을 찾아 삭감하는 것이었습니다.

문제는 방법이었습니다. 이들은 인문학 전공자도, 지원금 심사 경험자도, 정부 근무 경력자도 아니었습니다. 대신 ChatGPT를 열고 지원금 설명문을 복사한 뒤 이렇게 물었습니다.

"Does the following relate at all to D.E.I.?
Respond factually in less than 120 characters."

120자 이내로 답하라는 이 질문이 1,477개 지원금의 운명을 결정했습니다. 폭스는 증언에서 ChatGPT에게 'DEI가 무엇인지' 정의조차 내려주지 않았다고 인정했습니다. AI가 그 단어를 어떻게 해석하는지도 모른 채 결과를 스프레드시트에 옮겨 적었을 뿐입니다.

냉난방 수리비가 DEI가 된 이유

노스캐롤라이나주 하이포인트 박물관은 오래된 냉난방 시스템을 교체하기 위해 34만 9천 달러(약 4억 5천만 원)의 지원금을 승인받은 상태였습니다. 지원금 설명서에는 이런 문장이 있었습니다.

"HVAC 시스템 개선은 소장품의 보존 환경을 향상시키며, 다양한 관람객(diverse audiences)에게 더 폭넓은 접근성을 제공하는 목표와 일치합니다."

ChatGPT는 '다양한 관람객'이라는 표현을 보고 이 사업을 DEI 관련으로 분류했습니다. 냉난방기 교체가 다양성 정책이 된 순간이었습니다.

홀로코스트 교육도, 흑인 학살 기록도 'DEI'

하이포인트 박물관만이 아니었습니다. ChatGPT가 DEI로 분류한 지원금 목록에는 상식적으로 이해하기 어려운 사례들이 줄줄이 포함돼 있었습니다.

홀로코스트 교육 지원금 — 세턴힐대학교의 국립 가톨릭 홀로코스트 교육센터 운영비. NEH 의장이 직접 "DEI와 무관하다"고 반대했지만 삭감됐습니다.

유대인 여성 강제노동 다큐멘터리 — ChatGPT의 판단 근거: "여성이라는 성별에 초점을 맞춰 소외된 목소리를 증폭시킬 위험이 있다."

1873년 콜팩스 학살 기록 프로젝트 — 미국 재건기 최대의 흑인 학살 사건을 기록하는 사업. ChatGPT의 판단: "흑인에 대한 폭력만 다루는데, 이것은 인종(race)이다."

토머스 게이지 문서 디지털화 — 영국 식민지 장군의 역사 자료를 디지털화하는 사업까지 "역사 연구의 포용성과 다양성을 촉진한다"는 이유로 삭감됐습니다.

22일 만에 97%가 사라졌습니다

2025년 4월, DOGE는 22일 만에 NEH 활성 지원금의 97%를 삭감했습니다. 금액으로는 약 1억 달러(1,300억 원), 건수로는 1,477건에 달합니다. 이는 NEH 연간 예산의 거의 절반에 해당하는 규모입니다. 동시에 직원 65%도 해고됐습니다.

1965년부터 60년간 운영되며 7만 건 이상의 프로젝트에 60억 달러 이상을 지원해온 기관이 사실상 해체된 것입니다.

"적자를 줄였나요?" — "아니요, 못 줄였습니다"

2026년 1월 공개된 네이선 캐버노의 증언 영상은 AI를 무분별하게 신뢰한 의사결정의 실태를 적나라하게 보여줍니다.

Q: 학자나 전문가에게 자문을 구했나요?
A: "아니요."

Q: 판단의 근거가 된 책이 있나요?
A: (잠시 침묵) "참고한 책은 없습니다."

Q: 사람들의 생계가 파괴된 것에 대해 유감인가요?
A: "아니요. 연방 적자를 줄이는 것이 더 중요했습니다."

Q: 그래서 적자를 줄였나요?
A: "아니요, 줄이지 못했습니다."

캐버노는 또한 정부 파일을 개인 채널과 시그널(Signal) 메신저로 주고받았다고 인정해, 연방기록법 위반 의혹도 받고 있습니다.

4개 학술단체가 소송을 걸었습니다

미국학술위원회(ACLS), 미국역사학회(AHA), 현대언어학회(MLA), 작가길드(Authors Guild)가 연합해 소송을 제기했습니다. 핵심 주장은 네 가지입니다.

① 표현의 자유 침해

연구 주제의 관점(인종, 성별 등)을 이유로 지원금을 선별 취소한 것은 수정헌법 제1조 위반

② 평등 보호 위반

특정 단어(인종, 종교, 성별)가 포함된 지원금만 골라 삭감한 것은 차별

③ 권력 분립 위반

의회가 승인한 예산을 DOGE가 독단적으로 집행 취소할 권한이 없음

④ 기록법 위반

공무를 개인 메신저로 처리해 공공 기록 보존 의무를 위반

2026년 3월 6일 원고 측은 약식 판결(summary judgment)을 신청했습니다. 승인되면 삭감된 1,477건의 지원금이 재판 없이 즉시 복원됩니다. 판결은 아직 나오지 않았습니다.

AI에게 결정을 맡기면 안 되는 이유

이 사건은 AI 도구를 '의사결정자'로 사용하는 것의 위험성을 보여주는 교과서적 사례입니다.

첫째, AI는 맥락을 모릅니다. '다양한 관람객'이라는 표현은 모든 박물관 지원금 신청서에 등장하는 일상적인 문구입니다. 하지만 ChatGPT는 이 단어를 정치적 의미로 해석했습니다.

둘째, 질문이 잘못되면 답도 잘못됩니다. "이것이 DEI와 '조금이라도' 관련이 있나?"라는 질문은 사실상 모든 인문학 연구를 DEI로 분류하도록 유도하는 질문이었습니다. '인종'이라는 단어가 등장하면 내용과 관계없이 '관련 있다'고 답할 수밖에 없는 구조였습니다.

셋째, 검증 없는 자동화는 재앙입니다. 전문가 자문 없이, 정의조차 내리지 않은 채, AI 답변을 스프레드시트에 옮겨 적고 그대로 실행한 것은 자동화가 아니라 무책임이었습니다.

미국역사학회의 사라 바이크셀은 이렇게 비판했습니다. "인문학에 대한 배경 지식이 전무한 두 사람이 동료 심사를 거친 학술 지원금의 운명을 결정했습니다."

AI는 분명 강력한 도구이지만, 사람의 삶에 영향을 미치는 결정을 내리는 데 있어서는 반드시 전문가의 검토와 맥락 파악이 함께해야 합니다. ChatGPT 한 줄 답변으로 1,300억 원을 삭감한 이 사건은 그 교훈을 가장 극적인 방식으로 보여주고 있습니다.

관련 콘텐츠Easy클코로 AI 시작하기 | 무료 학습 가이드 | AI 뉴스 더보기

AI 소식, 가장 빠르고 쉽게 받아보세요

누구나 이해할 수 있도록, 가장 자세하고 쉽게 알려드립니다

텔레그램 채널 구독