ChatGPT가 만들어준 인용문을 그대로 실었다 — 유럽 대형 언론사 임원, 53편 중 15편이 가짜로 정직 처분
유럽 대형 미디어 그룹 Mediahuis의 전 아일랜드 CEO가 ChatGPT·Perplexity로 뉴스레터를 작성하다 53편 중 15편에서 가짜 인용문이 발각돼 정직 처분을 받았습니다. AI를 업무에 쓰는 모든 사람이 알아야 할 교훈입니다.
ChatGPT, Perplexity, Google Notebook — 요즘 업무에서 AI를 안 쓰는 사람을 찾기가 더 어렵습니다. 그런데 유럽 대형 언론 그룹의 전 CEO가 AI가 만들어준 가짜 인용문을 그대로 뉴스레터에 실었다가 정직 처분을 받았습니다. AI를 쓰는 모든 사람에게 경고가 되는 사건입니다.
정직 처분을 받은 Peter Vandermeersch. 사진: RTÉ
53편 중 15편이 가짜 — 무슨 일이 있었나
Peter Vandermeersch는 벨기에·네덜란드·아일랜드에 걸쳐 여러 신문사를 소유한 유럽 대형 미디어 그룹 Mediahuis의 전 아일랜드 CEO(2022~2025년)입니다. 퇴임 후에는 '저널리즘과 사회' 펠로우로서 Substack 뉴스레터 'Press and Democracy'를 운영하고 있었습니다.
문제는 그가 뉴스레터를 작성할 때 ChatGPT, Perplexity, Google Notebook으로 보고서를 요약한 뒤, AI가 만들어준 내용을 사실 확인 없이 그대로 사용한 것입니다.
발각된 수치
• 총 53편의 블로그 포스트 중 15편(28.3%)에서 출처를 확인할 수 없는 인용문 발견
• 인용된 사람 중 최소 7명이 "나는 그런 말을 한 적이 없다"고 직접 확인
• 8개 기사가 Mediahuis 산하 independent.ie 웹사이트에서 삭제
• 수십 개의 인용문이 출처 확인 불가
"AI의 환각 덫에 빠졌다" — 본인의 해명
이 사실은 Mediahuis 산하 네덜란드 언론사 NRC의 탐사 보도로 밝혀졌습니다. 같은 그룹 소속 기자가 내부 인물의 문제를 보도한 것입니다.
Vandermeersch는 자신의 Substack 사과문에서 이렇게 밝혔습니다.
"AI 언어 모델이 만들어내는 인용문은 너무나 그럴듯해서 저항하기 어려웠습니다. 저는 AI로 보고서를 요약하고 그 요약을 믿고 작업했습니다. 충분하지 않은 검증이었습니다. 남의 입에 말을 넣어버린 셈입니다."
아이러니한 점이 있습니다. 그는 바로 '언론과 민주주의'를 주제로 글을 쓰면서, 스스로 "인간의 감독(human oversight)이 필수"라고 강조해왔던 인물입니다. 자신이 주장한 원칙을 자신이 어긴 셈입니다.
Mediahuis 그룹 CEO Gert Ysebaert는 "이런 일은 절대 일어나서는 안 됐다"고 밝히며 즉각 정직 처분을 내렸습니다.
AI를 쓰는 당신에게 중요한 3가지 교훈
이 사건은 단순한 '기자의 실수'가 아닙니다. AI를 업무에 쓰는 모든 사람이 빠질 수 있는 함정입니다.
1. AI는 '있는 척하는 천재'입니다
ChatGPT와 Perplexity는 존재하지 않는 인용문도 실제처럼 만들어냅니다. AI가 "~ 라고 말했다"고 쓰면, 진짜 그 사람이 그 말을 했는지 반드시 원문에서 확인해야 합니다.
2. 요약을 믿지 마세요 — 원본을 보세요
Vandermeersch의 실수는 AI 요약을 '팩트'로 취급한 것입니다. AI 요약은 편리하지만, 숫자·인용·고유명사는 반드시 원본 문서와 대조해야 합니다.
3. 전문가도 속습니다 — 경력이 방패가 아닙니다
30년 경력의 언론인도 AI 환각(hallucination, AI가 사실이 아닌 내용을 자신 있게 만들어내는 현상)에 속았습니다. "나는 AI를 잘 쓸 줄 안다"는 자신감이 오히려 검증을 생략하게 만듭니다.
지난달에도 비슷한 일이 있었습니다
이 사건은 변호사 대신 ChatGPT에 물어본 뒤 3,250억 원 소송에서 패한 KRAFTON CEO 사례와 같은 패턴입니다. AI의 답변을 전문가의 의견처럼 신뢰한 것이 화근이었습니다.
차이점이 있다면, KRAFTON 사건은 법률 자문에서의 실수였고, 이번 Mediahuis 사건은 저널리즘 — 사실에 기반해야 하는 영역에서의 실수라는 점입니다. 팩트를 전달하는 직업에서 팩트를 AI에게 맡겼다는 점이 더 뼈아픕니다.
내 업무에서 AI 환각을 피하는 실전 체크리스트
보고서·이메일·프레젠테이션에 AI를 쓸 때:
• AI가 만든 인용문·통계·날짜는 100% 원문 확인
• "~에 따르면" 형태의 문장이 있으면, 그 출처가 실제로 존재하는지 클릭해서 확인
• AI 요약을 다른 사람에게 보내기 전, 최소 핵심 사실 3가지는 원본 대조
• 인용문은 반드시 큰따옴표 + 출처 표기 — AI가 정리한 내용과 원문의 직접 인용을 구분
관련 콘텐츠 — Easy클코로 AI 시작하기 | 무료 학습 가이드 | AI 뉴스 더보기