사실 Siri는 Gemini 학생이었습니다 — Apple이 구글에 돈 내고 AI 증류로 온디바이스 모델 제작
Apple이 Google과 공식 계약을 통해 Gemini 모델 전체 접근권을 확보하고, 지식 증류 방식으로 경량 AI 모델을 자체 개발 중입니다. 6월 WWDC에서 새 Siri AI 기능 공개가 예상됩니다.
사실 Siri는 Gemini 학생이었습니다
Apple이 Google과 공식 계약을 맺고 Gemini의 AI 지식을 흡수해 iPhone에서 돌아가는 경량 AI 모델을 만들고 있습니다. 중국 AI 기업들이 몰래 하던 바로 그 방식을, Apple은 돈을 내고 합법적으로 하고 있습니다.
내 iPhone의 Siri에게 무슨 일이 생기고 있나
지금 이 순간에도 Apple의 엔지니어들은 Siri를 완전히 다른 무언가로 탈바꿈시키려는 작업을 진행하고 있습니다. 그 핵심에는 놀라운 파트너십이 있습니다. 바로 Google의 Gemini(제미나이 — Google이 개발한 대형 AI 언어 모델로, 텍스트·이미지·코드 등 다양한 유형의 정보를 처리할 수 있는 멀티모달 AI)입니다.
The Information의 단독 보도에 따르면, Apple은 Google과 공식 계약을 체결해 Gemini 모델 전체에 대한 접근권을 확보했습니다. 그리고 이 접근권을 이용해 iPhone과 iPad에서 인터넷 없이도 작동하는 온디바이스(on-device — 클라우드 서버를 거치지 않고 기기 자체의 칩에서 직접 실행되는 방식으로, 개인정보 보호와 속도 면에서 유리함) AI 모델을 자체 개발하고 있습니다.
비개발자 시각에서 쉽게 설명하면 이렇습니다. 지금의 Siri는 똑똑하지 않습니다. 하지만 Apple은 세계에서 가장 똑똑한 AI 중 하나인 Google Gemini에게 '과외'를 받아서, 그 지식을 iPhone 안에 쑤셔 넣는 작업을 하고 있습니다. 이것이 바로 AI 증류(AI distillation — 대형 AI의 능력을 소형 AI로 전달하는 압축 학습 기법)의 핵심입니다.
지식 증류란 무엇인가 — 선생님 AI와 학생 AI
지식 증류(knowledge distillation — 크고 성능 좋은 AI 모델이 생성한 고품질 답변과 추론 과정을 학습 데이터로 삼아 더 작은 AI 모델을 훈련시키는 기법. '교사 모델'과 '학생 모델'의 관계로 비유됨)는 처음 들으면 복잡하게 들리지만, 실제로는 매우 직관적인 개념입니다.
술(蒸留)을 만들 때 알코올을 증류해 순수한 에탄올을 추출하듯이, AI에서도 큰 모델의 '핵심 능력'만 추출해 작은 모델에 담는 과정을 '증류'라고 부릅니다. 구체적인 과정은 다음과 같습니다.
먼저 Apple은 Gemini에게 수많은 질문을 던집니다. Gemini는 각 질문에 대해 매우 상세하고 정확한 답변을 생성하면서, 동시에 자신이 어떤 연쇄추론(chain of thought — AI가 최종 답변에 도달하기까지 단계적으로 생각을 이어나가는 과정. '1+1=2이고, 2+2=4이므로...'처럼 중간 논리 과정을 명시하는 방식) 과정을 거쳤는지도 함께 제공합니다. 이 답변과 추론 과정이 Apple의 소형 모델을 위한 '교과서'가 됩니다.
Apple의 소형 모델은 이 교과서로 학습합니다. Gemini만큼 크고 무겁지 않지만, Gemini가 '어떻게 생각하는지'를 흉내 낼 수 있는 능력을 갖추게 됩니다. 그 결과, iPhone 안에서 조용히 돌아가는 작은 AI가 세계 최고 수준의 AI처럼 대화하고 도움을 줄 수 있게 되는 것입니다.
Apple이 왜 이 방식을 택했나 — 3가지 이유
Apple이 굳이 Google에 돈을 내면서 이 방식을 택한 이유는 명확합니다. 첫째는 개인정보 보호(privacy protection — 사용자의 음성, 검색 기록, 위치 정보 등이 외부 서버로 전송되지 않도록 기기 안에서 처리하는 Apple의 핵심 설계 원칙)입니다. Siri가 사용자 데이터를 서버로 보내지 않고 iPhone 내에서 처리해야 Apple의 브랜드 가치와 일치합니다.
둘째는 속도입니다. 추론 지연(inference latency — AI가 질문을 받고 답변을 생성하기까지 걸리는 시간)을 최소화하려면 클라우드 서버를 거치지 않는 온디바이스 방식이 훨씬 유리합니다. 사용자 입장에서는 인터넷이 없어도 Siri가 작동하고, 있더라도 더 빠르게 응답받을 수 있습니다.
셋째는 비용입니다. 매번 Gemini API를 호출하면 수억 명의 iPhone 사용자에 대한 어마어마한 서버 비용이 발생합니다. 반면 한 번 증류된 소형 모델은 Apple 기기에 내장되므로 추가 API 비용이 없습니다.
Apple은 Gemini 모델을 단순히 사용하는 것이 아니라, 자체 데이터센터(data center — Apple이 자체 운영하는 대형 서버 시설로, 이 계약을 통해 Gemini 모델을 Apple의 인프라 안에서 직접 운용할 수 있게 됨)에서 운용하는 형태로 접근권을 확보했습니다. 이는 단순 API 구독이 아닌 깊은 수준의 기술 협력을 의미합니다.
The Information이 보도한 계약의 핵심 내용
이 사실을 최초로 보도한 것은 미국의 유료 IT 미디어 The Information(더 인포메이션 — 실리콘밸리 내부 소식을 심층 취재하는 미국의 프리미엄 테크 미디어. 구독료가 높아 업계 관계자 중심으로 읽힘)입니다. The Decoder가 이를 인용 보도했습니다.
보도된 계약의 핵심은 단순합니다. Apple은 Google로부터 Gemini 모델에 대한 완전 접근권(full model access — API 호출 방식이 아니라 모델 가중치 자체에 접근해 자체 인프라에서 실행할 수 있는 수준의 라이선스)을 얻었습니다. 이를 자체 데이터센터에서 실행하면서, Gemini가 생성하는 고품질 답변을 Apple 자체 소형 모델의 학습 데이터로 활용하고 있습니다.
다만 기술적인 난관도 존재합니다. Gemini는 원래 구글의 챗봇 서비스와 기업용 솔루션을 위해 설계된 모델입니다. 반면 Siri는 스마트폰 어시스턴트로서 매우 특수한 요구사항을 가집니다. 앱 실행, 일정 추가, 음악 제어, 전화 걸기 등 기기 통합 기능(device integration — AI가 스마트폰의 운영체제, 앱, 하드웨어와 직접 연동되어 실제 동작을 수행하는 기능)이 필요한데, Gemini는 이 부분에서 Siri의 요구사항과 완전히 일치하지 않습니다.
이 때문에 Apple의 Foundation Models(파운데이션 모델스 — Apple 내부에서 자체 AI 모델을 연구·개발하는 팀) 팀은 Gemini 증류만으로 모든 것을 해결하려 하지 않고, 자체 모델도 병행해서 개발하고 있습니다. Gemini 증류 모델과 자체 개발 모델을 함께 활용하는 혼합 전략입니다.
중국 AI 기업들이 몰래 하던 바로 그것을 Apple은 공식 계약으로
이 대목이 이번 사건에서 가장 흥미로운 각도입니다. AI 업계에서는 몇 달 전부터 수군거림이 있었습니다. 일부 중국 AI 기업들이 OpenAI나 Anthropic, Google 등의 최신 모델에서 생성된 답변 데이터를 '무단으로' 활용해 자체 모델을 훈련시키고 있다는 의혹입니다.
이른바 모델 증류 무단 사용(unauthorized model distillation — 상업용 AI 서비스의 이용약관을 위반해 해당 모델의 출력물을 학습 데이터로 무단 수집·활용하는 행위) 문제입니다. OpenAI는 이를 공개적으로 비판하며 약관 위반이라는 입장을 밝히기도 했습니다.
그런데 Apple은 이것을 '공식 계약'으로 진행하고 있습니다. Google에 정당한 대가를 지불하고, 합법적인 방식으로 Gemini의 지식을 흡수하는 것입니다. 이는 단순히 법적 리스크를 피하는 것 이상의 의미를 가집니다. 세계 최고 수준의 AI 기술을 가진 회사들이 서로의 강점을 인정하고 기술 거래를 하는 새로운 업계 질서가 형성되고 있음을 보여주기 때문입니다.
Apple처럼 하드웨어와 소프트웨어 생태계를 장악한 기업이 Google처럼 AI 연구에서 앞선 기업에게 '수업료'를 내는 구조는, 앞으로 AI 산업 재편의 한 방향을 암시합니다. AI 모델을 직접 개발하는 능력보다, 최고의 AI에서 핵심을 추출해 자사 제품에 최적화하는 능력이 중요해질 수 있습니다.
핵심 비교
중국 AI 기업들: Gemini·GPT 답변 무단 수집 → 자체 모델 학습 (약관 위반 논란)
Apple: Google과 공식 계약 → 합법적 증류 학습 → iPhone 탑재
내 iPhone에는 언제 영향이 오나 — 6월 WWDC가 분수령
가장 현실적인 질문입니다. 언제 실제로 달라진 Siri를 경험할 수 있을까요? 현재 가장 유력한 시점은 2026년 6월 WWDC(Apple 세계 개발자 컨퍼런스 — Apple이 매년 6월 개최하는 개발자 대상 연례 행사로, iOS·macOS 등의 새 버전과 주요 AI 기능이 처음 공개되는 자리)입니다.
Apple은 통상 WWDC에서 그해 가을 출시할 iOS의 새 기능을 먼저 선보입니다. 2025년에는 Apple Intelligence라는 이름으로 AI 기능을 처음 도입했고, 2026년 WWDC에서는 이를 크게 업그레이드한 새 AI 기능들이 공개될 것으로 예상됩니다.
보도에 따르면 이번 증류 학습 프로젝트에서 나온 새 기능들이 바로 이 WWDC에서 공개될 가능성이 높습니다. 단순한 Siri 업데이트를 넘어, 인터넷 연결 없이도 복잡한 질문에 답하고, 맥락을 이해해 여러 앱을 넘나드는 작업을 수행하는 수준으로 발전할 것으로 기대됩니다.
다만 실제로 iPhone과 iPad에 탑재되는 시점은 가을 iOS 업데이트 이후입니다. iPhone 15 이상의 기기, 또는 Apple Silicon(M 시리즈 칩) 탑재 기기에서 최적으로 작동할 것으로 예상되며, 일부 기능은 더 최신 칩을 가진 기기에서만 사용 가능할 수도 있습니다.
AI 업계 '경량화' 패러다임의 새 시대
Apple의 이번 행보는 단순히 Siri 개선에 그치지 않습니다. 이는 AI 업계 전체가 향하고 있는 방향을 상징적으로 보여줍니다. 바로 '경량화(lightweighting)'입니다.
지금까지 AI 개발의 주된 방향은 더 크고, 더 많은 컴퓨팅 자원을 쓰는 방향이었습니다. GPT-4, Gemini Ultra 같은 초대형 언어 모델(Large Language Model — 수천억 개의 파라미터를 가진 대형 AI로, 학습과 실행에 막대한 컴퓨팅 자원이 필요함)은 뛰어난 성능을 보여주지만, 일반 기기에서 실행하기엔 너무 무겁습니다.
하지만 2025년 이후 업계의 화두는 달라졌습니다. '어떻게 하면 이 능력을 작은 기기에 담을 수 있을까?' 입니다. 지식 증류는 그 핵심 도구 중 하나입니다. Apple뿐 아니라 Microsoft, Meta, 삼성도 비슷한 방향으로 움직이고 있습니다.
이 흐름이 정착되면 AI의 혜택은 데이터센터나 클라우드에만 묶여 있지 않게 됩니다. 엣지 컴퓨팅(edge computing — 데이터를 중앙 서버가 아닌 사용자와 가까운 기기에서 직접 처리하는 방식으로, 응답 속도와 개인정보 보호 측면에서 유리함) 환경에서도 최신 AI 추론 능력을 누릴 수 있게 됩니다. 인터넷 신호가 약한 지하철에서도, 해외 로밍 중에도, 스마트 가전에서도 AI가 끊김 없이 작동하는 미래가 가까워지고 있습니다.
Apple이 Google에 돈을 내고 Gemini의 지혜를 Siri에게 수혈하고 있다는 사실, 그리고 그것이 하드웨어 생태계와 만나 완전히 새로운 AI 경험을 만들어낼 가능성, 이것이 2026년 AI 업계에서 가장 주목해야 할 흐름 중 하나입니다.
이번 보도의 핵심 팩트 요약
- Apple은 Google과 공식 계약으로 Gemini 전체 접근권 확보
- Gemini가 생성한 답변 + 연쇄추론이 소형 모델의 학습 데이터로 활용
- 완성된 소형 모델은 iPhone·iPad에서 온디바이스 실행
- Apple Foundation Models 팀은 자체 모델도 병행 개발 중
- 새 AI 기능은 2026년 6월 WWDC에서 첫 공개 예상
- 출처: The Information 단독 보도, The Decoder 인용
관련 콘텐츠 — AI 뉴스 더보기 | 무료 AI 학습 가이드 | Easy클코로 AI 시작하기