김과장
AI 뉴스 목록
2026-03-28AppleSiriGoogle GeminiWWDC 2026온디바이스 AIAI 협력

Siri가 드디어 달라집니다 — Apple이 Google Gemini 통째로 빌려 Siri에 집어넣는다

Apple이 Google Gemini 모델에 완전한 접근을 확보해 지식 증류 방식으로 소형 온디바이스 모델을 훈련 중입니다. WWDC 2026(6월 8일)에서 새 Siri 기능이 공개될 예정이며, 독립 앱과 챗봇 스타일 UI도 출시됩니다.


Apple이 Google의 최신 AI 모델 Gemini를 단순히 검색 기본값으로 탑재하는 수준을 넘어, 모델 수준의 심층 협력을 진행하고 있다는 사실이 The Information 보도를 통해 알려졌습니다. 핵심은 Apple이 자사 데이터센터 안에서 Gemini 모델에 '완전한 접근(complete access)'을 확보했다는 것입니다. 그리고 이 접근권을 활용해 지식 증류(distillation, 큰 AI 모델이 만든 고품질 답변으로 작은 모델을 학습시켜 비슷한 성능을 내게 하는 기술)라는 방식으로 iPhone에서 직접 실행되는 가벼운 AI 모델을 훈련하고 있다는 점입니다. 이것이 사실이라면 Siri는 단순한 음성 비서를 넘어 훨씬 강력한 AI 어시스턴트로 탈바꿈할 수 있습니다.

Apple 로고

지식 증류란 무엇인가 — Gemini를 '선생님'으로 쓰는 Apple

지식 증류(knowledge distillation, 큰 AI 모델이 만든 고품질 답변으로 작은 모델을 학습시켜 비슷한 성능을 내게 하는 기술)는 AI 업계에서 점점 더 중요해지는 기술입니다. 방식은 이렇습니다. 먼저 Gemini처럼 크고 강력한 AI 모델이 수많은 질문에 대한 정확한 답변과 추론 과정(어떤 순서로 생각해서 결론에 도달했는지를 보여주는 연쇄 사고, chain of thought)을 생성합니다. 그 다음, 이렇게 만들어진 고품질 데이터를 훨씬 작고 가벼운 모델이 학습합니다. 이 과정을 통해 작은 모델은 큰 모델에 가까운 성능을 갖추게 됩니다.

Apple이 노리는 것은 바로 이것입니다. Gemini급의 탁월한 답변 능력을 가지면서도, iPhone 내부에서 인터넷 연결 없이 직접 실행될 만큼 가벼운 온디바이스(on-device, 인터넷 서버가 아닌 기기 자체에서 처리하는 방식) AI 모델을 만드는 것입니다. Apple이 오래도록 추구해온 개인정보 보호(privacy) 철학과도 맞닿아 있습니다. 클라우드 서버로 데이터를 보내지 않고 기기에서 직접 처리하면, 사용자의 대화 내용이나 개인 정보가 외부로 유출될 위험이 줄어들기 때문입니다.

중요한 점은 Apple이 Gemini를 iPhone에서 직접 실행하는 것이 아니라는 것입니다. Gemini는 Apple의 데이터센터 안에서 교사(teacher) 역할을 하고, 그 학습 결과로 만들어진 작고 가벼운 모델이 실제로 iPhone에서 돌아가는 방식입니다. Gemini는 일종의 "지식 공급자"로 활용되는 셈입니다.

지금 Siri는 어디쯤 있나 — 현재 상황 진단

솔직히 말하면, 현재 Siri의 상황은 그다지 밝지 않습니다. ChatGPT, Google Gemini, Meta AI 등 경쟁 AI 어시스턴트들이 놀라운 속도로 발전하는 동안, Siri는 "왜 이렇게 답변을 못 하냐"는 비판을 꾸준히 받아왔습니다. Apple은 2024년 Apple Intelligence를 발표하며 Siri의 대대적인 업그레이드를 약속했지만, 기대만큼의 결과물이 나오지 않았습니다.

보도에 따르면 Apple이 아직 온디바이스 증류 모델을 배포하지 않은 상태입니다. 현재 Siri가 복잡한 질문에 답할 때는 여전히 클라우드 기반의 Gemini에 의존하는 방식입니다. 즉, 현 단계에서는 Siri의 일부 기능이 실제로 Google Gemini를 뒤에서 사용하고 있다는 의미입니다. 이미 2025년 Apple이 Siri의 일반 지식 질문 처리를 위해 Google과 협약을 맺었다는 것은 알려진 사실이기도 합니다.

WWDC 2026, 6월 8일 — 새 Siri가 공개된다

Apple은 2026년 6월 8일 개최 예정인 WWDC 2026(Worldwide Developers Conference, 애플이 매년 여는 개발자 대상 연례 콘퍼런스)에서 새로운 Siri 기능들을 공개할 예정입니다. 보도에 따르면 이번 업데이트에 포함될 기능들은 다음과 같습니다.

  • 대화 기억(Conversation Memory): Siri가 이전 대화 내용을 기억해서, 매번 처음부터 설명하지 않아도 맥락을 이해하는 기능
  • 교통 예측 기반 출발 알림: 목적지까지의 실시간 교통 상황을 분석해서, 제때 출발할 수 있도록 미리 알림을 보내주는 기능
  • Siri 독립형 앱: 기존에는 시스템에 내장된 기능으로만 접근 가능했던 Siri가 별도의 독립 앱으로 출시될 예정. 챗봇(chatbot, 사람과 텍스트로 대화하는 AI 프로그램) 스타일의 새로운 UI(User Interface, 사용자가 화면에서 보고 조작하는 디자인 요소 전체)도 도입됩니다

이 기능들이 공개되면 Siri는 지금보다 훨씬 더 대화 맥락을 이해하고, 능동적으로 사용자를 도울 수 있는 AI 어시스턴트가 될 것입니다.

Google Gemini AI 로고

Apple Foundation Models 팀과 병행 운영

Apple은 Google Gemini에 전적으로 의존하는 것은 아닙니다. Apple Foundation Models 팀이 자체 AI 모델을 개발하는 작업도 병행하고 있습니다. Foundation Model(파운데이션 모델, 방대한 데이터로 사전 학습된 거대 AI 모델로 다양한 용도로 활용 가능한 기반 모델)은 특정 용도에만 쓰이는 전문 모델이 아니라, 다양한 기능의 기반이 되는 범용 AI 모델입니다.

즉, Apple의 전략은 이렇게 요약됩니다. 단기적으로는 Google Gemini의 도움을 받아 Siri를 빠르게 개선하고, 장기적으로는 자체 개발 모델로 점차 대체하거나 보완하는 것입니다. Gemini 의존도를 줄이면서도 당장의 성능 경쟁에서 뒤처지지 않으려는 현실적인 선택입니다.

The Information의 날카로운 지적 — 중국 AI 기업들도 같은 방식을 써왔다

이 보도에서 특히 흥미로운 대목은 The Information 기자의 논평입니다. 기자는 "Apple이 공식적으로 비용을 지불하며 하는 이 방식은, 중국 AI 기업들이 은밀히 수행해온 방식과 동일하다"고 지적했습니다. 중국의 일부 AI 스타트업들이 OpenAI나 Anthropic의 출력 데이터를 활용해 자국 모델을 훈련시켜왔다는 의혹은 AI 업계에서 오랫동안 논란이 되어왔습니다. Apple의 방식이 그것과 기술적으로는 유사하지만, 계약과 비용 지불을 통해 공식적이고 합법적으로 진행된다는 점에서 근본적인 차이가 있습니다.

이 논평은 AI 모델 학습 방식을 둘러싼 윤리적 논의가 업계 전반에서 얼마나 민감한 사안인지를 보여줍니다. Apple-Google의 이번 협력은 단순히 두 회사의 비즈니스 거래를 넘어, AI 업계의 기술 공유와 협력 방식에 대한 새로운 기준점이 될 수 있습니다.

Apple-Google 관계의 새로운 국면

Apple과 Google의 관계는 역사적으로 복잡했습니다. Google 검색이 iPhone의 기본 검색 엔진으로 설정되어 있어 Google이 Apple에게 막대한 수익 배분을 지급한다는 것은 잘 알려진 사실입니다. 이 계약은 미국 법무부의 반독점 소송(antitrust lawsuit, 시장 경쟁을 해치는 독점 행위를 막기 위한 법적 조치) 대상이기도 합니다.

그런데 이번 보도는 두 회사의 협력이 검색 제휴를 훨씬 넘어, AI 모델 수준의 깊은 기술 협력으로 진화하고 있음을 보여줍니다. Apple이 직접 AI 모델을 Google로부터 "빌려" 자사 기기를 위한 AI를 키우는 셈입니다. 경쟁과 협력이 뒤섞인 이 관계는 AI 시대에 빅테크 기업들이 어떻게 공존하고 경쟁하는지를 잘 보여주는 사례입니다. 자세한 내용은 9to5Mac 보도MacRumors에서 확인할 수 있습니다.

관련 콘텐츠Easy클코로 AI 시작하기 | 무료 학습 가이드 | AI 뉴스 더보기

AI 소식, 가장 빠르고 쉽게 받아보세요

누구나 이해할 수 있도록, 가장 자세하고 쉽게 알려드립니다

텔레그램 채널 구독