지난주 IT 업계를 가장 들썩이게 만든 뉴스 중 하나가 바로 애플 관련 보도였습니다. 자기네 생태계를 지키는 데 있어서는 어지간한 국경 수비대보다 빡빡했던 애플이, 드디어 외부 AI 모델을 자기네 운영체제 안으로 들이겠다는 겁니다. 마치 평생 인스턴트 라면만 끓이던 친구가 갑자기 미슐랭 셰프 라면 키트를 사다 먹기 시작한 격이랄까요.
Extensions, 이게 도대체 뭐길래
블룸버그 마크 거먼 기자의 보도에 따르면 애플은 iOS 27, iPadOS 27, macOS 27에서 사용자가 생성형 AI 작업을 요청할 때 여러 외부 모델 중에서 선택할 수 있게 할 계획입니다. 애플은 이 새로운 기능을 iOS 27 내부적으로 'Extensions'라고 부르고 있습니다. 테스트 버전에서 애플은 Extensions를 두고 "Siri, Writing Tools, Image Playground 등 Apple Intelligence 기능을 통해 설치된 앱의 생성형 AI 기능에 온디맨드로 접근할 수 있게 해주는 기능"이라고 설명하고 있습니다. Engadget9to5Mac
쉽게 말하면 이런 구조입니다.
작동 방식 한눈에 보기
| AI 제공자 | 애플 자체 모델 + ChatGPT(폴백) | 애플 + 사용자 선택 (Gemini, Claude, ChatGPT 등) |
| 선택 단위 | 시스템이 알아서 라우팅 | 사용자가 설정 앱에서 직접 선택 |
| 적용 범위 | 기능별 개별 통합 | 시스템 전체 라우팅 |
| Siri 음성 | 단일 음성 | 모델별로 다른 음성 가능 |
사용자가 설정에서 한 번 선택하면 그 결정이 Siri, Writing Tools, Image Playground에 동시에 반영됩니다. 공식 발표는 2026년 6월 8일 WWDC에서 이뤄질 예정입니다. DigitBin
왜 갑자기 마음을 바꿨을까
애플답지 않은 결정이 나온 데는 이유가 있습니다. 솔직히 말해서 애플 인텔리전스가 그렇게 잘 굴러가지 못했습니다. 이번 변화는 애플이 디바이스를 'AI 제품'이 아닌 'AI 플랫폼'으로 다루겠다는 방향 전환을 보여줍니다. 애플이 출시하는 모델은 하나의 옵션일 뿐이고, 사용자가 선호하는 모델은 또 다른 옵션이 되는 식입니다. DigitBin
그리고 한 가지 재미있는 포인트가 있습니다. 이번 Extensions와 별개로, 애플은 이미 구글과 별도의 계약을 맺어 Gemini가 네이티브 Siri와 Apple Intelligence 기능을 직접 구동하도록 하기로 했습니다. 즉 사용자가 아무것도 안 만져도 백그라운드에서는 Gemini가 돌아가는 그림이 그려질 수도 있다는 얘기입니다. 9to5Mac
개발자 입장에서 보는 관전 포인트
저처럼 코드 짜는 일을 하는 입장에서 이 뉴스가 흥미로운 이유는 따로 있습니다. 이게 단순한 사용자 옵션 추가가 아니라 운영체제 레벨에서의 라우팅 레이어 신설이라는 점입니다.
공개 보도에 따르면 이 설계는 운영체제 내부에 라우팅 레이어를 두고 생성 작업을 외부 서비스에 전달하는 구조입니다. 이는 두 가지 구현 작업을 시사합니다. 앱이 외부 모델을 호출할 수 있는 명확한 API 바인딩, 그리고 설정 앱 내 기본값을 선택할 수 있는 사용자 환경설정 레이어가 필요합니다.
아직 남아있는 질문들
이 보도가 완벽한 청사진은 아닙니다. 현재 보도에서는 외부 모델에 전송된 프롬프트가 온디바이스에서 처리되는지 외부로 전송되는지 확인되지 않았습니다. Apple Intelligence는 자체 모델에 대해 Private Cloud Compute를 운영하고 있는데, Claude나 Gemini가 동일한 프라이버시 아키텍처를 따를지는 아직 다뤄지지 않았습니다. 또한 Claude Pro나 Gemini Advanced 같은 프리미엄 AI 등급이 전체 기능을 사용하는 데 필요한지, 아니면 무료 앱 설치로 충분한지도 불분명합니다. DigitBin
책임 소재 문제
애플은 외부 AI 제공자가 생성한 결과물에 대해 책임을 면하는 방침을 계획하고 있습니다. 따분하게 들리지만, 이는 전체 구조를 가능하게 만드는 법적 골격입니다. Gemini나 Claude의 응답이 부정확하거나 편향되거나 유해할 경우, 애플의 입장은 그 모델 개발자가 결과를 책임진다는 것입니다. Nerdleveltech
Siri가 갑자기 두 명이 되는 기분
가장 신선한 디테일은 음성 부분입니다. 또 다른 개선 사항은 사용자가 외부 모델로 작동하는 Siri 대화에 대해 다른 음성을 선택할 수 있게 하는 것입니다. 애플 자체 시스템이 처리하는 질의는 한 음성을 사용하고, Anthropic의 Claude 같은 외부 모델의 응답은 다른 음성을 사용할 수 있습니다. 9to5Mac
상상해 보세요. "Hey Siri, 오늘 일정 알려줘"라고 하면 평소 목소리로 답하다가, "이 글 좀 다듬어줘"라고 하면 갑자기 다른 목소리로 답하는 겁니다. 한 휴대폰 안에 여러 인격이 사는 것 같은 경험이 될 것 같습니다.
정리하며
애플의 이번 결정이 가져올 변화를 한 줄로 요약하자면, "아이폰이 더 이상 단일 AI 제품이 아니라 AI 플랫폼이 된다"는 점입니다. 이제 안드로이드 사용자가 "어떤 AI 쓰세요?"라고 물어보면 아이폰 사용자도 "Claude요" 혹은 "Gemini요"라고 답할 수 있게 됩니다.
물론 모든 것은 6월 8일 WWDC에서 드러납니다. 그때까지는 그저 추측의 영역이지만, 만약 보도대로 진행된다면 우리가 알던 애플 생태계의 모습이 꽤 많이 바뀔 것 같습니다. 발표 당일에는 트위터(아 이제 X죠)가 또 한 번 들썩일 예정입니다.
'IT' 카테고리의 다른 글
| 미국 정부가 AI를 출시 전 검열한다, CAISI-구글-MS-xAI 협약의 진짜 의미 (1) | 2026.05.12 |
|---|---|
| 카카오톡 ChatGPT Go 3개월 무료 이벤트 총정리 - 톡학생증 인증으로 대학생 무료 혜택 받는 방법 (2) | 2026.05.11 |
| 클로드 코드 5시간 세션 한도 2배 확대, 일시적 이벤트일까? 주간 한도까지 늘었을까? (6) | 2026.05.08 |
| Microsoft Agent 365 출시, AI 에이전트 거버넌스 시대가 진짜 시작됐다 (4) | 2026.05.06 |
| OpenAI 연 매출 25조 돌파, IPO 임박설로 본 AI 머니게임의 새 국면 (9) | 2026.05.05 |