Siri가 난처했다. Apple이 이를 고치려 하고 있다.

발행: (2026년 2월 26일 오전 02:47 GMT+9)
13 분 소요
원문: Dev.to

I’m happy to translate the article for you, but I’ll need the full text of the post (the paragraphs you’d like translated). Could you please paste the article’s content here? Once I have it, I’ll provide a Korean translation while keeping the source link and all formatting exactly as you requested.

기술이란 무엇인가?

만약 Siri가 당신의 말을 완전히 오해해서 답답함을 느낀 적이 있다면, 당신만 그런 것이 아닙니다. 수년 동안 Apple의 음성 비서는 실제로 유용한 도구라기보다 파티 트릭에 가깝게 느껴졌습니다. 이제 그 상황이 바뀔 조짐이 보이는데… 바람직하게도 말이죠. Apple은 Siri를 근본적으로 다시 구축하여 ChatGPT처럼 작동하도록 만들고 있습니다. 즉, 말을 조심스럽게 고르고 Siri가 의미를 파악하기를 기대하는 대신, 자연스러운 대화를 나눌 수 있게 되는 것입니다.

그렇다면 이런 것이 실제로 어떻게 작동할까요? 모든 것은 Large Language Model(LLM)이라고 불리는 기술에 달려 있습니다. 인터넷에 있는 거의 모든 텍스트—교과서, 뉴스 기사, 코드, 소셜 미디어 게시물—를 읽어들여 언어를 이해하고 실제로 의미 있는 방식으로 응답하는 데 뛰어나게 된 AI라고 생각하면 됩니다. 그래서 ChatGPT가 옛날 Siri와는 전혀 다른 느낌을 주는 것입니다. 미리 정해진 명령어 목록에 당신의 말을 매핑하는 것이 아니라, 당신이 말한 내용을 실시간으로 처리하고 최적의 답변을 도출합니다.

Apple 버전은 Campos라는 코드명으로, Google의 Gemini AI 모델을 커스터마이징한 버전을 기반으로 합니다. 기사에 따르면 이 모델은 1.2 trillion parameters 규모로 동작한다고 하는데, 이는 모델의 능력을 측정하는 일종의 지표입니다. 숫자가 클수록 모델은 더 똑똑하고 능력이 뛰어나게 됩니다. 다만 주목해야 할 점은 그 모든 처리가 실제로 어디서 이루어지는가입니다. 이렇게 강력한 AI는 막대한 컴퓨팅 자원을 필요로 하며, Apple은 Campos를 완전히 기기 내에서 실행하기보다는 Google의 클라우드 서버를 통해 운영할 계획이라고 보고되었습니다.

기사 요약

간단히 말하면, 애플은 최근 AI 경쟁에서 힘든 시간을 보내고 있습니다. 2024년에 Apple Intelligence를 출시했을 때 큰 반향을 일으키지는 못했죠. 기능들이 지연되고, 공개된 것들은 반쯤 완성된 느낌이었으며, 이로 인해 많은 사람들이 애플이 그동안의 경쟁력을 잃었는지 의문을 품게 되었습니다. 한편, OpenAI와 구글은 꾸준히 인상적인 업데이트를 내놓았고, 삼성은 이미 휴대폰에 직접 내장된 대화형 AI에 전념하고 있었습니다. 애플은 뒤처지고 있었고, 그 사실은 누구에게나 명백했습니다.

블룸버그 기자 Mark Gurman에 따르면, 애플이 이 모든 문제에 대한 답을 내놓을 시기는 이번 가을, iOS 27 출시와 함께라고 합니다. 코드명 Campos로 개발된 새로운 Siri는 겉보기엔 익숙합니다—음성이나 측면 버튼을 길게 눌러 활성화하는 방식은 그대로입니다. 하지만 그 이후에 일어나는 일은 완전히 다른 이야기입니다. 이제는 다음과 같은 작업을 자연스러운 대화만으로 수행할 수 있는 비서가 됩니다:

  • 웹 검색
  • 이미지 생성
  • 파일 분석
  • 전화 설정 제어 — 모두 자연어 대화를 통해

게다가 이 비서는 애플의 핵심 앱에 내장될 예정이어서, 예를 들어 사진 앱 안에서 Siri와 대화하며 특정 사진을 찾고 편집하도록 하거나, 캘린더에 이미 잡혀 있는 일정을 기반으로 이메일을 작성해 달라고 요청할 수 있습니다.

여기서 중요한 점은 기능 자체가 아니라, 애플이 이전에 하지 않겠다고 말했던 일을 실제로 수행한다는 점입니다. 수년간 경영진은 사용자가 채팅 인터페이스를 원하지 않으며 AI는 조용히 백그라운드에서 작동해야 한다고 주장해 왔습니다. 그러나 그 입장은 더 이상 설득력을 잃었습니다. OpenAI가 자체 하드웨어를 구축하고, 애플 엔지니어들을 영입하며, 속도를 늦추지 않는 상황에서, 애플은 게임에 참여할 수밖에 없었습니다.

모바일 개발에 어떻게 적용되나요?

  1. 기준을 높이는 것 – 운영 체제 자체가 대화를 통해 이메일을 작성하고, 파일을 찾고, 이미지를 생성하며, 기기 설정을 제어할 수 있게 되면, 많은 단순 유틸리티 앱이 중복되는 느낌을 받게 됩니다. 개발자는 내장 AI가 이미 네이티브하게 처리할 수 없는 진정한 가치를 앱이 제공하는지 진지하게 고민해야 합니다. 앱의 주요 기능이 이제 Siri가 2초 만에 할 수 있는 일이라면, 이는 조속히 해결해야 할 실제 문제입니다.

  2. 새로운 API 기회 – Apple은 개발자가 앱을 Siri 경험에 직접 연결할 수 있는 새로운 API를 거의 확실히 출시할 것입니다. 이러한 통합을 위해 구축하는 초기 채택자는 앱이 AI와 경쟁하는 것이 아니라 사용자가 전화기에서 AI와 상호작용하는 방식의 일부가 되기 때문에 이점을 얻습니다. 트렌드 앞서 나가는 것이 필수적입니다.

  3. 음성 및 대화형 인터페이스가 필수가 된다 – 현재 많은 앱이 음성 접근성을 선택 사항으로 여기며, 처음부터 내장하기보다는 뒤에 덧붙이는 형태입니다. 사용자가 전화기에 말을 걸고 실제로 유용한 응답을 받는 것에 익숙해짐에 따라 기대치가 변합니다. 탭과 스와이프만이 아니라 대화를 위한 설계가 전반적인 기본 기대가 될 것입니다.

  4. 개인정보 고려 사항 – 기사에서는 Apple이 챗봇이 사용자에 대해 얼마나 기억하도록 허용할지 아직 논의 중이라고 언급합니다. 개인화와 프라이버시 사이의 이 긴장은 AI 분야에서 일하는 모든 개발자가 특히 Apple 플랫폼에서 신중히 다루어야 할 문제입니다. Apple은 프라이버시를 브랜드의 핵심으로 삼아 왔기 때문입니다. 사용자 데이터를 어떻게 처리하고, 무엇을 저장하며, 투명성을 어떻게 유지하느냐가 AI가 사람들과 상호작용하는 기본 방식이 됨에 따라 더욱 중요해집니다.

Source:

내 의견

항상 그렇듯이 저는 의견이 많지만, 간결함을 위해 짧게 정리하겠습니다. 여기서는 보안 문제와 애플이 구글과 파트너십을 맺은 것이 왜 현명한 선택인지에 대해서만 다루겠습니다.

보안

제가 이전 블로그 포스트에서 OpenClaw에 대해 다룬 것을 보셨다면, AI 에이전트에 대한 저의 주요 우려가 보안이라는 것을 아실 겁니다. 하지만 저는 애플이 이미 이 문제를 해결했다고 생각합니다… (원문은 여기서 끊깁니다).

# Apple and Google Gemini Deal

This is my favorite topic. Apple partnering with Google to use their AI models is a genuinely smart move, and before you say Apple couldn't cut it in the AI race, let me explain.

Apple has always been late to the game and they are pretty transparent about it. They focus more on making things better rather than trying to be first to market. They would rather take their time and get it right than rush out something sub‑par.

Apple is also great at marketing. The iPhone, which is responsible for their largest source of revenue, is largely built on other companies' hardware technology wrapped in a beautiful product. I am not down‑playing their innovation at all because the Apple user experience is genuinely one of the best in the world. I am just pointing out that Apple built a trillion‑dollar company without starting with their own hardware, so partnering with Google is very on‑brand for them.

It also just makes economic sense. Training AI models right now is extremely expensive—so expensive that I personally do not think most LLM companies will ever see a return on their investment. By partnering with Google, Apple gets access to a great model right from the start. And if this AI technology is not just hype and actually sticks around, they will have the time and resources to slowly train their own models down the road and potentially save a lot of money in the process.

**Reference**

According to a January 2026 article by Mark Gurman at Bloomberg, *Apple to Revamp Siri as a Built‑In iPhone, Mac Chatbot to Fend Off OpenAI*:

[Apple to Revamp Siri as a Built‑In iPhone, Mac Chatbot to Fend Off OpenAI](https://www.bloomberg.com/news/articles/2026-01-21/ios-27-apple-to-revamp-siri-as-built-in-iphone-mac-chatbot-to-fend-off-openai)

---

### Context: Apple Intelligence & Privacy

During WWDC 2024, Apple introduced **Apple Intelligence**, emphasizing that all user prompts stay on device. If additional computing power is needed, the system can fall back to cloud servers, but the data is anonymized, and even Apple cannot link the prompt back to the user. This approach is a very different situation from what we saw with OpenAI.

---

*Note: The content above retains the original ideas and structure while correcting typographical errors, improving readability, and applying consistent markdown formatting.*
0 조회
Back to Blog

관련 글

더 보기 »