Google AI Edge Gallery에서 온-디바이스 함수 호출
Source: Google Developers Blog
2026년 2월 26일
AI의 진정한 마법은 모델이 단순히 세상을 묘사하는 것을 멈추고 실제로 상호작용을 시작할 때 일어납니다. 이러한 상호작용 메커니즘 중 하나가 툴‑사용(tool‑use)이며, 이는 함수 호출을 예측하고 실행하는 능력(예: 앱 열기 또는 시스템 설정 조정)을 의미합니다.
툴‑사용을 디바이스 내에서 전환하면 개발자는 연결 여부와 관계없이 즉시 반응하는 상호작용을 구축할 수 있습니다. 예를 들어, 자연어 음성 비서는 운전 중에도 즉시 캘린더 항목을 만들거나 목적지로 이동하도록 안내할 수 있습니다.
하지만 이러한 수준의 기능을 모바일에 구현하는 일은 여전히 큰 도전 과제입니다. 기존의 함수 호출은 메모리 사용량이 모바일 하드웨어 한계를 훨씬 초과하는 대형 모델을 필요로 했습니다. 진정한 엔지니어링 과제는 정확성을 유지하면서 배터리를 소모하지 않도록 모델을 모바일 친화적인 크기로 압축하는 것입니다.
오늘 발표된 Google AI Edge Gallery 소식
-
크로스‑플랫폼 제공 – Google AI Edge의 크로스‑플랫폼 기능을 기반으로, Google AI Edge Gallery를 iOS(App Store link)와 Android(Play Store link) 모두에서 제공하게 되어 기쁩니다. 개발자는 이제 iOS 생태계에서도 Gemma 및 기타 오픈‑웨이트 모델이 구동하는 고성능 온‑디바이스 AI 사용 사례를 직접 탐색할 수 있습니다.
-
에이전시 경험 통합 – 기본 제공 에이전시 경험인 Mobile Actions와 Tiny Garden이 갤러리에서 바로 이용 가능해졌으며, Google의 효율적인 FunctionGemma 모델이 270 M 파라미터만으로 자연어를 온‑디바이스 함수 호출로 변환하는 방식을 보여줍니다.
-
내장 벤치마크 – 최근 LiteRT 발표에서 소개된 최신 성능 벤치마크를 활용해, 앱에 벤치마크 기능을 추가했습니다. 사용자는 자신의 디바이스에서 LiteRT의 선도적인 CPU 및 GPU 성능을 직접 측정하고 체험할 수 있습니다.
이러한 업데이트를 통해 빠르고, 프라이버시를 보장하며 언제든 사용할 수 있는 온‑디바이스 AI를 개발·테스트·체험하는 것이 그 어느 때보다 쉬워졌습니다. 🚀
모바일 액션 및 Tiny Garden 체험
Mobile Actions 데모는 FunctionGemma가 휴대폰 기반 어시스턴트를 완전 오프라인 경험으로 전환할 수 있음을 보여줍니다. 모델은 자연어 명령을 파싱합니다—예를 들어
- “샌프란시스코 공항을 지도에 보여줘.”
- “내일 오후 2시 30분에 요리 수업 일정 만들기.”
- “플래시 라이트 켜기.”
…그리고 각 요청을 적절한 OS 도구나 앱 인텐트에 매핑합니다.
Tiny Garden 데모는 음성 명령을 사용해 가상 구역을 가꾸는 인터랙티브 미니 게임입니다. “위쪽 행에 해바라기를 심고 물을 줘”와 같은 명령은 모델에 의해 plantCrop, waterCrop와 같은 특정 앱 함수와 올바른 그리드 좌표로 분해됩니다. 이는 Google의 컴팩트한 270 M Parameter FunctionGemma 모델이 매우 구체적이고 맞춤화된 게임 또는 앱 로직을 모바일 기기에서 직접 실행할 수 있음을 보여줍니다—서버 호출이 필요 없습니다.
데모 영상
Android용 Mobile Actions
<video controls>
<source src="URL_TO_MOBILE_ACTIONS_VIDEO.mp4" type="video/mp4">
Sorry, your browser doesn't support playback for this video.
</video>
Android(및 현재 iOS)용 Tiny Garden
<video controls>
<source src="URL_TO_TINY_GARDEN_VIDEO.mp4" type="video/mp4">
Sorry, your browser doesn't support playback for this video.
</video>
순수 Markdown을 선호한다면 다음과 같이 영상에 링크할 수도 있습니다:
자체 사용 사례 시작하기
데모를 확인했으니 이제 이 접근 방식을 여러분의 프로젝트에 적용해 보세요:
- Fine‑tune 모델: Mobile Actions용 파인튜닝 가이드를 참고하세요.
- 앱에 함수 호출 구현: Function Calling Guide를 따라 진행하세요.
즐거운 개발 되세요!
Google AI Edge Gallery – 이제 iOS에서도
Google AI Edge의 크로스‑플랫폼 기능을 기반으로, Google AI Edge Gallery를 App Store에서 출시하면서 전체 Android 경험을 iOS 생태계에 제공하게 되어 기쁩니다.
내용 소개
- 멀티턴 AI 채팅 – 기기 내에서 동작하는 대화형 AI.
- 이미지 질문 – 로컬에서 이미지를 조회하여 즉시 인사이트 제공.
- 오디오 스크라이브 – 클라우드에 데이터를 전송하지 않고 기기 내에서 전사.
- 에이전시 시연 –
- 모바일 액션 – Apple 하드웨어에서 정교한 도구 호출 및 함수 호출.
- 타이니 가든 – 기기 내 AI 기능을 재미있게 보여주는 전시.
Google AI Edge 스택의 통합된 파워를 활용하여, 모바일 플랫폼에 관계없이 모든 사람에게 최고의 기기 내 성능, 프라이버시 및 오프라인 신뢰성을 제공합니다.
iOS에서 모바일 액션을 실제로 보기
죄송합니다, 브라우저가 이 비디오 재생을 지원하지 않습니다.
(적절한 플랫폼에 게시할 때 여기에서 비디오 임베드 또는 스크린샷을 삽입하세요.)
앱에서 모델 성능 테스트
이 속도를 직접 확인하고 싶으신가요? 이제 갤러리 앱에서 직접 모델을 벤치마크할 수 있습니다 (**Android**에서 사용 가능; iOS는 곧 제공됩니다).
Mobile Actions를 예시로 들면, CPU에서 성능이 매우 빠릅니다—Pixel 7 Pro에서 1916 tokens/sec (prefill) 및 142 tokens/sec (decode).
자체 벤치마크 테스트 실행 방법
- 메뉴 열기 – 갤러리 앱 좌측 상단의 햄버거 아이콘을 탭합니다.
- 모델 선택 – Models 타일을 탭하여 다운로드 가능한 모델 전체 목록을 확인합니다.
- 벤치마크 – 벤치마크 버튼을 눌러 구성(프리필/디코드 토큰 수 또는 실행 횟수 조정)을 실험하고 FunctionGemma가 하드웨어에서 어떻게 동작하는지 정확히 확인합니다.

지금 Android에서 시도해보고 모델이 휴대폰에서 어떻게 동작하는지 확인해 보세요!
오늘 시작하기
첫 번째 로컬 에이전트를 만들 준비가 되셨나요? 다음은 시작하는 방법입니다:
-
데모 살펴보기 – Google AI Edge Gallery 앱을 다운로드하세요:
-
직접 만들기 – fine‑tuning recipes를 따라 FunctionGemma를 앱 로직에 맞게 조정하고, 자체 기능으로 AI Edge Gallery를 커스터마이즈하세요 (guide).
-
대화에 참여하기 – AI Edge Gallery repository on GitHub를 방문해 진행 상황을 확인하고, 이슈를 보고하거나, 온‑디바이스 AI 사용 사례의 미래에 기여하세요.
여러분이 구현할 에이전시 기능을 기대합니다. 즐거운 코딩 되세요!
감사의 글
핵심 기여자
- Francesco Visin
- Hriday Chhabria
- Jiageng Zhang
- Jing Jin
- Kat Black
- Marissa Ikonomidis
- Matthew Chan
- Ravin Kumar
- Rishika Sinha
- Sahil Dua
- Xu Chen
- Na Li
- Yinghao Sun
- Yishuang Pang
추가 팀원
- Byungchul Kim
- Deepak Nagaraj Halliyavar
- Fengwu Yao
- Jae Yoo
- Jenn Lee
- Weiyi Wang
- Xiaoming Hu
- Yasir Modak
- Yi‑Chun Kuo
- Yu‑hui Chen
- Zhe Chen
리더십
- Cormac Brick
- Kathleen Kenealy
- Matthias Grundmann
- Ram Iyengar
- Sachin Kotwani