TensorFlow 2.21의 새로운 기능
Source: Google Developers Blog
What’s new in the LiteRT stack?

Google I/O ‘25에서 우리는 LiteRT의 진화(the evolution)에 대한 미리보기를 공유했습니다. LiteRT는 고성능 하드웨어 가속을 위해 특별히 설계된 런타임입니다. 오늘 우리는 이러한 고급 가속 기능이 완전히 LiteRT** 프로덕션 스택**에 졸업했으며, 이제 모든 개발자가 사용할 수 있게 되었음을 발표하게 되어 기쁩니다.
이 이정표는 LiteRT가 AI 시대를 위한 범용 온‑디바이스 추론 프레임워크임을 확고히 하며, TFLite에 비해 다음과 같은 큰 도약을 의미합니다:
- 더 빠름 – GPU 성능이 TFLite보다 1.4배 빠르며, 최신 NPU 가속을 새롭게 도입했습니다.
- 더 간단함 – 엣지 플랫폼 전반에 걸친 GPU와 NPU 가속을 위한 통합되고 간소화된 워크플로를 제공합니다.
- 더 강력함 – Gemma와 같은 인기 오픈 모델에 대한 뛰어난 크로스‑플랫폼 GenAI 배포를 지원합니다.
- 더 유연함 – 원활한 모델 변환을 통해 일류 PyTorch/JAX 지원을 제공합니다.
이 모든 기능은 TFLite 이후로 여러분이 신뢰해 온 안정적이고 크로스‑플랫폼 배포를 그대로 유지하면서 제공됩니다.
전체 발표를 읽어보고(full announcement) 시작해 보세요.
tf.lite
- 여러 연산자가 이제 int8 및
SQRT연산자를 위한 int16x8, 비교 연산자를 위한 int16x8 등 낮은 정밀도 데이터 타입을 지원하여 성능과 효율성을 향상시킵니다. - 작은 데이터 타입에 대한 지원이 여러 연산자로 확대되었습니다:
tfl.cast는 이제INT2와INT4변환을 지원하고,tfl.slice는INT4를 지원하도록 추가되었으며,tfl.fully_connected는 이제INT2를 지원합니다.
Community updates
커뮤니티로부터 버그를 신속히 수정하고 의존성 업데이트를 더 빠르게 제공해야 한다는 요구를 들었습니다. 이에 우리는 해당 작업에 대한 자원을 확대하고 있습니다. 앞으로는 다음에만 전념할 예정입니다:
- 보안 및 버그 수정 – 보안 취약점과 중요한 버그 해결을 가속화하고, 필요에 따라 마이너 및 패치 릴리스를 제공합니다.
- 의존성 업데이트 – 새로운 Python 릴리스 및 기타 의존성을 지원하기 위해 필요에 따라 마이너 버전을 릴리스합니다.
- 커뮤니티 기여 – 오픈소스 커뮤니티로부터 중요한 버그 수정을 지속적으로 검토하고 받아들입니다.
이 약속은 TF.data, TensorFlow Serving, TFX, TensorFlow Data Validation, TensorFlow Transform, TensorFlow Model Analysis, TensorFlow Recommenders, TensorFlow Text, TensorBoard, 그리고 TensorFlow Quantum에 적용됩니다.
Note: The TF Lite project has been renamed to LiteRT and is in active development separately.
TensorFlow는 여전히 프로덕션 안정성을 제공하지만, Keras 3, JAX 및 PyTorch에 대한 최신 업데이트를 탐색하여 생성 AI 분야의 새로운 작업을 진행할 것을 권장합니다.