Show HN: Agent-cache – Valkey와 Redis를 위한 다계층 LLM/툴/세션 캐싱
Source: Hacker News
Overview
AI 에이전트를 위한 다계층 정확도 매치 캐시로 Valkey 또는 Redis를 백엔드로 사용합니다.
LLM 응답, 도구 결과, 그리고 세션 상태가 단일 연결 뒤에 저장됩니다.
LangChain, LangGraph, 그리고 Vercel AI SDK용 프레임워크 어댑터가 제공됩니다.
내장 OpenTelemetry 및 Prometheus 지원을 포함합니다.
추가 모듈 없이도 일반 Valkey 7+ 및 Redis 6.2+에서 동작합니다.
Release History
- v0.1.0 – 어제 배포
- v0.2.0 – 오늘 클러스터 모드와 함께 출시
- Streaming support – 다음에 제공 예정
Why It Matters
기존 캐시 옵션은 단일 계층(예: LangChain = LLM 전용, LangGraph = 상태 전용)이나 단일 프레임워크에 종속됩니다. 이 라이브러리는 다계층 캐시와 프레임워크에 구애받지 않는 어댑터를 모두 제공합니다.
Installation
npm install @betterdb/agent-cache
Documentation
- API reference:
Examples
- Cookbooks:
Source Code
- GitHub repository: