Show HN: Agent-cache – Valkey와 Redis를 위한 다계층 LLM/툴/세션 캐싱

발행: (2026년 4월 16일 PM 09:37 GMT+9)
2 분 소요

Source: Hacker News

Overview

AI 에이전트를 위한 다계층 정확도 매치 캐시로 Valkey 또는 Redis를 백엔드로 사용합니다.
LLM 응답, 도구 결과, 그리고 세션 상태가 단일 연결 뒤에 저장됩니다.
LangChain, LangGraph, 그리고 Vercel AI SDK용 프레임워크 어댑터가 제공됩니다.
내장 OpenTelemetryPrometheus 지원을 포함합니다.
추가 모듈 없이도 일반 Valkey 7+ 및 Redis 6.2+에서 동작합니다.

Release History

  • v0.1.0 – 어제 배포
  • v0.2.0 – 오늘 클러스터 모드와 함께 출시
  • Streaming support – 다음에 제공 예정

Why It Matters

기존 캐시 옵션은 단일 계층(예: LangChain = LLM 전용, LangGraph = 상태 전용)이나 단일 프레임워크에 종속됩니다. 이 라이브러리는 다계층 캐시와 프레임워크에 구애받지 않는 어댑터를 모두 제공합니다.

Installation

npm install @betterdb/agent-cache

Documentation

  • API reference:

Examples

  • Cookbooks:

Source Code

  • GitHub repository:
0 조회
Back to Blog

관련 글

더 보기 »

거의 모든 것을 위한 Codex

개요 우리는 Codex에 대한 대규모 업데이트를 출시합니다. 이를 통해 매주 300만 명이 넘는 개발자들이 가속화를 위해 사용하는 보다 강력한 파트너가 됩니다.

RamAIn (YC W26) 채용 중

RamAIn은 Shourya Vir Jain CEO와 Vansh Ramani CTO가 설립했으며, 두 사람은 IIT Delhi에서 만나 대학을 중퇴하고 기업 업무를 위한 AI-native 자동화를 구축하기 위해 회사를 시작했습니다.