SuperLocalMemory V3: 생산 등급 에이전트 메모리를 위한 수학적 기초

발행: (2026년 3월 18일 PM 01:00 GMT+9)
11 분 소요
원문: Dev.to

Source: Dev.to

위 링크에 포함된 전체 텍스트를 제공해 주시면, 해당 내용을 한국어로 번역해 드리겠습니다. 텍스트를 복사해서 여기에 붙여 주시면 됩니다.

개요

우리는 정보 기하학, 대수적 위상수학, 그리고 확률 동역학을 AI‑에이전트 메모리에 적용했습니다.

  • 74.8 %LoCoMo에서 로컬 데이터만 사용해 달성 – 클라우드 의존 없이 보고된 최고 점수.
  • 87.7 % 를 전체 성능 모드에서 달성.
  • 60.4 %LLM 없이 모든 단계에서 달성.

오픈 소스, MIT 라이선스.

메모리 문제

모든 AI 코딩 어시스턴트 — Claude, Cursor, Copilot, ChatGPT — 는 각 세션을 처음부터 시작합니다.

  • 기존 메모리 레이어(예: Mem0, Zep, Letta)는 개인 개발자와 소규모 팀에게는 잘 작동합니다.
  • 프로덕션 규모 사용은 아직 해결되지 않았습니다.

대규모에서의 증상

규모문제
10 k 메모리코사인 유사도가 관련 결과와 무관한 결과를 구분하지 못함.
100 k 메모리조용히 쌓이는 모순이 발생 (예: “Alice는 런던으로 이사했다” 그리고 “Alice는 파리에 산다”).
엔터프라이즈하드코딩된 수명 주기 임계값(“30 일 후 보관”)이 팀, 프로젝트, 도메인마다 다른 사용 패턴 때문에 깨짐.

규제 차원

EU AI Act2026년 8월 2일에 전면 시행됩니다.
핵심 작업을 위해 데이터를 클라우드 LLM에 전송하는 모든 메모리 시스템은 엔지니어링만으로는 해결할 수 없는 컴플라이언스 문제가 발생하며, 아키텍처적인 답변이 필요합니다.

우리의 수학적 접근

1. 신뢰 가중 검색

표준: 코사인 유사도는 모든 임베딩을 동일하게 자신감이 있다고 취급한다.

우리 모델:

  • 각 메모리 임베딩 → 대각 가우시안 (학습된 평균 & 분산).
  • 유사도는 Fisher‑Rao 측지 거리(통계적 다양체상의 자연 메트릭)로 측정한다.

핵심 특성

  • 반복 접근 → 분산이 감소한다(베이지안 공액 업데이트).
  • 더 많이 사용된 메모리는 더 정밀해진다.
  • 사용량이 증가함에 따라 검색 성능이 향상되는 것이 입증되었다.

소거 실험 – Fisher‑Rao를 제거하면 다중 홉 정확도가 12 pp 감소한다.

2. 대수적 일관성 검사

표준: 쌍별 모순 검사는 **O(n²)**이며 전이적 모순을 놓친다.

우리 모델:

  • 지식 그래프를 셀룰러 쉬프(노드와 엣지에 대한 벡터 공간)로 표현한다.
  • 첫 번째 코호몰로지 군 (H^{1}(G,F))을 계산한다:
ResultInterpretation
(H^{1}=0)모든 메모리가 전역적으로 일관함
(H^{1}\neq0)모든 로컬 쌍이 정상처럼 보여도 모순이 존재함
  • 대수적으로 확장되며, 제곱적으로는 아니므로 쌍별 방법이 놓치는 모순을 포착한다.

3. 자기 조직화 수명주기 관리

표준: 하드코딩된 임계값(예: “30일 후 보관”, “10회 접근 후 승격”).

우리 모델:

  • 포인카레 구 위의 확률적 경사 흐름.
  • 잠재 함수는 접근 빈도, 신뢰 점수, 최신성을 인코딩한다.
  • 동역학은 정상 분포에 수렴하여 수명주기 상태 전반에 걸친 수학적으로 최적의 할당을 제공한다
Active → Warm → Cold → Archived
  • 수동 튜닝 불필요; 시스템은 실제 사용 패턴에 따라 스스로 조직한다.

Benchmark Results

LoCoMo (Long Conversation Memory)

구성점수의미
Mode A Retrieval74.8 %데이터가 로컬에 유지됩니다. 가장 높은 로컬‑우선 점수입니다.
Mode C (Full Power)87.7 %모든 레이어에서 클라우드 LLM을 사용합니다. 업계 시스템과 동등합니다.
Mode A Raw60.4 %어느 단계에서도 LLM을 사용하지 않습니다. 분야 최초입니다.

Competitive Landscape

시스템점수클라우드 LLM 필요 여부
EverMemOS92.3 %
MemMachine91.7 %
Hindsight89.6 %
SLM V3 Mode C87.7 %예 (모든 레이어)
Zep~85 %
SLM V3 Mode A74.8 %아니오
Mem0~58‑66 %
SLM V3 Mode A Raw60.4 %아니오 (제로‑LLM)

Mode A Raw (60.4 %)와 Mode A Retrieval (74.8 %) 사이의 차이는 4채널 수학적 검색 파이프라인이 클라우드 의존 없이 벤치마크 요구사항의 대부분을 포착한다는 것을 보여줍니다. 남은 차이 (74.8 % → 87.7 %)는 답변 합성 품질 때문이며, 지식 검색 자체와는 무관합니다.

대규모 생산 혜택

문제기존 접근 방식우리의 솔루션영향
대규모에서 검색 품질코사인 유사도는 구별력을 잃는다Fisher‑Rao distance수천 개의 기억이 경쟁할 때도 관련성을 유지한다
대규모에서 일관성쌍별 검사는 전이적 모순을 놓친다Sheaf cohomology (H¹)전역 불일치를 대수적으로 감지한다
라이프사이클 관리고정 임계값은 워크로드 변동에 따라 깨진다Langevin dynamics on Poincaré ball메모리 할당을 스스로 조직하고, 수동 튜닝이 필요 없다

이러한 개선은 벤치마크에서 측정 가능하며, 메모리 수가 증가함에 따라 더 두드러지게 나타난다.

프라이버시‑정확도 스펙트럼

모드설명클라우드 의존성LoCoMo 점수
Mode A – Local Guardian모든 처리를 로컬에서 수행합니다. 아키텍처가 EU AI 법규를 준수합니다.아니오74.8 %
Mode B – Smart LocalMode A에 Ollama를 통한 로컬 LLM을 추가합니다. 여전히 완전한 프라이버시를 유지합니다.아니오(Mode A와 동일)
Mode C – Full Power모든 계층에서 클라우드 LLM을 사용합니다.87.7 %

언제든 전환 가능 – 모든 모드에서 기억이 일관됩니다.

빠른 시작

npm install -g superlocalmemory   # CLI 설치
slm setup                         # 초기 설정
slm warmup    # 선택 사항: 임베딩 모델 사전 다운로드
slm dashboard # http://localhost:8765 에서 17‑탭 웹 대시보드 실행

호환성

다음 17개 이상의 AI 도구와 함께 작동합니다:

  • Claude Code
  • Cursor
  • VS Code Copilot
  • Windsurf
  • ChatGPT Desktop
  • Gemini CLI
  • JetBrains IDEs
  • Zed
  • Continue
  • Cody
  • …그리고 훨씬 더 많은 도구들.

최종 메모

현재 메모리 시스템은 인상적인 엔지니어링 성과입니다. 우리의 수학적 기반 (V3) 은 세 가지 핵심 생산 규모 과제인 검색, 일관성, 그리고 라이프사이클 을 입증 가능하고 측정 가능한 개선으로 해결합니다. 프라이버시와 성능 요구에 맞는 모드를 선택하고, 나머지는 시스템이 처리하도록 하세요.

개요

아래 표는 실제 사용자들을 위한 실제 문제를 해결하는 의미 있는 작업을 나타냅니다.
우리의 기여는 수학적입니다. 우리는 에이전트 메모리의 미래가 더 많은 휴리스틱이 아니라 원칙에 입각한 수학에 있다고 믿습니다—보장을 제공하고, 예측 가능하게 확장되며, 어떤 시스템에도 적용될 수 있는 기술들.

핵심 아이디어

V3의 세 가지 기술(Fisher‑Rao, sheaf cohomology, Langevin dynamics)은 우리 제품에만 국한된 것이 아니라 일반적인 수학 도구입니다. 우리는 전체 분야가 견고한 수학적 기반으로부터 이익을 얻는다고 믿어 MIT 라이선스 하에 모든 것을 오픈소스화했습니다.

이 기술들이 다른 메모리 시스템을 개선한다면, 우리는 성공한 것입니다.

Resources

저자

Varun Pratap Bhardwaj — 독립 연구원
Qualixar 소속


Qualixar 소속 | 저자: Varun Pratap Bhardwaj

0 조회
Back to Blog

관련 글

더 보기 »