· ai
Memcortex 내부: LLM을 위한 경량 시맨틱 메모리 레이어
왜 컨텍스트가 중요한가 LLM은 과거 대화를 진정으로 저장할 수 없습니다. 그것의 유일한 메모리는 컨텍스트 윈도우이며, 고정 길이 입력 버퍼(예: GPT‑에서 128 k 토큰)입니다.
왜 컨텍스트가 중요한가 LLM은 과거 대화를 진정으로 저장할 수 없습니다. 그것의 유일한 메모리는 컨텍스트 윈도우이며, 고정 길이 입력 버퍼(예: GPT‑에서 128 k 토큰)입니다.