2天前 · ai 深入 Memcortex:用于 LLMs 的轻量级语义记忆层 为什么上下文很重要 LLM 无法真正存储过去的对话。它唯一的记忆是 context window,一个固定长度的输入缓冲区,例如 GPT‑... 中的 128k tokens。