[Paper] RE-TRAC:递归轨迹压缩用于深度搜索代理
基于LLM的深度研究代理主要构建在ReAct框架上。这种线性设计使得重新访问早期状态、分支到替代方案变得困难,...
基于LLM的深度研究代理主要构建在ReAct框架上。这种线性设计使得重新访问早期状态、分支到替代方案变得困难,...
大型语言模型(LLMs)已经通过逐步的思考链(CoT)推理展示了强大的推理能力。然而,在极限……
大多数大型语言模型(LLM)代理记忆系统依赖于一小套静态、手工设计的操作来提取记忆。这些固定的过程硬-...
渐进学习(Progressive Learning,PL)通过逐步扩大模型规模来降低预训练的计算开销。虽然之前的工作已经广泛探讨了深度扩展……
大型语言模型(LLMs)的快速进展引发了这些模型是否具备某种形式的意识的疑问。为了解决这一挑战,...
Activation decomposition methods 在语言模型中与关于概念在 activation space 中如何实现的几何假设紧密耦合。Existing appr...
随着 Large Language Models 转向 autonomous agents,用户输入经常违反合作假设(例如,隐式意图、缺失参数、错误……)。
近期在 LLMs 方面的进展已在各种 AI 应用中取得了重大突破。然而,它们的复杂能力也带来了严重的 sa...
LLM 驱动的编码代理正在重新定义真实世界软件的开发方式。为了推动对更好编码代理的研究,我们需要具有挑战性的基准……
基于图的检索增强生成(GraphRAG)将外部知识组织为层次化图结构,实现对分散知识的高效检索和聚合。
对具备代理性的语言模型(Agentic Large Language Models)的期望不仅仅是正确回答,还要求它们具备设定目标和决定探索内容的自主性。我们将此称为 i...
近期的基因组基础模型在很大程度上采用大型语言模型架构,将DNA视为一维 token 序列。然而,穷尽的...