· ai
[Paper] 大语言模型测试时计算规模化的艺术
测试时伸缩(Test-time scaling,TTS)——在推理过程中动态分配计算资源——是提升大型语言模型(LLMs)推理能力的一个有前景的方向。
测试时伸缩(Test-time scaling,TTS)——在推理过程中动态分配计算资源——是提升大型语言模型(LLMs)推理能力的一个有前景的方向。
大型语言模型(LLMs)在隐藏的参数空间中编码事实知识,这些空间难以检查或控制。虽然稀疏自编码器(SAEs)……
我们介绍了 LLM CHESS,一个旨在探究大型语言模型在推理和遵循指令能力上的泛化性的评估框架(...)。
GUI grounding 旨在将自然语言指令与复杂用户界面中的精确区域对齐。先进的多模态大型语言模型表现出强大的……
RL 对推理能力的贡献机制——是激励新技能的综合,还是仅仅放大已有行为——仍然...
深度研究代理(DRAs)旨在通过迭代的信息检索与综合,自动生成分析师级报告。然而,大多数现有的 DRA……
可验证奖励的强化学习(RLVR)提升了大型语言模型(LLMs)的推理能力,使得自主代理能够……
近期大型语言模型(LLMs)的进展主要得益于其新兴的推理能力,尤其是通过长链式思考(CoT)……
理解大型语言模型(LLMs)的内部思考过程以及幻觉产生的原因仍然是一个关键挑战。为此,我们引入了 l...
我们提出基于Conformer的解码器用于LibriBrain 2025 PNPL竞赛,针对两个基础的MEG任务:Speech Detection 和 Phoneme Classification……
许多现代软件项目发展迅速,以纳入新功能和安全补丁。用户将其依赖项更新到更安全的版本非常重要。
Machine Consciousness Hypothesis 认为,意识是一种与基底无关的功能属性,存在于能够进行二阶感知的计算系统中……