[Paper] LLMs 能预测自己的失败吗?通过内部电路实现自我意识
大型语言模型(LLMs)生成流畅且复杂的输出,但往往无法识别自己的错误和幻觉。现有方法通常……
大型语言模型(LLMs)生成流畅且复杂的输出,但往往无法识别自己的错误和幻觉。现有方法通常……
手工标记的训练数据对许多机器学习任务至关重要。然而,训练数据质量控制在文献中受到的关注很少,d...
部署后的机器学习算法常常会影响它们所作用的环境,从而改变标准强化学习所依赖的底层动态……
Diffusion Large Language Models (dLLMs) 提供快速的并行 token 生成,但其单独使用受到固有的效率‑质量权衡的困扰。W...
将预训练的 softmax attention Transformers 蒸馏为更高效的混合架构,在其中交替使用 softmax 和 linear attention 层,是一种有前景的……
Simulators 可以生成几乎无限的驾驶数据,但在仿真中,imitation learning policies 仍然难以实现稳健的 closed-loop performance……
我们研究在 ℝ^d 的单位球面上学习一个低阶球面多项式(次数 ℓ₀ = Θ(1) ≥ 1)的问题,通过训练一个过参数化的模型来实现。
大型视觉语言模型(VLM)通常在每张图像或视频帧上处理数百甚至数千个视觉 token,导致二次注意力成本和 su...
视觉语言模型(VLM)在通用理解方面表现出色,但在动态空间推理(DSR)方面仍然薄弱,即对对象 g... 的演变进行推理。
教师的情绪状态在教育情境中至关重要,对教学效能、学生参与度和学习成就产生深远影响。然而……
随着大型语言模型(LLMs)向自主代理转变,Deep Research 已成为一个关键指标。然而,现有的学术基准如 BrowseComp 往往未能满足 …
现代分布式系统面临一个关键挑战:现有的共识协议要么针对节点异构性进行优化,要么针对工作负载独立性进行优化,但两者无法兼顾……