[论文] 大语言模型中先天规划的局限性
大型语言模型(LLMs)在许多基准测试中取得了令人印象深刻的结果,但它们在规划和有状态推理方面的能力仍不明确。我们研究了……
大型语言模型(LLMs)在许多基准测试中取得了令人印象深刻的结果,但它们在规划和有状态推理方面的能力仍不明确。我们研究了……
端到端(E2E)自动驾驶模型在开放环评估中表现出强大的性能,但往往会出现级联错误和泛化能力差的问题……
Latent reasoning 代表了 Transformer 语言模型的一个新发展,与 chain-of-thought 相比,它在压缩推理长度方面显示出潜力。
对抗性攻击对基于学习的 3D 点云模型构成了重大威胁,严重削弱了它们在安全敏感应用中的可靠性。
如果语言模型在专业情境中无法可靠地披露其 AI 身份,用户就无法信任其能力边界。本研究考察了自我透明…
大型语言模型(LLMs)在回答改写后的问题时常表现出不一致的行为,这表明它们更依赖于表层模式而不是…
Illumination inconsistency 是多视角 3D 重建中的一个根本性挑战。阳光方向、云层覆盖以及阴影的变化会破坏一致性……
本研究提出了一种基于多尺度时间对齐网络(MSTAN)的风险预测方法,以应对时间不规则性、采样...
Vision Language Action 模型通过利用大规模预训练的视觉和语言表征,显著推动了通用机器人操作的进步。
Human activity recognition (HAR) from inertial sensors is essential for ubiquitous computing, mobile health, and ambient intelligence. Conventional deep models ...
Reward feedback learning(ReFL)已被证明在将图像生成与人类偏好对齐方面有效。然而,将其扩展到视频生成面临…
获得强化学习的安全保证是实现其在真实世界任务中可应用性的重大挑战。安全盾牌扩展了标准的强化学习框架,以提供额外的安全保障。