[Paper] 学习何时停止:Adaptive Latent Reasoning via Reinforcement Learning
Latent reasoning 代表了 Transformer 语言模型的一个新发展,与 chain-of-thought 相比,它在压缩推理长度方面显示出潜力。
Latent reasoning 代表了 Transformer 语言模型的一个新发展,与 chain-of-thought 相比,它在压缩推理长度方面显示出潜力。
同步音视频内容的合成是生成式 AI 的关键挑战,开源模型在实现稳健的音视频对齐方面面临困难……
对抗性攻击对基于学习的 3D 点云模型构成了重大威胁,严重削弱了它们在安全敏感应用中的可靠性。
如果语言模型在专业情境中无法可靠地披露其 AI 身份,用户就无法信任其能力边界。本研究考察了自我透明…
大型语言模型(LLMs)在回答改写后的问题时常表现出不一致的行为,这表明它们更依赖于表层模式而不是…
Illumination inconsistency 是多视角 3D 重建中的一个根本性挑战。阳光方向、云层覆盖以及阴影的变化会破坏一致性……
本研究提出了一种基于多尺度时间对齐网络(MSTAN)的风险预测方法,以应对时间不规则性、采样...
Vision Language Action 模型通过利用大规模预训练的视觉和语言表征,显著推动了通用机器人操作的进步。
区块链安全受到自私挖矿的威胁,自私挖矿是指矿工(运营者)偏离协议以增加其收入。自私挖矿会加剧……
Human activity recognition (HAR) from inertial sensors is essential for ubiquitous computing, mobile health, and ambient intelligence. Conventional deep models ...
Reward feedback learning(ReFL)已被证明在将图像生成与人类偏好对齐方面有效。然而,将其扩展到视频生成面临…
多层快速多极算法(MLFMA)中的近场(P2P)算子由于内存局部性差,在 GPU 上成为性能瓶颈。本文工作…