· ai
[Paper] Saddle-to-Saddle 动力学解释了跨神经网络架构的简洁偏差
使用梯度下降训练的神经网络通常会随时间学习到日益复杂的解,这一现象被称为 simplicity bias。尽管被 wid…
使用梯度下降训练的神经网络通常会随时间学习到日益复杂的解,这一现象被称为 simplicity bias。尽管被 wid…
点跟踪旨在定位视频帧之间的对应点,作为四维重建、机器人技术和视频编辑的基础任务。现有...
大规模自回归模型在下一标记预测上进行预训练,并通过强化学习(RL)进行微调,已在许多方面取得了前所未有的成功……
我们提出 MoE-DiffuSeq,这是一种基于 mixture of experts 的框架,用于增强 diffusion 模型在长文档生成中的能力。现有的基于 diffusion 的文本生成…
我们引入了 Cube Bench,一个用于评估多模态大语言模型(MLLMs)在空间和序列推理方面的 Rubik's‑cube 基准。该基准...
随着系统工程(SE)目标从单体系统的设计与运行演变为复杂的系统群(SoS),任务工程学的学科……
立体定向放射外科 (SRS) 需要在关键结构周围进行精确的剂量塑形,但由于黑箱 AI 系统的不透明性,其临床采纳受到限制……
我们证明,ReLU 神经网络的输出可以解释为一个零和、回合制、停止游戏的价值,我们称之为 ReLU net game。 The ...
大型语言模型(LLMs)生成流畅且复杂的输出,但往往无法识别自己的错误和幻觉。现有方法通常……
手工标记的训练数据对许多机器学习任务至关重要。然而,训练数据质量控制在文献中受到的关注很少,d...
部署后的机器学习算法常常会影响它们所作用的环境,从而改变标准强化学习所依赖的底层动态……
Diffusion Large Language Models (dLLMs) 提供快速的并行 token 生成,但其单独使用受到固有的效率‑质量权衡的困扰。W...