[Paper] 视频化身中的主动智能 via Closed-loop World Modeling
当前的视频化身生成方法在身份保持和动作对齐方面表现出色,但缺乏真实的自主性,它们无法自主追求长期目标。
当前的视频化身生成方法在身份保持和动作对齐方面表现出色,但缺乏真实的自主性,它们无法自主追求长期目标。
最近的研究表明,直接微调大型语言模型(LLMs)用于密集检索可以获得强大的性能,但它们庞大的参数数量……
本文提出了 FedPOD(Proportionally Orchestrated Derivative),用于在多方联邦学习中优化学习效率和通信成本。
使用梯度下降训练的神经网络通常会随时间学习到日益复杂的解,这一现象被称为 simplicity bias。尽管被 wid…
点跟踪旨在定位视频帧之间的对应点,作为四维重建、机器人技术和视频编辑的基础任务。现有...
大规模自回归模型在下一标记预测上进行预训练,并通过强化学习(RL)进行微调,已在许多方面取得了前所未有的成功……
我们提出 MoE-DiffuSeq,这是一种基于 mixture of experts 的框架,用于增强 diffusion 模型在长文档生成中的能力。现有的基于 diffusion 的文本生成…
我们引入了 Cube Bench,一个用于评估多模态大语言模型(MLLMs)在空间和序列推理方面的 Rubik's‑cube 基准。该基准...
随着系统工程(SE)目标从单体系统的设计与运行演变为复杂的系统群(SoS),任务工程学的学科……
立体定向放射外科 (SRS) 需要在关键结构周围进行精确的剂量塑形,但由于黑箱 AI 系统的不透明性,其临床采纳受到限制……
我们证明,ReLU 神经网络的输出可以解释为一个零和、回合制、停止游戏的价值,我们称之为 ReLU net game。 The ...
大型语言模型(LLMs)生成流畅且复杂的输出,但往往无法识别自己的错误和幻觉。现有方法通常……
手工标记的训练数据对许多机器学习任务至关重要。然而,训练数据质量控制在文献中受到的关注很少,d...
部署后的机器学习算法常常会影响它们所作用的环境,从而改变标准强化学习所依赖的底层动态……
Diffusion Large Language Models (dLLMs) 提供快速的并行 token 生成,但其单独使用受到固有的效率‑质量权衡的困扰。W...
将预训练的 softmax attention Transformers 蒸馏为更高效的混合架构,在其中交替使用 softmax 和 linear attention 层,是一种有前景的……
Simulators 可以生成几乎无限的驾驶数据,但在仿真中,imitation learning policies 仍然难以实现稳健的 closed-loop performance……
我们研究在 ℝ^d 的单位球面上学习一个低阶球面多项式(次数 ℓ₀ = Θ(1) ≥ 1)的问题,通过训练一个过参数化的模型来实现。
大型视觉语言模型(VLM)通常在每张图像或视频帧上处理数百甚至数千个视觉 token,导致二次注意力成本和 su...
视觉语言模型(VLM)在通用理解方面表现出色,但在动态空间推理(DSR)方面仍然薄弱,即对对象 g... 的演变进行推理。
教师的情绪状态在教育情境中至关重要,对教学效能、学生参与度和学习成就产生深远影响。然而……
随着大型语言模型(LLMs)向自主代理转变,Deep Research 已成为一个关键指标。然而,现有的学术基准如 BrowseComp 往往未能满足 …
现代分布式系统面临一个关键挑战:现有的共识协议要么针对节点异构性进行优化,要么针对工作负载独立性进行优化,但两者无法兼顾……
维护大规模、多语言的 codebases 关键在于准确定位问题,这需要将自然语言错误描述映射到相关的……