[Paper] 流神经网络:无epoch学习与持久时间状态
大多数当代神经学习系统依赖于基于 epoch 的优化和对历史数据的重复访问,隐含地假设计算是可逆的。我...
大多数当代神经学习系统依赖于基于 epoch 的优化和对历史数据的重复访问,隐含地假设计算是可逆的。我...
人类反馈强化学习(RLHF)在使大型语言模型(LLMs)符合人类偏好方面发挥了重要作用。虽然RLHF与实验…
大型语言模型(LLMs)正日益被用于“专业化”职场沟通,但往往以牺牲语言身份为代价。我们引入“Cultu…”。
对象幻觉是大型视觉语言模型(LVLMs)的一个关键问题,模型的输出可能包含输入图像中不存在的对象。一个自然…
医学视觉语言预训练越来越依赖医学报告作为大规模监督信号;然而,原始报告往往表现出显著的 st...
最近在 Multimodal Large Language Models 方面的进展大幅提升了视觉理解和推理能力,然而它们的 quadratic attention 和 offline training …
Deep neural networks (DNNs) 对于在边缘或移动设备上执行高级任务至关重要,但它们的部署常常受到严重资源限制的阻碍。
我们研究在均值偏移污染存在的情况下的均值估计基本任务。在 mean-shift contamination 模型中,对手被允许替换…
Instruction-following benchmarks 仍然主要以 English‑centric 为主,导致对数以亿计的 Indic language speakers 存在关键的 evaluation gap。
Small language models(SLMs)在成本、延迟和适应性方面具有显著优势,但在长时程软件任务上仍落后于更大的模型。
理解学习到的分布的几何结构对于改进和解释扩散模型至关重要,然而系统性的工具用于探索它们的…
现代计算系统中硬件加速器的日益增长的复杂性和多样性,需要灵活、低开销的程序分析工具。我们提出了 PA...