[Paper] SWE-rebench V2:大规模语言无关 SWE 任务集合
软件工程代理(SWE)正在快速提升,近期的进展主要得益于强化学习(RL)。然而,RL 训练受到……
软件工程代理(SWE)正在快速提升,近期的进展主要得益于强化学习(RL)。然而,RL 训练受到……
对于大型语言模型的机器忘记(Machine unlearning)常常面临隐私困境,即严格的约束禁止共享服务器的参数或客户端的…
公告 OpenAI 与 Amazon NASDAQ: AMZN 今日宣布了一项多年战略合作伙伴关系,以加速面向企业、初创公司和终端客户的 AI 创新。
前Twitter联合创始人Jack Dorsey的新公司Block——Square商户支付系统、移动点对点支付Cash App以及音乐流媒体的母公司。
大规模图神经网络(GNNs)通常通过对顶点的邻居进行固定距离的采样来进行训练。由于大规模输入图是分布式的,...
联邦学习(Federated Learning,FL)使一组客户端能够在不共享个人数据的情况下协同训练模型,但当客户端数据……
我们介绍了 MediX‑R1,一个面向医学多模态大语言模型(MLLMs)的开放式强化学习(RL)框架,能够实现临床基础的……
我们提出了一种可扩展的 3D reconstruction 模型,解决了离线 feed‑forward 方法的一个关键限制:它们的计算和内存需求……
大量的研究旨在控制 model disagreement —— 即两个 machine learning models 在 predictions 上的分歧程度。我们采用一种简单且标准的……
我们将 occlusion reasoning 视为 3D layout‑conditioned generation 的一个基础但被忽视的方面。它对于合成部分遮挡的……
受生物启发的事件相机因其异步和低延迟特性最近吸引了大量研究。这些特性提供了高 dy...
柏拉图表征假设认为,在不同模态上训练的神经网络会趋向于共享的世界统计模型。Rece...