[Paper] 代码语言模型中的局部校准不确定性
大型语言模型(LLMs)可以根据自然语言提示生成复杂的源代码。然而,LLMs 可能会生成偏离用户期望的输出。
大型语言模型(LLMs)可以根据自然语言提示生成复杂的源代码。然而,LLMs 可能会生成偏离用户期望的输出。
我们提出一种 genetic programming 方法,自动发现用于 discrete ordinates 求解的 neutron transport 问题的收敛加速方法。
随着大语言模型(LLMs)和基础模型的规模扩大,checkpoint/restore 已成为训练和推理的关键模式。借助 3D 并行(tensor、pipeline、data),...
循环网络通常使用时间反向传播(BPTT)进行训练。然而,BPTT 需要存储网络中所有状态的历史以及 t...
房地产行业仍然高度依赖手工文件处理和验证,使得流程低效且易受欺诈。本文提出...
Transformer-based large language models (LLMs) 已经在广泛的实际应用中展示了显著的潜力。然而,长上下文推理……
实时视频分析(LVA)在大规模摄像头群中持续运行,但使用现代视觉模型的推理成本仍然很高。为了解决这个问题,动态 m...
联邦学习(FL)使移动边缘设备作为客户端,能够协作训练去中心化模型,同时确保本地数据隐私。H...
仿真优化(SO)经常面临噪声评估、高计算成本以及复杂的多模态搜索景观的挑战。本文介绍……
现实世界的约束多目标优化问题 (CMOPs) 通常包含多个约束,理解并利用它们之间的耦合……
在许多实验任务中,ocular fixations 和 saccades 的特性高度随机,它们的统计数据常被用作各种 … 的代理。
基于扩散的 video super-resolution(VSR)方法能够实现强大的感知质量,但由于依赖于……,在对延迟敏感的场景中仍不实用。
AI co-scientists 正在成为帮助人类研究人员实现研究目标的工具。这些 AI co-scientists 的一个关键特性是其能力……
透明物体仍然是感知系统的顽疾:折射、反射和透射破坏了立体视觉、ToF 以及纯粹……的假设。
在对话环境中识别大型语言模型(LLMs)的特定且往往复杂的行为对于其评估至关重要。近期工作提出…
我们引入 Iterated Bellman Calibration,这是一种简单、模型不可知、事后(post‑hoc)校准 off‑policy 价值预测的程序,适用于无限时域的 Markov …
我们提出了一种方法和数据集,用于在偏好监督下通过反馈驱动的改进链对语言模型进行微调。给定模型的响应,……
在专业环境中的自动语音识别(ASR)面临着现有基准低估的挑战:密集的领域术语、正式语体的变体……
大型语言模型(LLMs)正日益被考虑用于高影响力的工作流程,包括学术同行评审。然而,LLMs 易受到文档……
语言代理日益需要持久的世界,在其中它们可以行动、记忆和学习。现有方法位于两个极端:传统的网络 fra...
我们将长上下文语言建模定义为持续学习中的一个问题,而不是架构设计。在这种定义下,我们仅使用标准的 a...
我们提出了一种在线方法,用于同时保证多个分位水平的分位数预测的校准。α水平的分位数预测序列……
我们提出了一种训练高效的时间序列学习框架,将随机特征与受控微分方程(CDE)相结合。在这种方法……
内在图像分解是视觉理解的基础,因为 RGB 图像将材料属性、光照和视角相关效应交织在一起。Rec...