· ai
[Paper] 从熵到 Epiplexity:为计算受限的智能重新思考信息
我们能从数据中学到比生成过程本身所包含的更多吗?仅仅通过应用确定性转换,能否构建出新的有用信息?
我们能从数据中学到比生成过程本身所包含的更多吗?仅仅通过应用确定性转换,能否构建出新的有用信息?
学生在数学中的错误往往是系统性的:学习者运用一种连贯但错误的程序,并在不同情境中重复使用。我们介绍 MalruleLib,...
文本到图像扩散模型中的机器遗忘旨在删除特定概念,同时保持整体效用。先前的扩散遗忘方法通常……
在企业搜索中,规模化构建高质量数据集仍然是一个核心挑战,因为获取标注数据非常困难。为了解决这个挑战……
虽然大型语言模型(LLMs)在自然语言处理方面展示了显著的潜力,但需要多步骤的复杂通用推理仍然是一个挑战。
LLM 代理能够推理并使用工具,但它们在长时程任务中常常因上下文无限增长和错误累积而崩溃。常见的补救措施,如...
评估机器学习(ML)模型偏差是构建可信赖且稳健的ML系统的关键。反事实公平性(CF)审计允许对b...
对机器学习模型进行表达性查询——将其视为一种 intentional data——能够使用 declarative language 对其进行验证和解释……
Diffusion language models (DLMs) 已经在带有上下文示例的一般自然语言任务中展示出强大的潜力。然而,由于双向注意力……
评估多模态大语言模型(MLLMs)的指令遵循(IF)能力对于严格评估模型输出的忠实程度至关重要。
随着 multi-agent LLM pipelines 的复杂性增加,现有的 serving paradigms 无法适应动态的 serving conditions。我们认为,agentic serving system …
我们基于概率域软化算子,构建了一个统一的稀疏知识蒸馏理论框架。虽然等价 p^{1/T} ...