[Paper] PET-TURTLE:用于不平衡数据簇的深度无监督支持向量机
基础视觉、音频和语言模型通过其 latent representations 实现对 downstream tasks 的 zero-shot 性能。最近,unsupervised learning…
基础视觉、音频和语言模型通过其 latent representations 实现对 downstream tasks 的 zero-shot 性能。最近,unsupervised learning…
Memory-Augmented Generation(MAG)通过外部记忆扩展大型语言模型,以支持长上下文推理,但现有方法在很大程度上依赖于 …
量子计算长期以来被寄予在数据分析方面实现变革性进步的期待,然而由于根本性的障碍,实用的量子机器学习仍然难以实现。
近期的 text-to-video diffusion 模型能够生成引人入胜的视频序列,但它们仍然是无声的——缺失语义、情感和氛围线索……
背景:报告与数据系统(RADS)规范放射学风险沟通,但从叙述性报告中自动分配RADS仍具挑战性,因为……
Geo-localization 旨在推断给定信号的地理来源。在计算机视觉中,Geo-localization 已成为一个苛刻的 benchmark,用于 composition……
随着对话式 AI 系统日益融入日常生活,它们引发了关于用户自主性、信任以及商业利益的紧迫关注。
我们能从数据中学到比生成过程本身所包含的更多吗?仅仅通过应用确定性转换,能否构建出新的有用信息?
学生在数学中的错误往往是系统性的:学习者运用一种连贯但错误的程序,并在不同情境中重复使用。我们介绍 MalruleLib,...
文本到图像扩散模型中的机器遗忘旨在删除特定概念,同时保持整体效用。先前的扩散遗忘方法通常……
在企业搜索中,规模化构建高质量数据集仍然是一个核心挑战,因为获取标注数据非常困难。为了解决这个挑战……
虽然大型语言模型(LLMs)在自然语言处理方面展示了显著的潜力,但需要多步骤的复杂通用推理仍然是一个挑战。
LLM 代理能够推理并使用工具,但它们在长时程任务中常常因上下文无限增长和错误累积而崩溃。常见的补救措施,如...
评估机器学习(ML)模型偏差是构建可信赖且稳健的ML系统的关键。反事实公平性(CF)审计允许对b...
对机器学习模型进行表达性查询——将其视为一种 intentional data——能够使用 declarative language 对其进行验证和解释……
Diffusion language models (DLMs) 已经在带有上下文示例的一般自然语言任务中展示出强大的潜力。然而,由于双向注意力……
评估多模态大语言模型(MLLMs)的指令遵循(IF)能力对于严格评估模型输出的忠实程度至关重要。
随着 multi-agent LLM pipelines 的复杂性增加,现有的 serving paradigms 无法适应动态的 serving conditions。我们认为,agentic serving system …
我们基于概率域软化算子,构建了一个统一的稀疏知识蒸馏理论框架。虽然等价 p^{1/T} ...
社交媒体上的 Hate speech detection 在准确性和可解释性方面都面临挑战,尤其是对于尚未深入研究的 Indic languages。我们提出了一种新颖的…
虽然统一多模态模型(UMMs)在跨模态理解方面取得了显著成功,但它们在利用 su… 能力方面仍然存在显著差距。
人类智能的标志是能够通过构建性情景模拟——检索过去的经验以综合解决方案——掌握新技能的能力。
多模态医学大型语言模型在胸部X光解读方面表现出令人印象深刻的进展,但仍然面临空间推理和……
Machine unlearning 旨在从 Large Language Models (LLMs) 中忘记敏感知识,同时保持一般实用性。然而,现有方法通常…