[Paper] 主观深度与时间尺度变换器:学习何时何地进行计算
在标准 Transformer(TF)架构中,刚性且统一的计算分配可能限制其效率和可扩展性,尤其是在大规模……
在标准 Transformer(TF)架构中,刚性且统一的计算分配可能限制其效率和可扩展性,尤其是在大规模……
最近的分而治之推理方法,尤其是基于思路链(Chain-of-Thought,CoT)的方式,显著提升了 Text-to-SQL 的能力……
Lindsey(2025)通过四项实验研究语言模型的内省意识,发现模型有时能够检测并识别注入的……
Web 自动化利用智能代理通过模仿人类与网页界面的交互来执行高级任务。尽管最近的 La...
‘以图像思考’已成为推进视觉推理的有效范式,通过注入视觉证据,超越仅文本的思考链……
单元测试是一种必不可少但又费时的技术,用于验证软件并降低回归风险。虽然经典的自动化方法能够有效地…
在不同数据集之间自动化适配软件工程(SE)研究制品对于可扩展性和可重复性至关重要,但它仍然是一个庞大的挑战...
时空视频定位(STVG)需要根据自然语言描述,在未剪辑的视频中同时在时间和空间上定位目标对象。
估计点的法线需要构建局部补丁以提供中心‑周围的上下文,但确定合适的邻域大小是……
对抗逆向强化学习(AIRL)已显示出在通过推断密集奖励函数来解决强化学习(RL)中的稀疏奖励问题方面的潜力。
Recent advances in multimodal large language models (LLMs) have highlighted their potential for medical and surgical applications. However, existing surgical da... 近期在多模态大型语言模型(LLMs)方面的进展凸显了它们在医学和外科应用中的潜力。然而,现有的外科数据……
本文提出了 SIFT‑SNN 框架,这是一种低延迟神经形态信号处理管道,用于实时检测运输中的结构异常。
https://arxiv.org/abs/2305.12345 学习跨多模态的联合表示仍然是多模态机器学习中的核心挑战。当前的主流方法主要依赖于...(此处省略其余内容的中文翻译)
Millions of users across the globe turn to AI chatbots for their creative needs, inviting widespread interest in understanding how such chatbots represent diver... 全球数百万用户在创意需求上转向 AI 聊天机器人,这引发了人们对这些聊天机器人如何呈现多样化内容的广泛兴趣……
尽管大型语言模型(LLMs)在许多任务上取得了最先进的性能,但它们的庞大规模往往导致高计算成本和环境…
推理模型在复杂推理任务中展示了卓越的能力。然而,确保它们在面对对抗性 jailbreak 提示时的安全性仍然是一个挑战……
现有的提示学习方法基于 CLIP 模型,利用文本 token 作为锚点来引导可学习的软 token。这种引导能够提升……
Spiking neural networks (SNNs) have emerged as prominent candidates for embedded and edge AI. Their inherent low power consumption makes them far more efficient... 脉冲神经网络(SNN)已成为嵌入式和边缘 AI 的重要候选者。它们固有的低功耗使其效率大幅提升……
虽然对 mobile app 的演进已被广泛研究,但对 app 行为的地理差异仍基本未被探索。本文呈现了一项 large-scale study o...
大型语言模型(LLMs)正日益被用作评估者,以取代人工。虽然具有可扩展性,但它们的判断因特异性不完善和 s...
大型语言模型(LLMs)在通用领域展示了卓越的能力,但它们在抵押贷款金融等专业领域的应用仍面临挑战……
大型语言模型在受控文本生成过程中必须满足严格的正字法约束,但系统性的跨架构评估仍然有限……
Zipf 定律在语言中的起源尚未确定,跨学科领域对此存在争议。本研究通过几何机制解释了 Zipf 类行为,而无需语言学的……
Can in-context learning (ICL) override pre-trained label semantics, or does it merely refine an existing semantic backbone? We address this question by treating... **翻译:** 上下文学习(ICL)能够覆盖预训练标签语义,还是仅仅对已有的语义骨干进行细化?我们通过将……来探讨这个问题。