[Paper] 强化 Fast Weights 与 Next-Sequence Prediction
Fast weight architectures 通过保持 constant memory overhead,为 long-context modeling 提供了相较于 attention-based transformers 的有前景的替代方案。
Fast weight architectures 通过保持 constant memory overhead,为 long-context modeling 提供了相较于 attention-based transformers 的有前景的替代方案。
大型语言模型(LLMs)在生物学基准测试中表现出色,这引发了它们可能帮助新手获取双用途实验室技能的担忧。Ye...
Vision-language models (VLMs) 旨在通过联合利用视觉和文本模态进行推理。虽然分配额外的 inference-time computation 已被证明……
机器去学习旨在从已训练模型中删除特定数据点,通常力求模拟“完美再训练”,即生成模型会…
单细胞RNA测序 (scRNA-seq) 数据表现出强大且可重复的统计结构。这激发了大规模基础模型的开发……
多重假设检验与错误发现率(FDR)控制是统计推断中的一个基本问题,广泛应用于基因组学、药物...
在本工作中,我们研究公平 k-center 问题的近似难度。这里数据点被划分为若干组,任务是选择一个 …
当前的音频语言模型主要以文本为先,要么扩展预训练的文本 LLM 主干,要么依赖仅语义的音频 token,限制了 g...
Matched molecular pairs (MMPs) 捕捉了药物化学家在设计类似物时常规使用的局部化学编辑,但现有的机器学习方法要么…
人类感知的核心方面是 situated awareness,即将自身与周围物理环境联系起来并对可能的行动进行推理的能力……
时间序列异常检测(TSAD)需要识别即时的 Point Anomalies 和长期的 Context Anomalies。然而,现有的 foundation models f...
基于聚类的近似最近邻搜索(ANNS)将一组点组织成若干分区,并仅搜索其中少数分区以找到最近邻……