· ai · - · -
[Paper] SOTAlign:通过最优传输的单模态视觉和语言模型的半监督对齐
柏拉图表征假设认为,在不同模态上训练的神经网络会趋向于共享的世界统计模型。Rece...
柏拉图表征假设认为,在不同模态上训练的神经网络会趋向于共享的世界统计模型。Rece...
最近的工作,例如 AlphaEvolve,已经表明,将 LLM 驱动的优化与进化搜索相结合,可以有效提升程序、提示和算法的性能。
标准的 mixed-precision 神经网络训练需要为每个模型参数占用大量 accelerator memory 字节。这些字节不仅反映了参数……
粗糙数据产生于学习者只能观察到样本的部分信息;即观察到包含样本的集合,而不是其精确数值。这种情况在...
AI 驱动的科学研究工具正迅速融入研究工作流,但该领域缺乏对研究人员如何使用这些系统的清晰视角。
近年来,越来越多的出版物讨论了在软件工程中使用大型语言模型(LLMs)的最佳实践。然而,大多数...
大型语言模型(LLMs)的进步加速了自主金融交易系统的发展。虽然主流方法部署多...
大型语言模型(LLMs)在生物学基准测试中表现日益出色,但仍不清楚它们是否能提升新手用户——即使人类能够……
Self-reflection 使 language agents 能够迭代地优化解决方案,但往往会产生重复的输出,限制了 reasoning performance。Recent studies ...
近年来,大规模数据集阻碍了高效的模型训练,同时也包含冗余概念。Dataset distillation 旨在合成紧凑的数据集……
现实世界的表格-文本问答(QA)任务需要模型能够在长文本和源表格之间进行推理,跨越多跳并执行 co...
扩散语言模型(DLM)常被宣传能够实现并行 token 生成,但实际的快速 DLM 往往会收敛为左到右的自回归模型……