Bag of words,怜悯我们
发布: (2025年12月8日 GMT+8 06:31)
1 min read
原文: Hacker News
虽然 Large Language Models (LLMs) 的 scaling laws 传统上侧重于 proxy metrics 如 pretraining loss,但预测 downstream task performance 一直是……
检索增强生成(RAG)通过将输出基于检索到的证据进行 grounding,提升了大语言模型(LLMs)的事实性,但忠实性仍可能出现失败……
在训练过程中逐步增加 Transformers 的深度不仅可以降低训练成本,还能提升推理性能,正如 MIDAS 所展示的那样……
我们提出了一种针对低资源语言的后训练方法,即使在使用不流畅的奖励模型进行对齐时,也能保持语言模型的流畅性。Preference...