[Paper] MSSR:记忆感知自适应回放用于持续 LLM 微调

发布: (2026年3月11日 GMT+8 00:49)
7 分钟阅读
原文: arXiv

Source: arXiv - 2603.09892v1

概述

持续微调大型语言模型(LLMs)正日益成为现实,企业不断将模型推向瞬息万变的生产环境。新论文 “MSSR: Memory‑Aware Adaptive Replay for Continual LLM Fine‑Tuning” 解决了经典的 catastrophic forgetting(灾难性遗忘)问题——模型在接受新任务训练时会丢失先前学到的能力。作者通过引入一种受记忆启发的采样与调度机制,展示了如何在 不牺牲快速适应所需速度 的前提下,保持旧知识的活跃。

关键贡献

  • Memory‑Inspired Sampler: 估计一种 样本级记忆强度,反映每个训练步骤后特定示例的保留程度。
  • Adaptive Scheduler: 动态决定 何时 重放每个存储的示例,摆脱固定间隔或仅基于启发式的重放策略。
  • Lightweight Replay Framework (MSSR):远低于基于损失或准确率监督的重放基线的计算开销 下,实现了最先进的遗忘缓解。
  • Broad Empirical Validation: 在三个主干 LLM(如 LLaMA‑7B、Falcon‑7B 和 Mistral‑7B)上进行的 11 项顺序任务实验——包括推理密集型和多选基准——展示了持续的提升。
  • Open‑source Friendly Design: 重放缓冲区和调度逻辑实现为即插即用模块,可直接嵌入现有的微调流水线(如 Hugging Face Trainer、DeepSpeed)。

方法论

  1. Retention Modeling: 在每次梯度更新后,MSSR 测量重放缓冲区中每个示例的损失变化。损失的轻微增加表明该示例在记忆中仍然“新鲜”,而大幅增加则意味着它正在被遗忘。该逐样本度量成为记忆强度分数。

  2. Memory‑Inspired Sampling: 当缓冲区容量已满时,MSSR 优先保留记忆强度低的示例(即有被遗忘风险的),并丢弃那些已经被很好记住的示例。这使得缓冲区专注于最脆弱的知识。

  3. Adaptive Replay Scheduling: MSSR 并不在每个训练步骤都重放所有缓冲样本,而是根据当前的记忆强度为每个示例分配一个间隔。被高度遗忘的样本会更频繁地重放,而稳定的样本则稀疏地重新访问。调度会即时更新,使系统能够响应实际的遗忘动态,而不是遵循静态规则。

  4. Integration with Standard Fine‑Tuning: 重放步骤仅与常规小批量更新交叉进行。由于调度器每步只抽取缓冲区中一小部分有针对性的子集,额外计算开销相对适中(在作者实验中约为 10‑15 % 的额外开销)。

Results & Findings

Model / Task SetBaseline (no replay)Fixed‑Interval ReplayLoss‑Driven ReplayMSSR (proposed)
LLaMA‑7B (reasoning)42.3 % acc48.7 %51.2 %55.8 %
Falcon‑7B (MCQA)38.9 %44.1 %46.5 %51.3 %
Mistral‑7B (mixed)45.6 %50.2 %52.0 %56.7 %
  • 持续遗忘降低:在所有 11 项顺序任务中,MSSR 将早期任务的平均性能下降降低了约 30 %(相较于无重放基线)。
  • 效率提升:自适应调度器将与重放相关的 FLOPs 削减约 40 %(相较于基于损失的重放),同时实现更高的准确率。
  • 对缓冲区大小的鲁棒性:即使使用极小的缓冲区(仅占总训练数据的 0.5 %),MSSR 仍优于使用更大缓冲区的基线方法,凸显其记忆感知选择的优势。

Practical Implications

  • Production‑Ready Continual Learning: 企业现在可以在单个大语言模型上微调一系列客户特定任务(例如领域适配、政策更新),而无需为每个版本维护独立的模型副本。
  • Cost‑Effective Model Maintenance: 由于 MSSR 只需要一个适度的回放缓冲区且几乎不增加计算量,它能够很好地融入现有的 GPU 预算训练流水线,降低了从头重新训练的高昂成本。
  • Improved Reliability for Critical Applications: 对于医学问答或法律援助等关键场景,保持已学到的事实知识同时加入新指南至关重要——MSSR 提供了一种系统化的实现方式。
  • Plug‑and‑Play Integration: 作者发布了一个轻量级的 PyTorch 兼容库,可包装在任何 Trainer‑style 循环之上,使得集成仅需添加两行代码即可完成。

限制与未来工作

  • 记忆强度近似: 当前度量依赖于损失变化,在高度随机的训练环境下可能噪声较大;采用更稳健的估计器(例如基于梯度范数的)有望提升稳定性。
  • 对数十亿参数 LLM 的可扩展性: 实验仅限于 ≤ 7 B 参数的模型;将 MSSR 推广至 30 B+ 参数模型可能需要分布式缓冲区管理以及进一步的开销削减。
  • 任务多样性: 基准套件侧重于推理和多项选择任务;在生成式或代码补全流上评估 MSSR 将拓宽其适用范围。
  • 理论保证: 虽然实证结果表现强劲,但对自适应重放调度收敛性质的形式化分析仍是一个未解的研究方向。

结论: MSSR 提供了一种实用的、考虑记忆的方案,使大型语言模型在持续学习过程中保持敏锐——这可能会重塑开发者维护和演进 LLM 驱动服务的方式。

作者

  • Yiyang Lu
  • Yu He
  • Jianlong Chen
  • Hongyuan Zha

论文信息

  • arXiv ID: 2603.09892v1
  • 类别: cs.LG, cs.AI, cs.CL
  • 发布时间: 2026年3月10日
  • PDF: Download PDF
0 浏览
Back to Blog

相关文章

阅读更多 »