[Paper] PPSEBM:一种具备渐进参数选择的能量模型用于持续学习

发布: (2025年12月18日 GMT+8 02:11)
7 min read
原文: arXiv

Source: arXiv - 2512.15658v1

概览

本文提出了 PPSEBM,这是一种将能量模型(EBM)与 渐进参数选择(PPS)策略相结合的全新持续学习框架。通过为每个新到来的 NLP 任务分配全新的任务特定参数,并利用 EBM 合成先前任务的真实伪样本,PPSEBM 能显著降低灾难性遗忘,同时仍能快速适应新数据。

关键贡献

  • Hybrid Architecture:引入了 EBMs(用于生成式回放)与 PPS(用于选择性参数增长)的无缝集成。
  • Task‑Specific Parameter Allocation:动态扩展模型容量,为每个任务分配专用子网络,避免覆盖已有知识。
  • Active Pseudo‑Sample Generation:EBM 学会生成过去任务的高保真表示,这些表示被反馈给 PPS,以指导其保持先前性能的稳定。
  • State‑of‑the‑Art Benchmarks:在多个 NLP 数据集(GLUE‑style 分类、情感分析和问答)上,展示了相较于主流持续学习基线(如 EWC、GEM、Replay)的持续提升。
  • Scalable Design:表明参数增长保持适度(≈10‑15 % 每个新任务),且 EBMs 可与主任务网络联合训练,使整体训练时间保持竞争力。

方法论

  1. Base Model – 采用 transformer‑style 编码器(例如 BERT)作为所有任务的骨干网络。
  2. Progressive Parameter Selection (PPS)
    • 当新任务到来时,一个小型控制网络决定复用哪些已有神经元以及实例化哪些新神经元。
    • 这种选择是“渐进式”的:早期任务保持其已分配的参数不变,而新任务获得复用和全新参数的混合,从而保留过去的表征。
  3. Energy‑Based Model (EBM) Replay
    • 为每个已完成任务的潜在表征训练一个辅助的 EBM。
    • 在训练新任务时,EBM 采样伪表征,模拟早期任务的数据分布。
    • 将这些伪样本输入 PPS 控制器,作为正则化手段,促使控制器为过去任务保留足够的容量。
  4. Joint Optimization
    • 将主任务损失(例如交叉熵)与 EBM 的对比损失一起优化。
    • 轻量的 KL‑regularizer 对先前分配的子网络参数漂移进行惩罚。

整体流程易于嵌入现有 NLP 流程:在 transformer 之上添加 PPS 模块,并在隐藏状态上训练 EBM。

结果与发现

数据集任务数平均准确率 (PPSEBM)最佳基线Δ
AGNews (4 tasks)492.3 %88.7 % (GEM)+3.6 %
SST‑2 → MRPC → QQP → RTE484.1 %80.2 % (EWC)+3.9 %
Continual QA (TriviaQA → SQuAD)278.5 %73.4 % (Replay)+5.1 %
  • 灾难性遗忘:在学习最后一个任务后,PPSEBM 在第一个任务上的性能下降低于 2 %,而大多数基线为 8‑12 %。
  • 参数开销:每新增任务平均增加 12 % 参数,远低于朴素的模型复制(≈100 %)。
  • 训练时间:端到端训练相比普通微调运行增加约 15 % 的开销,主要由于 EBM 的采样步骤,但在现代 GPU 上仍然可处理。

这些数据表明,PPSEBM 不仅能够保持先前知识,还能在任务累积时高效扩展。

实际意义

  • 可部署的持续 NLP 服务:公司可以推出新的语言理解功能(例如,添加新的意图分类器),而无需从头重新训练或冒现有服务退化的风险。
  • 边缘与移动场景:参数增长适度且模型体积单一,使 PPSEBM 适用于存储和计算受限的设备端更新。
  • 数据隐私友好的回放:由于 EBM 生成合成潜在样本而不是存储原始用户数据,组织可以在遵守隐私法规的同时仍受益于基于回放的缓解措施。
  • 快速原型开发:开发者可以以即插即用的方式尝试新任务——只需连接 PPS 模块,让控制器分配参数,并让 EBM 负责过去任务的“记忆”。

总体而言,PPSEBM 提供了一套实用方案,用于构建持续学习的 NLP 系统,使其在演进过程中保持可靠。

限制与未来工作

  • EBM 的内存占用:尽管是合成的,EBM 仍然需要一套独立的参数以及潜在表示的缓冲区,这在非常长的任务序列中可能成为瓶颈。
  • 任务相似性假设:PPS 在新任务共享某些底层语言结构时表现最佳;高度差异的任务仍可能需要不成比例的参数增长。
  • 评估范围:实验聚焦于分类和问答;扩展到生成(例如持续语言建模)仍是未解之题。
  • 未来方向:作者建议探索 动态剪枝 以回收未使用的参数,结合 元学习 加速 PPS 决策,并在多模态持续学习场景中测试 PPSEBM。

作者

  • Xiaodi Li
  • Dingcheng Li
  • Rujun Gao
  • Mahmoud Zamani
  • Feng Mi
  • Latifur Khan

论文信息

  • arXiv ID: 2512.15658v1
  • 分类: cs.CL, cs.AI, cs.LG
  • 发布日期: 2025年12月17日
  • PDF: 下载 PDF
Back to Blog

相关文章

阅读更多 »