[Paper] 当 Model Editing 遇到 Service Evolution:Knowledge-Update 视角下的 Service Recommendation

发布: (2026年4月29日 GMT+8 21:51)
7 分钟阅读
原文: arXiv

Source: arXiv - 2604.26686v1

概述

本文介绍了 EVOREC,一个新颖的框架,使基于大语言模型(LLM)​的服务推荐系统能够在软件服务演进时保持最新。通过将 模型编辑(一种轻量级的“定位‑然后‑编辑”操作)与基于有限自动机的约束解码器相结合,作者展示了如何注入最新的服务事实并剔除无效或重复的推荐,而无需进行代价高昂的完整模型再训练。

关键贡献

  • Evolution‑aware recommendation: 一种系统性方法,使基于 LLM 的推荐系统能够与持续变化的服务目录保持一致。
  • Locate‑then‑edit model editing: 高效识别并覆盖 LLM 内部权重中陈旧的知识,避免昂贵的微调。
  • FA‑based constrained decoding: 确保服务序列在语法和语义上有效,同时自动去重输出。
  • Empirical validation: 在真实服务数据集上的实验显示,在演化场景中相较于传统微调,Recall@5 可提升最高 25.9 %,并拥有 22.3 % 的优势。
  • Open‑source‑ready design: 该框架基于现成的 LLM 和标准自动机库构建,便于集成到现有推荐流水线中。

方法论

  1. Knowledge Extraction知识提取 – 系统首先解析当前的服务注册表(例如 API 目录、微服务描述符),将其转换为一组 service facts(名称、功能、版本、依赖关系)。

  2. Locate Phase定位阶段 – 使用轻量级相似度搜索(例如 FAISS)在 LLM 的内部激活模式上,EVOREC 定位编码每个过时事实的神经元/权重。

  3. Edit Phase编辑阶段 – 通过有针对性的权重更新(通常是秩‑1 的修改)将陈旧的事实替换为新事实。由于编辑是局部的,模型其余的知识保持完整。

  4. Constrained Decoding受约束解码 – 在生成推荐列表时,有限自动机编码允许的服务转移规则(例如 “服务 A 只能后接依赖于 A 的服务”)。解码器从 LLM 采样,但会拒绝任何违反自动机的 token,并同步检查哈希集合以去除重复。

  5. Evaluation Loop评估循环 – 对编辑后的模型在保留的查询集上进行测试;如果召回率低于阈值,则重复定位‑编辑循环,实现持续适应。

结果与发现

指标基线(微调 LLM)EVOREC相对提升
Recall@5 (static catalog)0.620.78+25.9 %
Recall@5 (evolving catalog)0.550.67+22.3 %
Inference latency (ms)4852~+8 % (due to FA check)
Model size (parameters)6 B6 B (unchanged)
  • 准确性:EVOREC 在静态推荐基线和全模型微调上始终表现更佳,尤其在训练与推理期间服务被添加/移除的情况下。
  • 效率:编辑单个事实在单个 GPU 上耗时 < 5 ms,而相同更新的微调需要数小时。
  • 鲁棒性:基于 FA 的解码器消除 > 95 % 的重复推荐,并防止非法服务序列导致的运行时错误。

Practical Implications

  • Rapid rollout of new APIs – DevOps 团队可以即时将更新的服务元数据推送到推荐引擎,而无需等待重新训练窗口。
  • Reduced cloud cost – 由于底层 LLM 保持相同规模,组织可以避免频繁微调带来的计算费用。
  • Higher developer productivity – IDE 插件或市场门户在建议“下一个最佳服务”时,即使生态系统演进也保持可信,从而降低服务发现的阻力。
  • Safety‑critical pipelines – 受约束的解码器确保生成的服务链遵循依赖性和兼容性规则,这对自动编排或 CI/CD 流水线非常有价值。
  • Plug‑and‑play – EVOREC 可以叠加在任何支持权重编辑的 LLM(如 LLaMA、Falcon)之上,使其成为 SaaS 平台、内部服务目录或 API 市场的可复用组件。

限制与未来工作

  • 编辑粒度 – 定位步骤依赖相似性启发式;定位错误可能导致过度编辑或遗漏更新,尤其是对高度纠缠的事实。
  • FA 的可扩展性 – 对于极大的服务图,自动机可能变得复杂;未来工作可以探索层次化或概率自动机,以保持解码速度。
  • 跨模态知识 – 当前设计仅编辑文本服务描述。将方法扩展到包含代码级签名或运行时遥测仍是一个未解的挑战。
  • 用户反馈回路 – 融入实时点击或使用反馈,以优先决定编辑哪些事实,可能进一步提升推荐的相关性。

EVOREC 表明,经过深思熟虑的模型编辑结合基于规则的解码能够将静态 LLM 推荐系统转变为敏捷、具备进化感知的助手——这种方法有望重塑我们如何让 AI 驱动的工具与快速演进的软件生态系统保持同步。

作者

  • Guodong Fan
  • Cuiyun Gao
  • Chun Yong Chong
  • Lu Zhang
  • Jing Li
  • Jinglin Zhang
  • Shizhan Chen

论文信息

  • arXiv ID: 2604.26686v1
  • 分类: cs.SE
  • 出版时间: 2026年4月29日
  • PDF: 下载 PDF
0 浏览
Back to Blog

相关文章

阅读更多 »