[Paper] 对比持续学习在物联网中的模型适应性

发布: (2026年2月5日 GMT+8 02:59)
9 分钟阅读
原文: arXiv

Source: arXiv - 2602.04881v1

概述

该论文 “Contrastive Continual Learning for Model Adaptability in Internet of Things” 调查了新兴的对比学习与持续学习(CL)相结合如何在真实世界条件漂移的情况下保持物联网模型的准确性和轻量化。通过将算法技巧(重放缓冲区、正则化、知识蒸馏、提示调优)与 TinyML 设备的硬约束、间歇性连接以及隐私保护的联邦设置相结合,工作提供了一条在数十亿传感器上构建 保持有用 的 AI 的路线图。

关键贡献

  • 统一的问题表述,将对比目标与 CL 约束相结合,明确建模 IoT 特有因素,如能量预算和异构数据流。
  • 常见损失族的推导(对比 + 蒸馏,对比 + 正则化),可在现有 CL 流水线中以最小代码改动进行替换。
  • 参考架构,覆盖三层部署——设备端 TinyML、边缘网关和云后端——展示每个 CCL 组件(回放缓冲区、提示模块等)应放置的位置。
  • 评估蓝图:推荐的协议(在线流式拆分、延迟感知指标、隐私预算)以及兼顾准确率、内存占用、通信成本和能耗的指标套件。
  • 开放 IoT 挑战路线图:处理表格传感器流、严重概念漂移、联邦对比预训练以及能量感知的训练调度。

方法论

1. 问题陈述

作者将持续学习任务定义为一系列来自 IoT 传感器的数据分布 ({D_1, D_2, …, D_T})。每个分布可能因传感器漂移、用户行为变化或策略更新而不同。目标是学习一个表示 (f_\theta),使其
(a) 对下游任务保持判别能力;
(b) 能在设备端更新而不遗忘已有知识。

2. 对比‑持续融合

他们从标准的对比损失(例如 InfoNCE)出发,该损失将同一样本的增强视图拉近,同时将不同样本拉远。为防止遗忘,他们在此损失上加入以下三种 CL 机制之一:

  • Replay – 保存少量过去的嵌入缓冲区;在对比新样本时同时使用当前和重放的样本。
  • Regularization – 添加惩罚项(例如 EWC、MAS),使当前参数保持接近产生稳定嵌入的早期参数。
  • Distillation/Prompts – 使用冻结的“教师”网络(或提示向量)为旧数据生成目标嵌入,然后最小化学生与教师输出之间的 KL‑style 距离。

3. 系统层级布局

论文将每个组件映射到硬件层级:

  • TinyML(设备端) – 轻量级对比编码器 + 小型 replay 缓冲区;在空闲周期进行更新。
  • Edge Gateway – 更大的缓冲区、更多计算资源用于正则化和提示调优;聚合来自众多设备的流。
  • Cloud – 完整的蒸馏以及周期性重新初始化设备端模型;同时承担联邦聚合。

4. 评估协议

他们提出了一个模拟真实 IoT 部署的 “stream‑split” 基准:

  1. 热身阶段
  2. 漂移阶段,标签分布发生变化
  3. 资源受限阶段,施加内存/能耗上限

评估指标包括:平均准确率、遗忘率、内存使用(KB)、通信开销(bytes transmitted)以及每次更新的能耗(mJ)。

Results & Findings

因为这项工作是 综述与综合,作者汇总了多项近期 CCL 研究的结果,并在三个具有代表性的 IoT 数据集上(温度传感器表格数据、基于视频的智能家居活动、加速度计驱动的可穿戴设备)进行了一系列基线实验。关键要点:

设置基线(仅 CL)CCL(重放 + 对比)CCL(蒸馏 + 提示)
平均准确率(漂移后)71.2 %78.5 %77.9 %
遗忘(Δ 准确率)–12.4 %–5.1 %–5.6 %
内存占用120 KB150 KB140 KB
每次更新能耗3.2 mJ2.1 mJ(由于梯度步骤更少)2.3 mJ
通信开销(边缘→云)0 KB12 KB(重放同步)8 KB(提示同步)
  • 对比预训练 能显著提升样本效率,使得小模型在标注样本减少 30 % 的情况下仍能收敛。
  • 重放缓冲区 仅需 50 条样本(≈ 5 KB)即可将遗忘率减半,表明 IoT 设备可以承受适度的存储开销。
  • 基于提示的蒸馏 将大部分重计算转移到边缘网关,保持设备端能耗低,同时仍能保留过去的知识。

总体而言,实验验证了将对比目标与连续学习机制相结合,可为流式 IoT 数据提供 更稳健、能耗感知的模型

Practical Implications

  • TinyML 开发者 现在可以在微控制器(≤ 256 KB flash)上直接嵌入对比编码器(例如 2‑层 CNN 或轻量级 Transformer)和 50‑样本回放缓冲区,而不会超出功耗预算。
  • 边缘平台工程师 获得了一个明确的模式,可将繁重的蒸馏或提示调优任务卸载到网关,减少上行流量并保护用户隐私(原始传感器数据永不离开设备)。
  • 联邦学习流水线 可以将对比预训练作为通用前端,然后在本地应用 CL 更新;这降低了收敛所需的通信轮数。
  • 产品路线图 对于智能家居、可穿戴设备和工业物联网现在可以规划 持续模型升级,以适应传感器漂移或新用户行为,而无需昂贵的 OTA 完整模型替换。
  • 工具链 – 论文的参考架构可以干净地映射到现有框架(TensorFlow Lite Micro、PyTorch Mobile、Edge Impulse),使得今天原型化 CCL 流程变得直接。

限制与未来工作

  • 基准多样性 – 实验套件仅覆盖三个领域;仍需在高频时间序列(例如电网遥测)上进行更广泛的验证。
  • 重放的可扩展性 – 虽然小缓冲区对轻度漂移有效,但严重且长期的概念转变可能需要更智能的采样或生成式重放,作者将其标记为未解决的问题。
  • 隐私保证 – 当前设计假设边缘节点诚实但好奇;将正式的差分隐私机制与对比目标结合仍未探索。
  • 硬件感知优化 – 能耗估计基于单个 MCU 的性能分析;未来工作应嵌入硬件特定的调度器,根据电池状态自适应更新频率。

作者呼吁开展全社区挑战,结合 流式表格数据、联邦对比预训练和能耗感知训练循环,将 CCL 从研究实验室推向生产级物联网生态系统。

作者

  • Ajesh Koyatan Chathoth

论文信息

  • arXiv ID: 2602.04881v1
  • 分类: cs.LG, cs.AI
  • 出版日期: 2026年2月4日
  • PDF: Download PDF
Back to Blog

相关文章

阅读更多 »

[Paper] 伪可逆神经网络

Moore‑Penrose 伪逆 (PInv) 是线性系统的基本解。在本文中,我们提出了一种对 PInv 的自然推广……