[Paper] 无反向传播的反馈‑Hebbian网络用于持续学习动力学

发布: (2026年1月11日 GMT+8 11:25)
8 min read
原文: arXiv

Source: arXiv - 2601.06758v1

概述

本文探讨了一个极小的神经网络在 不使用反向传播 的情况下,是否仍能表现出持续学习所需的学习动态——即在不灾难性遗忘旧任务的前提下获取新任务。通过将一个简单的前馈预测器与专用的反馈通路相连,使其 重新生成过去的活动,作者展示了纯本地的 Hebbian 更新能够在受控关联任务上产生可解释的保持和遗忘模式。

关键贡献

  • 无反向传播架构:引入一个紧凑的预测‑重建网络,包含两个前馈层和两个反馈层,全部通过单一的局部学习规则进行训练。
  • 统一的 Hebbian‑加‑监督规则:结合中心化 Hebbian 协方差、Oja 风格的权重稳定化以及局部监督驱动(当存在目标标签时),且不需要权重传输。
  • 持续学习动力学:展示了类似 LTD 的对早期关联的抑制以及在顺序训练(A → B)时反馈权重中“痕迹”的保留。
  • 交叉训练行为:表明确定性的交叉(A, B, A, B, …)使两种关联能够共存,而不是相互覆盖。
  • 消融分析:分离出反馈通路和学习规则每一项的贡献,阐明再生和共同维护出现的原因。
  • 透明的机制洞察:提供逐层活动快照和权重轨迹可视化,使学习过程易于解释。

Source:

方法论

  1. 网络布局

    • 前馈堆栈:输入 → 隐藏层 → 输出(两层),学习直接的输入到标签映射。
    • 反馈堆栈:两层网络,接收当前隐藏层活动,重建先前的隐藏状态,并将其作为加性时间上下文加入隐藏层。
  2. 训练计划

    • 顺序训练:先在关联 A 上训练直至收敛,然后切换到关联 B。
    • 确定性交叉:在整个训练过程中交替使用 A 和 B 的单个示例。
  3. 学习规则(每个突触)

    [ \Delta w = \eta\big[,\underbrace{(x-\bar{x})(y-\bar{y})}_{\text{centered Hebbian}}

    • \underbrace{\lambda w}_{\text{Oja stabilization}}
    • \underbrace{\gamma,\text{target_drive}}_{\text{local supervised term}},\big] ]
    • 没有全局误差信号、没有梯度反向传播,也没有单独的前向/后向权重副本。
  4. 度量指标

    • 连通性快照:在训练阶段对每个权重矩阵的行/列均值进行记录。
    • 保持指数:归一化度量,衡量在学习第二个关联后原始关联保留的程度。
    • 活动可视化:隐藏层对每个输入在各个 epoch 的响应。

结果与发现

训练方案前向‑输出权重反馈权重保持指数
顺序 A → B对 A 相关的输出权重出现强烈的类似 LTD 的下降(随着学习 B 而减弱)。A 相关的痕迹保留在反馈权重中,提供 A 的潜在记忆。A 的保持指数低(遗忘显著),B 的保持指数高。
确定性交叉A 与 B 相关的输出权重均保持在接近峰值的水平。反馈权重中包含两项任务的混合痕迹。A 与 B 的保持指数均高(共同维持)。
消融实验移除反馈会消除 A 的痕迹,导致顺序模式下完全遗忘。去除监督项会降低输出选择性,使两项任务相互渗透。

可视化结果表明,反馈通路会重新注入早期隐藏表征的软化版本,从而在新数据到来时仍能稳定相应的输出突触。Oja 项防止权重失控增长,使系统在数值上保持稳定。

Practical Implications

  • Edge AI & Tiny Devices: 整个学习流程在 本地、每突触更新 的方式下运行,使其适用于内存带宽和能耗受限的硬件(例如神经形态芯片、微控制器)。
  • Continual‑learning without Replay: 通过在反馈连接中保留潜在痕迹,网络避免了昂贵的经验回放缓冲区,这在设备端学习中是常见的瓶颈。
  • Interpretability: 由于每个权重更新遵循透明的规则,开发者可以推断遗忘发生的原因并进行干预(例如,通过调节 Oja 衰减)。
  • Hybrid Systems: 该架构可以叠加在传统深度网络之上,提供一个 本地可塑性 模块,负责快速适应,而网络的大部分仍通过离线的反向传播进行训练。
  • Neuroscience‑inspired AI: 证明了生物学上可行的学习方式(Hebbian + 反馈)能够实现功能性的持续学习行为,鼓励更多基于大脑机制的 AI 鲁棒性研究。

限制与未来工作

  • 规模:实验仅限于一个极小的两对关联任务;尚不清楚该方法在高维数据(例如图像、语言)上的扩展性。
  • 任务多样性:仅考察了具有静态目标的监督分类;未涉及持续强化学习或无监督设置。
  • 反馈容量:反馈通路是一个简单的线性重建;更丰富的循环或基于注意力的反馈可能提升轨迹保真度,但会增加复杂度。
  • 理论保证:虽然报告了经验保留指数,但未提供遗忘或稳定性的形式化界限。
  • 硬件验证:未在实际神经形态硬件上实现;未来工作可对能耗和延迟优势进行基准测试。

总体而言,本文提供了一个有说服力的概念验证,表明 局部 Hebbian 学习与专用反馈 可以支持持续学习动态,为轻量、可解释的自适应 AI 系统开辟了道路。

作者

  • Josh Li

论文信息

  • arXiv ID: 2601.06758v1
  • 分类: cs.NE, cs.LG
  • 出版日期: 2026年1月11日
  • PDF: Download PDF
Back to Blog

相关文章

阅读更多 »