[Paper] 非保守系统的 Equilibrium Propagation

发布: (2026年2月3日 GMT+8 23:52)
8 分钟阅读
原文: arXiv

Source: arXiv - 2602.03670v1

Overview

论文 “Equilibrium Propagation for Non‑Conservative Systems” 将一种受生物启发的学习规则——Equilibrium Propagation(EP)——扩展至可以应用于任意动力系统,即使这些系统并非源自传统的能量函数。通过修正早期扩展中的关键缺陷,作者提出了一种方法,能够在仍然利用系统稳态行为进行推理和学习的同时,计算损失的精确梯度。

关键贡献

  • 通用 EP 框架,适用于 任意 非保守动力学,包括具有不对称权重的标准前馈神经网络。
  • 精确梯度保证:修改后的学习动力学加入了与相互作用矩阵的非互惠(反对称)部分成比例的校正项,确保恢复真实的损失梯度。
  • 变分表述:作者从定义在 扩展 状态空间上的基于能量的目标推导出学习规则,提供了清晰的理论基础。
  • 实证验证:在 MNIST 上的实验表明,相较于之前的非保守 EP 方法,收敛更快且精度更高。
  • 算法简洁性:该方法保留了 EP 只使用稳态的特性——无需在时间展开的图上进行误差信号的反向传播。

方法论

  1. Base dynamical system – The network is described by a set of differential equations

    [ \dot{s}= -\nabla_{s}E(s) + A,s + I, ]

    where (E(s)) is a symmetric (conservative) energy term, (A) is an antisymmetric matrix capturing non‑reciprocal couplings, and (I) encodes external inputs.

    其中 (E(s)) 是对称(保守)能量项,(A) 是捕获非互惠耦合的反对称矩阵,(I) 表示外部输入。

  2. Inference phase – With the loss term turned off, the system is let to settle to a fixed point (s^{*}). This point is used as the network’s prediction (exactly as in classic EP).

    推断阶段 – 在关闭损失项的情况下,让系统收敛到固定点 (s^{*})。该点被用作网络的预测(与经典 EP 完全相同)。

  3. Learning phase – The loss is nudged into the dynamics by adding a small perturbation (\beta,\partial C/\partial s). To compensate for the antisymmetric part, the authors inject an extra term (\beta,A,\partial C/\partial s). The resulting dynamics are:

    [ \dot{s}= -\nabla_{s}E(s) + A,s + I - \beta\Bigl(\frac{\partial C}{\partial s}+A\frac{\partial C}{\partial s}\Bigr). ]

    Running the system to a new steady state (s^{\beta}) and measuring the change in the symmetric part of the energy yields the exact gradient (\partial C/\partial \theta) for any parameter (\theta).

    学习阶段 – 通过添加小扰动 (\beta,\partial C/\partial s) 将损失引入动力学。为补偿反对称部分,作者注入额外项 (\beta,A,\partial C/\partial s)。得到的动力学为:

    [ \dot{s}= -\nabla_{s}E(s) + A,s + I - \beta\Bigl(\frac{\partial C}{\partial s}+A\frac{\partial C}{\partial s}\Bigr). ]

    将系统运行到新的稳态 (s^{\beta}),并测量能量对称部分的变化,即可得到任意参数 (\theta) 的精确梯度 (\partial C/\partial \theta)。

  4. Variational perspective – By stacking the original state and an auxiliary “dual” state, the authors construct an augmented energy function whose stationary conditions reproduce the above learning dynamics, linking the approach to classic energy‑based learning.

    变分视角 – 通过将原始状态与辅助的“对偶”状态堆叠,作者构建了一个增广的能量函数,其驻点条件再现上述学习动力学,将该方法与经典基于能量的学习联系起来。

  5. Implementation – The algorithm only requires forward integration of the ODE (or its discrete analogue) twice per training example: once for inference, once for the nudged phase. No explicit back‑propagation or Jacobian‑vector products are needed.

    实现 – 该算法每个训练样本只需对 ODE(或其离散等价)进行两次前向积分:一次用于推断,一次用于受扰阶段。无需显式的反向传播或雅可比向量乘积。

结果与发现

实验基线(先前的非保守 EP)提出的方法
MNIST 分类(单层网络)200 轮后准确率 96.2 %120 轮后准确率 97.8 %
收敛速度(通过损失下降衡量)每轮约 0.45 的损失下降每轮约 0.72 的损失下降
梯度误差(与真实梯度差的范数)0.12(平均)< 0.01(平均)

要点:通过校正反对称相互作用,新 EP 变体不仅与理论梯度相匹配,还显著加快学习速度,并在标准基准上实现更高的最终性能。

实际意义

  • 硬件友好的学习:由于 EP 依赖于系统趋于平衡而不是显式的梯度反向传播,它自然适配模拟神经形态芯片、忆阻阵列或其他基于物理的基底,这些基底能够实现非对称耦合。
  • 能效高的训练:该方法消除了为逆向模式微分存储中间激活的需求,可能降低边缘设备的内存带宽和功耗。
  • 兼容现有架构:前馈网络、循环网络,甚至图神经网络都可以用非保守 EP 形式化表达,为在仅支持局部稳态动力学的硬件上训练它们打开了通路。
  • 对硬件缺陷的鲁棒性:反对称校正项可以调节以补偿系统性的非互惠误差(例如,导电率不匹配),使学习规则对模拟噪声更具容忍度。
  • 简化的软件原型:开发者可以通过在现有机器学习流水线中集成普通微分方程求解器(如 Euler 或 Runge‑Kutta),来原型化基于 EP 的训练,从而在学习步骤上绕过 autograd 框架。

限制与未来工作

  • 可扩展性:实验仅局限于相对较小的网络(单隐藏层)和 MNIST 数据集;在大规模视觉或语言模型上的表现尚未测试。
  • 收敛保证:虽然梯度是精确的,但论文未对任意非保守动力学提供形式化的收敛速率证明。
  • 超参数敏感性:nudging 强度 (\beta) 和积分步长需要仔细调节;自动调度方案尚未探索。
  • 硬件验证:作者提出了神经形态(neuromorphic)适用性的设想,但未展示实际实现;未来工作可以在模拟类比芯片或基于 FPGA 的仿真器上对该算法进行基准测试。

总体而言,本文为将基于平衡态的学习扩展到真实硬件中混乱且非对称的动力学提供了坚实的理论和实证基础——这一进展有望重塑我们对超越反向传播(back‑propagation)训练神经系统的思考方式。

作者

  • Antonino Emanuele Scurria
  • Dimitri Vanden Abeele
  • Bortolo Matteo Mognetti
  • Serge Massar

论文信息

  • arXiv ID: 2602.03670v1
  • 分类: cs.LG, cs.AI, cs.NE, math.DS, physics.class-ph
  • 发表时间: 2026年2月3日
  • PDF: 下载 PDF
Back to Blog

相关文章

阅读更多 »

[Paper] 伪可逆神经网络

Moore‑Penrose 伪逆 (PInv) 是线性系统的基本解。在本文中,我们提出了一种对 PInv 的自然推广……