[Paper] 类人工作记忆来自人工内在可塑性神经元

发布: (2025年12月18日 GMT+8 01:24)
7 min read
原文: arXiv

Source: arXiv - 2512.15829v1

概述

本文介绍了 IPNet,一种神经形态系统,通过利用磁隧道结(MTJ)神经元的内在可塑性来模拟人类工作记忆。通过硬件与软件的协同设计,作者实现了超低能耗、近传感器的处理能力,在动态视觉任务上可与乃至超越最先进的循环网络和三维卷积神经网络模型竞争。

关键贡献

  • Intrinsic‑Plasticity Neurons (IPNeurons): 利用 MTJ 的焦耳加热动力学,创建一种类似生物工作记忆的物理易失性记忆机制。
  • 硬件‑软件协同设计: 整个网络由已制造的 MTJ 器件构建;无需后期参数调优。
  • 类人记忆行为: 在 n‑back、自由回忆和干扰实验中表现出与人类受试者相当的性能。
  • 性能提升
    • 在 11 类 DVS 手势基准上达到 99.65 % 的准确率。
    • 在新发布的 22 类时间反转手势集合上达到 99.48 % 的准确率,使用相同骨干网络超越 RNN/LSTM/2+1D‑CNN 基线。
    • 在 DDD‑20 自动驾驶数据集上相较于 ResNet‑LSTM 基线,转向角预测误差降低 14.4 %。
  • 能耗与面积效率
    • 内存功耗比 LSTM 低 2,874 倍,比并行 3‑D CNN 低 90,920 倍。
    • 每个神经元约 1.5 µm²(28 nm CMOS),比传统泄漏积分‑发放(LIF)实现小 >20 倍。
  • “Memory‑at‑the‑Frontier” 效应:表明将易失性记忆直接置于传感器接口可最大化动态视觉性能,支持一种生物可行的近传感器计算范式。

方法论

  1. Device Physics Layer: 制造的 MTJ 堆叠被驱动进入受控加热状态;由此产生的电阻变化充当短暂的状态(内在可塑性),会自然衰减,模拟人类工作记忆的易失性。
  2. Neuron Model: 每个 IPNeuron 将物理电阻轨迹映射为脉冲率输出,消除了对外部电容或数字存储缓冲的需求。
  3. Network Architecture: 标准深度学习主干(例如 ResNet 风格的特征提取器)被增添了一层仅由 IPNeurons 组成的薄“工作记忆”层。网络的其余部分保持不变,能够与 RNN/LSTM/3‑D‑CNN 基线进行公平的逐对比较。
  4. Training & Inference: 网络在软件中使用测得的器件传递函数进行训练;在推理阶段,硬件在环(HIL)设置将软件层替换为实际的 MTJ 硬件,从而保留已学习的权重。
  5. Benchmark Suite: 评估覆盖基于事件的视觉(DVS 手势)、自定义的时间反转手势基准以及真实世界的驾驶数据集(DDD‑20)。还进行人类行为实验,以使模型的记忆曲线与心理物理学研究中观察到的曲线保持一致。

结果与发现

基准基线(相同骨干)IPNet相对提升
11 类 DVS 手势97.8 % (RNN)99.65 %+1.85 %
22 类时间反转手势97.2 % (2+1D‑CNN)99.48 %+2.28 %
DDD‑20 转向预测(RMSE)0.112 rad0.096 rad–14.4 %
存储功耗(每个神经元)1.2 µW (LSTM)0.42 nW2,874× 更低
面积(每个神经元)30 µm² (LIF)1.5 µm²>20× 减少
  • 类人曲线:在 n‑back 和干扰任务中,基于 MTJ 的记忆衰减与人类受试者观察到的指数遗忘相匹配,验证了该方法的生物学可行性。
  • 鲁棒性:由于记忆是物理易失的,系统对通常困扰长程递归连接的噪声累积不太敏感。
  • 可扩展性:相同的 IPNeuron 设计可以平铺以支持更大的网络,而功耗或面积并不会成比例增加,这归功于无电容实现。

实际意义

  • 边缘 AI 与物联网:超低功耗、近传感器内存使得始终在线的感知模块(例如可穿戴设备、无人机)能够处理脉冲或事件相机数据而不耗尽电池。
  • 自主系统:以更少的计算预算实现更快、更准确的短期上下文处理(例如转向决策、障碍预测),从而简化自动驾驶汽车或机器人的硬件堆栈。
  • 神经形态芯片设计:展示了一条可行的路径,将传统数字存储缓冲区替换为物理易失性神经元,为面向脉冲神经网络的 ASIC 开辟了新的设计空间。
  • 人机交互:与人类记忆动态的契合可用于自适应界面,根据近期交互预测用户意图,从而在不依赖大型模型的情况下提升响应速度。

局限性与未来工作

  • 设备变异性:MTJ 制造公差会引入随机性;虽然当前工作展示了鲁棒性,但大规模生产仍需更严格的控制或校准方案。
  • 任务多样性:基准测试聚焦于以视觉为中心的短期时序任务;将其扩展到语言建模或长程序列预测仍是未解之题。
  • 训练开销:当前流水线仍依赖于使用测量设备模型的软体训练;为 IPNeurons 开发完全在芯片上进行的学习算法是一个有前景的下一步。
  • 与现有技术栈的集成:将神经形态前端与传统数字后端(如 GPU、CPU)衔接,需要标准化的接口和工具链。

总体而言,IPNet 展示了借鉴大脑固有可塑性能够同时实现性能和能耗优势,指向新一代受大脑启发、靠近传感器的 AI 硬件。

作者

  • Jingli Liu
  • Huannan Zheng
  • Bohao Zou
  • Kezhou Yang

论文信息

  • arXiv ID: 2512.15829v1
  • 分类: cs.ET, cs.AI, cs.CV, cs.NE
  • 出版日期: 2025年12月17日
  • PDF: 下载 PDF
Back to Blog

相关文章

阅读更多 »