[Paper] CogniSNN:实现神经元可扩展性、路径可重用性和动态可配置性,基于随机图结构的脉冲神经网络
发布: (2025年12月13日 GMT+8 01:36)
7 min read
原文: arXiv
Source: arXiv - 2512.11743v1
概述
本文提出 CogniSNN,一种新型脉冲神经网络(SNN),摒弃传统的层层堆叠“链式”结构,采用受生物神经元互连方式启发的 随机图连通性。作者声称通过此方式实现三种类脑特性——神经元可扩展性、通路可复用性和动态可配置性,同时在神经形态基准测试上的性能与当前最先进的 SNN 相当或更佳。
主要贡献
- 随机图架构 (RGA) 用于 SNN,模拟随机神经连线,实现通路的灵活扩展与复用。
- 纯脉冲残差块 加上 自适应池化 方案,以防止深层随机图中的退化和维度不匹配。
- 关键通路学习不遗忘 (KP‑LwF):一种持续学习策略,复用关键通路以在多任务间保持已有知识。
- 动态增长学习 (DGL) 算法,使神经元和突触在推理的时间维度上动态增长,降低干扰并缓解神经形态芯片上固定时间步的限制。
- 大规模实证验证 在神经形态数据集(如 DVS‑CIFAR10、N‑Caltech101)和 Tiny‑ImageNet 上进行,显示出与领先 SNN 模型相竞争或更优的准确率。
方法论
- 随机图生成 – 网络不再堆叠层,而是构建为有向无环随机图,每个节点代表一组脉冲神经元。边的概率遵循可配置分布,可根据硬件预算使图更稠密或更稀疏。
- 脉冲残差连接 – 为保持跨多跳的信号幅度稳定,作者改编经典残差捷径,但纯粹使用脉冲实现(无浮点旁路),避免深层 SNN 常见的“脉冲消失”问题。
- 自适应池化 – 在每个图块之后,池化算子根据当前脉冲活动动态选择合适的空间分辨率,防止并行通路合并时出现形状不匹配。
- KP‑LwF – 在多任务训练期间,系统识别出“关键通路”(对任务损失贡献最大的子图),冻结这些通路,同时让其他通路适应,从而在不产生灾难性遗忘的情况下保留先前知识。
- 动态增长学习 – 在处理序列时,网络可在运行时即时实例化新神经元或突触,以满足更高的时序容量需求。增长决策由基于脉冲的效用度量驱动,平衡准确率提升与硬件成本。
所有组件均使用标准脉冲原语(漏积分-发放(Leaky‑Integrate‑and‑Fire)神经元、代理梯度反向传播)实现,兼容现有 SNN 工具包(如 BindsNET、Norse)。
结果与发现
| 数据集 | 基线 SNN(准确率) | CogniSNN(准确率) | Δ |
|---|---|---|---|
| DVS‑CIFAR10 | 78.3 % | 80.1 % | +1.8 % |
| N‑Caltech101 | 71.5 % | 73.2 % | +1.7 % |
| Tiny‑ImageNet (spiking version) | 45.0 % | 46.8 % | +1.8 % |
- 通路可复用性:在顺序多任务实验(CIFAR‑10 → CIFAR‑100 → Tiny‑ImageNet)中,CogniSNN 保留了 >90 % 的原始任务性能,而传统 SNN 在后续任务上跌至 <70 %。
- 动态增长:在严格的 1 ms 时间步预算的神经形态芯片仿真中,DGL 将推理延迟降低约 15 %,且准确率仅比静态版本低 0.5 %。
- 资源效率:约 30 % 更少突触的随机图可实现与密集前馈 SNN 相当的准确率,表明在硬件上有潜在的功耗节省。
实际意义
- 神经形态硬件部署 – 随机图布局自然映射到交叉开关阵列,可利用稀疏性降低能耗。DGL 机制直接解决了许多 SNN 加速器面临的固定时间步瓶颈。
- 边缘设备持续学习 – KP‑LwF 使得设备能够在不从头训练的情况下更新模型(如添加新手势类别),对需随时间适应的 IoT 传感器尤为重要。
- 可扩展架构设计 – 开发者可调节图密度和增长策略,以满足特定的延迟、功耗或内存约束,提供比传统“层大小”调节更细粒度的权衡。
- 工具链兼容性 – 由于作者基于标准代理梯度训练,现有基于 PyTorch 的 SNN 流水线只需少量代码改动即可采用 CogniSNN,加速实验迭代。
局限性与未来工作
- 图生成开销 – 随机图构建及相应路由逻辑会增加一定的编译时间成本;论文未深入探讨自动化硬件映射工具。
- 对超大数据集的可扩展性 – 实验止步于 Tiny‑ImageNet,尚不清楚 CogniSNN 在完整 ImageNet 或视频流上的表现。
- 生物可解释性 vs. 工程折衷 – 虽然架构更类脑,但代理梯度训练仍依赖非脉冲的反向传播,作者已承认这一差距。
- 未来方向 包括 (1) 融入硬件感知的图合成,(2) 将 DGL 扩展至支持突触剪枝以实现终身学习,(3) 探索混合 ANN‑SNN 流水线,将随机图 SNN 核心与传统深度学习模块结合。
作者
- Yongsheng Huang
- Peibo Duan
- Yujie Wu
- Kai Sun
- Zhipeng Liu
- Changsheng Zhang
- Bin Zhang
- Mingkun Xu
论文信息
- arXiv ID: 2512.11743v1
- 分类: cs.NE, cs.AI
- 发布日期: 2025 年 12 月 12 日
- PDF: Download PDF