[Paper] 参数高效的混合脉冲-量子卷积神经网络,使用代理梯度和量子数据重新上传

发布: (2025年12月3日 GMT+8 23:43)
7 min read
原文: arXiv

Source: arXiv - 2512.03895v1

概览

本文提出了 SQDR‑CNN,一种可端到端使用普通反向传播进行训练的混合脉冲‑量子卷积神经网络。通过将脉冲神经网络(SNN)与量子数据重新上传电路相结合,作者展示了一个体积极小、完全可训练的模型能够在视觉基准测试上达到接近最先进(SOTA)水平的准确率,同时只使用传统 SNN 参数的一小部分。

主要贡献

  • 可联合训练的混合架构 – 首个在单一可微分流水线中集成卷积 SNN 编码器和可变参数量子电路(VQC)的设计,消除了对预训练脉冲编码器的需求。
  • 量子数据重新上传层 – 引入一种可重复使用的量子特征编码方案,将经典激活多次注入浅层 VQC,提升表达能力而无需加深电路。
  • 代理梯度反向传播 – 将代理梯度方法适配到同时通过脉冲非线性和量子层传播误差。
  • 参数效率 – 在仅使用最小竞争脉冲模型 0.5 % 参数的情况下,实现约 86 % 的最佳 SNN 准确率。
  • 对量子噪声的鲁棒性 – 在真实噪声量子模拟器下评估模型,表现出优雅的退化,证实在近期量子硬件上的可行性。

方法论

  1. 卷积脉冲前端 – 输入图像经过少量 2‑D 卷积层后接泄漏积分‑发放(LIF)神经元。脉冲活动使用平滑代理函数近似,以便梯度流动。
  2. 量子数据重新上传块 – 基于脉冲的特征图被展平并编码为量子比特的旋转角度。一个浅层 VQC(通常为 2–3 层参数化单比特旋转和纠缠 CNOT)被重复执行,每一轮使用更新的参数“重新上传”相同数据。此方式在保持电路深度低的同时模拟更深的网络。
  3. 混合损失与优化 – 量子测量得到的输出概率送入交叉熵损失。整个系统——CNN、脉冲动力学和 VQC——使用 Adam 优化,脉冲采用代理梯度,量子门采用参数移位规则。
  4. 噪声建模 – 在量子模拟器中注入去极化和读取错误,以模拟 NISQ 时代硬件,从而评估模型在真实条件下的稳定性。

结果与发现

模型参数 (M)Top‑1 准确率相对 SOTA SNN
基准 SNN(大)1.292 %100 %
SQDR‑CNN(本研究)0.00679 %≈86 %
极小 SNN(最小)0.1284 %
  • 参数缩减:SQDR‑CNN 使用 ≈0.5 % 的最小 SNN 基准参数,却仍能达到竞争性的准确率。
  • 训练稳定性:联合反向传播在无需对脉冲编码器进行任何预训练的情况下收敛,区别于之前依赖冻结 SNN 的 SQNN 工作。
  • 噪声鲁棒性:在加入 1 % 去极化噪声时,准确率下降 < 3 %,表明浅层量子电路能够容忍近期硬件的缺陷。

实际意义

  • 超低内存的边缘 AI – 极高的参数效率使该模型适用于资源极其受限的设备(如可穿戴设备、IoT 传感器),可将量子块离线托管至云端量子处理器。
  • 混合推理流水线 – 开发者可以将大部分计算放在经典 GPU(脉冲 CNN)上,仅在最终分类阶段调用轻量级量子服务,从而降低量子运行时间和成本。
  • 能耗感知的神经形态系统 – 脉冲编码器本身具备事件驱动、功耗稀疏的特性;与小型量子电路耦合后,推理能耗有望进一步低于密集 CNN。
  • 快速原型化量子增强模型 – 代理梯度 + 参数移位的训练循环可直接嵌入现有 PyTorch/TensorFlow 工作流,使机器学习工程师无需深厚的量子编程背景即可实验量子层。

局限性与未来工作

  • 向更大数据集的可扩展性 – 实验仅限于相对较小的视觉基准;若要扩展到 ImageNet 规模任务,可能需要更深的经典骨干或更复杂的量子编码。
  • 硬件可达性 – 本研究依赖噪声量子设备的模拟;实际 NISQ 硬件上的表现可能因校准误差和量子比特数量受限而有所不同。
  • 电路深度与表达能力的权衡 – 虽然数据重新上传缓解了深度需求,但浅层 VQC 的表达能力仍受限;未来可探索自适应电路结构或混合量子‑经典注意力机制。
  • 能耗预算分析 – 仍缺乏对整体能耗(包括量子通信开销)的详细比较,这对于边缘部署场景至关重要。

结论:SQDR‑CNN 表明,经过精心设计的脉冲‑量子混合模型能够以极少的参数实现接近 SOTA 的性能,为开发者在低资源环境中尝试量子增强 AI 提供了切实可行的路径。

作者

  • Luu Trong Nhan
  • Luu Trung Duong
  • Pham Ngoc Nam
  • Truong Cong Thang

论文信息

  • arXiv ID: 2512.03895v1
  • 分类: cs.NE
  • 发表时间: 2025 年 12 月 3 日
  • PDF: Download PDF
Back to Blog

相关文章

阅读更多 »