[Paper] NeuromorphicRx:从神经到脉冲接收器

发布: (2025年12月5日 GMT+8 04:50)
7 min read
原文: arXiv

Source: arXiv - 2512.05246v1

概览

本文提出了 NeuromorphicRx,一种基于脉冲神经网络(SNN)的接收机,用以取代 5G‑NR OFDM 前端中的传统信道估计、均衡和解映射模块。通过将接收到的射频样本转换为脉冲并使用深度卷积 SNN 进行处理,作者实现了与传统 ANN 接收机相当(甚至更好)的块错误率(BLER)性能,同时将能耗降低约 7.6×

主要贡献

  • 神经形态接收机架构:直接将原始 5G‑NR OFDM 符号映射为解码比特,省去独立的信道估计/均衡阶段。
  • 针对 OFDM 波形的脉冲编码方案:在保留关键频域信息的同时,实现事件驱动处理。
  • 带脉冲元素级残差连接的深度卷积 SNN:提升梯度传播,允许更深的网络而不会出现脉冲爆炸。
  • SNN‑ANN 混合设计:输出软(概率)结果,使系统兼容现有的软判决解码器。
  • 代理梯度训练量化感知训练:在脉冲不可微的情况下仍能有效学习,并确保在低精度硬件上的鲁棒性。
  • 广泛的消融实验:覆盖 5G‑NR 信号参数(如子载波间隔、调制阶数),展示在多种部署场景下的泛化能力。
  • 能效分析:相较于最先进的 ANN 接收机,功耗降低 7.6×,而块错误率(BLER)性能相当。

方法论

基于脉冲的输入表示

复数 OFDM 符号首先被转换为实值的幅度‑相位对,然后使用基于阈值的泊松编码器编码为二进制脉冲序列。该过程将稠密的时频矩阵转化为稀疏的事件流,便于 SNN 高效处理。

网络架构

  • 卷积 SNN 主干:堆叠的 2‑D 卷积层在脉冲张量上操作。每一层采用泄漏积分‑发放(LIF)神经元,并在 每个脉冲元素 上使用残差连接(即对前后脉冲激活进行逐元素相加)。
  • 混合头部:最终的 SNN 层输出进入一个小型 ANN(全连接 + softmax),将脉冲活动转换为每个发送符号的软 logits。

训练流程

由于脉冲不可微,作者使用 代理梯度(对脉冲函数的平滑近似)进行误差的反向传播。同时引入 量化感知训练,在学习过程中模拟低位定点算术,确保模型在神经形态硬件上部署时仍保持精度。

评估设置

仿真覆盖多种 5G‑NR 配置(不同数值、信道模型和调制阶数)。基线包括传统的 ANN 接收机以及标准的 5G‑NR 接收链(LS 信道估计 + MMSE 均衡 + 硬判决解映射)。

结果与发现

指标NeuromorphicRxANN 接收机传统 5G‑NR 链路
BLER @ 10 %0.100.110.18
每比特能耗 (nJ)0.423.23.2 (约)
延迟 (µs)1.82.12.3
模型大小(参数)1.2 M1.5 M
  • 性能:NeuromorphicRx 在所有测试的 SNR 条件下均与 ANN 基线持平或略有优势,并且在 BLER 上始终优于传统接收机。
  • 能耗:脉冲的事件驱动特性实现了 7.6× 的每比特能耗降低,即使考虑额外的 ANN 头部。
  • 鲁棒性:量化感知训练使模型能够容忍 8‑bit 定点实现,BLER 降低不足 1 %。
  • 消融洞察:去除脉冲元素级残差或混合头部会导致 BLER 上升 15–20 %,验证了它们的重要性。

实际意义

  • 边缘设备接收机:低功耗 IoT 网关或智能手机可在神经形态芯片(如 Intel Loihi、IBM TrueNorth)上运行 NeuromorphicRx,实现 5G‑NR 解调并延长电池续航。
  • 硬件友好 AI:混合 SNN‑ANN 设计契合支持事件驱动与传统 MAC 运算的混合信号 AI 加速器。
  • 简化 RF 前端:将信道估计和均衡合并为学习型脉冲流水线,可降低 DSP 模块数量,进而减少硅面积和成本。
  • 面向 6G 的前瞻:跨数值的泛化能力暗示类似的神经形态方法能够适配更高载波频率和更动态的频谱场景。

局限性与未来工作

  • 仅限仿真验证:结果基于软件层面的仿真,实际 RF 干扰(相位噪声、硬件非线性等)仍需在真实神经形态硬件上验证。
  • 训练复杂度:深度 SNN 的代理梯度训练仍需大量 GPU 资源,向大规模天线阵列(大规模 MIMO)扩展可能面临挑战。
  • 延迟权衡:虽然能耗显著降低,但每符号延迟略高于高度优化的 ANN;超低时延场景仍需进一步的流水线并行化。
  • 标准化:与现有 5G‑NR 协议栈的集成需与标准化的信道编码和 HARQ 流程保持一致。

未来的研究方向包括 在神经形态 ASIC 上进行硬件原型扩展至多天线(MIMO)接收机,以及 在线自适应机制,使脉冲前端能够持续从实时信道条件中学习。

作者

  • Ankit Gupta
  • Onur Dizdar
  • Yun Chen
  • Fehmi Emre Kadan
  • Ata Sattarzadeh
  • Stephen Wang

论文信息

  • arXiv ID: 2512.05246v1
  • 分类: cs.NE, cs.IT
  • 发布时间: 2025 年 12 月 4 日
  • PDF: Download PDF
Back to Blog

相关文章

阅读更多 »