神经架构搜索用于量子自编码器

发布: (2025年11月24日 GMT+8 23:55)
7 min read
原文: arXiv

Source: arXiv - 2511.19246v1

概览

本文提出了一种 神经架构搜索 (NAS) 框架,能够自动设计 量子自编码器——即用于压缩和重构数据的变分量子电路。通过将遗传算法与量子‑经典混合训练相结合,作者展示了如何在无需人工反复试验的情况下发现高性能的电路拓扑,为在近期硬件上实现实用的量子增强特征提取铺平了道路。

主要贡献

  • 基于遗传算法的 NAS,专门用于变分量子电路,针对自编码器结构进行搜索。
  • 搜索空间定义,对门类型、连通性和层深度进行编码,实现对量子电路设计的系统化探索。
  • 混合训练循环,在评估每个候选电路时使用经典损失(重构误差),并通过无梯度优化更新量子参数。
  • 真实图像数据集(如 MNIST 风格数据)上的实证验证,展示了压缩比和重构质量可与手工设计的量子自编码器相媲美。
  • 开源原型实现,可根据不同量子硬件约束(门集、量子比特数、噪声模型)进行适配。

方法论

  1. 搜索空间构建

    • 遗传种群中的每个个体编码一个 VQC:层列表,每层指定一种门(如 RX、RY、CNOT)及其作用的量子比特。
    • 该空间刻意 硬件感知:仅允许目标设备支持的门,连通性遵循设备的耦合图。
  2. 遗传算法循环

    • 初始化: 随机生成候选电路种群。
    • 评估: 对每个电路执行混合训练流程:
      • 将经典输入向量编码为量子态(幅度或角度编码)。
      • 应用 VQC,测量降维子系统,并解码回经典空间。
      • 计算重构损失(如均方误差)。
    • 选择与交叉: 保留表现最好的电路,重组其“基因”生成后代。
    • 变异: 随机修改门、连通或层数,以保持多样性并避免局部最小。
  3. 混合优化

    • 在每次评估中使用无梯度优化器(如 COBYLA)调优电路参数(旋转角度),确保适应度同时反映架构和参数质量。
  4. 停止准则

    • 当达到固定代数或改进停滞时停止算法,返回排名最高的量子自编码器。

结果与发现

  • 压缩性能: GA 发现的自编码器在将 8‑量子比特输入压缩至 3‑量子比特潜在空间时,实现了 ≈ 85 % 重构保真度,与手工设计的基线相当。
  • 搜索效率: 在 30 代、种群规模为 20 的设置下,方法在 ≈ 2 小时(模拟噪声量子设备 IBM Qiskit Aer)内收敛至近似最优架构。
  • 噪声鲁棒性: 进化得到的结构自然倾向于 更浅的深度对去极化噪声不敏感的门模式,表明 GA 隐式学习了硬件友好的设计。
  • 泛化能力: 将搜索管线迁移到不同数据集(手写数字 vs. fashion‑MNIST)时,产生了不同但同样有效的电路,展示了对多样数据分布的适应性。

实际意义

  • 加速原型开发: 开发者只需提供自己的数据集和硬件约束,GA 即可完成繁琐的电路设计阶段,类似于 AutoML 对经典模型的作用。
  • 硬件定制化解决方案: 由于搜索遵循设备耦合图和本机门集,得到的自编码器可直接在当前超导或离子阱量子处理器上运行,无需额外的转换开销。
  • 混合特征提取: 量子自编码器可作为后续量子机器学习管线(如量子分类器)的前端,潜在降低对量子比特数量和电路深度的需求。
  • 噪声感知设计: 对噪声鲁棒结构的进化压力提供了一种系统化的误差缓解手段,无需完整的错误纠缠,是 NISQ 时代应用的关键优势。

局限性与未来工作

  • 可扩展性: 目前搜索仅限于 ≤ 8 量子比特和适度层数;若要扩展到更大寄存器,需要更高效的编码或代理适应度模型。
  • 评估成本: 每个候选都需完整的混合训练,在真实量子硬件上耗时较长;未来工作可引入 元学习性能预测器 以提前剪枝搜索空间。
  • 基准多样性: 实验主要聚焦图像数据;将方法推广至时间序列、图结构或量子态数据将检验其通用性。
  • 混合优化策略: 在可能的情况下将梯度式参数更新与 GA 结合,可能加速收敛并提升最终保真度。

核心结论: 通过自动化发现量子自编码器电路,本研究让实用的量子增强数据压缩更进一步,提供了一套可供开发者针对当今噪声量子机器特性进行适配的工具箱。

作者

  • Hibah Agha
  • Samuel Yen‑Chi Chen
  • Huan‑Hsin Tseng
  • Shinjae Yoo

论文信息

  • arXiv ID: 2511.19246v1
  • 分类: quant-ph, cs.AI, cs.LG, cs.NE
  • 发布日期: 2025 年 11 月 24 日
  • PDF: Download PDF
Back to Blog

相关文章

阅读更多 »