[Paper] 解耦扩散采样用于函数空间的逆问题

发布: (2026年1月31日 GMT+8 02:54)
7 分钟阅读
原文: arXiv

Source: arXiv - 2601.23280v1

Overview

一种名为 Decoupled Diffusion Inverse Solver (DDIS) 的新生成框架直接在函数空间中处理偏微分方程(PDE)的逆问题。通过将未知系数分布的学习与前向 PDE 的物理分离,DDIS 大幅减少所需的配对训练数据量,同时提供比以往基于扩散的求解器更清晰的重建结果。

关键贡献

  • 解耦架构 – 一个无条件扩散模型学习 PDE 系数的先验,而神经算子(例如 Fourier Neural Operator)对前向 PDE 进行编码,以实现物理感知的引导。
  • 数据高效学习 – 在训练数据稀缺时,能够理论上避免困扰联合系数‑解扩散模型的“引导衰减”问题。
  • 解耦退火后验采样 (DAPS) – 一种新颖的采样调度,能够防止标准扩散后验采样 (DPS) 中常见的过度平滑。
  • 领先的性能 – 在基准逆向 PDE 任务上,DDIS 将 ℓ₂ 重建误差平均降低约 11 %,光谱误差平均降低约 54 %;即使仅使用 1 % 的配对数据,仍能在 ℓ₂ 误差上比联合模型高出约 40 %。
  • 理论保证 – 论文提供了证明,表明即使在极端数据稀疏的情况下,解耦设计也能产生非消失的引导项。

方法论

  1. 无条件扩散先验 – 在大量系数场(例如导电率图)上训练标准扩散模型,且不使用任何观测信息。这在函数空间中学习到丰富的高维先验。
  2. 神经算子前向模型 – 独立训练一个神经算子(如傅里叶神经算子或 DeepONet),将系数场映射到其 PDE 解。该模型具备物理感知,但不需要成对的系数‑解数据;可以在合成求解上进行训练。
  3. 引导采样 – 推理时,从扩散先验中抽取的噪声系数样本开始。每个扩散步骤中,神经算子计算前向 PDE 并将模拟观测与真实测量进行比较。得到的残差作为引导项反馈,推动扩散轨迹向与观测数据一致的系数场靠拢。
  4. 解耦退火后验采样(DAPS) – 与使用固定噪声调度(如 DPS)不同,DAPS 逐步降低引导项的强度,使采样器先在先验流形上探索,再对数据进行微调。此方式缓解了后验“过度平滑”导致的模糊平均塌陷。

整体流程仅需少量真实的成对观测(系数 + 测量)用于引导步骤;主要工作由无条件扩散先验和神经算子承担,它们均可在大量合成数据上进行训练。

Results & Findings

场景用于训练的数据ℓ₂误差 ↓谱误差 ↓
标准基准(完整数据)100 % 配对‑11 % 相比最佳联合扩散‑54 % 相比最佳联合扩散
极端稀缺1 % 配对‑40 % 相比联合扩散显著提升(未报告具体百分比)
  • 对噪声的鲁棒性 – 由于在每个扩散步骤都有物理引导的校正,DDIS 即使在观测被污染的情况下也能保持高保真度。
  • 泛化能力 – 由于扩散先验是无条件学习的,DDIS 可以在多个逆问题(不同的观测算子)之间复用,而无需重新训练先验。
  • 消融实验 – 移除 DAPS 会导致明显的过度平滑;去除神经算子引导会使性能降至纯先验采样器的水平。

实际意义

  • 降低数据收集成本 – 工程师可以在廉价的模拟系数场上训练重量级 diffusion prior,只需少量真实测量即可校准求解器。
  • 即插即用的物理集成 – neural operator 可以替换为任何可微分的 PDE 求解器(例如,有限元、谱方法),使该方法能够适用于流体动力学、电磁学、材料设计等领域。
  • 快速原型制作 – 一旦 prior 和 operator 训练完成,推理只需几百个 diffusion 步,与现有的基于 diffusion 的生成模型相当,并且可以轻松在 GPU 上并行。
  • 改进的设计循环 – 逆向设计流水线(例如,拓扑优化、超材料合成)可以受益于更精确的重建,从而减少设计迭代次数并缩小性能裕度。

限制与未来工作

  • 对极高维度领域的可扩展性 – 虽然该方法在二维和适度的三维网格上表现良好,但在极高分辨率函数空间中的扩散模型可能会消耗大量内存。
  • 对算子精度的依赖 – 神经算子的质量直接影响引导;前向模型的误差可能导致后验偏差。
  • 仅限于已知前向算子的偏微分方程 – 该方法假设前向映射是可解析或可数值求解的;将其扩展到黑箱模拟器仍是一个未解决的挑战。
  • 未来方向 – 作者建议探索用于多尺度偏微分方程的层次化扩散先验,将不确定性量化整合到引导项中,并将 DDIS 应用于时变逆问题(例如地震成像)。

作者

  • Thomas Y. L. Lin
  • Jiachen Yao
  • Lufang Chiang
  • Julius Berner
  • Anima Anandkumar

论文信息

  • arXiv ID: 2601.23280v1
  • Categories: cs.LG, math.NA
  • 出版日期: 2026年1月30日
  • PDF: 下载 PDF
Back to Blog

相关文章

阅读更多 »