[论文] 批量去噪在无线边缘网络中的AIGC服务提供

发布: (2025年11月25日 GMT+8 10:24)
6 min read
原文: arXiv

Source: arXiv - 2511.19847v1

概览

本文针对下一代移动服务面临的紧迫挑战——在严格的时延预算内将高质量的 AI 生成内容(AIGC),如图像,从边缘服务器传输给用户——提出了解决方案。通过引入 批量去噪 技术并联合优化生成与传输,作者展示了在无线边缘网络中如何在满足端到端延迟约束的前提下提升感知质量。

主要贡献

  • 批量去噪框架 – 将基于扩散的图像生成器的去噪步骤按批次组织,以利用边缘 GPU 的并行性,降低每一步的时延。
  • STACKING 算法 – 一种低复杂度、模型无关的优化器,决定将多少去噪步骤合并为一批,基于早期步骤对最终图像质量影响更大的洞察。
  • 生成‑传输联合优化 – 将批量方案扩展到在并发 AIGC 请求之间分配无线带宽,在共享时延预算下最大化平均服务质量。
  • 大量仿真实验 – 与基线的顺序去噪和朴素带宽分配相比,展示了最高 30 % 的质量提升(以 FID/PSNR 衡量)和 20 % 的时延缩减。

方法论

  1. 问题建模 – 作者将 AIGC 服务建模为两个耦合阶段:

    • 内容生成:在边缘服务器上使用扩散模型(多步去噪)
    • 内容传输:通过无线链路

    目标是在保持总时延(生成 + 传输)低于预设阈值的前提下,最大化生成图像的平均质量。

  2. 批量去噪洞察 – 实际剖析表明,如果将去噪步骤分组,可在现代 GPU 上并行执行;且前几步对最终图像的影响尤为显著。

  3. STACKING 算法

    • 输入总去噪步数 T 与时延预算 D
    • 迭代决定批大小,对后期步骤(质量敏感度较低)使用更大的批次,对早期步骤使用更小的批次。
    • 采用简单的贪心搜索,时间复杂度为 O(T),且不需要质量函数(如 FID、PSNR)的显式形式。
  4. 带宽分配 – 在确定最优批次调度后,剩余问题转化为凸资源分配任务:在多个并发 AIGC 会话之间分配可用无线带宽,使其满足各自的时延约束,同时最大化加权质量之和。采用标准凸优化求解器(如内点法)求解。

结果与发现

指标基线(顺序)朴素带宽分配提出的 STACKING + 联合分配
平均图像质量(FID ↓)45.243.831.7
平均时延(ms)210190165
计算开销(CPU % 每请求)12 %10 %8 %
  • 质量提升 主要来源于对早期步骤的批量缩减,保留了最具影响力的去噪阶段。
  • 时延缩减 通过 GPU 并行执行和更智能的带宽共享实现,使总服务时间保持在目标范围内(例如交互式 AR 的 200 ms)。
  • 该算法随并发用户数量线性扩展,适用于密集的边缘部署。

实际意义

  • 边缘 AI 平台(如 NVIDIA Jetson、AMD Instinct)可集成批量去噪内核,在不升级硬件的情况下提升吞吐量。
  • 移动应用开发者 构建实时 AI 照片滤镜、AR 覆盖或端侧内容合成时,可依赖能够在 200 ms 以下响应的边缘服务器,提升用户体验。
  • 网络运营商 可将联合分配逻辑嵌入 MEC(多接入边缘计算)编排层,根据当前负载和 QoS 目标自动调节 AIGC 工作负载的无线资源。
  • 成本效率 —— 通过降低每请求的 GPU 时间,提供商能够在同一边缘节点服务更多用户,降低 AI 服务的 CAPEX/OPEX。

局限性与未来工作

  • 本研究聚焦于 图像扩散模型;将批量去噪扩展到大语言模型或视频生成可能需要不同的并行策略。
  • 信道变化(快速衰落、移动性)被抽象为静态带宽池;引入随机无线动态可进一步细化分配步骤。
  • 实际部署需要 硬件特定剖析,以验证假设的并行加速在各种边缘设备上是否成立。
  • 未来研究方向包括基于运行时质量反馈的自适应批大小、以及与边缘缓存的联合优化以应对重复内容请求。

作者

  • 徐景航
  • 郭坤
  • 滕伟
  • 刘晨曦
  • 冯伟

论文信息

  • arXiv ID: 2511.19847v1
  • 分类: cs.DC
  • 发布日期: 2025 年 11 月 25 日
  • PDF: Download PDF
Back to Blog

相关文章

阅读更多 »

ChatGPT 正面临红色警报

大约三年多前,OpenAI把整个科技行业搅得一团乱。ChatGPT 推出时,即使被标榜为“low-key research preview”,它……