[Paper] TexSpot:3D 纹理增强与空间均匀点潜在表示

发布: (2026年2月13日 GMT+8 00:37)
7 分钟阅读
原文: arXiv

Source: arXiv - 2602.12157v1

概述

TexSpot 解决了 3‑D 图形中长期存在的痛点:为任意网格生成高质量、视角一致的纹理。通过引入一种新的 “Texlet” 表示,它将基于点的纹理的灵活性与 UV 图的紧凑性相结合,作者构建了一个基于扩散的增强器,能够在保持几何保真度的同时,润色现有多视角流水线生成的纹理。

关键贡献

  • Texlet 表示: 对每个表面点的空间均匀潜在 token,存储局部 2‑D 纹理块,通过联合 2‑D/3‑D 编码器管线学习。
  • 级联 3‑D‑到‑2‑D 解码器: 从 Texlet 潜在向量重建高分辨率纹理块,实现紧凑而富有表现力的纹理空间。
  • 用于增强的扩散 Transformer: 训练一个以 Texlet 为条件的扩散模型,以细化任何多视角扩散方法生成的纹理,提高视点间的一致性。
  • 全面评估: 与最先进的 3‑D 纹理生成和增强技术相比,展示了更优的视觉保真度、几何一致性和鲁棒性。

方法论

  1. Texlet 构建

    • 在网格表面上均匀采样一组点。
    • 对每个点,从初始纹理中提取一个小的 2‑D 纹理块(例如 32×32 像素)。
    • 使用轻量级 2‑D CNN 编码器对每个纹理块进行编码 → 本地潜在向量。
    • 将所有本地向量输入共享的 3‑D 编码器(例如 PointNet++ 风格),该编码器注入全局形状上下文,生成该点的最终 Texlet 潜在向量。
  2. 3‑D‑到‑2‑D 解码

    • 一系列解码器首先将全局潜在向量展开为粗糙的 2‑D 特征图,然后将其细化为全分辨率的纹理块。
    • 该设计在保持低内存使用的同时,使模型能够重建细粒度细节。
  3. 基于扩散的增强

    • 一个 Transformer 风格的扩散模型接收噪声 Texlet 潜在向量,并学习在底层几何条件下对其去噪。
    • 扩散过程迭代地细化潜在空间,随后将其解码回高质量的纹理块。
    • 由于扩散在紧凑的 Texlet 空间上进行,该方法快速且可扩展到高分辨率网格。
  4. 训练与集成

    • 系统在精心挑选的带有真实纹理的网格数据集上进行端到端训练。
    • 在推理阶段,TexSpot 可以在任何多视角扩散生成器(例如 DreamFusion 风格的流水线)之后插入,以提升最终纹理质量。

Results & Findings

  • 视觉保真度: 用户研究和 PSNR/SSIM 指标显示,相比最佳的基于点和基于 UV 的方法提升了 15‑20 %。
  • 视角一致性: 从截然不同的相机角度渲染的图像出现的接缝和颜色偏移显著减少,验证了 Texlets 的空间均匀性。
  • 分辨率可扩展性: 由于潜在压缩,TexSpot 能够在不导致内存爆炸的情况下生成最高达 4K 分辨率的纹理。
  • 鲁棒性: 扩散增强器能够容忍噪声或不完整的初始纹理(例如来自低采样多视角扩散的纹理),并仍然收敛到干净的结果。

实际意义

  • Game & VR asset pipelines: 艺术家可以将快速原型工具生成的粗糙纹理输入 TexSpot,以获得生产级、视角一致的纹理,无需手动 UV 展开。
  • 3‑D content marketplaces: 自动放大用户提交的网格变得可行,从而减少手动修饰的需求。
  • AR/VR streaming: 由于 TexSpot 基于紧凑的潜在表示工作,可集成到带宽受限但需要高质量纹理的边缘计算场景中。
  • Cross‑modal generation: Texlet 空间可以作为文本到 3‑D 流水线的桥梁,实现基于语言的纹理细化,而无需为每个新资产重新训练完整的扩散模型。

限制与未来工作

  • 对点密度的依赖: 极其稀疏的点采样仍然限制了最细致的纹理细节;自适应采样策略可以缓解此问题。
  • 训练数据偏差: 该模型在几何相对干净的合成数据集上进行训练;在噪声较大的真实扫描上性能可能下降。
  • 实时约束: 虽然比全分辨率扩散更高效,但迭代扩散步骤仍会增加延迟,暗示未来工作可聚焦于加速去噪(例如蒸馏扩散或基于 GAN 的捷径)。
  • 向动态网格的扩展: 当前公式假设几何是静态的;将 Texlets 扩展至可处理可变形或动画表面是一个未解的方向。

作者

  • Ziteng Lu
  • Yushuang Wu
  • Chongjie Ye
  • Yuda Qiu
  • Jing Shao
  • Xiaoyang Guo
  • Jiaqing Zhou
  • Tianlei Hu
  • Kun Zhou
  • Xiaoguang Han

论文信息

  • arXiv ID: 2602.12157v1
  • 分类: cs.CV, cs.GR
  • 发布时间: 2026年2月12日
  • PDF: 下载 PDF
0 浏览
Back to Blog

相关文章

阅读更多 »