iDLG:改进的 Deep Leakage from Gradients
发布: (2026年1月1日 GMT+8 19:40)
2 分钟阅读
原文: Dev.to
Source: Dev.to
Overview
当人们共同训练模型时,他们会共享称为 梯度 的微小信号,这些信号被认为是安全且私密的。最新研究表明,这些信号实际上可以泄露真实的训练图像及其对应的答案,因此你的私人信息可能并不安全。
Method
研究人员找到了一种更清晰的方法,从这些信号中提取真实的 标签,随后比以往更可靠地重建原始 数据。该技巧简单且适用于许多常见的训练设置;它不需要额外的技巧或大量猜测。这种新方法称为 iDLG,它让问题变得可见:标签先泄露,随后是图像。
Implications
共享梯度可能会危害 隐私,除非改变实践。这个概念易于解释,但对在手机或群组中共同训练的应用影响巨大。如果你使用共享学习,需要了解此风险,开发者也必须加入保护措施,以确保私人信息保持私密。修复是可能的,但并非自动完成,需立即采取行动。