原来联邦学习也会 “泄密”?CVPR 爆出重磅攻击方法
本篇文章是对顶会论文CVPR2022:《Auditing Privacy Defenses in Federated Learning via Generative Gradient Leakage》的解读,欢迎大家交流讨论。 联邦学习(FL)框架允许多个客户端在中央服务器的协调下参与学习任务,而无需交换其私有数据,从而为分布式学习系统带来了隐私优势。 然而,最近的研究表明,私有信息仍然可以通过共享梯度信息泄露。 为了进一步保护用户的隐私,可以通过梯度信息扰动的方法防止隐私泄露,例如在与服务器共享之前使用附加噪声或梯度压缩。 在这项工作中,我们验证了在某些防御方法的保护下,借助生成性梯度泄漏(GGL),私有训练数据仍然可以泄漏。 与仅依赖梯度信息重建数据的现有方法不同,我们的方法利用从公共图像数据集学习的生成性对抗网络(GAN)的潜在空间作为先验,以补偿梯度退化期间的信息损失。 为了解决梯度算子和GAN模型引起的非线性问题,我们也探索了各种无梯度优化方法(例如,进化策略和贝叶斯优化),并通过实验证明了它们在从梯度重建高质量图像方面的优势,而不是基于梯度的优化器。 我们希望所提出的方法可...
