当前位置:
X-MOL 学术
›
arXiv.cs.CV
›
论文详情
Our official English website, www.x-mol.net, welcomes your
feedback! (Note: you will need to create a separate account there.)
用于隐私保护深度学习的可学习图像加密的基于生成模型的攻击
arXiv - CS - Computer Vision and Pattern Recognition Pub Date : 2023-03-09 , DOI: arxiv-2303.05036 AprilPyone MaungMaung , Hitoshi Kiya
arXiv - CS - Computer Vision and Pattern Recognition Pub Date : 2023-03-09 , DOI: arxiv-2303.05036 AprilPyone MaungMaung , Hitoshi Kiya
在本文中,我们针对隐私保护深度学习提出的可学习图像加密方法提出了一种基于生成模型的新型攻击。已经研究了各种可学习的加密方法来保护普通图像的敏感视觉信息,并且已经研究了其中一些方法以足够强大以抵抗所有现有攻击。然而,以前对图像加密的攻击只关注传统的密码分析攻击或反向翻译模型,因此如果应用有效破坏全局信息的块加扰加密步骤,这些攻击将无法恢复任何视觉信息。因此,在本文中,探索了生成模型以评估此类模型是否可以首次从加密图像中恢复敏感的视觉信息。我们首先指出加密图像与嵌入空间中的普通图像有一些相似性。通过利用加密图像中泄露的信息,我们提出了一种引导生成模型作为对可学习图像加密的攻击,以恢复个人可识别视觉信息。我们通过利用两种最先进的生成模型以两种方式实施所提出的攻击:基于 StyleGAN 的模型和基于潜在扩散的模型。在 CelebA-HQ 和 ImageNet 数据集上进行了实验。结果表明,所提出的方法重建的图像与普通图像具有感知相似性。我们提出了一个引导生成模型作为对可学习图像加密的攻击,以恢复个人可识别的视觉信息。我们通过利用两种最先进的生成模型以两种方式实施所提出的攻击:基于 StyleGAN 的模型和基于潜在扩散的模型。在 CelebA-HQ 和 ImageNet 数据集上进行了实验。结果表明,所提出的方法重建的图像与普通图像具有感知相似性。我们提出了一个引导生成模型作为对可学习图像加密的攻击,以恢复个人可识别的视觉信息。我们通过利用两种最先进的生成模型以两种方式实施所提出的攻击:基于 StyleGAN 的模型和基于潜在扩散的模型。在 CelebA-HQ 和 ImageNet 数据集上进行了实验。结果表明,所提出的方法重建的图像与普通图像具有感知相似性。
"点击查看英文标题和摘要"
更新日期:2023-03-10
"点击查看英文标题和摘要"




















































京公网安备 11010802027423号