Privacy Amplification in Differentially Private Zeroth-Order Optimization with Hidden States

📄 arXiv: 2506.00158v1 📥 PDF

作者: Eli Chien, Wei-Ning Chen, Pan Li

分类: cs.LG

发布日期: 2025-05-30


💡 一句话要点

提出隐藏状态下差分隐私零阶优化收敛性保证,并改进算法设计

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 差分隐私 零阶优化 隐私放大 隐藏状态 大型语言模型 隐私保护机器学习

📋 核心要点

  1. 现有差分隐私优化主要集中在一阶方法,零阶方法在隐私分析和算法设计方面仍有待探索。
  2. 论文通过证明零阶优化的收敛DP界限,肯定了隐藏状态下差分隐私分析的可行性。
  3. 该分析将隐私放大迭代框架推广到零阶优化,并提出了更优的差分隐私零阶算法设计。

📝 摘要(中文)

零阶优化已成为在特定领域数据上微调大型语言模型的一种有前景的方法,尤其是在差分隐私(DP)和内存约束下。虽然一阶方法已经从隐私角度进行了广泛的研究,但零阶方法的隐私分析和算法设计仍然明显不足。一个关键的开放性问题是隐藏状态DP分析:虽然一阶方法的收敛隐私界限是已知的,但对于零阶方法是否可以建立类似的保证仍然不清楚。在这项工作中,我们通过证明零阶优化的收敛DP界限来提供肯定的答案。我们的分析将著名的隐私放大迭代框架推广到零阶优化中的平滑损失函数设置。此外,它还引入了文献中先前未知的更好的DP零阶算法设计。

🔬 方法详解

问题定义:论文旨在解决在差分隐私约束下,零阶优化算法的隐私性分析问题。现有的一阶优化方法已经有较好的隐私性分析结果,但是对于零阶优化方法,特别是存在隐藏状态时,其隐私性分析仍然是一个开放性问题。现有的零阶优化方法缺乏严格的隐私保证,限制了其在隐私敏感场景下的应用。

核心思路:论文的核心思路是将一阶方法中常用的隐私放大迭代框架推广到零阶优化中。通过分析零阶优化过程中的隐私损失,并利用隐私放大效应,证明了零阶优化算法在隐藏状态下的收敛差分隐私界限。这种方法允许在每次迭代中添加适量的噪声,从而在保证隐私的同时,实现算法的收敛。

技术框架:论文的技术框架主要包括以下几个部分:1) 零阶优化算法的定义和描述;2) 差分隐私的定义和相关概念;3) 隐私放大迭代框架的推广;4) 收敛差分隐私界限的证明;5) 基于该界限的改进零阶优化算法设计。整体流程是首先定义问题,然后提出解决方案,接着进行理论分析和证明,最后基于理论结果设计新的算法。

关键创新:论文最重要的技术创新点在于证明了零阶优化算法在隐藏状态下的收敛差分隐私界限。与现有方法相比,该方法首次为零阶优化提供了严格的隐私保证,并允许在保证隐私的同时实现算法的收敛。此外,该方法还推广了隐私放大迭代框架,使其适用于零阶优化。

关键设计:论文的关键设计包括:1) 针对零阶优化设计的噪声添加机制,需要仔细选择噪声的尺度,以平衡隐私保护和算法性能;2) 隐私放大迭代框架的推广,需要考虑零阶优化中的梯度估计误差;3) 收敛差分隐私界限的证明,需要用到复杂的数学工具和技巧。

🖼️ 关键图片

fig_0
img_1

📊 实验亮点

论文证明了零阶优化算法在隐藏状态下的收敛差分隐私界限,为零阶优化提供了严格的隐私保证。该分析推广了隐私放大迭代框架,并据此设计了更优的DP零阶算法。具体性能提升数据未知,但理论分析表明该方法优于现有方法。

🎯 应用场景

该研究成果可应用于大型语言模型在隐私敏感数据上的微调,例如医疗记录、金融数据等。通过使用差分隐私零阶优化算法,可以在保护用户隐私的同时,提升模型的性能。此外,该研究还可以推广到其他隐私保护机器学习领域,例如联邦学习、安全多方计算等。

📄 摘要(原文)

Zeroth-order optimization has emerged as a promising approach for fine-tuning large language models on domain-specific data, particularly under differential privacy (DP) and memory constraints. While first-order methods have been extensively studied from a privacy perspective, the privacy analysis and algorithmic design for zeroth-order methods remain significantly underexplored. A critical open question concerns hidden-state DP analysis: although convergent privacy bounds are known for first-order methods, it has remained unclear whether similar guarantees can be established for zeroth-order methods. In this work, we provide an affirmative answer by proving a convergent DP bound for zeroth-order optimization. Our analysis generalizes the celebrated privacy amplification-by-iteration framework to the setting of smooth loss functions in zeroth-order optimization. Furthermore, it induces better DP zeroth-order algorithmic designs that are previously unknown to the literature.