Scalable Bayesian Learning with posteriors

📄 arXiv: 2406.00104v2 📥 PDF

作者: Samuel Duffield, Kaelan Donatella, Johnathan Chiu, Phoebe Klett, Daniel Simpson

分类: cs.LG, stat.ML

发布日期: 2024-05-31 (更新: 2025-04-14)

期刊: Published as a conference paper at ICLR 2025


💡 一句话要点

提出posteriors库,结合tempered SGMCMC和改进的深度集成,实现可扩展的贝叶斯学习。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 贝叶斯学习 后验分布 随机梯度马尔可夫链蒙特卡罗 深度集成 不确定性量化

📋 核心要点

  1. 贝叶斯学习在现代机器学习模型中面临高维后验分布近似的计算挑战。
  2. 论文提出posteriors库,并结合tempered SGMCMC和改进的深度集成方法。
  3. 实验验证了贝叶斯近似的有效性,包括对冷后验效应的分析和在大型语言模型上的应用。

📝 摘要(中文)

尽管贝叶斯学习在理论上引人注目,但由于需要近似高维后验分布,因此在现代机器学习模型上的计算具有挑战性。在这项工作中,我们(i)介绍了posteriors,这是一个易于扩展的PyTorch库,它托管通用实现,使贝叶斯学习能够访问并扩展到大型数据和参数体系;(ii)提出了随机梯度马尔可夫链蒙特卡罗的tempered框架,该框架在posteriors中实现,可以无缝过渡到优化,并揭示了对深度集成的一个小修改,以确保它们对于贝叶斯后验是渐近无偏的;(iii)通过实验证明和比较了贝叶斯近似的效用,包括对冷后验效应的调查以及大型语言模型的应用。

🔬 方法详解

问题定义:贝叶斯学习需要近似高维后验分布,这在计算上非常具有挑战性,尤其是在现代机器学习模型中。现有的方法可能难以扩展到大型数据集和参数空间,并且可能存在偏差。

核心思路:论文的核心思路是通过提供一个易于使用的PyTorch库(posteriors)来简化贝叶斯学习的流程,并结合tempered stochastic gradient Markov chain Monte Carlo (SGMCMC) 方法和改进的深度集成方法,以实现更准确和可扩展的后验分布近似。tempered SGMCMC 旨在平滑地过渡到优化过程,而改进的深度集成则旨在消除偏差。

技术框架:整体框架包含以下几个关键部分:首先,posteriors库提供了一系列通用实现,方便用户进行贝叶斯学习。其次,tempered SGMCMC方法被用于后验分布的采样,该方法通过调整温度参数来控制采样过程。最后,改进的深度集成方法被用于构建后验分布的近似,并通过修改来确保渐近无偏性。

关键创新:论文的关键创新在于三个方面:一是posteriors库的易用性和可扩展性;二是tempered SGMCMC方法的平滑过渡特性;三是对深度集成方法的改进,使其能够提供渐近无偏的后验分布近似。与现有方法相比,该方法更易于使用,并且能够提供更准确和可靠的后验分布估计。

关键设计:tempered SGMCMC的关键设计在于温度参数的调整策略,该策略控制了采样过程的探索程度。深度集成的改进可能涉及到对集成成员的权重进行调整,或者采用其他方法来减少偏差。具体的参数设置和网络结构细节可能因应用而异,但posteriors库提供了灵活的接口来支持不同的配置。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,该方法能够有效地近似贝叶斯后验分布,并且在大型语言模型等复杂任务上表现良好。论文还深入研究了冷后验效应,并提出了相应的解决方案。通过与现有方法的比较,证明了该方法的优越性和实用性。具体的性能提升数据未知,需要在论文中查找。

🎯 应用场景

该研究成果可应用于各种需要不确定性量化的机器学习任务中,例如风险评估、决策制定和科学发现。特别是在大型语言模型等复杂模型中,贝叶斯学习可以提供更可靠的预测和更深入的理解。该研究有助于推动贝叶斯方法在实际应用中的普及。

📄 摘要(原文)

Although theoretically compelling, Bayesian learning with modern machine learning models is computationally challenging since it requires approximating a high dimensional posterior distribution. In this work, we (i) introduce posteriors, an easily extensible PyTorch library hosting general-purpose implementations making Bayesian learning accessible and scalable to large data and parameter regimes; (ii) present a tempered framing of stochastic gradient Markov chain Monte Carlo, as implemented in posteriors, that transitions seamlessly into optimization and unveils a minor modification to deep ensembles to ensure they are asymptotically unbiased for the Bayesian posterior, and (iii) demonstrate and compare the utility of Bayesian approximations through experiments including an investigation into the cold posterior effect and applications with large language models.