FOSP: Fine-tuning Offline Safe Policy through World Models

📄 arXiv: 2407.04942v2 📥 PDF

作者: Chenyang Cao, Yucheng Xin, Silang Wu, Longxiang He, Zichen Yan, Junbo Tan, Xueqian Wang

分类: cs.RO, cs.LG

发布日期: 2024-07-06 (更新: 2025-03-02)

备注: 32 pages, ICLR2025


💡 一句话要点

FOSP:通过世界模型微调离线安全策略,提升视觉机器人任务的安全性与泛化性

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)

关键词: 离线强化学习 安全强化学习 世界模型 在线微调 机器人控制 视觉机器人 策略泛化 可达性引导

📋 核心要点

  1. 现有离线安全强化学习方法依赖于特定数据集,难以安全泛化到新的、未知的机器人任务场景。
  2. 提出FOSP,利用世界模型进行离线安全策略的微调,结合样本内优化和可达性引导,提升数据效率和安全性。
  3. 在模拟和真实机器人实验中验证了FOSP的有效性,显著提升了离线策略在安全约束场景下的泛化能力。

📝 摘要(中文)

离线安全强化学习旨在通过从静态数据集学习和限制探索来解决安全约束问题。然而,这些方法严重依赖数据集,难以安全地泛化到未见过的场景。本文旨在通过在线微调离线预训练策略,提高基于视觉的机器人任务部署过程中的安全性。为了促进有效的微调,我们引入了以数据效率著称的基于模型的强化学习。具体而言,我们的方法采用样本内优化来提高离线训练效率,同时结合可达性引导以确保安全。在获得离线安全策略后,利用安全策略扩展方法进行在线微调。我们的方法在包含五个仅视觉任务的模拟基准测试以及使用有限数据的真实机器人部署中得到了验证,证明了我们的方法显著提高了离线策略对未见过的安全约束场景的泛化能力。据我们所知,这是第一个探索离线到在线强化学习以实现安全泛化任务的工作。

🔬 方法详解

问题定义:离线安全强化学习的目标是从静态数据集中学习安全策略,但现有方法难以泛化到未见过的场景,尤其是在视觉机器人任务中。痛点在于离线策略的泛化能力不足,无法应对真实世界中复杂多变的安全约束。

核心思路:核心思路是结合离线学习和在线微调,利用离线数据预训练一个初步的安全策略,然后通过在线微调来适应新的环境。使用基于模型的强化学习(Model-Based RL)提高数据效率,并引入可达性引导来保证微调过程的安全性。

技术框架:FOSP包含两个主要阶段:离线安全策略学习和在线安全策略扩展。离线阶段,使用样本内优化(in-sample optimization)提高训练效率,并结合可达性引导来学习一个初步的安全策略。在线阶段,利用安全策略扩展方法,在保证安全的前提下,对离线策略进行微调,使其适应新的环境。

关键创新:关键创新在于将离线安全强化学习与在线微调相结合,并引入基于世界模型的强化学习框架。通过样本内优化和可达性引导,提高了离线训练的效率和安全性。安全策略扩展方法则保证了在线微调过程的安全性,从而实现了更好的泛化能力。

关键设计:在离线阶段,样本内优化通过在数据集内部进行策略优化,避免了对环境的直接交互,提高了训练效率。可达性引导则通过预测状态的可达性,约束策略的行为,保证安全性。在线阶段,安全策略扩展方法通过限制策略的更新幅度,防止策略偏离安全区域。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

在模拟实验中,FOSP在五个视觉机器人任务上显著提高了离线策略的泛化能力。在真实机器人实验中,使用有限的数据,FOSP成功地将离线策略迁移到真实环境中,并实现了安全可靠的控制,验证了该方法在实际应用中的有效性。

🎯 应用场景

FOSP可应用于各种需要安全保障的机器人任务,例如自动驾驶、医疗机器人、工业机器人等。该方法能够利用离线数据快速训练出一个初步的安全策略,并通过在线微调适应新的环境,降低了部署成本和风险,具有重要的实际应用价值和潜力。

📄 摘要(原文)

Offline Safe Reinforcement Learning (RL) seeks to address safety constraints by learning from static datasets and restricting exploration. However, these approaches heavily rely on the dataset and struggle to generalize to unseen scenarios safely. In this paper, we aim to improve safety during the deployment of vision-based robotic tasks through online fine-tuning an offline pretrained policy. To facilitate effective fine-tuning, we introduce model-based RL, which is known for its data efficiency. Specifically, our method employs in-sample optimization to improve offline training efficiency while incorporating reachability guidance to ensure safety. After obtaining an offline safe policy, a safe policy expansion approach is leveraged for online fine-tuning. The performance of our method is validated on simulation benchmarks with five vision-only tasks and through real-world robot deployment using limited data. It demonstrates that our approach significantly improves the generalization of offline policies to unseen safety-constrained scenarios. To the best of our knowledge, this is the first work to explore offline-to-online RL for safe generalization tasks.