Personalization in Human-Robot Interaction through Preference-based Action Representation Learning

📄 arXiv: 2409.13822v2 📥 PDF

作者: Ruiqi Wang, Dezhong Zhao, Dayoon Suh, Ziqin Yuan, Guohua Chen, Byung-Cheol Min

分类: cs.RO

发布日期: 2024-09-20 (更新: 2025-03-11)

备注: ICRA 2025


💡 一句话要点

提出基于偏好的动作表征学习方法,高效实现人机交互中的个性化策略调整

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)

关键词: 人机交互 偏好学习 强化学习 动作表征学习 个性化 机器人 互信息

📋 核心要点

  1. 现有基于偏好的强化学习方法在人机交互中个性化策略时,需要从头训练,效率低下,未能充分利用人类反馈。
  2. PbARL通过动作表征学习,解耦通用任务结构与用户偏好,利用预训练策略作为参考,高效微调适应个性化需求。
  3. 实验表明,PbARL在Assistive Gym和真实用户研究中优于现有方法,验证了其在人机交互个性化方面的有效性。

📝 摘要(中文)

基于偏好的强化学习(PbRL)在人机交互(HRI)中通过将人类偏好显式地融入机器人学习过程,展现了巨大的个性化潜力。然而,现有的方法通常需要从头开始训练个性化的机器人策略,导致人类反馈的利用效率低下。本文提出了一种基于偏好的动作表征学习(PbARL)方法,这是一种高效的微调方法,它通过利用预训练的机器人策略将通用任务结构与偏好解耦。PbARL没有直接使用人类偏好微调预训练策略,而是将其用作动作表征学习任务的参考,该任务旨在最大化预训练源域和目标用户偏好对齐域之间的互信息。这种方法允许机器人在保持原始任务性能的同时个性化其行为,并消除了对来自源域的大量先验信息的需求,从而提高了实际HRI场景中的效率和实用性。在Assistive Gym基准测试和真实用户研究(N=8)中的实验结果表明,与最先进的方法相比,我们的方法具有优势。

🔬 方法详解

问题定义:现有基于偏好的强化学习方法在人机交互中实现个性化时,通常需要从零开始训练机器人策略。这导致了两个主要问题:一是训练时间长,效率低;二是需要大量的人类反馈,增加了用户负担。因此,如何高效地利用已有的预训练策略,并快速适应用户的个性化偏好,是本文要解决的核心问题。

核心思路:PbARL的核心思路是将个性化过程分解为两个阶段:首先,利用预训练的机器人策略学习一个通用的动作表征;然后,通过最大化预训练策略和用户偏好对齐策略之间的互信息,对动作表征进行微调,使其适应用户的个性化偏好。这种方法避免了从头开始训练策略,从而提高了学习效率。

技术框架:PbARL的技术框架主要包括以下几个模块:1) 预训练策略模块:提供一个在源域上训练好的机器人策略,作为动作表征学习的参考。2) 动作表征学习模块:利用预训练策略,学习一个通用的动作表征,该表征能够捕捉任务的关键信息。3) 偏好对齐模块:通过最大化互信息,将动作表征与用户的个性化偏好对齐。4) 策略执行模块:根据学习到的动作表征和用户偏好,生成最终的机器人策略。

关键创新:PbARL的关键创新在于将动作表征学习与偏好对齐相结合。传统的基于偏好的强化学习方法直接对策略进行微调,容易陷入局部最优,且需要大量的样本。PbARL通过学习一个通用的动作表征,并将偏好对齐过程限制在这个表征空间中,从而提高了学习效率和泛化能力。此外,PbARL通过最大化互信息,能够有效地捕捉用户偏好,并将其融入到机器人策略中。

关键设计:PbARL的关键设计包括:1) 互信息最大化损失函数:用于衡量预训练策略和用户偏好对齐策略之间的相似度。2) 动作表征网络结构:用于学习通用的动作表征,可以采用各种神经网络结构,如卷积神经网络、循环神经网络等。3) 偏好建模方法:用于捕捉用户的个性化偏好,可以采用各种偏好建模方法,如Bradley-Terry模型、排序学习等。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,PbARL在Assistive Gym基准测试中,相较于state-of-the-art方法,在学习效率和策略性能上均有显著提升。在真实用户研究中(N=8),用户对PbARL生成的个性化策略的满意度明显高于其他方法,验证了其在实际应用中的有效性。具体性能数据未知,但结论是PbARL优于现有方法。

🎯 应用场景

该研究成果可广泛应用于各种人机交互场景,例如:辅助机器人、康复机器人、服务机器人等。通过学习用户的个性化偏好,机器人可以更好地理解用户的意图,并提供更加个性化的服务。这有助于提高用户满意度,增强人机协作效率,并最终提升机器人在实际生活中的应用价值。

📄 摘要(原文)

Preference-based reinforcement learning (PbRL) has shown significant promise for personalization in human-robot interaction (HRI) by explicitly integrating human preferences into the robot learning process. However, existing practices often require training a personalized robot policy from scratch, resulting in inefficient use of human feedback. In this paper, we propose preference-based action representation learning (PbARL), an efficient fine-tuning method that decouples common task structure from preference by leveraging pre-trained robot policies. Instead of directly fine-tuning the pre-trained policy with human preference, PbARL uses it as a reference for an action representation learning task that maximizes the mutual information between the pre-trained source domain and the target user preference-aligned domain. This approach allows the robot to personalize its behaviors while preserving original task performance and eliminates the need for extensive prior information from the source domain, thereby enhancing efficiency and practicality in real-world HRI scenarios. Empirical results on the Assistive Gym benchmark and a real-world user study (N=8) demonstrate the benefits of our method compared to state-of-the-art approaches.