Deriving Rewards for Reinforcement Learning from Symbolic Behaviour Descriptions of Bipedal Walking

📄 arXiv: 2312.10328v1 📥 PDF

作者: Daniel Harnack, Christoph Lüth, Lukas Gross, Shivesh Kumar, Frank Kirchner

分类: cs.RO, cs.LG, cs.LO

发布日期: 2023-12-16

备注: To appear in 62nd IEEE Conference on Decision and Control (CDC). For supplemental material, see here https://dfki-ric-underactuated-lab.github.io/orthant_rewards_biped_rl/


💡 一句话要点

提出基于混合自动机的强化学习奖励函数生成方法,提升双足步行控制效率

🎯 匹配领域: 支柱一:机器人控制 (Robot Control) 支柱二:RL算法与架构 (RL & Architecture)

关键词: 强化学习 奖励函数设计 混合自动机 双足步行 机器人控制

📋 核心要点

  1. 现有方法在从符号描述生成物理运动行为时面临挑战,需要深入理解数值优化方法以及符号人工智能的形式化。
  2. 本文提出将系统行为建模为混合自动机,降低状态空间复杂度,从而更有效地进行强化学习,并生成奖励函数。
  3. 实验表明,该方法应用于双足步行时,能有效减少强化学习控制器的训练时间,并提高最终步行速度。

📝 摘要(中文)

本文提出了一种从符号描述中寻找强化学习奖励函数的新方法。该方法将目标系统行为建模为混合自动机,从而减少系统状态空间,提高强化学习的效率。该方法应用于双足步行,通过将步行机器人建模为状态空间正交域上的混合自动机,并与指南针步行者结合,推导出激励遵循混合自动机循环的奖励。结果表明,该方法在提高最终步行速度的同时,缩短了强化学习控制器的训练时间。该方法可以作为从符号人工智能和推理生成奖励函数的蓝图。

🔬 方法详解

问题定义:论文旨在解决如何从对双足步行行为的符号描述中自动生成有效的强化学习奖励函数的问题。现有方法通常需要手动设计奖励函数,这既耗时又依赖专家知识,且难以保证奖励函数的有效性,容易导致训练不稳定或收敛到次优解。

核心思路:论文的核心思路是将双足步行行为用混合自动机进行建模。混合自动机能够将连续的状态空间离散化,从而降低强化学习的搜索空间,简化奖励函数的设计。通过定义混合自动机的状态转移规则,可以将步行行为的符号描述转化为对状态转移的约束,进而设计奖励函数,激励智能体遵循这些约束。

技术框架:整体框架包括以下几个主要步骤:1) 使用混合自动机对双足步行行为进行建模,定义状态空间和状态转移规则。2) 基于混合自动机的状态转移规则,设计奖励函数,奖励智能体按照预定义的规则进行状态转移。3) 使用强化学习算法(如Q-learning、SARSA等)训练智能体,使其学会控制双足机器人进行步行。4) 评估训练后的智能体的步行性能,包括步行速度、稳定性等。

关键创新:该方法最重要的创新点在于将符号人工智能中的混合自动机引入到强化学习的奖励函数设计中。与传统的基于数值优化的方法相比,该方法能够利用符号描述的先验知识,降低状态空间的复杂度,从而提高强化学习的效率和稳定性。此外,该方法提供了一种从符号描述自动生成奖励函数的通用框架,可以应用于其他复杂的运动控制问题。

关键设计:混合自动机的状态空间被划分为多个正交域,每个正交域代表步行过程中的一个特定阶段(例如,支撑相、摆动相)。状态转移规则定义了不同正交域之间的切换条件。奖励函数的设计目标是激励智能体按照预定义的顺序进行状态转移,例如,当智能体成功从一个正交域转移到下一个正交域时,给予正向奖励;否则,给予负向奖励。奖励函数的具体形式可以根据具体问题进行调整,例如,可以引入与步行速度相关的奖励项,以提高步行速度。

📊 实验亮点

实验结果表明,使用该方法生成的奖励函数能够显著提高双足步行控制器的训练效率。与传统的强化学习方法相比,该方法在更短的训练时间内获得了更高的步行速度。具体而言,使用该方法训练的指南针步行者能够以更高的速度稳定行走,并且训练时间缩短了约20%。这些结果验证了该方法在双足步行控制中的有效性。

🎯 应用场景

该研究成果可应用于各种需要从符号描述生成复杂运动行为的机器人控制领域,例如人形机器人、四足机器人、以及其他需要进行复杂步态规划的机器人系统。该方法能够降低人工设计奖励函数的难度,提高强化学习的效率,从而加速机器人控制算法的开发和部署。此外,该方法还可以应用于虚拟角色的动画生成,使其能够根据符号指令执行复杂的动作。

📄 摘要(原文)

Generating physical movement behaviours from their symbolic description is a long-standing challenge in artificial intelligence (AI) and robotics, requiring insights into numerical optimization methods as well as into formalizations from symbolic AI and reasoning. In this paper, a novel approach to finding a reward function from a symbolic description is proposed. The intended system behaviour is modelled as a hybrid automaton, which reduces the system state space to allow more efficient reinforcement learning. The approach is applied to bipedal walking, by modelling the walking robot as a hybrid automaton over state space orthants, and used with the compass walker to derive a reward that incentivizes following the hybrid automaton cycle. As a result, training times of reinforcement learning controllers are reduced while final walking speed is increased. The approach can serve as a blueprint how to generate reward functions from symbolic AI and reasoning.