BTGenBot-2: Efficient Behavior Tree Generation with Small Language Models
作者: Riccardo Andrea Izzo, Gianluca Bardaro, Matteo Matteucci
分类: cs.RO
发布日期: 2026-02-02
💡 一句话要点
BTGenBot-2:利用小型语言模型高效生成行为树,用于机器人任务规划
🎯 匹配领域: 支柱一:机器人控制 (Robot Control)
关键词: 行为树生成 小型语言模型 机器人任务规划 零样本学习 错误恢复
📋 核心要点
- 现有基于LLM的机器人任务规划方法闭源或计算密集,难以部署到实际物理系统,且缺乏通用的机器人任务生成表示。
- BTGenBot-2利用小型语言模型直接将自然语言任务描述转换为可执行的行为树,实现零样本生成和错误恢复,并保持轻量级。
- 实验结果表明,BTGenBot-2在行为树生成任务上优于GPT-5等大型模型,并在推理速度上实现了显著提升。
📝 摘要(中文)
本文提出BTGenBot-2,一个10亿参数的开源小型语言模型,能够直接将自然语言任务描述和机器人动作原语列表转换为可执行的XML行为树。与现有方法不同,BTGenBot-2支持零样本行为树生成、推理和运行时的错误恢复,同时保持轻量级,适用于资源受限的机器人。此外,本文还提出了首个基于LLM的行为树生成标准化基准,涵盖NVIDIA Isaac Sim中的52个导航和操作任务。大量评估表明,BTGenBot-2在功能和非功能指标上均优于GPT-5、Claude Opus 4.1和更大的开源模型,在零样本下的平均成功率为90.38%,在单样本下的平均成功率为98.07%,并且推理速度比之前的BTGenBot快16倍。
🔬 方法详解
问题定义:现有基于大型语言模型(LLM)的机器人任务规划方法存在两个主要痛点:一是这些方法通常是闭源的或计算量巨大,难以在资源受限的机器人平台上部署;二是缺乏一个被广泛接受的、即插即用的机器人任务生成表示方法,阻碍了不同系统之间的互操作性和复用性。
核心思路:BTGenBot-2的核心思路是利用一个参数量较小的开源语言模型,直接将自然语言描述的任务目标和机器人可执行的动作原语转换为行为树(Behavior Tree, BT)。行为树是一种模块化、可扩展的任务规划表示方法,适合机器人控制。通过使用小型语言模型,可以在资源受限的机器人上进行本地部署,提高响应速度和可靠性。
技术框架:BTGenBot-2的整体框架包括以下几个主要步骤:1) 接收自然语言任务描述和机器人动作原语列表作为输入;2) 使用小型语言模型(BTGenBot-2)生成对应的XML格式的行为树;3) 将生成的行为树部署到机器人控制系统中执行;4) 在运行时进行错误检测和恢复,保证任务的顺利完成。该框架支持零样本生成,无需针对特定任务进行微调。
关键创新:BTGenBot-2的关键创新在于:1) 提出了一个轻量级的、开源的语言模型,专门用于行为树生成,解决了大型语言模型计算资源需求高的问题;2) 实现了零样本行为树生成,无需针对特定任务进行训练;3) 引入了推理和运行时的错误恢复机制,提高了系统的鲁棒性;4) 构建了首个用于LLM行为树生成的标准化基准,促进了该领域的研究和发展。
关键设计:BTGenBot-2模型本身是一个10亿参数的Transformer模型,针对行为树生成任务进行了优化。具体的训练细节(如损失函数、训练数据等)在论文中可能有所描述(未知)。行为树的XML表示方式遵循标准规范,易于解析和执行。错误恢复机制的具体实现方式(如重试、回退等)也需要参考论文原文(未知)。
🖼️ 关键图片
📊 实验亮点
BTGenBot-2在零样本行为树生成任务中取得了90.38%的平均成功率,在单样本学习中达到98.07%。与GPT-5、Claude Opus 4.1等大型模型相比,BTGenBot-2在性能上具有竞争力,同时推理速度提升高达16倍。这些结果表明,小型语言模型在特定任务上可以超越大型模型,并且更适合资源受限的机器人平台。
🎯 应用场景
BTGenBot-2可应用于各种机器人任务规划场景,例如家庭服务机器人、工业自动化机器人、无人驾驶车辆等。它能够帮助机器人理解人类指令,自动生成任务执行计划,并具备一定的容错能力。该研究有助于推动机器人技术的普及,使机器人能够更好地服务于人类。
📄 摘要(原文)
Recent advances in robot learning increasingly rely on LLM-based task planning, leveraging their ability to bridge natural language with executable actions. While prior works showcased great performances, the widespread adoption of these models in robotics has been challenging as 1) existing methods are often closed-source or computationally intensive, neglecting the actual deployment on real-world physical systems, and 2) there is no universally accepted, plug-and-play representation for robotic task generation. Addressing these challenges, we propose BTGenBot-2, a 1B-parameter open-source small language model that directly converts natural language task descriptions and a list of robot action primitives into executable behavior trees in XML. Unlike prior approaches, BTGenBot-2 enables zero-shot BT generation, error recovery at inference and runtime, while remaining lightweight enough for resource-constrained robots. We further introduce the first standardized benchmark for LLM-based BT generation, covering 52 navigation and manipulation tasks in NVIDIA Isaac Sim. Extensive evaluations demonstrate that BTGenBot-2 consistently outperforms GPT-5, Claude Opus 4.1, and larger open-source models across both functional and non-functional metrics, achieving average success rates of 90.38% in zero-shot and 98.07% in one-shot, while delivering up to 16x faster inference compared to the previous BTGenBot.