Rectify, Don't Regret: Avoiding Pitfalls of Differentiable Simulation in Trajectory Prediction
作者: Harsh Yadav, Christian Bohn, Tobias Meisen
分类: cs.RO
发布日期: 2026-03-24
💡 一句话要点
提出分离式后退视野策略,解决轨迹预测中可微仿真导致的短视问题。
🎯 匹配领域: 支柱八:物理动画 (Physics-based Animation)
关键词: 轨迹预测 自动驾驶 可微仿真 后退视野 鲁棒性 碰撞避免 闭环控制
📋 核心要点
- 开放环路轨迹预测易受误差累积影响,而全可微闭环仿真则存在捷径学习,模型会“后悔”过去的错误。
- 论文提出分离式后退视野展开,通过切断仿真步骤间的计算图,迫使模型学习真实的恢复行为,纠正错误。
- 实验表明,该方法能有效减少碰撞,在高重规划频率下,与可微闭环训练相比,碰撞减少高达33.24%。
📝 摘要(中文)
现有的开放环路轨迹预测模型在实际自动驾驶中表现不佳,因为微小的初始偏差会累积成复合误差,导致智能体进入分布外的状态。全可微闭环仿真试图解决这个问题,但存在捷径学习的问题:损失梯度通过诱导状态输入反向传播,无意中将未来的真实信息直接泄露到模型先前的预测中。模型利用这些信号来人为地避免漂移,非因果地“后悔”过去的错误,而不是学习真正的反应性恢复。为了解决这个问题,我们引入了一种分离式后退视野展开。通过显式地切断仿真步骤之间的计算图,模型可以从漂移状态中学习真正的恢复行为,迫使其“纠正”错误,而不是非因果地优化过去的预测。在nuScenes和DeepScenario数据集上的大量评估表明,我们的方法产生了更强大的恢复策略,在高重规划频率下,与完全可微的闭环训练相比,目标碰撞减少了高达33.24%。此外,与标准开放环路基线相比,我们的不可微框架在密集环境中将碰撞减少了高达27.74%,同时提高了多模态预测的多样性和车道对齐。
🔬 方法详解
问题定义:现有开放环路轨迹预测模型在实际自动驾驶场景中,由于初始偏差的累积,容易产生较大的预测误差,导致车辆偏离预期轨迹。全可微闭环仿真虽然试图解决这个问题,但由于梯度反向传播的特性,模型会利用未来的真实信息来修正过去的预测,形成一种“后悔”机制,而非真正学习如何从错误中恢复。这种捷径学习导致模型在实际应用中泛化能力较差。
核心思路:论文的核心思路是打破全可微闭环仿真中的梯度依赖关系,防止模型利用未来的信息来修正过去的预测。具体而言,通过在仿真步骤之间显式地切断计算图,使得模型只能基于当前的状态进行预测和决策,而不能“预知”未来的状态。这样,模型就被迫学习如何从偏离的轨迹中恢复,而不是避免偏离。
技术框架:该方法采用后退视野(Receding Horizon)策略,在每个时间步,模型基于当前状态进行预测,并使用仿真器进行状态更新。与传统的可微仿真不同,在每个仿真步骤之后,计算图会被分离,阻止梯度从未来的状态反向传播到过去的状态。因此,模型只能基于当前观测到的状态进行决策,而不能利用未来的信息。整体流程可以概括为:观测当前状态 -> 模型预测未来轨迹 -> 仿真器更新状态 -> 分离计算图 -> 重复上述步骤。
关键创新:该方法最重要的创新点在于“分离式后退视野展开”(Detached Receding Horizon Rollout)。通过显式地切断仿真步骤之间的计算图,打破了传统可微仿真中的因果关系,防止了模型利用未来的信息来修正过去的预测。这使得模型能够学习到更鲁棒的恢复策略,从而更好地应对实际驾驶场景中的不确定性。
关键设计:关键设计包括:1) 使用后退视野策略进行轨迹预测和状态更新;2) 在每个仿真步骤之后,使用detach()操作(在PyTorch中)或类似的机制来切断计算图;3) 使用合适的损失函数来训练模型,例如,鼓励模型预测的轨迹与实际轨迹之间的距离最小化,同时惩罚碰撞等不良行为。具体的网络结构和参数设置取决于具体的应用场景和数据集。
🖼️ 关键图片
📊 实验亮点
实验结果表明,该方法在nuScenes和DeepScenario数据集上均取得了显著的性能提升。在高重规划频率下,与完全可微的闭环训练相比,目标碰撞减少了高达33.24%。与标准开放环路基线相比,在密集环境中碰撞减少了高达27.74%,同时提高了多模态预测的多样性和车道对齐。
🎯 应用场景
该研究成果可应用于自动驾驶、机器人导航等领域,提升智能体在复杂动态环境中的鲁棒性和安全性。通过学习真实的恢复策略,智能体能够更好地应对突发情况和意外事件,减少事故发生的概率。该方法还有助于提高轨迹预测的多样性,为下游任务提供更多选择。
📄 摘要(原文)
Current open-loop trajectory models struggle in real-world autonomous driving because minor initial deviations often cascade into compounding errors, pushing the agent into out-of-distribution states. While fully differentiable closed-loop simulators attempt to address this, they suffer from shortcut learning: the loss gradients flow backward through induced state inputs, inadvertently leaking future ground truth information directly into the model's own previous predictions. The model exploits these signals to artificially avoid drift, non-causally "regretting" past mistakes rather than learning genuinely reactive recovery. To address this, we introduce a detached receding horizon rollout. By explicitly severing the computation graph between simulation steps, the model learns genuine recovery behaviors from drifted states, forcing it to "rectify" mistakes rather than non-causally optimizing past predictions. Extensive evaluations on the nuScenes and DeepScenario datasets show our approach yields more robust recovery strategies, reducing target collisions by up to 33.24% compared to fully differentiable closed-loop training at high replanning frequencies. Furthermore, compared to standard open-loop baselines, our non-differentiable framework decreases collisions by up to 27.74% in dense environments while simultaneously improving multi-modal prediction diversity and lane alignment.