Dialectical Behavior Therapy Approach to LLM Prompting

📄 arXiv: 2410.07768v1 📥 PDF

作者: Oxana Vitman, Nika Amaglobeli, Paul Plachinda

分类: cs.CL, cs.LG

发布日期: 2024-10-10


💡 一句话要点

提出基于辩证行为疗法的LLM提示方法,提升小模型推理能力

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 大型语言模型 提示工程 辩证行为疗法 思维链 复杂推理

📋 核心要点

  1. 现有CoT提示在复杂推理任务中仍面临挑战,尤其是在参数量较小的模型上。
  2. 借鉴辩证行为疗法(DBT)的对话塑造理念,设计新型提示策略,提升模型推理能力。
  3. 实验表明,DBT提示能显著提升小模型在StrategyQA和GSM8K等数据集上的准确率。

📝 摘要(中文)

大型语言模型在应用思维链(CoT)提示技术时,在各种推理任务上表现出最先进的结果。CoT提示引导模型将任务分解为几个中间步骤,并提供逐步演示。然而,解决复杂的推理任务仍然是一个挑战。在本文中,我们提出了一种受辩证行为疗法(DBT)启发的新型提示策略。DBT是一种认知行为疗法,旨在通过发展推理系统来帮助个体应对压力。我们应用DBT的对话塑造基本概念来构建提示,并在具有不同参数数量的不同数据集和LLM上进行了实验。我们的结果表明,使用DBT技术制作的提示显著提高了较小模型的结果,在使用8b参数模型时,在StrategyQA上实现了7%的准确率提升,在Aqua数据集上实现了4.8%的提升,在使用14b参数模型时,在StrategyQA上实现了16.2%的提升,在GSM8K数据集上实现了5.3%的提升。

🔬 方法详解

问题定义:论文旨在解决大型语言模型在复杂推理任务中,尤其是在参数量较小的模型上,表现不佳的问题。现有的思维链(CoT)提示方法虽然有效,但仍有提升空间,尤其是在资源受限的环境下,如何提高小模型的推理能力是一个重要的挑战。

核心思路:论文的核心思路是借鉴辩证行为疗法(DBT)中的对话塑造理念,将DBT的原则应用于LLM的提示设计中。DBT旨在帮助个体通过发展推理系统来应对压力,这与LLM解决复杂推理任务的目标具有相似性。通过模拟DBT的对话过程,引导模型更有效地进行推理。

技术框架:该方法的核心在于提示的设计。首先,研究者深入理解DBT的基本概念,特别是对话塑造的原则。然后,将这些原则转化为具体的提示工程技术,例如,通过构建包含不同观点的对话,引导模型进行辩证思考。整个流程可以概括为:DBT原则理解 -> 提示设计 -> 模型推理 -> 结果评估。

关键创新:该方法最重要的创新点在于将心理学领域的辩证行为疗法(DBT)应用于LLM的提示工程中。与传统的提示方法不同,该方法不仅仅关注于提供明确的指令或示例,而是试图通过模拟对话的方式,引导模型进行更深入、更全面的思考。这种跨学科的思路为LLM的提示工程带来了新的视角。

关键设计:关键设计在于如何将DBT的原则转化为具体的提示。例如,可以设计包含正反两方观点的提示,引导模型进行辩证思考;或者,可以设计包含逐步引导的提示,帮助模型逐步解决复杂问题。具体的参数设置和损失函数等技术细节未在摘要中提及,属于未知信息。

🖼️ 关键图片

fig_0
fig_1

📊 实验亮点

实验结果表明,基于DBT的提示方法能够显著提升小模型的推理能力。具体来说,使用8b参数模型时,在StrategyQA数据集上准确率提升了7%,在Aqua数据集上提升了4.8%;使用14b参数模型时,在StrategyQA数据集上准确率提升了16.2%,在GSM8K数据集上提升了5.3%。这些结果表明,DBT提示方法在提升小模型性能方面具有显著优势。

🎯 应用场景

该研究成果可应用于各种需要复杂推理能力的场景,例如智能客服、教育辅导、决策支持等。通过提升小模型的推理能力,可以降低计算成本,使得LLM能够在资源受限的环境中得到更广泛的应用。未来,该方法有望进一步扩展到其他认知行为疗法,为LLM的提示工程提供更丰富的灵感。

📄 摘要(原文)

Large language models demonstrated state-of-the-art results on various reasoning tasks when applying the chain-of-thought (CoT) prompting technique. CoT prompting guides the model into breaking tasks into a few intermediate steps and provides step-by-step demonstrations. However, solving complex reasoning tasks remains a challenge. In this paper, we propose a novel prompting strategy inspired by Dialectical Behavioral Therapy (DBT). DBT, a form of cognitive-behavioral therapy, aims to help individuals cope with stress by developing a system of reasoning. We applied DBT's basic concepts of shaping dialog to construct prompts and conducted experiments on different datasets and LLMs with various numbers of parameters. Our results show that prompts crafted with DBT techniques significantly improve results on smaller models, achieving a 7% increase in accuracy on the StrategyQA, 4.8% on Aqua dataset using 8b parameters model, and a 16.2% increase on the StrategyQA, 5.3% on GSM8K dataset with 14b parameters model.