Investigating Co-Constructive Behavior of Large Language Models in Explanation Dialogues

📄 arXiv: 2504.18483v2 📥 PDF

作者: Leandra Fichtel, Maximilian Spliethöver, Eyke Hüllermeier, Patricia Jimenez, Nils Klowait, Stefan Kopp, Axel-Cyrille Ngonga Ngomo, Amelie Robrecht, Ingrid Scharlau, Lutz Terfloth, Anna-Lisa Vollmer, Henning Wachsmuth

分类: cs.CL

发布日期: 2025-04-25 (更新: 2025-07-10)

备注: Accepted to SIGDIAL 2025


💡 一句话要点

研究大型语言模型在解释对话中的协同构建能力,探索其在可解释AI中的应用

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 大型语言模型 可解释AI 协同构建 解释对话 用户研究

📋 核心要点

  1. 现有可解释AI方法难以根据解释对象的背景和需求动态调整解释,导致理解效果不佳。
  2. 本文探索LLM在协同构建解释对话中的应用,旨在使LLM能够根据解释对象的反馈动态调整解释。
  3. 用户研究表明,LLM具备一定的协同构建能力,但有效监测理解和构建解释的能力仍有提升空间。

📝 摘要(中文)

可解释人工智能的关键在于生成能够被解释对象理解的解释。由于理解程度取决于解释对象的背景和需求,近期的研究聚焦于协同构建解释对话,其中解释者持续监测解释对象的理解程度并动态调整其解释。本文研究了大型语言模型(LLMs)作为解释者参与协同构建解释对话的能力。具体而言,我们进行了一项用户研究,其中解释对象与LLM在两种设置中交互,其中一种设置指示LLM进行协同构建解释。我们评估了解释对象在对话前后对主题的理解,以及他们对LLM协同构建行为的感知。结果表明,LLM表现出一些协同构建行为,例如提出验证问题,这促进了解释对象的参与并可以提高对主题的理解。然而,它们有效监测当前理解并相应地构建解释的能力仍然有限。

🔬 方法详解

问题定义:论文旨在解决大型语言模型在解释对话中,如何有效地进行协同构建,从而更好地帮助用户理解复杂概念的问题。现有方法通常是单向的解释,缺乏与用户的互动,难以根据用户的理解程度进行调整,导致解释效果不佳。

核心思路:论文的核心思路是让LLM在解释过程中,主动与用户进行互动,通过提问、确认理解等方式,实时监测用户的理解程度,并根据用户的反馈动态调整解释的内容和方式。这种协同构建的方式能够更好地满足用户的个性化需求,提高解释的有效性。

技术框架:论文采用用户研究的方法,构建了一个人机交互的解释对话系统。用户与LLM进行对话,LLM扮演解释者的角色,解释某个主题。研究设置了两种模式:一种是标准模式,LLM按照预设的解释流程进行解释;另一种是协同构建模式,LLM被指示进行协同构建解释。研究人员通过对比两种模式下用户的理解程度和对LLM行为的感知,评估LLM的协同构建能力。

关键创新:论文的关键创新在于将协同构建的概念引入到LLM的解释对话中,并设计实验验证了LLM在协同构建方面的潜力。与传统的单向解释方法相比,协同构建能够更好地适应用户的需求,提高解释的有效性。

关键设计:论文的关键设计包括:1) 设计了两种不同的对话模式,用于对比LLM的协同构建能力;2) 采用了用户研究的方法,通过收集用户的反馈来评估LLM的解释效果;3) 使用了预训练的LLM作为解释者,并对其进行了微调,使其能够更好地进行协同构建。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,LLM在协同构建解释对话中表现出一定的能力,例如能够主动提问以确认用户的理解程度。与标准模式相比,协同构建模式能够提高用户的参与度,并可能改善用户对主题的理解。然而,LLM在有效监测用户理解和动态调整解释方面仍存在局限性,未来需要进一步研究和改进。

🎯 应用场景

该研究成果可应用于在线教育、智能客服、医疗咨询等领域。通过构建能够进行协同解释的AI系统,可以为用户提供更加个性化、高效的知识传递和问题解答服务,提升用户体验和学习效果。未来,该技术有望应用于更广泛的人机交互场景,例如辅助决策、智能助手等。

📄 摘要(原文)

The ability to generate explanations that are understood by explainees is the quintessence of explainable artificial intelligence. Since understanding depends on the explainee's background and needs, recent research focused on co-constructive explanation dialogues, where an explainer continuously monitors the explainee's understanding and adapts their explanations dynamically. We investigate the ability of large language models (LLMs) to engage as explainers in co-constructive explanation dialogues. In particular, we present a user study in which explainees interact with an LLM in two settings, one of which involves the LLM being instructed to explain a topic co-constructively. We evaluate the explainees' understanding before and after the dialogue, as well as their perception of the LLMs' co-constructive behavior. Our results suggest that LLMs show some co-constructive behaviors, such as asking verification questions, that foster the explainees' engagement and can improve understanding of a topic. However, their ability to effectively monitor the current understanding and scaffold the explanations accordingly remains limited.