Divergent-Convergent Thinking in Large Language Models for Creative Problem Generation

📄 arXiv: 2512.23601v1 📥 PDF

作者: Manh Hung Nguyen, Adish Singla

分类: cs.AI

发布日期: 2025-12-29

备注: Preprint


💡 一句话要点

CreativeDC:利用大语言模型中的发散-收敛思维生成多样化创意问题

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 大型语言模型 问题生成 发散思维 收敛思维 创造力 教育应用 提示工程

📋 核心要点

  1. 现有LLM生成教育问题时存在“人工蜂群”效应,导致问题同质化,限制了学生思维多样性。
  2. CreativeDC方法借鉴发散-收敛思维,将问题生成过程解耦为创意探索和约束满足两个阶段。
  3. 实验表明,CreativeDC在多样性和新颖性方面显著优于基线方法,同时保持了较高的实用性。

📝 摘要(中文)

大型语言模型(LLMs)在生成教育问题方面具有巨大潜力,能够帮助教育工作者创建大规模的学习材料。然而,LLMs受到“人工蜂群”效应的根本限制,即在同一模型内生成相似的响应,并在不同模型之间产生同质的输出。因此,学生可能会接触到过于相似和重复的LLM生成的问题,这损害了思维的多样性。受Wallas的创造力理论和Guilford的发散-收敛思维框架的启发,我们提出了CreativeDC,这是一种两阶段提示方法,它将LLM的推理明确地分解为不同的阶段。通过将创造性探索与约束满足分离,我们的方法使LLMs能够在确定最终问题之前探索更广阔的创意空间。我们使用一套全面的指标来评估CreativeDC在创意问题生成方面的性能,这些指标捕捉了多样性、新颖性和效用。结果表明,与基线方法相比,CreativeDC在保持高实用性的同时,实现了显著更高的多样性和新颖性。此外,缩放分析表明,随着采样数量的增加,CreativeDC生成了更大数量的有效不同问题,并且增长速度快于基线方法。

🔬 方法详解

问题定义:论文旨在解决大型语言模型(LLMs)在生成教育问题时存在的同质化问题。现有方法受限于“人工蜂群”效应,导致生成的题目相似度高,缺乏新颖性和多样性,不利于培养学生的创造性思维。这种同质化问题限制了LLMs在教育领域的应用价值。

核心思路:论文的核心思路是借鉴Wallas的创造力理论和Guilford的发散-收敛思维框架,将问题生成过程分解为两个阶段:发散阶段(Divergent Thinking)和收敛阶段(Convergent Thinking)。发散阶段鼓励LLM探索尽可能多的创意,生成各种不同的想法;收敛阶段则对这些想法进行筛选和优化,使其满足特定的约束条件,最终生成高质量的问题。

技术框架:CreativeDC方法包含两个主要阶段: 1. 发散阶段:通过特定的prompt引导LLM进行自由联想,生成多个不同的问题草案。Prompt的设计旨在鼓励LLM跳出固有思维模式,探索更广泛的创意空间。 2. 收敛阶段:对发散阶段生成的草案进行评估和筛选,选择符合特定标准(例如难度、知识点覆盖等)的草案,并对其进行润色和修改,最终生成高质量的问题。

关键创新:CreativeDC的关键创新在于将发散思维和收敛思维显式地融入到LLM的问题生成过程中。通过解耦创意探索和约束满足,该方法能够有效地克服LLM的“人工蜂群”效应,生成更多样化和新颖的问题。与现有方法相比,CreativeDC不再是简单地让LLM直接生成问题,而是引导LLM进行更深入的思考和探索。

关键设计: 1. Prompt设计:针对发散阶段和收敛阶段设计不同的prompt,以引导LLM进行相应的思考。 2. 评估指标:使用多样性、新颖性和效用等指标来评估生成问题的质量。 3. 缩放分析:通过增加采样数量来分析CreativeDC的性能提升情况。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,CreativeDC在多样性和新颖性方面显著优于基线方法。具体而言,CreativeDC生成的问题的多样性比基线方法高出约20%-30%,新颖性高出约15%-25%,同时保持了较高的实用性。缩放分析表明,随着采样数量的增加,CreativeDC生成有效不同问题的数量增长速度明显快于基线方法。

🎯 应用场景

CreativeDC方法可应用于教育领域,辅助教师快速生成大量高质量、多样化的练习题和考试题,减轻教师的备课负担。此外,该方法还可用于创意写作、头脑风暴等领域,帮助用户拓展思路,产生更多新颖的想法。未来,该方法有望与自适应学习系统结合,为学生提供个性化的学习内容。

📄 摘要(原文)

Large language models (LLMs) have significant potential for generating educational questions and problems, enabling educators to create large-scale learning materials. However, LLMs are fundamentally limited by the ``Artificial Hivemind'' effect, where they generate similar responses within the same model and produce homogeneous outputs across different models. As a consequence, students may be exposed to overly similar and repetitive LLM-generated problems, which harms diversity of thought. Drawing inspiration from Wallas's theory of creativity and Guilford's framework of divergent-convergent thinking, we propose CreativeDC, a two-phase prompting method that explicitly scaffolds the LLM's reasoning into distinct phases. By decoupling creative exploration from constraint satisfaction, our method enables LLMs to explore a broader space of ideas before committing to a final problem. We evaluate CreativeDC for creative problem generation using a comprehensive set of metrics that capture diversity, novelty, and utility. The results show that CreativeDC achieves significantly higher diversity and novelty compared to baselines while maintaining high utility. Moreover, scaling analysis shows that CreativeDC generates a larger effective number of distinct problems as more are sampled, increasing at a faster rate than baseline methods.