Avoidance Decoding for Diverse Multi-Branch Story Generation

📄 arXiv: 2509.02170v2 📥 PDF

作者: Kyeongman Park, Nakyeong Yang, Kyomin Jung

分类: cs.CL, cs.AI

发布日期: 2025-09-02 (更新: 2025-09-03)


💡 一句话要点

提出Avoidance Decoding,解决LLM故事生成中多样性不足和重复性问题。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 故事生成 大型语言模型 解码策略 多样性 文本生成

📋 核心要点

  1. 现有LLM在故事生成中存在创造性多样性不足,容易产生重复和单调的文本。
  2. Avoidance Decoding通过惩罚与历史生成文本的相似性,鼓励模型探索更多样化的故事分支。
  3. 实验表明,该方法显著提高了故事生成的多样性,降低了重复率,并有效避免了文本退化。

📝 摘要(中文)

大型语言模型(LLMs)在故事生成等任务中,由于输入提示相同,往往产生重复且单调的输出,缺乏创造性多样性。为了解决这一挑战,我们提出了一种新的解码策略,即Avoidance Decoding,通过惩罚与先前生成输出的相似性来修改token logits,从而鼓励更多样化的多分支故事。这种惩罚自适应地平衡了两种相似性度量:(1)概念级相似性惩罚,在早期阶段优先考虑,以实现初始故事概念的多样化;(2)叙事级相似性惩罚,在后期阶段逐渐强调,以确保自然而多样的情节发展。值得注意的是,与强大的基线相比,我们的方法实现了高达2.6倍的输出多样性,并将重复性平均降低了30%,同时有效缓解了文本退化。此外,我们发现我们的方法激活了更广泛的神经元,表明它利用了模型内在的创造力。

🔬 方法详解

问题定义:论文旨在解决大型语言模型在故事生成任务中,由于缺乏创造性多样性而导致的输出重复和单调的问题。现有方法难以在保证故事连贯性的同时,有效提升生成文本的多样性,容易陷入局部最优解,导致文本退化。

核心思路:核心思路是通过在解码过程中引入“避免”机制,动态调整token的logits,惩罚与已生成文本相似的token,从而引导模型探索不同的故事走向。这种方法旨在平衡故事的连贯性和多样性,避免生成重复或过于相似的内容。

技术框架:Avoidance Decoding主要包含两个阶段的相似性惩罚:概念级相似性惩罚和叙事级相似性惩罚。在故事生成的早期阶段,重点关注概念层面的多样性,避免生成相似的主题或情节。随着故事的推进,逐渐侧重叙事层面的多样性,确保故事在自然发展的同时,避免重复的叙事模式。整体流程是在每个解码步骤中,计算当前token与历史生成文本的相似度,并根据相似度调整logits,从而影响下一个token的选择。

关键创新:关键创新在于自适应地平衡概念级和叙事级相似性惩罚。传统方法通常采用单一的相似性度量,难以兼顾故事的整体连贯性和局部多样性。该方法通过动态调整两种惩罚的权重,使得模型能够在故事的不同阶段关注不同的多样性需求,从而生成更具创造性和连贯性的故事。

关键设计:概念级相似性惩罚可以使用预训练语言模型的词向量或主题模型来衡量token在概念上的相似度。叙事级相似性惩罚可以使用n-gram overlap或文本相似度度量来衡量token在叙事上的相似度。两种惩罚的权重可以根据故事生成的进度进行调整,例如,在早期阶段增加概念级惩罚的权重,在后期阶段增加叙事级惩罚的权重。具体的损失函数设计需要平衡多样性和连贯性,避免过度惩罚导致文本质量下降。

🖼️ 关键图片

fig_0
fig_1

📊 实验亮点

实验结果表明,Avoidance Decoding在故事生成任务中显著提高了输出的多样性,最高可达2.6倍,同时将重复率平均降低了30%。与现有基线方法相比,该方法在多样性和连贯性之间取得了更好的平衡,有效缓解了文本退化问题。此外,研究还发现,该方法能够激活模型中更广泛的神经元,表明其能够更好地利用模型的内在创造力。

🎯 应用场景

该研究成果可应用于各种需要生成多样化文本的场景,例如:创意写作辅助、游戏剧情生成、对话系统、以及数据增强等。通过提升生成文本的多样性,可以改善用户体验,提高内容创作效率,并为人工智能在创意领域的应用开辟新的可能性。未来,该方法有望扩展到其他文本生成任务,例如诗歌创作、剧本编写等。

📄 摘要(原文)

Large Language Models (LLMs) often generate repetitive and monotonous outputs, especially in tasks like story generation, due to limited creative diversity when given the same input prompt. To address this challenge, we propose a novel decoding strategy, Avoidance Decoding, that modifies token logits by penalizing similarity to previously generated outputs, thereby encouraging more diverse multi-branch stories. This penalty adaptively balances two similarity measures: (1) Concept-level Similarity Penalty, which is prioritized in early stages to diversify initial story concepts, and (2) Narrative-level Similarity Penalty, which is increasingly emphasized later to ensure natural yet diverse plot development. Notably, our method achieves up to 2.6 times higher output diversity and reduces repetition by an average of 30% compared to strong baselines, while effectively mitigating text degeneration. Furthermore, we reveal that our method activates a broader range of neurons, demonstrating that it leverages the model's intrinsic creativity.