Galton's Law of Mediocrity: Why Large Language Models Regress to the Mean and Fail at Creativity in Advertising

📄 arXiv: 2509.25767v1 📥 PDF

作者: Matt Keon, Aabid Karim, Bhoomika Lohana, Abdul Karim, Thai Nguyen, Tara Hamilton, Ali Abbas

分类: cs.AI

发布日期: 2025-09-30


💡 一句话要点

揭示大语言模型在广告创意中趋于平庸的“高尔顿定律”现象

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 大语言模型 广告创意 创造力 高尔顿回归均值 文本生成

📋 核心要点

  1. 现有大语言模型在创意任务中表现平庸,缺乏深度和独特性,难以胜任广告创意等高要求场景。
  2. 论文将此现象形式化为“高尔顿回归均值”,模型倾向于生成高概率、安全通用的内容,忽略创意特征。
  3. 实验表明,简化输入会导致创意特征快速消失,而事实性信息保留,且模型难以从简化输入中恢复原始创意。

📝 摘要(中文)

大型语言模型(LLMs)能够生成流畅的文本,但常常倾向于安全、通用的表达,这引发了对其创造力能力的质疑。本文将这种趋势形式化为一种高尔顿式的语言回归均值现象,并通过广告概念中的创造力压力测试对其进行评估。当广告创意逐步简化时,隐喻、情感和视觉线索等创意特征过早消失,而事实性内容得以保留,表明模型偏爱高概率信息。当要求从简化的输入中重新生成时,模型产生了更长的、词汇多样的输出,但未能恢复原始文本的深度和独特性。通过定量比较与定性分析相结合,发现重新生成的文本表面上看起来新颖,但缺乏真正的原创性。提供广告特定的线索,如隐喻、情感钩子和视觉标记,可以改善对齐和风格平衡,但输出仍然依赖于熟悉的套路。总而言之,研究结果表明,在没有针对性指导的情况下,LLMs在创意任务中会趋于平庸;结构化信号可以部分抵消这种趋势,并为开发对创造力敏感的模型指明了方向。

🔬 方法详解

问题定义:论文旨在解决大型语言模型(LLMs)在广告创意等创意任务中表现出的“趋于平庸”的问题。现有方法,即直接使用LLM生成创意内容,往往缺乏原创性、深度和独特性,难以满足实际应用需求。LLM倾向于生成高概率、安全通用的内容,而忽略了创意表达中重要的隐喻、情感和视觉线索等元素。

核心思路:论文的核心思路是将LLM的这种“趋于平庸”的现象形式化为一种高尔顿式的回归均值现象。这意味着LLM在生成内容时,会倾向于向数据集的平均水平靠拢,从而导致创意元素的丢失。为了解决这个问题,论文提出通过结构化的信号引导LLM,使其能够更好地捕捉和利用创意元素。

技术框架:论文采用了一种创造力压力测试框架,包括以下几个主要阶段:1) 简化广告创意:逐步移除广告创意中的创意特征,如隐喻、情感和视觉线索,以观察LLM对不同简化程度的输入的反应。2) 重新生成:要求LLM从简化后的输入中重新生成广告创意,并评估其恢复原始创意元素的能力。3) 定量和定性分析:结合定量指标(如文本长度、词汇多样性)和定性分析(人工评估创意质量),全面评估LLM的创意生成能力。

关键创新:论文最重要的技术创新点在于将“高尔顿回归均值”的概念引入到对LLM创意能力的分析中。这种视角能够更深入地理解LLM在创意任务中的局限性,并为开发更具创造力的模型提供了新的思路。此外,论文还提出了一种通过结构化信号引导LLM的方法,可以有效地提升其创意生成能力。

关键设计:论文的关键设计包括:1) 广告创意的选择:选择具有代表性的广告创意作为测试样本,涵盖不同的行业和产品。2) 简化策略:设计合理的简化策略,逐步移除广告创意中的创意特征,并控制简化程度。3) 评估指标:采用多种定量和定性指标,全面评估LLM的创意生成能力,包括文本长度、词汇多样性、原创性、深度和独特性等。

📊 实验亮点

实验结果表明,当广告创意被简化时,LLM会快速丢失隐喻、情感和视觉线索等创意特征。从简化输入重新生成时,虽然文本长度和词汇多样性有所增加,但无法恢复原始创意的深度和独特性。提供广告特定线索可以改善对齐和风格平衡,但仍依赖于熟悉的套路。这些结果验证了LLM在创意任务中存在“高尔顿回归均值”现象。

🎯 应用场景

该研究成果可应用于提升大语言模型在广告创意、内容生成、艺术设计等领域的表现。通过结构化信号引导,可以使LLM生成更具原创性、深度和独特性的内容,从而提高其在创意产业中的应用价值。此外,该研究也为开发更具创造力的AI模型提供了新的思路。

📄 摘要(原文)

Large language models (LLMs) generate fluent text yet often default to safe, generic phrasing, raising doubts about their ability to handle creativity. We formalize this tendency as a Galton-style regression to the mean in language and evaluate it using a creativity stress test in advertising concepts. When ad ideas were simplified step by step, creative features such as metaphors, emotions, and visual cues disappeared early, while factual content remained, showing that models favor high-probability information. When asked to regenerate from simplified inputs, models produced longer outputs with lexical variety but failed to recover the depth and distinctiveness of the originals. We combined quantitative comparisons with qualitative analysis, which revealed that the regenerated texts often appeared novel but lacked true originality. Providing ad-specific cues such as metaphors, emotional hooks and visual markers improved alignment and stylistic balance, though outputs still relied on familiar tropes. Taken together, the findings show that without targeted guidance, LLMs drift towards mediocrity in creative tasks; structured signals can partially counter this tendency and point towards pathways for developing creativity-sensitive models.