Multilingual Prompting for Improving LLM Generation Diversity

📄 arXiv: 2505.15229v2 📥 PDF

作者: Qihan Wang, Shidong Pan, Tal Linzen, Emily Black

分类: cs.CL, cs.CY

发布日期: 2025-05-21 (更新: 2025-09-27)

备注: Accepted by EMNLP 2025


💡 一句话要点

提出多语言提示方法,提升大型语言模型生成内容的多样性

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 多语言提示 大型语言模型 多样性生成 文化知识 自然语言处理

📋 核心要点

  1. 现有大型语言模型在生成内容时缺乏文化代表性和多样性,限制了其应用范围。
  2. 论文提出多语言提示方法,通过融合多种文化和语言线索来扩展模型的知识边界,提升生成内容的多样性。
  3. 实验结果表明,多语言提示在多个模型上均优于现有多样性增强技术,尤其是在低资源语言上。

📝 摘要(中文)

大型语言模型(LLMs)在生成内容时,在文化代表性和整体多样性方面存在不足,无论是表达观点还是回答事实性问题。为了缓解这个问题,我们提出了一种多语言提示方法:该方法通过添加来自多种文化的文化和语言线索,生成基础提示的多个变体,生成响应,然后组合结果。基于LLMs具有特定于语言的知识的证据,多语言提示旨在通过激活模型训练数据中嵌入的更广泛的文化知识来增加多样性。通过跨多个模型(GPT-4o、GPT-4o-mini、LLaMA 70B和LLaMA 8B)的实验,我们表明多语言提示始终优于现有的多样性增强技术,如高温采样、逐步回忆和角色提示。进一步的分析表明,多语言提示的优势在高资源语言和低资源语言之间以及不同模型大小之间存在差异,并且将提示语言与文化线索对齐可以减少关于文化特定信息的幻觉。

🔬 方法详解

问题定义:大型语言模型在生成内容时,存在文化代表性和多样性不足的问题。现有的提升多样性的方法,如高温采样、逐步回忆和角色提示,效果有限,无法充分利用模型中蕴含的文化知识。

核心思路:论文的核心思路是利用大型语言模型中存在的语言特定知识,通过多语言提示激活模型训练数据中更广泛的文化知识,从而提升生成内容的多样性。通过将原始提示翻译成多种语言,并结合相应的文化背景,可以引导模型从不同的视角生成内容。

技术框架:多语言提示方法包含以下几个主要步骤:1) 选择一个基础提示。2) 将基础提示翻译成多种目标语言,并根据目标语言的文化背景进行调整,生成多个变体提示。3) 使用每个变体提示生成相应的响应。4) 将所有响应进行组合,得到最终的生成结果。组合方式可以包括简单的拼接、加权平均或者更复杂的融合策略。

关键创新:该方法的核心创新在于利用多语言提示来激活模型中潜在的文化知识,而不是仅仅依赖于单一语言的提示。这种方法能够有效地扩展模型的知识边界,提升生成内容的多样性。此外,论文还发现,将提示语言与文化线索对齐可以减少关于文化特定信息的幻觉。

关键设计:论文中涉及的关键设计包括:1) 目标语言的选择,需要考虑语言的资源丰富程度和文化代表性。2) 提示变体的生成方式,可以采用机器翻译、人工翻译或者混合的方式。3) 响应的组合策略,需要根据具体的任务和模型进行调整。4) 实验中对比了多种模型(GPT-4o、GPT-4o-mini、LLaMA 70B和LLaMA 8B)和多种基线方法(高温采样、逐步回忆和角色提示),以验证多语言提示的有效性。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,多语言提示方法在多个模型(GPT-4o、GPT-4o-mini、LLaMA 70B和LLaMA 8B)上均优于现有的多样性增强技术,如高温采样、逐步回忆和角色提示。尤其是在低资源语言上,多语言提示的优势更加明显。此外,研究还发现,将提示语言与文化线索对齐可以减少关于文化特定信息的幻觉。

🎯 应用场景

该研究成果可应用于需要文化敏感性和多样性的自然语言生成任务,例如:多语言对话系统、跨文化内容创作、个性化推荐系统等。通过提升生成内容的多样性,可以增强用户体验,减少偏见和歧视,促进不同文化之间的交流和理解。

📄 摘要(原文)

Large Language Models (LLMs) are known to lack cultural representation and overall diversity in their generations, from expressing opinions to answering factual questions. To mitigate this problem, we propose multilingual prompting: a prompting method which generates several variations of a base prompt with added cultural and linguistic cues from several cultures, generates responses, and then combines the results. Building on evidence that LLMs have language-specific knowledge, multilingual prompting seeks to increase diversity by activating a broader range of cultural knowledge embedded in model training data. Through experiments across multiple models (GPT-4o, GPT-4o-mini, LLaMA 70B, and LLaMA 8B), we show that multilingual prompting consistently outperforms existing diversity-enhancing techniques such as high-temperature sampling, step-by-step recall, and persona prompting. Further analyses show that the benefits of multilingual prompting vary between high and low resource languages and across model sizes, and that aligning the prompting language with cultural cues reduces hallucination about culturally-specific information.