How and Where to Translate? The Impact of Translation Strategies in Cross-lingual LLM Prompting
作者: Aman Gupta, Yingying Zhuang, Zhou Yu, Ziji Zhang, Anurag Beniwal
分类: cs.CL, cs.AI
发布日期: 2025-07-21
备注: Accepted at Prompt Optimization KDD '25
💡 一句话要点
研究跨语言LLM提示中翻译策略对RAG分类任务的影响,优化提示策略提升跨语言知识共享。
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 跨语言LLM 提示工程 翻译策略 检索增强生成 多语言RAG 知识共享 低资源语言
📋 核心要点
- 多语言LLM性能因语言和任务而异,尤其是在RAG系统中,知识库的语言差异会影响性能。
- 论文研究了在跨语言RAG场景下,不同提示翻译策略对分类任务的影响,旨在优化跨语言知识共享。
- 实验表明,优化的提示策略能显著提升跨语言知识共享,进而提高下游分类任务的性能。
📝 摘要(中文)
尽管大型语言模型(LLM)在多语言能力方面取得了进展,但它们在不同语言和任务中的表现差异很大。在基于多语言检索增强生成(RAG)的系统中,知识库(KB)通常从高资源语言(如英语)共享到低资源语言,导致从KB检索到的信息与上下文的其余部分使用不同的语言。在这种情况下,两种常见的做法是预翻译以创建单语提示和跨语言提示以进行直接推理。然而,这些选择的影响仍然不清楚。在本文中,我们系统地评估了不同提示翻译策略对多语言系统中RAG增强LLM分类任务的影响。实验结果表明,优化的提示策略可以显著提高跨语言的知识共享,从而提高下游分类任务的性能。研究结果提倡更广泛地利用多语言资源共享和跨语言提示优化,特别是对于低资源语言。
🔬 方法详解
问题定义:论文旨在解决多语言RAG系统中,由于知识库和用户查询语言不一致,导致LLM性能下降的问题。现有方法要么直接使用跨语言提示,要么将所有内容预先翻译成同一种语言,但缺乏对不同翻译策略的系统性评估和优化。
核心思路:论文的核心思路是通过系统性地评估不同的提示翻译策略,找到最佳的策略来提高跨语言知识共享,从而提升下游分类任务的性能。作者认为,合理的翻译策略能够弥合语言差异带来的信息鸿沟,使LLM更好地利用知识库中的信息。
技术框架:论文的技术框架主要包括以下几个步骤:1) 构建多语言RAG系统,该系统包含一个知识库和用于分类任务的LLM。2) 设计不同的提示翻译策略,例如预翻译、跨语言提示等。3) 在不同的语言和分类任务上进行实验,评估不同翻译策略的性能。4) 分析实验结果,找出最佳的翻译策略。
关键创新:论文的关键创新在于对跨语言LLM提示中的翻译策略进行了系统性的评估和优化。以往的研究往往只关注于LLM本身的多语言能力,而忽略了提示策略对性能的影响。论文通过实验证明,优化的提示策略可以显著提高跨语言知识共享,从而提升下游任务的性能。
关键设计:论文的关键设计包括:1) 选择了具有代表性的多语言数据集和分类任务。2) 设计了多种不同的提示翻译策略,例如源语言提示、目标语言提示、混合语言提示等。3) 使用了标准的评估指标来衡量不同策略的性能,例如准确率、F1值等。具体的参数设置和网络结构取决于所使用的LLM模型。
📊 实验亮点
实验结果表明,优化的提示策略能够显著提高跨语言知识共享,从而提升下游分类任务的性能。具体的性能提升幅度取决于所使用的LLM模型、数据集和分类任务,但总体趋势是优化的提示策略能够带来显著的性能提升。论文对比了多种不同的翻译策略,并找出了最佳的策略。
🎯 应用场景
该研究成果可应用于多语言智能客服、跨语言信息检索、全球化知识管理等领域。通过优化翻译策略,可以提升LLM在低资源语言环境下的性能,促进不同语言之间的信息交流和知识共享,具有重要的实际应用价值和深远影响。
📄 摘要(原文)
Despite advances in the multilingual capabilities of Large Language Models (LLMs), their performance varies substantially across different languages and tasks. In multilingual retrieval-augmented generation (RAG)-based systems, knowledge bases (KB) are often shared from high-resource languages (such as English) to low-resource ones, resulting in retrieved information from the KB being in a different language than the rest of the context. In such scenarios, two common practices are pre-translation to create a mono-lingual prompt and cross-lingual prompting for direct inference. However, the impact of these choices remains unclear. In this paper, we systematically evaluate the impact of different prompt translation strategies for classification tasks with RAG-enhanced LLMs in multilingual systems. Experimental results show that an optimized prompting strategy can significantly improve knowledge sharing across languages, therefore improve the performance on the downstream classification task. The findings advocate for a broader utilization of multilingual resource sharing and cross-lingual prompt optimization for non-English languages, especially the low-resource ones.