Rewrite-to-Rank: Optimizing Ad Visibility via Retrieval-Aware Text Rewriting
作者: Chloe Ho, Ishneet Sukhvinder Singh, Diya Sharma, Tanvi Reddy Anumandla, Michael Lu, Vasu Sharma, Kevin Zhu
分类: cs.CL
发布日期: 2025-07-03
💡 一句话要点
提出Rewrite-to-Rank框架,通过重写广告文本优化其在检索系统中的可见性。
🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)
关键词: 广告重写 LLM 检索系统 广告可见性 强化学习 PPO 文本优化
📋 核心要点
- 现有方法缺乏对内容措辞如何影响广告在检索系统和LLM生成内容中可见性的深入研究。
- 提出Rewrite-to-Rank框架,通过LLM重写广告文本,优化其在检索系统中的排名和被LLM包含的频率。
- 实验结果表明,PPO训练的模型在提升广告可见性方面优于提示工程和监督式微调方法。
📝 摘要(中文)
本文研究了基于LLM的广告文本重写如何提升其在检索系统中的排名和被LLM生成内容包含的频率,而无需修改检索模型本身。我们提出了一个监督式微调框架,使用自定义损失函数平衡语义相关性和内容保真度。为了评估有效性,我们提出了两个指标:DeltaMRR@K(排名提升)和DeltaDIR@K(包含频率提升)。我们的方法提供了一种可扩展的广告措辞优化方法,增强了基于检索的LLM工作流程中的可见性。实验表明,在基于指令的提示和少样本提示中,PPO训练的模型在大多数情况下优于提示工程和监督式微调,在基于指令的提示中,DeltaDIR@5最高达到2.79,DeltaMRR@5最高达到0.0073。这些结果突出了广告在检索前的写作方式、提示格式以及强化学习在有效的LLM集成检索系统广告重写中的重要性。
🔬 方法详解
问题定义:论文旨在解决广告文本措辞对广告在检索系统中的可见性影响问题。现有方法主要关注检索模型本身的优化,而忽略了广告文本的表达方式对检索结果的影响。因此,如何通过优化广告文本的措辞来提升其排名和被LLM生成内容包含的频率,是一个亟待解决的问题。
核心思路:论文的核心思路是利用LLM对广告文本进行重写,使其更符合检索系统的偏好,从而提升广告的可见性。通过调整广告文本的措辞,使其与用户查询更相关,或者更易于被LLM识别和利用,从而提高广告的排名和曝光率。这种方法无需修改底层的检索模型,具有更高的灵活性和可扩展性。
技术框架:整体框架包含以下几个主要步骤:1) 使用LLM生成多个候选的广告文本重写版本;2) 使用检索模型对这些候选版本进行排序,并计算DeltaMRR@K和DeltaDIR@K等指标;3) 使用监督式微调或强化学习方法,训练LLM模型,使其能够生成更优的广告文本重写版本。框架的关键在于平衡语义相关性和内容保真度,确保重写后的广告文本既能提升可见性,又能保持原有的语义信息。
关键创新:论文的关键创新在于提出了一个基于LLM的广告文本重写框架,并将其应用于优化广告在检索系统中的可见性。与传统的检索模型优化方法不同,该方法关注于广告文本本身的优化,具有更高的灵活性和可扩展性。此外,论文还提出了DeltaMRR@K和DeltaDIR@K两个新的评估指标,用于衡量广告文本重写的效果。
关键设计:在监督式微调中,使用了自定义的损失函数,用于平衡语义相关性和内容保真度。语义相关性通过计算重写后的广告文本与原始广告文本之间的语义相似度来衡量,内容保真度通过计算重写后的广告文本与原始广告文本之间的词汇重叠度来衡量。在强化学习中,使用了PPO算法,将DeltaMRR@K和DeltaDIR@K作为奖励信号,训练LLM模型生成更优的广告文本重写版本。
🖼️ 关键图片
📊 实验亮点
实验结果表明,PPO训练的模型在基于指令的提示中,DeltaDIR@5最高达到2.79,DeltaMRR@5最高达到0.0073,优于提示工程和监督式微调方法。这表明,通过强化学习优化广告文本的措辞,可以显著提升广告在检索系统中的可见性。
🎯 应用场景
该研究成果可应用于在线广告、搜索引擎优化、智能客服等领域。通过优化广告文本的措辞,可以提升广告的点击率和转化率,提高广告主的收益。此外,该方法还可以应用于优化搜索引擎的搜索结果,提升用户体验。在智能客服领域,可以利用该方法优化回复文本,使其更符合用户需求。
📄 摘要(原文)
Search algorithms and user query relevance have given LLMs the ability to return relevant information, but the effect of content phrasing on ad visibility remains underexplored. We investigate how LLM-based rewriting of advertisements can improve their ranking in retrieval systems and inclusion in generated LLM responses, without modifying the retrieval model itself. We introduce a supervised fine-tuning framework with a custom loss balancing semantic relevance and content fidelity. To evaluate effectiveness, we propose two metrics: DeltaMRR@K (ranking improvement) and DeltaDIR@K (inclusion frequency improvement). Our approach presents a scalable method to optimize ad phrasing, enhancing visibility in retrieval-based LLM workflows. Experiments across both instruction-based and few-shot prompting demonstrate that PPO trained models outperform both prompt engineering and supervised fine-tuning in most cases, achieving up to a 2.79 DeltaDIR@5 and 0.0073 DeltaMRR@5 in instruction-based prompting. These results highlight the importance of how the ad is written before retrieval and prompt format and reinforcement learning in effective ad rewriting for LLM integrated retrieval systems.