Beyond the Surface: Uncovering Implicit Locations with LLMs for Personalized Local News

📄 arXiv: 2502.14660v1 📥 PDF

作者: Gali Katz, Hai Sitton, Guy Gonen, Yohay Kaplan

分类: cs.LG

发布日期: 2025-02-20

备注: 10 pages, 2 figures, submitted to kdd


💡 一句话要点

利用大语言模型提升本地新闻推荐的隐性位置识别

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 大语言模型 本地新闻推荐 隐性位置识别 命名实体识别 知识图谱 个性化推荐 用户参与度

📋 核心要点

  1. 现有方法在识别本地新闻时面临挑战,尤其是隐性位置线索的处理不足。
  2. 本文提出利用大语言模型(LLMs)进行本地文章分类,克服传统方法的局限性。
  3. 实验结果表明,LLMs在隐性位置分类上优于传统方法,并提升了本地文章的分发效果。

📝 摘要(中文)

新闻推荐系统通过个性化主页内容来提高用户参与度,但内容类型、编辑立场和地理焦点等因素影响推荐效果。地方报纸在各地区之间平衡报道,但由于俚语或地标等隐性位置线索,识别本地文章面临挑战。传统方法如命名实体识别(NER)和知识图谱虽然可以推断位置,但大语言模型(LLMs)提供了新的可能性,同时也引发了关于准确性和可解释性的担忧。本文探讨了LLMs在Taboola的“为您推荐”系统中的本地文章分类,发现LLMs在隐性位置分类方面表现优异,并且在不需要知识图谱集成的情况下有效识别本地内容。离线评估显示LLMs在隐性位置分类上表现突出,而在线A/B测试则显示本地浏览量显著增加。

🔬 方法详解

问题定义:本文旨在解决传统新闻推荐系统在识别本地文章时对隐性位置线索的处理不足,尤其是俚语和地标的识别问题。现有方法如命名实体识别(NER)和知识图谱在准确性和可解释性方面存在局限。

核心思路:论文提出利用大语言模型(LLMs)进行本地文章的隐性位置分类,认为LLMs能够更好地捕捉文本中的上下文信息,从而提高位置识别的准确性。

技术框架:整体架构包括数据预处理、LLM模型训练、隐性位置分类和在线推荐系统集成等主要模块。通过构建一个可扩展的管道,将LLM与现有推荐系统相结合。

关键创新:最重要的技术创新在于LLMs的应用,研究表明LLMs在隐性位置分类上超越了传统的NER和知识图谱方法,能够独立识别本地内容。

关键设计:在模型训练中,采用特定的损失函数来优化隐性位置的识别效果,并对模型的超参数进行了细致调优,以确保最佳性能。

🖼️ 关键图片

fig_0
fig_1

📊 实验亮点

实验结果显示,LLMs在隐性位置分类任务中表现优异,在线A/B测试表明本地文章的浏览量提升了27%。与传统方法相比,LLMs在准确性和效率上均有显著提升,证明了其在新闻推荐系统中的实际应用价值。

🎯 应用场景

该研究的潜在应用领域包括新闻推荐系统、内容个性化和用户行为分析等。通过提升本地新闻的识别能力,能够更好地满足用户的需求,增强用户的参与感和满意度,未来可能对地方新闻的传播和影响力产生积极作用。

📄 摘要(原文)

News recommendation systems personalize homepage content to boost engagement, but factors like content type, editorial stance, and geographic focus impact recommendations. Local newspapers balance coverage across regions, yet identifying local articles is challenging due to implicit location cues like slang or landmarks. Traditional methods, such as Named Entity Recognition (NER) and Knowledge Graphs, infer locations, but Large Language Models (LLMs) offer new possibilities while raising concerns about accuracy and explainability. This paper explores LLMs for local article classification in Taboola's "Homepage For You" system, comparing them to traditional techniques. Key findings: (1) Knowledge Graphs enhance NER models' ability to detect implicit locations, (2) LLMs outperform traditional methods, and (3) LLMs can effectively identify local content without requiring Knowledge Graph integration. Offline evaluations showed LLMs excel at implicit location classification, while online A/B tests showed a significant increased in local views. A scalable pipeline integrating LLM-based location classification boosted local article distribution by 27%, preserving newspapers' brand identity and enhancing homepage personalization.