Layout-Aware Parsing Meets Efficient LLMs: A Unified, Scalable Framework for Resume Information Extraction and Evaluation

📄 arXiv: 2510.09722v1 📥 PDF

作者: Fanwei Zhu, Jinke Yu, Zulong Chen, Ying Zhou, Junhao Ji, Zhibo Yang, Yuxue Zhang, Haoyuan Hu, Zhenghao Liu

分类: cs.CL, cs.AI, cs.CV

发布日期: 2025-10-10


💡 一句话要点

提出布局感知的高效LLM框架,用于简历信息抽取与评估。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 简历信息抽取 布局感知 高效LLM 指令微调 自动化评估 人才招聘 自然语言处理

📋 核心要点

  1. 现有简历信息抽取方法难以应对简历布局和内容的高度异构性,且依赖大型语言模型导致成本高昂和延迟大。
  2. 该论文提出一个布局感知和效率优化的框架,利用布局解析器规范文档格式,并采用并行提示和指令微调来提升LLM效率。
  3. 实验结果表明,该框架在准确性和效率上均优于现有方法,并且一个微调的0.6B LLM实现了高性能和低延迟。

📝 摘要(中文)

本文提出了一种布局感知且效率优化的框架,用于自动简历信息抽取和评估,旨在解决实际部署中简历布局和内容的多样性、大语言模型(LLM)的高成本和延迟以及缺乏标准化数据集和评估工具这三大挑战。该系统结合了微调的布局解析器来规范化不同的文档格式,一个基于并行提示和指令微调的高效LLM抽取器,以及一个由新基准数据集支持的稳健的两阶段自动评估框架。大量实验表明,该框架在准确性和效率方面均显著优于强大的基线模型。特别地,实验证明,一个微调的紧凑型0.6B LLM在实现顶级准确率的同时,显著降低了推理延迟和计算成本。该系统已完全部署在阿里巴巴的智能人力资源平台中,支持其业务部门的实时应用。

🔬 方法详解

问题定义:简历信息自动抽取面临三大挑战:一是简历布局和内容极端多样化,二是大型语言模型(LLM)成本高、延迟大,三是缺乏标准化的数据集和评估工具。现有方法难以同时兼顾准确性、效率和泛化能力,尤其是在处理复杂布局的简历时表现不佳。

核心思路:该论文的核心思路是结合布局信息和高效LLM,通过布局解析器预处理简历,规范化文档格式,然后利用指令微调的小型LLM进行信息抽取。这种方法旨在降低LLM的计算成本和延迟,同时提高信息抽取的准确性和鲁棒性。

技术框架:该框架包含三个主要模块:1) 布局解析器:用于解析简历的布局结构,将不同格式的简历转换为统一的表示;2) LLM抽取器:基于并行提示和指令微调,利用小型LLM进行信息抽取;3) 自动评估框架:一个两阶段的评估流程,用于评估信息抽取的准确性。整体流程是先通过布局解析器处理简历,然后将解析后的结果输入到LLM抽取器中,最后使用自动评估框架评估抽取结果。

关键创新:该论文的关键创新在于将布局信息融入到LLM的信息抽取过程中,并采用并行提示和指令微调来提高LLM的效率。与传统方法相比,该方法能够更好地处理复杂布局的简历,并降低LLM的计算成本和延迟。此外,该论文还构建了新的基准数据集,并提出了一个两阶段的自动评估框架。

关键设计:布局解析器采用微调的现有模型,具体模型未知。LLM抽取器使用一个0.6B的紧凑型LLM,并通过指令微调来提高其信息抽取能力。并行提示的具体实现方式未知,但其目的是提高LLM的推理效率。自动评估框架包含两个阶段,具体评估指标未知,但旨在全面评估信息抽取的准确性。

📊 实验亮点

实验结果表明,该框架在准确性和效率方面均显著优于现有方法。特别地,一个微调的0.6B LLM在实现顶级准确率的同时,显著降低了推理延迟和计算成本。具体性能数据和对比基线未知,但整体提升效果显著。

🎯 应用场景

该研究成果可广泛应用于智能招聘、人才管理、人力资源自动化等领域。通过自动提取和评估简历信息,可以显著提高招聘效率,降低招聘成本,并为企业提供更全面的人才画像。该技术还可应用于其他文档信息抽取场景,例如合同、报告等。

📄 摘要(原文)

Automated resume information extraction is critical for scaling talent acquisition, yet its real-world deployment faces three major challenges: the extreme heterogeneity of resume layouts and content, the high cost and latency of large language models (LLMs), and the lack of standardized datasets and evaluation tools. In this work, we present a layout-aware and efficiency-optimized framework for automated extraction and evaluation that addresses all three challenges. Our system combines a fine-tuned layout parser to normalize diverse document formats, an inference-efficient LLM extractor based on parallel prompting and instruction tuning, and a robust two-stage automated evaluation framework supported by new benchmark datasets. Extensive experiments show that our framework significantly outperforms strong baselines in both accuracy and efficiency. In particular, we demonstrate that a fine-tuned compact 0.6B LLM achieves top-tier accuracy while significantly reducing inference latency and computational cost. The system is fully deployed in Alibaba's intelligent HR platform, supporting real-time applications across its business units.