Leveraging Large Language Models for Tacit Knowledge Discovery in Organizational Contexts

📄 arXiv: 2507.03811v1 📥 PDF

作者: Gianlucca Zuin, Saulo Mastelini, Túlio Loures, Adriano Veloso

分类: cs.AI, cs.CY, cs.LG

发布日期: 2025-07-04

备注: 8 pages, 4 figures, accepted to International Joint Conference on Neural Networks (IJCNN) 2025


💡 一句话要点

利用大型语言模型在组织环境中发现隐性知识

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 大型语言模型 隐性知识 知识管理 组织行为 智能代理 知识传播 传染病模型

📋 核心要点

  1. 组织中隐性知识难以记录,挑战包括信息不全、专家难寻、层级网络复杂以及提问困难。
  2. 论文提出基于代理的框架,利用大型语言模型与员工交互,迭代重建数据集描述,模拟知识传播。
  3. 实验结果表明,该代理实现了94.9%的知识召回率,且自我批判反馈与外部评价高度相关。

📝 摘要(中文)

由于初始信息不完整、难以识别知识渊博的个体、正式层级与非正式网络相互作用以及需要提出正确的问题,记录组织中的隐性知识可能是一项具有挑战性的任务。为了解决这个问题,我们提出了一个基于代理的框架,利用大型语言模型(LLM)通过与员工的互动迭代地重建数据集描述。我们将知识传播建模为一个具有递减传染性的易感-感染(SI)过程,我们在各种合成公司结构和不同的传播参数下进行了864次模拟。我们的结果表明,该代理实现了94.9%的完整知识召回率,并且自我批判反馈得分与外部文献批判得分强烈相关。我们分析了每个模拟参数如何影响代理的知识检索过程。特别地,我们发现我们的方法能够在不需要直接访问唯一领域专家的情况下恢复信息。这些发现突出了该代理导航组织复杂性和捕获原本无法访问的碎片化知识的能力。

🔬 方法详解

问题定义:论文旨在解决组织环境中隐性知识难以有效获取和记录的问题。现有方法通常依赖于人工访谈或文档分析,效率低下且容易遗漏关键信息。痛点在于难以识别合适的知识贡献者,以及难以将碎片化的知识整合起来。

核心思路:论文的核心思路是将知识传播过程建模为传染病模型(SI模型),并利用大型语言模型(LLM)作为智能代理,通过与组织成员的交互来迭代地完善知识图谱。LLM代理通过提问和学习,逐步发现和整合隐性知识。

技术框架:整体框架包含以下几个主要模块:1) 知识库初始化:利用现有文档或初始信息构建初始知识库;2) LLM代理交互:LLM代理根据当前知识库,选择合适的员工进行提问,获取新的知识;3) 知识库更新:将新获取的知识整合到知识库中,并更新知识传播模型;4) 迭代优化:重复步骤2和3,直到知识库达到预定的完整度或迭代次数上限。

关键创新:最重要的创新点在于将传染病模型与大型语言模型相结合,模拟知识在组织中的传播过程。这种方法能够有效地利用LLM的自然语言理解和生成能力,自动地发现和整合隐性知识,而无需人工干预。此外,该方法还能够识别关键的知识传播者,并优先与其进行交互。

关键设计:论文采用Susceptible-Infectious (SI) 模型模拟知识传播,其中个体状态分为易感(Susceptible)和感染(Infectious)。LLM代理使用自批判反馈机制评估知识质量。模拟参数包括公司结构(例如层级结构、网络结构)、传播概率、感染衰减率等。LLM代理的具体prompt设计和知识库更新策略也是关键的技术细节,但论文中未详细描述(未知)。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,该代理能够实现94.9%的完整知识召回率,显著优于传统方法(具体对比基线未知)。此外,自我批判反馈得分与外部文献批判得分高度相关,表明该代理具有较强的知识评估能力。更重要的是,该方法能够在不需要直接访问领域专家的情况下恢复信息,体现了其在复杂组织环境中的适应性。

🎯 应用场景

该研究成果可应用于企业知识管理、员工培训、专家系统构建等领域。通过自动发现和整合组织内部的隐性知识,可以提高决策效率、降低运营成本、增强创新能力。未来,该方法还可以扩展到其他领域,例如医疗诊断、法律咨询等。

📄 摘要(原文)

Documenting tacit knowledge in organizations can be a challenging task due to incomplete initial information, difficulty in identifying knowledgeable individuals, the interplay of formal hierarchies and informal networks, and the need to ask the right questions. To address this, we propose an agent-based framework leveraging large language models (LLMs) to iteratively reconstruct dataset descriptions through interactions with employees. Modeling knowledge dissemination as a Susceptible-Infectious (SI) process with waning infectivity, we conduct 864 simulations across various synthetic company structures and different dissemination parameters. Our results show that the agent achieves 94.9% full-knowledge recall, with self-critical feedback scores strongly correlating with external literature critic scores. We analyze how each simulation parameter affects the knowledge retrieval process for the agent. In particular, we find that our approach is able to recover information without needing to access directly the only domain specialist. These findings highlight the agent's ability to navigate organizational complexity and capture fragmented knowledge that would otherwise remain inaccessible.