AI Trust OS -- A Continuous Governance Framework for Autonomous AI Observability and Zero-Trust Compliance in Enterprise Environments
作者: Eranga Bandara, Asanga Gunaratna, Ross Gore, Abdul Rahman, Ravi Mukkamala, Sachin Shetty, Sachini Rajapakse, Isurunima Kularathna, Peter Foytik, Safdar H. Bouk, Xueping Liang, Amin Hass, Ng Wee Keong, Kasun De Zoysa
分类: cs.AI
发布日期: 2026-04-07
💡 一句话要点
提出AI Trust OS,实现企业环境中自治AI的可观测性和零信任合规的持续治理。
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: AI治理 可观测性 零信任 合规性 遥测技术 自动化审计 大型语言模型 企业安全
📋 核心要点
- 现有合规方法无法有效发现和验证企业环境中涌现的AI系统,导致监管要求与实际能力之间存在信任差距。
- AI Trust OS通过可观测性信号发现AI系统,利用自动化探针收集控制断言,并持续合成信任工件,实现持续治理。
- AI Trust OS基于主动发现、遥测证据、持续姿态和架构支持的原则,通过零信任遥测边界运行,保障数据安全。
📝 摘要(中文)
大型语言模型、检索增强生成流程和多智能体AI工作流的加速采用引发了结构性治理危机。组织无法管理他们无法看到的东西,而为确定性Web应用程序构建的现有合规方法无法发现或持续验证跨工程团队涌现的、未经正式监督的AI系统。这导致监管机构要求的AI治理成熟度证明与组织能够展示的能力之间存在越来越大的信任差距。本文提出了AI Trust OS,这是一种用于持续、自治AI可观测性和零信任合规的治理架构。AI Trust OS将合规性重新概念化为一个始终在线的、遥测驱动的操作系统层,其中AI系统通过可观测性信号被发现,控制断言由自动化探针收集,信任工件被持续合成。该框架基于四个原则:主动发现、遥测证据而非手动证明、持续姿态而非时间点审计,以及架构支持的证明而非策略文档信任。该框架通过零信任遥测边界运行,其中临时只读探针验证结构元数据,而无需摄取源代码或有效负载级别的PII。AI可观测性提取代理扫描LangSmith和Datadog LLM遥测,自动注册未记录的AI系统,并将治理从组织自我报告转变为经验机器观察。通过ISO 42001、欧盟AI法案、SOC 2、GDPR和HIPAA的评估,本文认为,遥测优先的AI治理代表了企业信任产生和展示方式的根本性架构转变。
🔬 方法详解
问题定义:当前企业环境中,AI系统的快速发展和广泛应用带来了治理难题。传统的合规方法主要针对确定性的Web应用,无法有效应对AI系统的不确定性和复杂性,导致组织难以满足监管要求,并面临潜在的风险。现有方法依赖于人工审计和自我报告,效率低下且容易出错。
核心思路:AI Trust OS的核心思路是将合规性视为一个持续运行的操作系统层,通过遥测技术实现对AI系统的实时监控和自动化治理。它强调从组织自我报告转向基于机器观测的经验证据,从而提高治理的透明度和可信度。通过零信任架构,确保在不泄露敏感数据的前提下进行系统验证。
技术框架:AI Trust OS框架包含以下主要模块:1) AI系统发现:利用AI可观测性提取代理(如扫描LangSmith和Datadog LLM遥测)自动注册未记录的AI系统。2) 控制断言收集:通过自动化探针收集AI系统的结构元数据,验证其是否符合预定义的控制策略。3) 信任工件合成:基于收集到的遥测数据和控制断言,持续生成信任工件,用于证明AI系统的合规性。4) 零信任遥测边界:通过只读探针验证元数据,避免直接访问源代码或敏感数据。
关键创新:AI Trust OS的关键创新在于其遥测优先的治理方法,它将传统的基于策略文档的信任转变为基于架构支持的证明。通过持续监控和自动化验证,实现了对AI系统的实时治理,显著提高了治理效率和可信度。此外,零信任遥测边界的设计保障了数据安全,降低了隐私泄露的风险。
关键设计:AI Trust OS的关键设计包括:1) 可观测性提取代理:用于自动发现和注册AI系统,需要根据不同的遥测数据源进行定制。2) 自动化探针:用于验证AI系统的结构元数据,需要定义清晰的控制策略和断言。3) 信任工件合成算法:用于将遥测数据和控制断言转化为可信的证明,需要考虑不同监管要求的差异。4) 零信任策略:定义了探针的访问权限和数据处理方式,确保在不泄露敏感数据的前提下进行系统验证。
🖼️ 关键图片
📊 实验亮点
该论文通过在ISO 42001、欧盟AI法案、SOC 2、GDPR和HIPAA等多个合规框架下的评估,证明了AI Trust OS的有效性。实验结果表明,该框架能够显著提高AI系统的可观测性和合规性,并降低人工审计的成本。具体性能数据和提升幅度在论文中未明确给出,属于未来研究方向。
🎯 应用场景
AI Trust OS可广泛应用于金融、医疗、法律等对数据安全和合规性要求极高的行业。它能够帮助企业构建可信赖的AI系统,降低合规风险,并提高AI应用的透明度和可解释性。未来,该框架有望成为企业AI治理的基础设施,促进AI技术的健康发展。
📄 摘要(原文)
The accelerating adoption of large language models, retrieval-augmented generation pipelines, and multi-agent AI workflows has created a structural governance crisis. Organizations cannot govern what they cannot see, and existing compliance methodologies built for deterministic web applications provide no mechanism for discovering or continuously validating AI systems that emerge across engineering teams without formal oversight. The result is a widening trust gap between what regulators demand as proof of AI governance maturity and what organizations can demonstrate. This paper proposes AI Trust OS, a governance architecture for continuous, autonomous AI observability and zero-trust compliance. AI Trust OS reconceptualizes compliance as an always-on, telemetry-driven operating layer in which AI systems are discovered through observability signals, control assertions are collected by automated probes, and trust artifacts are synthesized continuously. The framework rests on four principles: proactive discovery, telemetry evidence over manual attestation, continuous posture over point-in-time audit, and architecture-backed proof over policy-document trust. The framework operates through a zero-trust telemetry boundary in which ephemeral read-only probes validate structural metadata without ingressing source code or payload-level PII. An AI Observability Extractor Agent scans LangSmith and Datadog LLM telemetry, automatically registering undocumented AI systems and shifting governance from organizational self-report to empirical machine observation. Evaluated across ISO 42001, the EU AI Act, SOC 2, GDPR, and HIPAA, the paper argues that telemetry-first AI governance represents a categorical architectural shift in how enterprise trust is produced and demonstrated.