Technology as uncharted territory: Contextual integrity and the notion of AI as new ethical ground
作者: Alexander Martin Mussgnug
分类: cs.AI
发布日期: 2024-12-06 (更新: 2025-08-27)
备注: Please cite published version
期刊: Philosophy & Technology 2025
DOI: 10.1007/s13347-025-00938-w
💡 一句话要点
强调AI伦理应重视既有社会规范,避免道德创新优先于道德保护
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: AI伦理 社会规范 语境完整性 道德保护 道德创新 伦理框架 负责任AI
📋 核心要点
- 现有AI伦理研究倾向于将AI视为全新的道德领域,忽视了既有社会规范。
- 论文提出应优先考虑将AI负责任地整合到既定社会环境及其规范结构中。
- 论文倡导一种适度保守的AI伦理方法,强调道德保护的重要性。
📝 摘要(中文)
近期研究表明,人工智能的开发和部署可能脱离具体的社会应用背景。通过抽象化AI的应用环境,实践者也脱离了管理这些环境的独特规范结构。本文基于海伦·尼森鲍姆的语境完整性框架,阐述了对语境规范的忽视如何威胁语境的完整性,并常常产生决定性的伦理影响。文章认为,促进负责任和合乎伦理的AI的努力,可能无意中促成并看似合理化了对既定语境规范的漠视。与技术伦理中将新兴技术理解为未知的道德领域的持久暗流相呼应,某些AI伦理方法可能会助长一种将AI视为伦理审议、规范制定和美德培养的新颖而独特的领域的观念。然而,这种将AI视为新的伦理基础的叙事,可能会以牺牲实践者、政策制定者和伦理学家参与已经建立的规范和美德为代价,而这些规范和美德是逐步培养起来的,以促进具体社会环境中的成功和负责任的实践。作为回应,我质疑当前AI伦理中道德创新优先于道德保护的狭隘优先次序。通过与新兴的基础模型相结合,我提倡一种适度保守的AI伦理方法,该方法优先考虑将AI负责任地、审慎地整合到既定的社会环境及其各自的规范结构中。
🔬 方法详解
问题定义:当前AI伦理研究存在一个问题,即倾向于将AI视为一个全新的、独立的伦理领域,从而忽视了AI应用所嵌入的既有社会环境及其规范结构。这种做法可能导致对现有道德规范的漠视,并可能产生意想不到的伦理后果。现有方法的痛点在于,它们过于关注道德创新,而忽视了道德保护,即维护和尊重已经建立的、经过时间考验的社会规范。
核心思路:论文的核心解决思路是提倡一种“适度保守”的AI伦理方法,这种方法强调将AI负责任地、审慎地整合到既定的社会环境及其各自的规范结构中。这意味着在设计、开发和部署AI系统时,应该充分考虑并尊重相关的社会规范、价值观和道德原则。论文认为,道德创新固然重要,但更重要的是确保AI的应用不会破坏或侵蚀既有的道德框架。
技术框架:论文并没有提出一个具体的技术框架,而是提供了一个概念框架,用于指导AI伦理的思考和实践。这个框架的核心是海伦·尼森鲍姆的“语境完整性”理论,该理论认为,信息的流动应该符合特定的语境规范,以维护语境的完整性。论文将这一理论应用于AI伦理,认为AI系统的设计和部署应该尊重相关的语境规范,以避免对社会造成负面影响。论文还提到了新兴的基础模型,但没有详细说明如何将这些模型与“适度保守”的AI伦理方法相结合。
关键创新:论文的关键创新在于提出了“适度保守”的AI伦理方法,并强调了道德保护的重要性。与现有方法相比,该方法更加注重对既有社会规范的尊重和维护,避免了过度强调道德创新可能带来的风险。论文还批判了将AI视为全新的道德领域的观点,认为这种观点可能导致对现有道德框架的漠视。
关键设计:论文没有涉及具体的参数设置、损失函数或网络结构等技术细节。它主要关注的是AI伦理的理论框架和方法论,旨在为AI伦理的研究和实践提供指导。
📊 实验亮点
该论文的核心亮点在于其对当前AI伦理研究中道德创新优先于道德保护的趋势提出了质疑,并倡导一种“适度保守”的AI伦理方法。这种方法强调对既有社会规范的尊重和维护,避免了过度强调道德创新可能带来的风险,为AI伦理的研究和实践提供了一个新的视角。
🎯 应用场景
该研究成果可应用于指导AI系统的设计、开发和部署,尤其是在医疗、金融、教育等对伦理和社会规范高度敏感的领域。通过优先考虑将AI整合到既定的社会环境中,可以最大限度地减少AI应用可能带来的负面影响,并促进AI的可持续发展。
📄 摘要(原文)
Recent research illustrates how AI can be developed and deployed in a manner detached from the concrete social context of application. By abstracting from the contexts of AI application, practitioners also disengage from the distinct normative structures that govern them. Building upon Helen Nissenbaum's framework of contextual integrity, I illustrate how disregard for contextual norms can threaten the integrity of a context with often decisive ethical implications. I argue that efforts to promote responsible and ethical AI can inadvertently contribute to and seemingly legitimize this disregard for established contextual norms. Echoing a persistent undercurrent in technology ethics of understanding emerging technologies as uncharted moral territory, certain approaches to AI ethics can promote a notion of AI as a novel and distinct realm for ethical deliberation, norm setting, and virtue cultivation. This narrative of AI as new ethical ground, however, can come at the expense of practitioners, policymakers and ethicists engaging with already established norms and virtues that were gradually cultivated to promote successful and responsible practice within concrete social contexts. In response, I question the current narrow prioritization in AI ethics of moral innovation over moral preservation. Engaging also with emerging foundation models, I advocate for a moderately conservative approach to the ethics of AI that prioritizes the responsible and considered integration of AI within established social contexts and their respective normative structures.