AI Safety Should Prioritize the Future of Work

📄 arXiv: 2504.13959v2 📥 PDF

作者: Sanchaita Hazra, Bodhisattwa Prasad Majumder, Tuhin Chakrabarty

分类: cs.CY, cs.AI, cs.CL, econ.GN

发布日期: 2025-04-16 (更新: 2025-07-11)


💡 一句话要点

关注AI对未来工作的影响,构建以人为本的AI安全框架

🎯 匹配领域: 支柱一:机器人控制 (Robot Control)

关键词: AI安全 未来工作 劳动力市场 经济公平 全球治理 版权保护 集体许可

📋 核心要点

  1. 现有AI安全研究侧重于内容过滤和风险消除,忽略了AI对未来就业和社会结构的深远影响。
  2. 论文提出以人为本的AI安全框架,强调转型支持、公平补偿和全球治理,保障人类自主性和经济正义。
  3. 论文分析了AI对劳动力市场的长期影响,呼吁建立国际版权体系和集体许可机制,促进创新和公平分配。

📝 摘要(中文)

当前AI安全工作主要集中于过滤有害内容、防止操纵人类行为以及消除网络安全或生物安全方面的潜在风险。然而,这种狭隘的关注忽略了以人为本的关键因素,这些因素塑造着社会的长期发展轨迹。本文指出,忽视AI对未来工作的影响存在风险,并建议提供全面的转型支持,以促进有意义的劳动和人类自主性的发展。通过经济学理论的视角,强调AI对人类生计的长期影响以及加剧收入不平等劳动力市场的结构性变化。此外,AI开发主要参与者的闭源方法类似于通过剥削资源、滋生创造性劳动中的平庸以及垄断创新来寻求租金。为了解决这个问题,我们主张建立一个强大的国际版权体系,通过实施集体许可来支持该体系,以确保使用数据训练AI模型的公平补偿机制。我们强烈建议建立一个以工人为中心的全球AI治理框架,以促进共同繁荣和经济正义,同时减少技术债务。

🔬 方法详解

问题定义:当前AI安全研究主要关注技术风险,如恶意内容过滤和网络安全,而忽视了AI对劳动力市场和社会经济结构的潜在负面影响。现有方法未能充分考虑AI自动化对就业、收入分配和人类福祉的长期影响,可能导致失业率上升、收入不平等加剧和社会不稳定。

核心思路:论文的核心思路是重新定义AI安全,将其扩展到包括对未来工作的考虑。作者认为,AI安全不仅要关注技术风险,还要关注AI对人类生计、经济公平和社会福祉的影响。通过构建以人为本的AI安全框架,可以确保AI的发展能够促进共同繁荣和经济正义。

技术框架:论文没有提出具体的算法或模型,而是一个政策建议框架。该框架包含以下几个关键要素:1) 全面的转型支持,帮助工人适应AI驱动的劳动力市场变化;2) 建立国际版权体系和集体许可机制,确保数据贡献者获得公平补偿;3) 建立以工人为中心的全球AI治理框架,促进共同繁荣和经济正义。

关键创新:论文的关键创新在于将AI安全的概念扩展到包括对未来工作的考虑。与传统的AI安全研究不同,该论文强调了AI对人类生计、经济公平和社会福祉的影响。通过提出以人为本的AI安全框架,该论文为AI治理和政策制定提供了新的视角。

关键设计:论文没有涉及具体的技术细节,而是侧重于政策建议。关键的设计包括:1) 建立全面的转型支持体系,包括技能再培训、职业指导和失业救济;2) 实施集体许可机制,确保数据贡献者获得公平补偿;3) 建立多方参与的全球AI治理框架,确保AI的发展符合公共利益。

📊 实验亮点

该论文是一篇立场文件,没有提供具体的实验结果。其亮点在于提出了一个以人为本的AI安全框架,强调了AI对未来工作的影响,并呼吁建立国际版权体系和集体许可机制,以确保数据贡献者获得公平补偿。该论文为AI治理和政策制定提供了新的视角。

🎯 应用场景

该研究成果可应用于AI政策制定、劳动力市场规划和社会保障体系设计。通过关注AI对未来工作的影响,政府和企业可以制定更有效的政策,帮助工人适应AI驱动的劳动力市场变化,促进经济公平和社会稳定。该研究还可用于指导AI伦理规范的制定,确保AI的发展符合人类价值观和公共利益。

📄 摘要(原文)

Current efforts in AI safety prioritize filtering harmful content, preventing manipulation of human behavior, and eliminating existential risks in cybersecurity or biosecurity. While pressing, this narrow focus overlooks critical human-centric considerations that shape the long-term trajectory of a society. In this position paper, we identify the risks of overlooking the impact of AI on the future of work and recommend comprehensive transition support towards the evolution of meaningful labor with human agency. Through the lens of economic theories, we highlight the intertemporal impacts of AI on human livelihood and the structural changes in labor markets that exacerbate income inequality. Additionally, the closed-source approach of major stakeholders in AI development resembles rent-seeking behavior through exploiting resources, breeding mediocrity in creative labor, and monopolizing innovation. To address this, we argue in favor of a robust international copyright anatomy supported by implementing collective licensing that ensures fair compensation mechanisms for using data to train AI models. We strongly recommend a pro-worker framework of global AI governance to enhance shared prosperity and economic justice while reducing technical debt.