跳转到内容

7.1 全球AI监管的浪潮与航向

全球视野下的罗盘:AI监管浪潮与多元路径选择

Section titled “全球视野下的罗盘:AI监管浪潮与多元路径选择”

人工智能(AI)的变革力量已毋庸置疑,它正以前所未有的深度和广度渗透到经济社会的各个角落,法律领域亦不能独善其身。然而,技术的飞速发展也如同一把锋利的双刃剑,在释放巨大潜能的同时,其潜在的风险——从侵犯基本人权(如隐私权、平等权)威胁社会稳定(如虚假信息泛滥、就业结构冲击)乃至挑战国家安全(如自主武器系统、关键基础设施风险)——日益引发全球性的深刻关切。

在此背景下,如何为这一强大的、仍在加速演进的新兴技术套上合适的“法律缰绳”,在激励创新、促进发展有效防范、管控风险之间寻求精妙的平衡点,已成为摆在世界各国政府、立法者、监管机构以及整个国际社会面前的一道核心且紧迫的考题

全球范围内的AI监管浪潮已然兴起,但它并非形成一股方向完全一致的洪流,而是呈现出多元化的路径探索、不同监管哲学之间的碰撞、以及国家间战略考量与相互影响的复杂格局。对于身处日益全球化时代的法律专业人士而言,准确把握这场方兴未艾的监管浪潮的脉搏,深刻理解不同法域(特别是主要经济体)的监管哲学、核心框架、具体规则及其潜在的域外影响,是为客户(尤其是跨国企业)提供前瞻性合规建议、精准评估跨境业务风险、有效应对监管挑战、乃至参与未来国际规则构建所不可或缺的认知前提和专业罗盘。

一、理解驱动力:全球AI监管浪潮背后的共同关切点

Section titled “一、理解驱动力:全球AI监管浪潮背后的共同关切点”

尽管各国(或地区)的国情、法律传统、产业发展阶段以及战略优先次序各不相同,导致其AI监管策略在具体路径、侧重点和实施节奏上呈现出显著的差异,但深入分析可以发现,驱动这场全球性监管行动的底层逻辑和核心关切点却具有相当程度的共通性。理解这些共通的关切点,有助于我们把握各国具体监管措施背后的深层意图和价值取向。

  1. 风险防范 (Risk Mitigation) - 首要驱动力:

    • 物理与安全风险: AI技术(尤其是自动化或自主系统)在高风险领域(如自动驾驶汽车、医疗诊断与治疗、工业机器人、关键基础设施运营)的应用,其决策失误、算法缺陷或系统故障可能直接导致严重的人身伤害、生命损失或重大的财产损失,甚至引发系统性的安全事故或社会运行紊乱。确保这些系统的安全性、可靠性和鲁棒性是监管的底线要求。
    • 基本人权保障 (Fundamental Rights Protection): AI的广泛应用对公民的基本权利构成了多方面的潜在威胁:
      • 隐私权: 无处不在的AI监控系统(如人脸识别、步态识别)、个性化推荐算法对用户行为的深度追踪、以及大规模数据处理本身,都可能严重侵蚀个人隐私
      • 平等权与不受歧视权: 算法偏见(源于数据或设计)可能导致AI系统在招聘、信贷、保险、住房、甚至司法等关键领域做出带有歧视性的决策,损害特定群体的平等权利。
      • 言论自由与信息获取权: 自动化内容审核算法可能过度或错误地限制合法的言论表达;而个性化推荐算法则可能将用户困在“信息茧房”中,限制其获取多元信息的权利;AIGC则可能淹没真实信息
      • 人类自主性与尊严: 过于强大的、或者具有操纵性的AI系统(例如,利用心理学弱点进行诱导式营销或政治宣传),可能削弱个人的自主决策能力;未来更高级的AI甚至可能对人类的尊严和主体地位构成挑战。
    • 社会经济秩序的稳定: AI对现有社会经济秩序也可能带来冲击:
      • 就业结构调整: 自动化可能导致某些岗位的大规模替代,引发失业和社会结构调整的阵痛。
      • 市场公平竞争: 掌握先进AI技术和海量数据的大型平台公司可能进一步巩固其市场垄断地位,抑制竞争和创新。
      • 金融系统性风险: 自动化交易算法的广泛应用可能放大市场波动,甚至引发“闪电崩盘”等系统性风险。
      • 虚假信息泛滥: AIGC技术被滥用于制造和传播虚假信息,破坏社会信任和舆论生态。
    • 国家安全与地缘政治: AI在军事领域的应用(如自主武器系统)、在网络安全领域的攻防对抗、以及对关键信息基础设施的安全保障,都直接关系到国家安全。AI技术的领先性也被视为国家间战略竞争的关键要素。
  2. 伦理价值的引导与坚守 (Ethical Guidance & Value Alignment):

    • 超越纯粹的风险防范,监管也致力于确保AI的发展和应用能够符合人类社会普遍接受的伦理准则和核心价值观。如前文(6.3节)所述的公平、透明、问责、安全、尊重隐私、以人为本等原则,不仅是伦理上的倡导,也日益被期望转化为具体的、可操作的、甚至具有法律约束力的要求,引导技术朝着 “向善”(AI for Good) 的方向发展。
  3. 促进创新与建立信任 (Fostering Innovation & Building Trust):

    • 监管并非仅仅意味着限制和约束。各国政府同样深刻认识到,人工智能是驱动下一轮科技革命和产业变革的关键引擎,对于提升国家经济竞争力、解决重大社会挑战(如气候变化、疾病防治) 具有不可估量的潜力。
    • 因此,如何在有效管控风险的同时,避免因为过度、僵化或不明确的监管扼杀宝贵的创新活力,为AI技术研发和产业的健康发展营造一个稳定、可预期、具有吸引力的良好环境,也是政策制定者在设计监管框架时必须仔细权衡的天平两端。
    • 通过制定清晰、合理、与国际主流趋势相协调(或能够引领国际标准)的规则,被认为是提升公众和市场对AI技术及其应用的信任度的关键途径。只有建立了广泛的信任基础,AI技术才能被更广泛地接受和采纳,其巨大的积极潜力才能得以充分释放。
  4. 全球治理的话语权与战略考量 (Global Governance Influence & Strategic Considerations):

    • 在全球化的背景下,AI的技术研发、数据流动、产品应用和服务提供,都具有天然的跨国界属性。任何一个国家或地区制定的AI监管规则,都可能对其本国产业的国际竞争力、对外国投资和技术合作的吸引力、以及在全球数字治理体系中的话语权和影响力产生深远影响。
    • 因此,各国在制定本国AI规则时,往往既需要考虑与国际主流趋势(特别是主要贸易伙伴的规则)的协调与对接(以避免形成不必要的贸易壁垒或阻碍合法的数据流动和技术合作,防止出现 “碎片化”的全球监管格局),也可能将AI规则的制定视为一种提升自身在全球治理体系中规则制定权和影响力战略性工具(例如,欧盟的GDPR和AI Act都体现了其试图通过设定高标准来引领全球规则的雄心,即所谓的“布鲁塞尔效应” Brussels Effect)。这种国际合作与国家间战略竞争并存的态势,使得全球AI治理格局的演变更加复杂和充满动态。

二、 欧盟《人工智能法案》(EU AI Act):基于风险分级,追求全面规制的“欧洲模式”先行者

Section titled “二、 欧盟《人工智能法案》(EU AI Act):基于风险分级,追求全面规制的“欧洲模式”先行者”

在塑造全球数字经济治理规则方面,欧盟再次展现出其一贯的雄心和前瞻性布局。继其在数据保护领域通过《通用数据保护条例》(GDPR)设立了全球标杆之后,欧盟于2021年首次提出、经过多年激烈讨论和修订、并于2024年3月获得欧洲议会批准、2024年5月获得欧盟理事会最终批准的 《人工智能法案》(EU AI Act) ,是全球范围内第一部试图对AI技术进行横向的(覆盖所有行业)、全面的、并且具有直接法律约束力的综合性监管框架。该法案于2024年6月在欧盟官方公报上发布并生效,其各项规定将在未来24至36个月内分阶段实施(例如,禁止性规定最早在生效6个月后适用,通用目的AI规则在12个月后适用,高风险AI规则在24或36个月后适用)。其核心理念、制度设计以及广泛的域外效力,无疑将对全球AI治理的未来走向产生极其深远的影响,值得所有相关方(包括法律专业人士)高度关注和深入研究。

欧盟AI法案最核心、也最具特色的设计在于,它采纳了一种基于风险的分级方法(Risk-Based Approach)。这种方法如同一个精密的“风险筛”,将各种不同类型和应用场景的AI系统,根据其可能对人类健康、安全或基本权利产生的潜在风险程度进行分类,并施加与之相匹配的、不同严格程度的监管义务。这种分级方法试图在完全禁止某些极端应用对低风险应用采取最小干预之间,找到一条差异化、精细化的监管路径,力求在保障安全、保护权利鼓励创新、避免过度负担之间取得平衡。

  • “金字塔”顶端的绝对禁区——不可接受风险 (Unacceptable Risk):

    • 法案明确禁止了那些被认为从根本上与欧盟的核心价值观(如人类尊严、自由、民主、法治)和基本权利相冲突的、具有不可接受风险的AI应用。这相当于为AI的应用划定了清晰的、不可逾越的伦理与法律红线
    • 被禁止的应用类型主要包括:
      • 利用人类潜意识技术操纵个人行为,以造成身心伤害。
      • 剥削特定弱势群体(如儿童、残疾人)的脆弱性。
      • 由公共部门或代表公共部门进行的、基于个人行为或特征的通用性社会评分(Social Scoring) 系统。
      • 基于敏感特征(如种族、政治观点、性取向)的预测性警务
      • 从互联网或监控录像中无差别地抓取面部图像以创建面部识别数据库。
      • 工作场所和教育机构中使用的情感识别系统
      • 以及原则上被禁止的、在公共可访问空间进行实时远程生物识别(特别是人脸识别)用于执法目的的做法。对此类应用,法案规定了极其严格的例外条件和授权程序(例如,仅限于搜寻特定受害者、预防迫在眉睫的恐怖袭击、或者识别或定位特定重罪嫌疑人等极少数、极其必要的情况,且需事先获得司法或独立行政授权)。
  • 重点监管对象与合规重灾区——高风险AI系统 (High-Risk AI Systems):

    • 这是AI Act规制的核心和重心所在。被归入“高风险”类别的AI系统,将需要满足一系列极其严格、贯穿其整个生命周期(从设计、开发、测试到部署、使用和监控)的强制性合规义务,才能合法地在欧盟市场上投放、投入使用或作为服务提供。
    • 高风险AI系统的范围界定主要通过两种方式:
      1. 作为安全组件嵌入受监管产品: 如果AI系统是作为现有欧盟协调立法(如关于医疗器械、机械、玩具、航空、汽车等的法规)所涵盖的产品安全组件,或者其本身就是需要进行第三方符合性评估的受监管产品,那么它通常会被自动归类为高风险
      2. 特定应用场景清单(附件三 Annex III): 更重要的是,法案直接列举了一系列特定的AI应用场景,这些场景因为其决策结果可能对个人的基本权利、安全、生活机会或社会运行产生重大影响而被推定为高风险。这个清单是动态的,未来可能由欧盟委员会进行修订。对于法律专业人士而言,需要特别关注以下被列入高风险清单的应用场景:
        • 生物识别: 用于身份识别、分类(除非是纯粹辅助性的或用于验证身份)。
        • 关键基础设施的管理和运营: 如水、气、电、热、交通(如道路、铁路)。
        • 教育和职业培训: 用于确定入学/录取资格、评估学习成果、评分、监控考试作弊。
        • 就业、工人管理和自雇人士管理: 例如,用于招聘筛选(简历分析、面试评估)、做出影响工作条件、晋升或解雇的决策的AI系统。
        • 基本公共服务和私人服务的获取与享有: 例如,用于评估信用评分(影响贷款资格)、确定保险风险与定价、评估获得社会福利或公共援助资格的AI系统。
        • 执法 (Law Enforcement): 例如,用于评估个人风险(如再犯风险、受害风险)、作为测谎仪或类似工具、进行证据评估、或用于犯罪分析(预测性警务) 的AI系统。(需注意与“不可接受风险”中禁止的实时生物识别和基于敏感特征的预测性警务区分)
        • 移民、庇护和边境管制管理: 用于评估安全风险、核验旅行证件真实性、辅助审查签证或庇护申请、或部署为测谎仪。
        • 司法管理和民主进程: 例如,旨在辅助司法机关进行法律事实研究、解释或适用法律的AI系统(直接影响法律研究工具和可能的审判辅助系统);以及用于影响选举或公投结果的AI系统。
    • 对高风险AI系统的核心合规要求:
      • 建立、实施、记录并维护风险管理体系 (Risk Management System)
      • 高质量的数据与数据治理 (Data Quality & Governance): 确保用于训练、验证和测试的数据相关、具有代表性、无错误且完整,并采取措施检测、评估和减轻可能的偏见,对数据处理过程有充分记录。
      • 详尽的技术文档 (Technical Documentation): 准备并维护能够证明系统合规性的详细技术文档,并在系统上市前拟定。
      • 操作过程的可记录性 (Record-keeping / Logging): 系统需要具备自动记录其运行事件(日志)的能力,以便于追溯和监控。
      • 充分的透明度与用户信息提供 (Transparency & Provision of Information): 向部署者(用户)提供清晰、充分的信息,说明系统的能力、局限性、预期目的、性能以及如何进行人类监督,确保用户能正确解读和使用输出。
      • 保障有效的人类监督 (Human Oversight): 必须设计适当的人机交互接口,并采取组织和技术措施,确保人类能够在必要时有效地理解、监控和干预AI系统的运行,能够推翻系统决策或决定不使用系统。
      • 达到高水平的准确性、鲁棒性与网络安全 (Accuracy, Robustness & Cybersecurity): 系统需要达到与其预期目的和风险相称的性能水平,在整个生命周期内保持一致,能抵御错误、故障和网络攻击。
    • 符合性评估与市场准入: 大多数高风险AI系统需要经过符合性评估程序(可能涉及内部评估或需要指定的第三方公告机构 Notified Body介入),获得CE标志,并在欧盟范围内的公共数据库进行注册后,才能投放市场或投入使用。部署者在使用前也有检查CE标志、说明书、进行必要监控等义务。
    • 这些极其严格的要求,无疑将显著增加开发、部署和运营高风险AI系统(特别是在法律、金融、人力资源等领域)的合规成本和技术复杂度
  • 底线义务——特定AI系统的透明度要求 (Limited Risk - Transparency Obligations):

    • 对于那些风险程度相对较低,但其应用可能与人交互、生成内容或进行特定分析,从而可能让用户产生误解的AI系统,法案主要施加了基本的透明度告知义务,以保障用户的知情权和自主判断能力。
    • 主要包括:
      • 当用户与一个AI系统直接交互时(例如,聊天机器人 Chatbot),必须被明确告知他们正在与机器而非真人互动(除非这一点已经非常明显)。
      • 如果AI系统被用于情感识别(Emotion Recognition)生物特征分类(Biometric Categorization),相关个人必须被告知。
      • 对于用于生成或操纵图像、音频或视频内容(即AIGC,特别是深度伪造 Deepfakes),使其看起来真实但实际上是虚假的AI系统,其输出内容必须以清晰、易于察觉的方式标记为“人工智能生成或操纵”(artificially generated or manipulated),并披露其人工来源,除非是出于艺术创作、讽刺等合法目的且不误导公众。
  • 源头治理新思路——通用目的AI模型 (General-Purpose AI Models, GPAI) 的规则:

    • 认识到许多强大的基础模型(Foundation Models)(特别是大型语言模型LLM)如同AI领域的“原材料”,是构建大量下游AI应用的核心,AI Act也对其提供者(Providers)提出了专门的、分层的义务
    • 所有GPAI模型提供者都需要承担一定的透明度义务,包括:
      • 准备并分享详细的技术文档给下游的AI系统提供者。
      • 提供关于模型能力、局限性的信息。
      • 提供关于其训练内容足够详细的摘要 (sufficiently detailed summary)
      • 制定政策以遵守欧盟的版权法。 这通常被解读为要求模型提供者对其用于训练的数据来源保持透明,以便版权持有者能够行使其在欧盟法律下的权利(例如,选择退出文本和数据挖掘 TDM 权利)。这一规定直接触及了当前全球范围内关于AI训练数据版权争议的核心,可能会对未来LLM的训练和数据使用方式产生重大影响。
    • 而对于那些被评估为具有 “系统性风险”(Systemic Risk)超大型、能力极强的GPAI模型(通常指训练算力超过特定阈值,如10^25 FLOPs的模型,具体标准由欧盟委员会界定),则需要遵守额外的、更严格的义务,包括:
      • 进行模型评估(包括对抗性测试)。
      • 评估和减轻系统性风险
      • 追踪、记录和向主管机构报告严重事件
      • 确保达到高水平的网络安全防护
      • (上述透明度和版权义务同样适用)。
  • 严厉的罚则与广泛的域外效力:

    • 为了确保AI Act能够得到有效执行,法案规定了极其严厉的罚款机制。违反禁止性规定或GPAI系统性风险义务的行为,罚款最高可达3500万欧元或公司上一财年全球年营业额的7%(以较高者为准)。违反其他多数义务(包括高风险AI要求)的罚款最高可达1500万欧元或3%。提供不正确信息的罚款最高可达750万欧元或1%。这种“重罚”模式旨在形成强大的威慑力。
    • 更重要的是,如同其“前辈”GDPR一样,欧盟AI Act也具有广泛的域外适用效力(Extraterritorial Effect)。其管辖范围不仅限于在欧盟境内设立的AI提供商、部署者(用户),也适用于那些位于欧盟之外,但其提供的AI系统在欧盟市场上投放或投入使用,或者其输出结果被用于欧盟境内的实体。这意味着,几乎所有希望进入或服务于庞大欧盟市场的全球性AI公司(包括科技巨头、专业软件开发商)以及使用这些AI服务的欧盟境内或服务于欧盟客户的机构(包括律师事务所、企业法务部门),都必须遵守AI Act的相关规定。
    • 这种广泛的域外效力,使得欧盟AI Act不仅仅是一部区域性法律,它极有可能像GDPR在数据保护领域一样,在全球范围内树立一个新的、高标准的合规基准,对全球AI产业的研发、部署和治理实践产生深远的影响(即潜在的“新布鲁塞尔效应”)。

总结欧盟模式: 欧盟AI Act以其全面性、系统性、基于风险的精细化设计以及强大的域外效力,为全球AI监管提供了一个极其重要的、开创性的参照系。它试图在强力保护基本权利、确保安全可靠为低风险应用保留空间之间取得平衡,并对强大的基础模型施加了源头治理义务。虽然其严格的合规要求也引发了关于可能抑制技术创新、增加中小企业负担的担忧,但其在全球范围内设定高标准、引领规则制定的意图十分明显。对于所有与AI技术相关的法律专业人士而言,深入理解并持续跟踪AI Act的实施细节(如配套标准、指南的制定)和影响,将是未来执业的必修课。

三、 美国模式:市场力量、现有法律、行政指导与新兴标准的混合驱动

Section titled “三、 美国模式:市场力量、现有法律、行政指导与新兴标准的混合驱动”

与欧盟试图构建一个统一的、横向的AI监管“大厦”不同,美国在AI监管方面则呈现出一种更为分散化、更具渐进性、更强调市场机制力量和现有法律框架适用性的特点。同时,美国政府也开始通过顶层设计(如行政命令)和关键标准制定(如NIST框架) 来加强联邦层面的协调和对高风险领域的关注,但至今仍未出台全面的联邦AI立法

  • 联邦层面的政策指导与标准制定:

    • 总统行政命令 (Executive Orders): 拜登政府于2023年10月发布了一项关于安全、可靠和值得信赖的AI全面的行政命令(EO 14110)。这项命令本身不直接创设具有普遍约束力的法律义务,但它为美国的AI政策设定了核心基调,即在保障国家安全、促进公民权利(特别是公平与反歧视)、保护消费者和工人利益、维护隐私的同时,也要大力促进美国的AI创新和全球竞争力
    • 行政令的关键指示: 该行政令最重要的作用是指示联邦政府的各个部门和机构(例如,商务部(DOC)、国防部(DOD)、能源部(DOE)、卫生与公众服务部(HHS)、交通部(DOT)、司法部(DOJ)、劳工部(DOL)、国土安全部(DHS)、联邦贸易委员会(FTC)、平等就业机会委员会(EEOC)、消费者金融保护局(CFPB)等),在其各自的职责范围和法定权限内,采取具体行动来应对AI带来的风险和机遇。这包括:
      • 制定新的安全与安保标准: 特别是针对可能威胁国家安全的最先进AI模型(双重用途基础模型/前沿模型 Frontier Models)的开发和部署,要求进行安全测试(红队测试)、风险评估,并将结果报告给政府(由商务部依据《国防生产法》执行)。
      • 保护隐私: 推动制定和使用隐私增强技术(Privacy-Enhancing Technologies, PETs),加强对AI训练数据的隐私保护,评估机构数据收集行为。
      • 促进公平与公民权利: 要求各机构发布指南,澄清现有反歧视法律如何适用于AI场景(如招聘、信贷、住房),并打击算法歧视。司法部、联邦民权机构等需协调执法。
      • 保护消费者与工人: 应对AI可能带来的欺诈、不公平竞争以及对劳动者权利、工作质量和薪酬的影响。劳工部需研究AI对劳动力的影响。
      • 推动创新与竞争: 支持AI研发、开放数据资源、促进AI人才培养、确保AI市场的公平竞争。
      • 加强国际合作: 在AI安全、标准和治理方面加强与盟友和伙伴的合作。
      • 成立白宫AI委员会,并设立AI安全研究所(AI Safety Institute)(隶属于NIST)来制定AI安全标准和测试指南。
    • NIST AI风险管理框架 (AI RMF): 在行政令发布之前,美国国家标准与技术研究院(NIST)已于2023年初发布其 《人工智能风险管理框架》(AI RMF 1.0) 。AI RMF提供了一套详细的、自愿性的、基于风险的流程和实践指南,旨在帮助组织机构识别、评估、管理和沟通AI系统在其整个生命周期中的潜在风险。它强调治理(Govern)、映射(Map)、测量(Measure)和管理(Manage)四大核心功能,并贯穿可信赖AI的特性(如有效、可靠、安全、公平、可解释、透明、负责任、隐私增强)。虽然AI RMF本身不具有强制法律效力,但它正在被越来越多的美国企业、政府机构甚至国际组织采纳为内部AI治理和风险管理的参考标准与最佳实践,具有广泛的行业影响力,并被拜登行政令指定为重要的标准依据。NIST也在持续开发更具体的AI测试、评估和度量标准。
  • 依赖现有法律框架的延伸适用: 美国监管模式的一个显著特点是,在缺乏全面的联邦AI专门立法的情况下,很大程度上依赖于将现有的、各个领域的法律法规延伸适用于AI引发的新问题

    • 联邦贸易委员会 (FTC): 作为美国主要的消费者保护和反垄断执法机构,FTC一直非常积极地运用其在 《联邦贸易委员会法》(FTC Act)第5条下禁止 “不公平或欺骗性商业行为”(Unfair or Deceptive Acts or Practices, UDAP) 的广泛权力,来监管AI应用中的各种问题,例如:
      • 数据安全与隐私: 对未能采取合理措施保护消费者数据(包括用于AI训练的数据)的公司进行执法。
      • 算法歧视: 明确表示使用带有歧视性结果的算法可能构成“不公平”行为。
      • AI相关的虚假或误导性宣传: 对夸大AI能力或隐瞒其风险的公司进行查处。
      • 自动化决策的透明度与准确性: 强调自动化系统需透明、可解释、公平、实证有效。
      • 反垄断: 关注大型科技公司在AI领域的市场力量及其对竞争的影响,已对主要AI公司及其投资关系展开调查。
    • 平等就业机会委员会 (EEOC): 负责执行联邦反就业歧视法律(如《民权法案》第七章、ADA、ADEA)。EEOC已多次发布指南(如关于AI与ADA、AI与Title VII),明确雇主在使用AI工具进行招聘、筛选、晋升、解雇等决策时,必须确保其不会对受保护群体(基于种族、性别、宗教、国籍、年龄、残疾等)产生歧视性影响,否则将承担法律责任。
    • 消费者金融保护局 (CFPB): 负责执行金融服务领域的消费者保护法律(如《平等信贷机会法》ECOA、《公平信用报告法》FCRA)。CFPB关注AI在信贷审批、风险定价中可能存在的歧视问题,以及自动化系统可能导致的解释性不足(例如,未能向被拒贷者提供充分、准确的拒绝理由,即“不利行动通知”要求)。
    • 其他机构: 司法部(DOJ - 民权司)、卫生与公众服务部(HHS - 医疗AI)、交通部(DOT - 自动驾驶)等也都在其各自监管领域内,研究和发布关于AI应用的指南或规则,并运用现有法律进行执法。
    • 这种做法的优势在于能够利用成熟的法律框架和执法机制,对AI带来的具体问题进行快速响应和个案处理劣势则在于可能导致规则解释的不确定性(现有法律条文如何精确适用于全新的技术场景?)、不同机构之间监管口径的潜在差异、以及可能缺乏对AI系统性风险的整体性、前瞻性规制
  • 州层面立法的活跃与多样性: 与联邦层面相对谨慎的态度不同,美国的各个州在AI相关立法方面表现得更为活跃和具体,尤其是在数据隐私和特定AI应用场景方面。

    • 数据隐私立法先行: 加利福尼亚州(CCPA/CPRA)、科罗拉多州(CPA)、弗吉尼亚州(VCDPA)、康涅狄格州、犹他州、艾奥瓦州、印第安纳州、田纳西州、蒙大拿州、得克萨斯州、俄勒冈州、特拉华州等十几个州已经通过了全面的消费者数据隐私保护法案。这些法案中通常包含对个人信息的定义、处理原则、数据主体权利(访问、更正、删除、可携带、反对权)、以及对自动化决策(Automated Decision-Making)和画像分析(Profiling) 的特定要求(如进行数据保护影响评估 DPIA、提供拒绝权 Opt-out),这些都直接约束了相关的AI应用。
    • 生物识别信息保护: 伊利诺伊州的 《生物识别信息隐私法》(BIPA) 是美国最严格的生物识别信息保护法,对收集和使用指纹、人脸扫描、声纹等生物特征数据施加了严格的知情同意和管理要求,对人脸识别等AI技术的应用产生了重大影响,并已引发大量集体诉讼。得克萨斯州、华盛顿州等也有相关立法。
    • 针对特定AI应用的立法:
      • 自动化招聘工具监管: 纽约市率先通过了法律(Local Law 144 of 2021),要求在招聘和晋升决策中使用自动化就业决策工具(AEDT)的雇主,必须对该工具进行年度的独立偏见审计,并向候选人和员工公开披露审计结果和工具的使用情况。马里兰州和伊利诺伊州也有针对AI招聘工具的透明度或限制性规定。
      • 科罗拉多州AI法案 (SB 24-205): 2024年5月通过,将于2026年生效,是美国第一个全面的、横向的州级AI法案。它主要针对高风险AI系统(定义类似于欧盟,涵盖就业、住房、金融、医疗、法律服务等关键决策领域),要求开发者采取合理注意义务防止算法歧视,并向部署者提供文档和信息;要求部署者实施风险管理计划、进行影响评估、告知消费者其正在与高风险AI系统交互并说明目的,并提供上诉/更正机制。这标志着州级层面开始出现更系统的AI监管尝试。
      • 其他州级动向: 加州、康涅狄格州、佛蒙特州等多个州也在积极考虑或推进各种形式的AI立法,涵盖政府使用AI、深度伪造、算法歧视等多个方面。
    • 这种“自下而上”的、各州分别进行的立法模式,使得美国的AI监管呈现出高度的“碎片化”(Patchwork)特征。不同州的法律要求可能存在显著差异甚至冲突,这给需要在全美范围内运营或提供服务的企业(包括大型律所或提供在线法律服务的公司)带来了巨大的合规挑战和成本

总结美国模式: 美国的AI监管路径更像是一个多元主体参与、多条轨道并行、仍在不断演进和探索中的复杂体系。它更强调市场驱动、行业自律、技术标准(如NIST AI RMF)的引导作用,并试图在现有法律框架内解决新问题。联邦政府主要通过顶层政策指导(EO)、推动标准制定和机构执法来发挥作用,而具体的、具有强制力的规则更多地来自于现有监管机构的执法实践各州层面的积极立法(特别是隐私法和新兴的特定AI法案如科罗拉多州法案)。这种模式的优势在于其灵活性、对创新的包容性以及对市场力量的尊重,但其劣势则在于可能带来的监管不确定性、碎片化、以及对系统性风险反应的滞后性

四、 全球多元路径探索与国际协调的必要性

Section titled “四、 全球多元路径探索与国际协调的必要性”

除了欧盟和美国这两个对全球规则制定具有风向标意义的主要力量之外,世界其他国家和地区也在根据自身的国情特点、产业基础、文化背景和战略优先,积极探索着各具特色的AI治理路径。

  • 中国 (China): (将于后文 7.2节 详细阐述)中国的AI监管模式展现出高度的战略性、快速的响应能力以及针对特定风险领域的精准规制特点。在发布了宏观的 《新一代人工智能发展规划》 之后,中国迅速针对算法推荐、深度合成(Deepfakes)、以及引发全球关注的生成式人工智能服务等具体的、风险较为突出的技术应用领域,出台了专门的管理规定或暂行办法,并辅之以算法备案、安全评估、以及最新的内容标识要求等落地措施。这些规定通常包含了内容安全、数据合规、算法透明度、用户权益保护、服务提供者责任等方面的具体要求。同时,中国也在积极修订和适用《网络安全法》、《数据安全法》、《个人信息保护法》 等基础性法律框架来规范AI相关活动。这种 “重点突破、快速迭代、结合现有法律、强化落地执行” 的模式,体现了中国在平衡促进发展与防范风险方面的独特思路。

  • 英国 (United Kingdom): 采取了与欧盟截然不同的更为“亲创新”(Pro-innovation)的立场。英国政府在2023年的AI白皮书中明确表示不倾向于立即制定一部横向的、统一的AI大法,而是更愿意依赖现有的、各个行业的监管机构(如信息专员办公室ICO负责数据保护、金融行为监管局FCA负责金融服务、竞争与市场管理局CMA负责反垄断、药品和医疗保健产品监管局MHRA负责医疗器械、平等与人权委员会EHRC负责反歧视等),由它们根据AI在其各自领域的应用情况和风险,解释和适用现有的法律法规,并在AI白皮书提出的五项跨领域原则(安全可靠、透明可释、公平、问责与治理、可竞争性与救济)的指导下,发布行业特定的指南或行为准则。这种 “情境化”(Context-based)、“部门化”(Sector-specific)、“原则导向”(Principles-based)的监管思路,旨在为AI创新提供更灵活、更宽松的环境,但也可能面临监管协调不足、标准不一、对基础模型等新兴风险反应不够快的挑战。英国政府也在持续评估是否需要未来立法,并积极参与国际AI安全合作(如主办首届全球AI安全峰会)。

  • 加拿大 (Canada): 则提出了 《人工智能与数据法案》(Artificial Intelligence and Data Act, AIDA, Bill C-27的一部分) 的立法草案,该草案仍在议会审议中。其思路在某种程度上借鉴了欧盟的基于风险的分级方法,计划对被认定为 “高影响”(High-impact) 的AI系统(可能涵盖偏见、歧视、健康安全等风险)施加更严格的义务,如风险评估、数据匿名化、透明度要求、记录保存等,并设立专门的AI与数据专员负责监管。AIDA若通过,将是加拿大首部专门的联邦AI法,但其最终形态和影响有待观察。

  • 日本 (Japan): 日本在AI治理方面总体上采取了相对“软性”、更加注重伦理原则引导、行业自律和促进社会应用(如其“Society 5.0”愿景) 的方式,与欧盟的强制性立法形成对比。

    • 核心指导文件: 日本政府(特别是内阁府的AI战略委员会)发布了一系列AI战略和指导方针,如 《社会原则的人工智能(AI)实践指南》 (Governance Guidelines for AI Principles Implementation),该指南基于国际共识(如OECD原则),提出了以人为本、公平、透明、安全、隐私保护、问责等七项原则,并为企业实施这些原则提供了具体的实践框架和建议,但这些通常不具有直接的法律强制力
    • 鼓励自愿性措施: 强调通过行业协会制定自律规则、开发技术标准、推广最佳实践来管理AI风险。
    • 对生成式AI的回应: 面对生成式AI的兴起,日本政府也表现出高度关注,成立了专门的AI战略会议进行讨论。其发布的 《AI事業者ガイドライン案》(AI开发者指南草案)试图为开发者和使用者提供关于版权、隐私、安全、虚假信息、公平性等方面的指导,但仍侧重于自愿遵守和风险意识提升,而非强制性规定。在版权方面,日本现行版权法允许为信息分析目的(如AI训练)使用受版权保护的作品,但具体界限仍在讨论中。
    • 立法谨慎: 尽管对风险有所认识,日本目前尚未出台类似欧盟AI Act的全面性、强制性AI监管法律,更倾向于在必要时修订现有法律(如个人信息保护法、版权法)或针对极端风险(如AI用于犯罪)进行个别规制。其总体策略是在国际协调的框架下,优先考虑不阻碍技术创新
  • 新加坡 (Singapore): 作为亚洲的科技与金融中心,新加坡在AI治理方面采取了更为“软性”、更侧重于行业引导和最佳实践推广的方式。其信息通信媒体发展局(IMDA)个人数据保护委员会(PDPC)发布了《人工智能治理示范框架》(Model AI Governance Framework)及其更新版本,以及针对生成式AI的《生成式AI治理模式框架》(Model AI Governance Framework for Generative AI)。这些框架提供了一套非强制性的、但具有重要参考价值的指导原则和实践建议(如强调公平、可解释、透明、安全、以人为本),鼓励企业建立内部治理结构、进行风险评估、并采取措施确保AI应用的负责任。这种模式旨在营造一个既负责任又鼓励创新的营商环境。

  • 其他国家/地区: 许多其他国家(如韩国、澳大利亚、巴西、印度等)也都在积极研究和制定本国的AI战略和治理框架,其路径选择往往受到本国技术水平、产业需求、文化价值观以及对主要经济体(特别是欧盟和美国)规则的考量等多重因素的影响。

国际组织在协调与凝聚共识中的关键作用:

面对全球AI监管呈现出的多元化甚至碎片化的趋势,以及AI技术本身跨越国界的特性加强国际层面的对话、合作与协调显得尤为重要和迫切。国际组织在推动形成全球性的原则共识、促进监管经验交流、减少不必要的规则冲突方面扮演着不可或缺的角色:

  • 经济合作与发展组织 (OECD): OECD早在2019年就发布了 《人工智能原则》(OECD AI Principles)(并在2024年进行了更新,更加强调AI安全和负责任的科技发展),提出了包容性增长、可持续发展、以人为本、透明可释、鲁棒安全、问责等核心原则。这些原则不具有法律约束力,但已被包括美国、欧盟成员国、日本、加拿大等在内的众多国家正式采纳或作为其制定本国AI政策的重要参考,成为了全球范围内影响力最广泛的AI伦理与治理原则框架之一。OECD AI政策观察站(AI Policy Observatory)也在持续跟踪和分析各国的AI政策进展。
  • 联合国教科文组织 (UNESCO): UNESCO于2021年通过了 《人工智能伦理问题建议书》(Recommendation on the Ethics of Artificial Intelligence),这是联合国系统内首个关于AI伦理的全球性规范框架。它从更广泛的人权、尊严、多样性、环境可持续性等视角出发,提出了更为全面的伦理原则和政策行动建议。联合国大会也在2024年通过了由美国牵头、中国等120多国共同发起的第一份关于AI的决议,呼吁促进安全、可靠和值得信赖的AI系统。
  • 七国集团 (G7) / 二十国集团 (G20): 这些重要的多边外交平台也日益将AI治理列为核心议题。例如,G7广岛AI进程(Hiroshima AI Process)于2023年制定了针对开发先进AI系统(特别是基础模型和生成式AI)的组织的国际指导原则自愿性行为准则,涵盖风险管理、透明度、安全、负责任信息共享等方面,旨在促进安全、可靠和值得信赖的AI发展。G20也在数字经济部长会议等场合讨论AI治理问题。
  • 国际标准化组织 (ISO/IEC JTC 1/SC 42): 正在积极制定关于AI的国际技术标准,涉及术语、框架、风险管理、可信赖性、治理、数据质量、计算方法等多个方面,这些标准将为各国监管的落地提供重要的技术支撑。
  • 其他国际合作倡议: 还包括全球人工智能合作伙伴关系(GPAI) 等专注于AI研究和实践合作的国际组织,以及由不同国家发起的AI安全峰会等。

这些国际努力的核心目标在于,在全球范围内就AI的核心伦理原则、风险管理方法、以及基本的治理要求等方面凝聚最低限度的共识,从而减少因各国监管规则差异过大而可能导致的不必要的贸易壁垒、数据流动障碍和技术合作困难,并共同应对AI可能带来的全球性挑战(如虚假信息传播、网络安全威胁、气候变化应用等)。

结论:理解多元格局,把握监管脉搏,适应全球合规

Section titled “结论:理解多元格局,把握监管脉搏,适应全球合规”

全球范围内的AI监管正处在一个关键的形成期和加速演进期。虽然尚未形成完全统一的全球标准,但呈现出以欧盟的全面、高标准、强制性立法模式美国的分散、多轨、依赖现有法律与新兴标准的模式日本、英国、新加坡等更侧重软法、原则引导和行业自律的模式,以及中国针对特定风险和场景的快速、精准规制模式等为代表的多元化路径探索

尽管具体的监管方法和节奏各异,但贯穿其中的共同趋势是日益强调基于风险的评估、保障基本权利(特别是隐私与反歧视)、提升透明度与可解释性、明确问责机制,并在促进创新与防范风险之间寻求艰难的平衡。对基础模型和生成式AI的关注和规制也成为新的焦点。

对于需要在全球化背景下执业的法律专业人士而言,仅仅了解本国的法律法规是远远不够的。必须具备全球视野,深刻理解主要法域(特别是欧盟、美国、以及与自身业务相关的其他关键市场如中国、英国、日本等)的AI监管框架、核心要求、执法重点及其潜在的域外效力。这对于为跨国企业客户提供准确的跨境合规咨询、进行有效的国际交易风险评估、以及制定具有前瞻性的全球化法律战略至关重要。

同时,持续关注全球AI治理的动态演进——包括主要国家立法进展(如欧盟AI Act的实施、美国州级立法动态)、重要国际组织的原则倡议与合作进程、以及关键性的行业标准制定(如ISO、NIST标准)——将是法律人在这个快速变化的智能时代保持专业敏感度、提升自身价值、并为客户和法治社会贡献智慧的必要功课。理解全球AI监管的多元格局和共同脉搏,就如同掌握了在智能时代进行全球法律实践的“罗盘”和“气压计”。