欧盟的人工智能治理体系建设,并非从零起步。2018 年实施的《通用数据保护条例》(General Data Protection Regulation),已对自动化决策作出初步规制,确立了数据保护作为基本权利的属性。2019 年发布的《可信人工智能伦理准则》(Ethics Guidelines for Trustworthy AI),系统阐释了人类自主权与监督、技术稳健、隐私保护、透明度、公平性、社会福祉与问责机制七大核心原则。2020 年出台的《人工智能白皮书》(White Paper on Artificial Intelligence),进一步明确了风险分级的监管思路。这次立法从伦理倡导向法律约束的战略演进轨迹清晰可见,实现了从软法倡导的治理模式,向硬法约束的制度规范的跃升。
欧盟立法程序的设计初衷,始终是在效率与民主之间寻求平衡。依据《欧盟运行条约》(Treaty on the Functioning of the European Union),普通立法程序主要涉及三方机构,欧盟委员会、欧盟理事会、欧洲议会,需历经提案、一读、二读、三读等多重环节,整个流程往往耗时多年。《人工智能法案》的立法周期同样如此。自2021年4月欧盟委员会正式提出提案,至2024年6月正式签署,全程耗时三年多时间。
欧盟《人工智能法案》自2024年8月生效以来,已按分阶段模式逐步落地:2025年2月禁止不可接受风险AI系统及社会评分等应用,通用AI模型透明度义务于同年8月生效。为应对标准制定滞后与企业合规压力,欧盟委员会于2025年11月提出《数字综合法案——AI篇》(Digital Omnibus on AI Regulation Proposal),建议将高风险AI规则适用推迟至2027年底并扩大中小企业豁免。执法层面以合规引导为主,尚无重大处罚,但OpenAI、Google等主要提供商已签署《通用人工智能实践守则》(General-Purpose AI Code of Practice),显示“布鲁塞尔效应”初显。成员国进展则明显分化:西班牙、意大利已通过国内立法并启动监管沙盒,而约12至14个成员国仍未完全履行指定国家主管机构的义务。