布鲁塞尔时间3月13日,欧洲议会以压倒性多数投票正式通过了《人工智能法案》。这部法律是全球首部全面监管人工智能技术的综合性法规,确立了基于风险等级的监管框架,旨在规范AI开发与应用,同时保障公民权利与安全。法案预计在履行最终程序后于今年晚些时候生效。
《欧盟AI法案》的核心是根据AI系统对用户和社会造成的潜在风险,实施分级分类监管。法案将AI应用场景划分为四个风险等级,并施以相应力度的规则。

此外,法案对通用人工智能模型(如驱动ChatGPT的底层技术)设立了专门规则。对具有“系统性风险”的尖端模型,开发者需进行模型评估、对抗性测试,并报告严重事故和能源消耗情况。

“今天是一个历史性时刻。欧盟AI法案是开拓性的,它旨在为值得信赖的AI发展设定全球标准。我们成功地在创新与公民保护之间取得了平衡。”欧洲议会内部市场委员会联合报告员德拉戈斯·图多拉切表示。来源: 欧洲议会新闻稿 (2024年3月13日)
欧盟委员会于2021年4月首次提出《人工智能法案》草案。其立法进程恰逢以ChatGPT为代表的生成式AI技术爆发,促使立法者紧急将通用AI模型纳入监管范围。经过成员国、欧洲议会和欧盟委员会三方近三年的激烈谈判与妥协,最终文本于2023年12月达成政治协议,并于本月获得议会最终批准。

这一立法行动使欧盟延续了其在数字监管领域的“先行者”角色。此前,欧盟已推出《通用数据保护条例》和《数字市场法案》,在全球产生“布鲁塞尔效应”,即其法规常成为其他国家和地区立法的参考蓝本。

该法案的通过,标志着全球AI治理从原则讨论进入硬性法规执行阶段,将对行业产生深远影响。

法案将在正式生效后分阶段实施,其中被禁止的AI应用条款将在6个月后适用,而通用AI模型和高风险系统的规则将在12个月后生效。这为企业和监管机构留下了关键的适应期。
未来主要挑战在于法规的具体执行。如何准确界定“高风险”系统、如何有效监督通用AI模型、各国监管机构能力是否均衡,都是待解难题。同时,业界持续关注法案是否会过度抑制欧洲本土的AI创新活力。
分析人士认为,欧盟AI法案的落地只是一个开始。它确立了AI治理的基本范式,但技术的快速演进将持续考验监管的灵活性与有效性。全球范围内,如何在激发AI潜力与管控其风险之间找到动态平衡,将是各国政府与产业界长期面临的共同课题。