2026 年 3 月,欧盟《人工智能法》迎来关键转折点。欧洲议会以压倒性多数通过“一读立场”,确立了监管减负与风险扩围并行的修法方向。随着核心条款定于 2026 年 8 月 2 日全面生效,这部全球首部综合性 AI 立法正式从“立法完成期”转入“实施校准期”。此举不仅为欧盟境内 AI 应用划定了安全底线,更标志着全球人工智能治理格局进入历史性重塑阶段,对中、美等全球主要经济体的产业链企业产生深远影响。
当地时间 2026 年 3 月 26 日,欧洲议会以 569 票赞成、45 票反对、23 票弃权的结果,通过了针对《人工智能数字综合方案》的“一读立场”。这一进程距离该法案 2024 年 8 月 1 日正式生效仅过去约 1 年 8 个月,显示出欧盟在治理落地上的快速反应能力。
此次修法并未单纯走向放松监管,而是呈现出“程序性减负”与“局部扩围”的双重特征。一方面,针对高风险规则的实施期限进行了调整:独立高风险 AI 系统的监管义务延期至 2027 年 12 月 2 日,产品内嵌的高风险系统则延至 2028 年 8 月 2 日,以缓解企业合规压力。另一方面,欧盟委员会明确表示,围绕生成式内容标记和透明义务的行为准则及指南将于 2026 年第二季度发布,旨在填补执行层面的工具空白。欧盟委员会强调,将继续通过指南、行为准则和服务台等方式,为企业提供实质性的合规支持。

作为全球首部具备法律约束力的 AI 专项监管规则,《欧盟人工智能法》自提出到生效历时三年有余。其初衷是凭借欧盟的市场规模优势,将这套规则打造为全球通用准则,即所谓的“布鲁塞尔效应”。然而,法案生效后的实施进程迅速暴露出落地难题,业界关于“监管过度抑制创新”与“执行障碍”的讨论从未停歇。
与此同时,全球地缘政治格局下的 AI 竞赛日趋白热化。美国于 2025 年夏季发布《美国人工智能行动计划》,采取近乎放任的策略以确立技术霸权;中国则在应用场景与产业化落地方面加速推进。在此背景下,欧盟坚持高标准的安全与风险管理,试图在技术领先与安全治理之间寻找平衡,但其对 AI 恶意使用等灾难性风险的覆盖能力仍受到西班牙埃尔卡诺皇家研究所等智库的压力测试挑战。

欧盟 AI 法案的全面生效将深刻重构全球行业格局。对于希望进入欧盟市场的中美两国企业而言,高昂的合规成本不可避免,包括技术改造、流程调整以及第三方审计费用。严格的限制措施虽然提升了安全性,但也可能在短期内阻碍技术研发和部署的创新速度。
在市场层面,法案延续了欧盟对个人数据保护的严苛要求,迫使企业在处理用户数据时采取更加谨慎的态度。此外,法案全面实施过程中存在的解释模糊性及成员国执行差异,增加了市场的不确定性。对于全球竞争对手而言,欧盟的高标准可能成为事实上的国际准入门槛,迫使非欧盟企业被动适应“欧盟标准”,从而在无形中扩大了欧盟在全球治理中的话语权。

针对法案的演进与实施,业内观点呈现多元化。西班牙埃尔卡诺皇家研究所发布的报告指出,当前法案条款对 AI 恶意使用风险的覆盖度存在显著失衡,建议欧盟利用定期修订机制填补空白,并加强国际治理合作。行业观察家谭寅亮认为,严格的法案规定导致中美企业面临高昂成本,需从各国文化、政治及经济背景差异中理解全球监管体制的分野。
尽管面临争议,欧盟共同立法者显然已意识到平衡的重要性。当前的修法动向表明,监管者正试图在减轻企业程序性负担的同时,加强对新出现风险的管控,以回应业界关于“抑制创新”的担忧,同时坚守安全底线。
展望未来,欧盟人工智能治理已进入动态校准的新阶段。2026 年 8 月 2 日将是核心条款全面适用的关键节点,而随后的高风险系统合规义务延期生效(2027 年底至 2028 年)将为产业界提供宝贵的缓冲期。值得关注的是,随着 2026 年第二季度相关行为准则的发布,执法细节将逐渐清晰。在全球 AI 竞赛聚焦技术突破而边缘化安全治理的大趋势下,欧盟能否通过灵活的修订机制填补监管空白,并推动真正的国际互鉴,将决定其能否真正成为全球 AI 治理的范本。