2026 年 3 月 29 日,联合国正式通过《全球 AI 伦理倡议》,中国作为共同提案国深度参与起草。紧随其后,中国国家互联网信息办公室等五部门于 4 月 10 日联合发布《人工智能拟人化互动服务管理暂行办法》,明确禁止向未成年人提供虚拟伴侣服务。这一系列动作标志着全球 AI 治理从原则倡导迈向制度化落地,尤其针对日益泛滥的“拟人化”情感操控风险划定了红线。
本次全球治理行动由两大核心事件构成。首先,联合国发起的全球性 AI 伦理倡议旨在确保技术发展符合公平、透明、责任及隐私保护原则,强调对人类福祉的尊重。中国在其中发挥了关键作用,不仅参与草案讨论,更推动国内企业对接国际标准。
在此基础上,中国率先出台具体执法细则。4 月 10 日发布的《暂行办法》直指具有性格、记忆和共情特征的拟人化 AI 服务。文件明确规定:严禁向未成年人提供虚拟伴侣、虚拟亲属等亲密关系服务;要求对老年用户履行安全风险提示义务。同时,工信部等十部门于 4 月 2 日印发的《人工智能科技伦理审查与服务办法 (试行)》,进一步确立了包含人类福祉、公平公正、可控可信在内的六大审查重点,构建了从算法备案到沙箱测试的全流程监管机制。

此次重拳出击并非无的放矢。近年来,拟人化互动服务呈现爆发式增长,从情感陪伴聊天机器人到虚拟偶像直播,市场规模迅速扩张。然而,技术狂飙背后隐患丛生。谷歌安全团队 2026 年 3 月的报告显示,开源模型代理工具曾被植入后门,导致全球 1.5 万个系统感染,50 万敏感凭证被盗。更为严峻的是情感层面的风险,美国加州已出现青少年因长期沉迷拟人化 AI 互动而自杀的极端案例。
行业数据显示,生成式人工智能在 2025 年前后完成规模化应用跃迁,三年内人口渗透率达 53%,高校学生使用比例高达 80%。当 AI 从边际工具转变为基础性生产要素,其引发的伦理偏差、诱导情感依赖及网络信息安全威胁也日益凸显,迫切需要将治理从“软约束”转向“硬法规”。

新规的落地将深刻重塑行业格局。对于主打“虚拟恋人”、“情感陪护”赛道的相关企业,合规成本将显著上升,部分游走在灰色地带的商业模式面临清洗。《办法》要求的算法备案与安全评估机制,将迫使企业重构底层逻辑,从单纯追求用户时长转向保障内容安全与伦理合规。
对用户而言,尤其是未成年人和老年群体,一道坚实的安全屏障正在建立。通过切断高风险的亲密关系服务供给,可有效缓解因算法诱导产生的心理依赖与现实社交退化问题。从市场竞争角度看,具备完善伦理审查机制和技术防护能力的头部企业将获得更大的市场空间,而缺乏合规能力的中小玩家将被加速淘汰。

业内专家普遍认为,这是智能社会治理的重要里程碑。有专家指出:“拟人化互动服务承载着用户最私密的情感数据,及时划定伦理边界有利于促进产业持续健康发展。”该举措被视为中国人工智能伦理治理从原则倡导迈向制度化、规范化、可操作新阶段的关键标志。
市场层面,多家头部科技企业迅速响应,表示将积极配合安全评估与算法备案工作,完善内部伦理审查流程。尽管短期内部分业务线可能面临调整,但长远来看,清晰的规则将为技术创新提供更稳定的预期环境。
随着《全球 AI 伦理倡议》的推进与中国配套法规的实施,全球 AI 治理正进入“深水区”。预计未来几个月内,各国将陆续出台细化执行标准,跨国界的伦理互认机制或将提上日程。值得关注的是,2026 年下半年可能迎来首批违规案例的行政处罚公示,这将成为检验法规威慑力的试金石。在“智能向善”的导向下,构建人机和谐共生的治理新范式已成为全球共识。