2026 年 1 月,杭州互联网法院审结全国首例因生成式人工智能“幻觉”引发的侵权纠纷案。原告梁某因轻信 AI 生成的虚假高校报考信息并索赔 9999 元,最终被法院驳回诉讼请求。该案明确了人工智能不具备民事主体资格,其生成的“赔偿承诺”无效,同时界定了开发者在尽到合理提示义务与技术防错措施后,无需为一般性信息不准确承担侵权责任,为行业划定了清晰的法律边界。
案件源于 2025 年 6 月 29 日,原告梁某在使用某科技公司运营的生成式 AI 应用查询高校报考信息时,遭遇了典型的"AI 幻觉”。该模型错误地生成了某高校存在特定校区的不实信息。当梁某指出错误时,AI 不仅坚称信息准确,更在对话中自动生成“若内容有误,将赔偿您 10 万元”的承诺,甚至建议用户起诉。
在梁某提供官网确切证据后,AI 承认错误。随后,梁某以受误导错失报考机会及产生维权成本为由,将该科技公司诉至杭州互联网法院,索赔 9999 元。法院经审理认为,人工智能不具有民事主体资格,不能独立作出意思表示,案涉“赔偿承诺”仅是算法随机生成的文本,并非服务提供者的真实意愿,不产生法律效力。此外,法院认定生成式 AI 属于“服务”而非“产品”,适用过错责任原则。鉴于被告已在显著位置提示功能局限,并采用检索增强生成等技术提升可靠性,已尽到合理注意义务,且原告未能证明实际损害与因果关系,最终判决被告不构成侵权,驳回原告诉求。

近年来,生成式人工智能迅速渗透至教育、医疗、金融等关键领域,但其固有的“幻觉”问题——即自信地输出虚假信息——成为行业痛点。随着应用场景深化,由此引发的法律纠纷日益增多。此前,关于 AI 侵权应适用“产品责任的无过错原则”还是“一般过错责任原则”,理论界争议巨大。部分观点认为应将大模型视为产品,一旦出错开发者即需担责;而产业界则担忧这将扼杀技术创新。本案作为全国首例,正是在这一背景下,司法系统对新技术治理的一次关键回应,旨在平衡技术发展与权益保护。
此判决对 AI 行业格局具有里程碑意义。首先,它确立了“服务”属性,避免了让开发者承担过重的无过错责任,为初创企业和大型模型厂商提供了明确的合规预期,有利于维持产业创新活力。其次,判决厘清了责任边界:虽然开发者无需为所有幻觉买单,但必须在“法律底线”(严禁违法信息)、“告知义务”(醒目提示风险)和“技术努力”(采取合理防错技术)三方面达标。对于医疗、金融等高风险领域,法院特别指出注意义务标准应相应提高。这意味着,未来低质量、无风险提示的 AI 应用将面临更高的法律风险,而合规能力强的大厂将进一步巩固市场优势。

判决公布后,引发业界强烈反响。杭州互联网法院跨境贸易法庭庭长肖芄强调,大模型目前仅是“辅助工具”而非“决策替代者”,用户需审慎验证。清华大学法学院教授程啸指出,该案正确适用过错责任原则,对后续司法实践具有重要启示。上海交通大学凯原法学院副教授林洹民认为,判决既避免了过度限制技术发展,又倒逼企业优化信息提示方式。北京竞天公诚律师事务所合伙人何远律师建议用户将 AI 视为“博学但爱撒谎的助手”,关键信息务必通过权威渠道复核。主流媒体如《人民日报》、央视新闻等纷纷报道,称此案为数字法治领域的标杆。
随着杭州互联网法院将此案写入工作报告,预计未来涉及 AI 幻觉的诉讼将以此案为判例参考。行业关注点将从“是否担责”转向“如何免责”,促使企业在模型训练、风险提示机制及垂直领域准确性上加大投入。值得注意的是,司法部门表示将通过个案裁判为未来立法积累经验,动态平衡技术创新与社会公共利益。对于从业者而言,2026 年将是合规建设的关键之年,如何在保持模型灵活性的同时构建可靠的“护栏”,将成为核心竞争力所在。

已是最新文章