2026 年 3 月底,即将于 7 月在韩国首尔举行的国际机器学习大会(ICML 2026)爆出重磅消息:会议组织者因作者在同行评审环节违规使用人工智能(AI),直接拒掉了 497 篇已提交的论文。这一举措约占提交论文总数的 2%,标志着顶级学术会议对 AI 伦理的监管从“倡导”转向“强执行”。通过隐藏水印技术精准捕捉违规行为,ICML 此次“铁腕”治乱不仅重塑了学术评审的底线,更在全球范围内引爆了关于科研诚信与 AI 辅助边界的激烈讨论。
据《自然》杂志及多方权威信源报道,ICML 实行严格的互评政策,要求每位提交论文的作者必须参与其他论文的评审。为遏制大语言模型(LLM)滥用,会议组织者在分发给评审人的论文中植入了只有 LLM 能识别的“隐形水印”。这些水印包含特定指令,诱导违规使用的 AI 生成包含“该手稿的关键思想涉及”和“这项研究涉及的一个重要概念”等特定短语组合的评审意见。
数据显示,在严格禁止使用 AI 的评审通道中,系统共筛查出 506 名评审人员(约占总人数 1%)撰写的 795 份违规评审意见。经过人工复核确认误报率极低后,关联这 497 篇投稿论文被全部“桌拒”。会议组织者强调,此次行动主要针对“最恶劣和最粗心”的违规案例,且仅针对那些明确选择“严禁 AI"评审通道的参与者。这是 ICML 首次设立双轨制评审通道,允许部分用户在受限条件下使用 LLM,而另一部分则完全禁止,由作者和评审人自行选择。
此次事件的爆发并非偶然,而是学术界与生成式 AI 博弈升级的必然结果。随着 LLM 能力的飞跃,其在科研写作与评审中的渗透率急剧上升。2025 年瑞士 Frontiers 出版社的一项调查显示,尽管多数期刊明令禁止,仍有超半数研究人员曾在同行评审中使用过 AI。然而,缺乏有效的检测手段使得禁令往往流于形式。
此前,学术界对于是否允许使用 AI 存在严重分歧。部分学者认为 AI 能提升效率,而另一方则担忧其导致评审同质化及保密性泄露。ICML 此次引入的水印检测机制,是对传统 AI 检测工具可靠性不足的一次技术突围。与此同时,其他会议如 ICLR 也在尝试与 GPTZero 等初创公司合作,试图通过第三方工具解决这一难题,但 ICML 的内嵌水印方案因其隐蔽性和针对性,成为了本次事件的核心焦点。

ICML 的强硬姿态将对全球学术交流格局产生深远影响。首先,它确立了“违规即拒稿”的高压红线,迫使科研人员在享受 AI 便利与坚守学术诚信之间做出更谨慎的选择。对于依赖 AI 代写评审意见的“投机者”而言,参会风险成本显著增加。
其次,双轨制的推行可能引发评审生态的分层。选择“禁 AI"通道的论文将获得更纯粹的人工评审,但也面临评审人积极性下降的风险;而“限 AI"通道则可能成为效率优先者的首选。这种分化或将推动其他顶级会议(如 NeurIPS、CVPR)迅速跟进,制定类似的分类管理政策,从而形成新的行业惯例。此外,这也向 AI 工具开发商提出了新要求,即如何开发符合学术伦理规范的辅助功能,而非简单的内容生成。
针对 ICML 的举措,业界反应呈现两极分化。瑞士 Frontiers 出版社的 Marie Soulier 表示:"ICML 的案例表明,研究界迫切需要关于如何使用 AI 的明确指导。”许多研究人员对此表示赞赏,认为这是维护学术纯洁性的必要之举,甚至有人建议应进一步禁止违规者未来投稿。
然而,质疑声同样存在。有观点指出,目前的检测手段仍可能存在漏洞,若评审人知晓水印机制并刻意规避,检测效果将大打折扣。更有批评者担心,严厉的惩罚机制可能导致审稿人因恐惧误判而失去积极性,进而拖慢整个学术出版流程。部分业内人士还担忧,过度依赖技术检测可能导致“误杀”,损害无辜学者的权益。

展望未来,学术界的 AI 治理将进入精细化运营阶段。预计 2026 年 7 月 ICML 大会召开期间,关于此次拒稿事件的后续讨论将成为焦点,会议方可能会公布更详细的检测报告以回应争议。随后,其他主要学术会议极有可能在下半年陆续推出类似的“双轨制”或检测机制,形成行业联动。
值得关注的时间节点包括今年 4 月在巴西举行的 ICLR 会议,其将与 GPTZero 合作检测违规情况,这被视为对 ICML 模式的另一种验证。长期来看,如何在利用 AI 提升科研效率与保障人类智力贡献之间找到平衡点,将是整个科学共同体持续探索的核心命题。随着技术的迭代,水印技术与反检测技术的博弈也将长期存在,推动学术规范不断进化。