刚刚:腾讯阿里发布世界模型,2026 AI 短剧爆发,算力液冷元年已至

AI新闻资讯2026-04-17 20:49:18

新闻导语

2026 年 4 月 17 日,中国 AI 行业迎来历史性时刻。阿里巴巴旗下新成立的 ATH 事业群正式发布全球首个主动式实时交互世界模型"Happy Oyster(快乐生蚝)”,与此同时,腾讯凭借“脚手架”理论加速布局 AI 应用层。伴随阿里提出未来五年云与 AI 商业化收入突破 1000 亿美元的宏大目标,以及视频生成模型引发的短剧革命,2026 年被正式确立为 AI 算力液冷技术的规模化元年。这一系列密集动作标志着中国科技巨头在 AGI 基础设施与应用场景上的全面突围。

事件详情

据量子位及阿里官方消息,成立仅一个月的阿里 ATH(Alibaba Token Hub)事业群于今日发布了名为"Happy Oyster"的世界模型产品。该产品被定义为全球首个“主动式实时交互”世界模型,旨在构建高保真的虚拟环境以训练智能体。同日,阿里 CEO 吴泳铭在财报分析师电话会上立下“军令状”:未来五年,包括 MaaS 在内的云和 AI 商业化年收入将突破 1000 亿美元,这意味着需保持连续五年 47% 的复合增长率。

在应用端,视频生成领域出现黑马。第三方测评平台 Artificial Analysis 数据显示,视频生成模型"HappyHorse-1.0"在文生视频 Elo 得分中高达 1333 分,登顶榜首,其带来的极致成本优势正引爆 AI 短剧赛道。腾讯方面则借势"OpenClaw"引发的热潮,一个月内迅速推出 WorkBuddy、QClaw 等系列产品,试图通过“脚手架”理论补齐应用生态短板。

刚刚:腾讯阿里发布世界模型,2026 AI 短剧爆发,算力液冷元年已至_https://ai.lansai.wang_AI新闻资讯_第1张

背景分析

此次大厂集体爆发并非偶然,而是算力物理极限倒逼下的必然结果。随着英伟达 B200/B300 及谷歌 TPU v7 等高功耗芯片的量产,单芯片热设计功耗(TDP)已突破 1000W,传统风冷技术触及天花板。数据显示,2026 年全球 AI 数据中心液冷渗透率预计将从 2024 年的 14% 跃升至 40%-47%,中国市场更是将达到 37%。

此前,亚马逊 AWS 耗时八年才实现千亿美元营收,而阿里云设定的五年期限显示出极强的紧迫感。同时,国家四部门联合发布的《数据中心能效提升行动计划 (2026-2028)》明确要求大型数据中心 PUE≤1.25,政策红线与技术瓶颈共同推动了“液冷元年”的到来。从混合散热到全液冷架构的转型,已成为行业共识。

刚刚:腾讯阿里发布世界模型,2026 AI 短剧爆发,算力液冷元年已至_https://ai.lansai.wang_AI新闻资讯_第2张

影响评估

阿里“快乐生蚝”的发布标志着世界模型从理论走向实战,将极大降低具身智能和复杂决策任务的训练成本,重构 MaaS 商业模式。若阿里能维持 47% 的年增速,将直接挑战亚马逊 AWS 的全球霸主地位。

对于市场而言,AI 短剧的工业化生产将彻底改变内容创作格局。HappyHorse-1.0 等模型的出现,使得视频制作成本呈数量级下降,资本正疯狂涌入这一赛道。而在基础设施层面,液冷技术的普及将重塑数据中心形态。据预测,2026 年中国液冷市场规模将达 700-800 亿元,年增速超 70%。无法及时完成液冷改造的数据中心将面临被淘汰的风险,产业链上下游将迎来国产替代的黄金窗口期。

刚刚:腾讯阿里发布世界模型,2026 AI 短剧爆发,算力液冷元年已至_https://ai.lansai.wang_AI新闻资讯_第3张

各方反应

针对阿里的千亿目标,分析师指出这是“用不可能的目标倒逼执行”。英伟达创始人黄仁勋在 GTC 2026 大会上强调,全液冷架构可将服务器部署时间从 2 天缩短至 2 小时,印证了技术路线的正确性。面对腾讯的快速跟进,业内观察家认为,“龙虾”退潮后,模型能力与生态闭环才是竞争关键。目前,多家液冷企业订单已排至 2026 年底,部分冷却液供应商订单增长达 500%,市场反应热烈。

未来展望

展望未来,2026 年下半年将是液冷技术全面落地的关键期。英伟达 Vera Rubin NVL72 计算托架将于年内出货,全面采用 100% 全液冷散热。预计到 2027 年,全球 AI 训练服务器液冷渗透率将突破 80%。在应用侧,随着世界模型的迭代,AI 短剧有望在 2026 年四季度形成规模化商业闭环。对于从业者与投资人而言,关注液冷产业链核心部件的国产替代进度,以及世界模型在具身智能领域的实际落地案例,将是接下来半年的核心看点。