2025 年 4 月 6 日,美国科技巨头 Meta 正式开源发布其最新一代人工智能模型系列——Llama 4。此次发布包含两款即时可用模型 Llama 4 Scout 与 Llama 4 Maverick,并预览了正在训练中的巨型模型 Behemoth。作为 Meta 首个原生多模态大模型,Llama 4 系列首创“早期融合”架构,支持高达 1000 万 token 的超长上下文窗口,标志着开源 AI 在多模态理解与长文本处理领域迈入全新纪元。
Meta 于周六(4 月 5 日)宣布,周日(4 月 6 日)正式向全球开发者开放 Llama 4 系列模型的下载与微调权限。该系列首次采用混合专家(MoE)架构,旨在大幅提升推理效率与任务专精能力。目前已发布的两款模型中,Llama 4 Scout 拥有 1090 亿总参数(170 亿活跃参数),配备 16 个专家模块,可在单张 NVIDIA H100 GPU(Int4 量化)上部署,其 1000 万上下文长度能一次性处理整本书籍或大型代码仓库;Llama 4 Maverick 则拥有 4000 亿总参数(170 亿活跃参数)及 128 个专家模块,在多模态性能上超越 GPT-4o 与 Gemini 2.0,推理成本却仅为竞争对手的一半。

Meta 首席执行官马克·扎克伯格在社交媒体上表示:“我们的目标是建立世界领先的人工智能,将其开源,并使其普遍可用。”他強調,随着 Llama 4 的推出,开源模型成为行业领先者的预言正在变为现实。此外,Meta 还透露正在训练参数量近 2 万亿的 Llama 4 Behemoth,该模型将作为“教师模型”通过协同蒸馏技术赋能小型模型,目前其在 STEM 领域的基准测试表现已优于 GPT-4.5。

Llama 系列自 2023 年问世以来,凭借高效的开源策略迅速占据学术界与产业界高地。然而,过去一年间,全球开源模型竞争日趋白热化,尤其是中国 AI 公司 DeepSeek 的崛起,其推出的 DeepSeek-V2 及 V3 模型以极高的性价比和强大的推理能力对 Meta 构成了显著挑战。知情人士透露,Llama 4 的发布时间较原计划有所推迟,主要原因在于早期版本在数学推理等关键基准上未达预期,且 Meta 力求在模拟人类语音对话等能力上缩小与 OpenAI 的差距。此次 Llama 4 的强势发布,被视为 Meta 对市场竞争压力的直接回应,意在重夺开源大模型的技术主导权。

Llama 4 的发布将深刻重塑全球 AI 行业格局。首先,1000 万上下文窗口的实现打破了长文本处理的瓶颈,使得全量代码库分析、长篇视频理解等复杂应用场景成为可能,极大降低了企业级应用的开发门槛。其次,MoE 架构的成熟应用证明了“高参数、低激活”路线的可行性,为行业提供了更具性价比的基础设施方案。对于竞争对手而言,DeepSeek 等主打高性价比的模型将面临更直接的挤压,而闭源模型厂商则需重新评估其在多模态原生支持上的技术护城河。市场普遍认为,Llama 4 将进一步加速 AI 智能体(Agent)的普及,使其具备更高水平的自主推理与行动能力。
消息公布后,全球开发者社区反响热烈。Hugging Face 等平台迅速上线相关模型权重,众多技术博主指出,Scout 版本在单卡部署上的突破将是边缘计算领域的重大利好。业内专家分析认为,Llama 4 Maverick 在 SWE-bench 等代码基准测试中得分高达 76.8 至 80.8,足以媲美甚至超越部分闭源顶尖模型,这将促使更多初创公司转向开源生态构建产品。尽管竞争对手尚未发表正式声明,但资本市场已对开源 AI 板块做出积极反应,显示出市场对 Meta 此次技术突围的高度认可。
随着 Llama 4 Scout 和 Maverick 的落地,行业焦点将迅速转向仍在训练中的 Behemoth 模型及其最终发布时间。预计在未来几个月内,基于 Llama 4 架构的垂直领域应用将呈现爆发式增长,特别是在法律文档分析、医疗影像诊断及自动化编程等领域。此外,Meta 计划将多模态功能逐步推广至更多国家及语言版本,目前该功能仅在美国以英语提供。2025 年下半年,随着更多硬件厂商完成对 Llama 4 的适配优化,开源 AI 生态有望迎来新一轮的繁荣周期。