北京时间3月19日凌晨,全球人工智能(AI)芯片领导者英伟达(NVIDIA)在其年度GTC大会上正式发布了基于Blackwell架构的下一代AI图形处理器(GPU)B200。该公司宣称,新平台将为大规模AI模型训练和实时生成式AI推理带来巨大飞跃,有望将AI数据中心的能耗和成本降低至原来的四分之一。
据英伟达创始人兼首席执行官黄仁勋在主题演讲中介绍,Blackwell架构是继Hopper之后的又一次重大飞跃。其核心产品GB200 Grace Blackwell超级芯片,通过将两颗B200 GPU与一颗基于Arm架构的Grace CPU紧密耦合而成。

“生成式AI已成为决定性的技术力量。Blackwell GPU是我们推动这场新工业革命的引擎,”黄仁勋在发布会上表示,“它将赋能企业构建和运行万亿参数级的实时生成式AI模型,同时大幅降低能耗。”
当前,全球科技巨头和云服务商正陷入一场激烈的“算力军备竞赛”,以支持ChatGPT等大模型的训练和部署。据国际能源署(IEA)近期报告,全球数据中心的电力消耗在过去几年急剧增长,其中AI业务是主要推手之一。高能耗已成为制约AI产业规模化可持续发展的关键瓶颈。

英伟达凭借其CUDA生态和硬件优势,占据了AI训练芯片市场超过90%的份额。其前代产品H100 GPU一直是市场上的“硬通货”,供不应求。此次发布Blackwell,被视为英伟达巩固其市场统治地位、回应日益增长的能效关切的重要举措。

Blackwell的发布预计将对整个AI产业链产生深远影响:

分析人士认为,英伟达此次发布凸显了AI计算领域竞争重点的演变。高德纳(Gartner)分析师盛陵海指出:“单纯的算力堆叠已不是唯一叙事。如何在提升性能的同时控制惊人的能耗成本,成为芯片厂商和云服务商的核心挑战。英伟达通过Blackwell给出了自己的答案。”

未来,AI数据中心的竞争将更加综合化,涉及芯片、系统、网络、液冷散热乃至软件栈的全栈优化。英伟达凭借其从芯片到软件的全栈解决方案,试图构建更深的护城河。然而,市场对替代方案的需求依然强烈,开源软件框架和多元化硬件架构的探索将持续推进,以寻求更优的性价比和自主可控性。Blackwell平台的实际能效表现,将在其今年晚些时候正式上市后,接受大规模部署的严格检验。