超威半导体(Advanced Micro Devices, Inc.,简称 AMD)成立于 1969 年,由杰里·桑德斯(Jerry Sanders)等八位前仙童半导体员工共同创立。作为全球少数同时具备高性能 CPU、GPU 及自适应计算芯片设计能力的厂商,AMD 历经五十余载发展,完成了从追随者到行业领袖的蜕变。其发展历程中的关键里程碑包括 2006 年收购 ATI 获得图形技术基因,以及 2022 年以 490 亿美元完成对赛灵思(Xilinx)的收购,此举极大地增强了其在 FPGA 和嵌入式 AI 领域的布局。作为一家上市公司,AMD 无需传统融资轮次数据支撑,但其市值已突破数千亿美元大关,反映了资本市场对其"AI 优先”战略的高度认可。公司秉承“推动高性能计算普及”的使命,致力于通过开放生态打破垄断,构建涵盖云端数据中心至边缘终端的完整 AI 算力版图。
AMD AI 战略的核心在于其独特的“异构计算”架构,即 CPU、GPU、FPGA 与自适应 SoC 的深度融合。在技术方向上,AMD 坚持开放软件生态路线,推出了开源软件平台 ROCm(Radeon Open Compute),旨在打破 NVIDIA CUDA 的生态壁垒,为开发者提供跨平台的灵活选择。其核心创新点体现在 Chiplet(小芯片)封装技术上,通过先进封装将不同工艺节点的芯片模块整合,显著提升了良率并降低了大规模 AI 芯片的制造成本。此外,收购赛灵思后获得的自适应计算技术,使得 AMD 能够针对特定 AI 模型进行硬件级优化。与竞品相比,AMD 的技术差异在于不依赖封闭的软件护城河,而是凭借极高的性价比和灵活的硬件组合能力,在大规模集群部署中展现出卓越的能效比。

AMD 的产品线已形成覆盖“云 - 边 - 端”的完整闭环。在数据中心领域,Instinct MI300 系列是当前的旗舰产品,其中 MI300X 专为生成式 AI 大模型训练与推理设计,拥有高达 192GB 的 HBM3 显存,性能直指行业标杆;而 MI300A 则是全球首款加速处理单元(APU),实现了 CPU 与 GPU 内存的统一寻址,极大提升了科学计算与 AI 混合负载的效率。在客户端,锐龙(Ryzen)7040/8040 及后续系列处理器集成了专用的 Ryzen AI 引擎(NPU),标志着 PC 正式进入本地化 AI 时代,支持离线运行大语言模型和高效能创作工具。在产品协同方面,基于统一的 ROCm 软件栈,开发者可以实现一次开发、多端部署,从云端训练到边缘推理无缝衔接,构建了极具竞争力的全栈解决方案。

在全球 AI 生态图谱中,AMD 稳居“第二极”位置,是仅次于 NVIDIA 的关键算力供应商。当前竞争格局呈现“一超多强”态势,NVIDIA 凭借先发优势占据主导,但市场迫切需要一个开放的替代方案以避免供应链单一风险。主要竞争对手包括英特尔(Gaudi 系列)及各类专用 AI 芯片初创公司。相比之下,AMD 的差异化策略在于其全面的产品组合能力——既能提供通用的 GPU 加速卡,又能提供定制的 FPGA 方案,且兼容主流的 PyTorch 和 TensorFlow 框架。这种定位使其成为大型云服务商(如微软 Azure、Oracle Cloud)构建多元化算力集群的首选合作伙伴,有效平衡了性能、成本与供应链安全。

AMD 的核心竞争壁垒建立在极高的性价比与日益成熟的开放生态之上。首先,得益于 Chiplet 技术和台积电先进制程的深度合作,AMD 能在同等性能下提供更具吸引力的价格,显著降低客户的总拥有成本(TCO)。其次,随着 ROCm 5.0 及后续版本的迭代,其对主流大模型的支持度大幅提升,社区活跃度激增,逐步消解了软件生态的短板。此外,庞大的客户基础是其独特资源,从超级计算机中心到全球顶级云厂商,再到个人消费者,AMD 拥有广泛的用户信任。这种跨层级的客户网络使其能够快速收集反馈并迭代产品,形成正向循环。
展望未来,AMD 的战略规划清晰聚焦于"AI 无处不在”。苏姿丰博士多次强调,AI 将是推动公司未来十年增长的核心引擎。近期动态显示,AMD 正加速推进下一代 MI350 及 MI400 系列的研发,并深化与微软、Meta 等巨头的定制化合作。在投资价值层面,随着生成式 AI 从训练阶段向推理阶段大规模转移,对高带宽内存和能效比的要求将更加严苛,这正是 AMD 的优势区间。预计在未来几年,AMD 将在数据中心加速器市场获取显著份额,并在边缘 AI 设备领域确立领导地位,成为全球 AI 基础设施不可或缺的支柱力量。