超威半导体(Advanced Micro Devices, Inc.,简称 AMD)成立于 1969 年,由杰里·桑德斯(Jerry Sanders)等八位前仙童半导体员工共同创立。历经半个多世纪的发展,AMD 从一家专注于逻辑芯片的小厂,成长为全球唯二能同时提供高性能 CPU 和 GPU 的半导体巨头。其发展历程中的关键里程碑包括 2006 年收购 ATI 获得图形技术、2017 年推出革命性的 Zen 架构重获市场竞争力,以及近年来在苏姿丰(Lisa Su)博士领导下全面拥抱人工智能战略。作为一家上市公司(纳斯达克代码:AMD),其市值已突破数千亿美元大关,成为全球科技股的重要支柱。AMD 的使命是“推动高性能计算的创新,解决世界上最棘手的挑战”,其企业文化强调技术务实、客户至上以及在激烈竞争中持续突破的工程精神。
MI300 系列的核心技术基石在于先进的 Chiplet(小芯片)封装技术与异构计算架构。不同于传统单一大芯片设计,AMD 利用其领先的 3D V-Cache 和 CoWoS 类封装技术,将多个计算裸片(Die)垂直堆叠,实现了前所未有的晶体管密度和带宽效率。MI300 最大的创新在于其独特的 APU(加速处理单元)设计,即在同一封装内集成 CPU 核心与 GPU 核心,共享内存池。这一架构打破了传统 CPU 与 GPU 之间通过 PCIe 总线通信的带宽瓶颈。凭借数千项相关专利及强大的研发团队,AMD 在高带宽内存(HBM3e)整合及互连技术上建立了深厚壁垒。与竞品相比,AMD 的技术差异主要体现在“通用性”与“能效比”上,其架构不仅针对纯矩阵运算优化,更兼顾了复杂逻辑处理,为大规模模型推理提供了独特的技术路径。
AMD Instinct MI300 系列主要包含两款旗舰产品:MI300A 和 MI300X,二者定位清晰且互补。MI300A 是全球首款数据中心 APU,集成了 24 个 Zen 4 CPU 核心和 228 个 CDNA 3 GPU 计算单元,拥有 128GB 统一内存。它专为超级计算机和需要紧密耦合 CPU/GPU 协作的科学计算、模拟仿真场景设计,代表案例包括前沿的 El Capitan 超级计算机。MI300X 则纯粹面向生成式 AI 训练与推理,去除了 CPU 部分,转而配置更多的 GPU 计算单元,并配备高达 192GB 的 HBM3e 显存,旨在直接对标英伟达 H100,服务于大语言模型(LLM)的部署。两者协同构成了完整的 AI 算力解决方案:MI300A 擅长处理数据预处理及复杂科学负载,而 MI300X 则专注于高强度的模型训练与高并发推理,用户可根据业务需求灵活构建集群。

在全球 AI 生态图谱中,AMD 定位为“第二供应商”及“开放生态推动者”。当前 AI 加速器市场呈现高度集中态势,英伟达占据主导地位。AMD 的入局打破了单一供应风险,为云服务商(如微软 Azure、Oracle Cloud)及大型企业提供了关键的替代方案。竞争格局上,AMD 直接与英伟达的高端 GPU 系列交锋,同时在部分领域面临英特尔 Gaudi 系列的挑战。相较于竞争对手,AMD 的差异化策略在于强调“开放性”与“性价比”。通过大力推广开源软件栈 ROCm,AMD 试图降低开发者从 CUDA 生态迁移的门槛,并以更高的显存容量和更具竞争力的价格性能比,吸引那些对成本敏感或寻求供应链多元化的客户群体。
AMD 的核心竞争壁垒在于其"CPU+GPU+FPGA"的全栈产品组合能力,这是其他单一赛道厂商难以复制的优势。这种全栈能力使得 AMD 能够提供系统级的优化方案,显著提升数据中心整体能效。独特资源方面,AMD 拥有台积电最先进的 5nm 及 4nm 工艺产能优先权,保障了高端芯片的稳定交付。在客户基础上,AMD 已成功赢得微软、Meta、甲骨文等顶级科技巨头的订单,这些头部客户的背书不仅验证了 MI300 的技术实力,更为其构建了稳固的市场基本盘。此外,不断成熟的 ROCm 软件生态正在逐步缩小与行业标准的差距,增强了用户粘性。

展望未来,AMD 的战略重心将坚定不移地聚焦于数据中心 AI 业务。公司规划持续迭代 CDNA 架构,预计后续型号将在互联带宽及软件兼容性上实现更大突破。近期动态显示,随着 MI300 系列产能爬坡及下游客户部署加速,该系列产品有望成为 AMD 营收增长的最强引擎。从投资价值角度分析,鉴于全球对 AI 算力的渴求呈指数级增长,而市场急需非垄断的替代方案,AMD 凭借其技术储备与市场卡位,具备极高的长期成长确定性。作为全球 AI 基础设施的关键建设者,AMD 正引领着一场从单一 GPU 向异构 APU 演进的算力革新。