[ DATA_STREAM: CDNA-4 ]

CDNA 4

SCORE
8.5

AMD 发布 Instinct MI350P:CDNA 4 架构降临 PCIe 规格,剑指企业级 AI 普及

TIMESTAMP // 5 月.07
#AI算力 #AMD Instinct #CDNA 4 #大模型推理 #数据中心

核心摘要 AMD 正式推出 Instinct MI350P 加速器,标志着其最先进的 CDNA 4 架构首次以 PCIe 插卡形式进入市场,旨在为数据中心提供兼具高性能与灵活部署能力的 AI 算力解决方案。 ▶ 架构跨越:MI350P 采用全新的 CDNA 4 架构,原生支持 FP4 和 FP6 等低精度数据格式,旨在大幅提升大语言模型(LLM)的推理效率与吞吐量。 ▶ 部署灵活性:相比于需要专用 OAM 基板的模块化产品,PCIe 规格允许企业在现有的标准服务器架构中直接集成顶级 AI 算力,显著降低了基础设施改造的 TCO(总拥有成本)。 八卦洞察 AMD 此举是典型的“农村包围城市”战略在数据中心领域的演进。长期以来,NVIDIA 通过紧耦合的 HGX/DGX 系统锁定了高端 AI 市场,而 AMD MI350P 选择在 PCIe 规格上首发 CDNA 4 核心,本质上是在抢夺那些渴望摆脱供应商锁定(Vendor Lock-in)、追求“插拔即用”灵活性的大型企业和二级云服务商。CDNA 4 对 FP4 的支持是一个关键信号,意味着 AMD 正在追平甚至在某些推理场景下试图超越 NVIDIA Blackwell 架构的能效逻辑。此外,MI350P 的出现填补了高性能推理卡市场的空白,尤其是在 H200 供应紧张与 B200 部署门槛过高的权力真空期,AMD 正在利用 PCIe 这一通用接口加速其 ROCm 生态的渗透。 行动建议 对于算力租赁商(GPU Cloud Providers)而言,应立即评估 MI350P 的性价比优势,特别是在 Llama 3 等主流模型推理任务中的单位成本表现。对于企业架构师,建议关注 ROCm 6.x 版本对 CDNA 4 新特性的支持进度,尤其是 FP4 量化工具链的成熟度。硬件采购端应考虑其散热与功耗要求(预计 TDP 仍处于高位),提前优化机架配电方案以承接这一高性能插卡。

SOURCE: REDDIT LOCALLLAMA // UPLINK_STABLE