AMD Instinct MI350 GPU重磅发布:颠覆计算未来,推理速度狂飙35倍!
6月13日,AMD在凌晨00:30如期举办了备受瞩目的年度人工智能盛会AdvancingAI2025。作为科技领域的领军者,AMD董事长兼首席执行官苏姿丰携手高管团队,与来自AI生态系统的合作伙伴、客户以及开发者共同探讨了AMD在产品与软件方面的创新成果,这些努力正在深刻地重新定义AI和高性能计算(HPC)的发展方向。 在我看来,AMD此次大会不仅展示了其强大的技术实力,更传递出一个明确信号:未来的技术竞争将不再局限于单一领域,而是围绕全面整合的软硬件解决方案展开。AMD通过不断优化其处理器架构,并结合先进的软件工具,为行业提供了更多可能性。这种以客户需求为导向的研发策略,无疑将推动整个产业向前迈进一大步。同时,这也提醒我们,在追求技术创新的同时,还需关注如何让这些前沿技术更好地服务于社会经济发展。
在本次大会中,AMD 阐述了其完整的端到端人工智能平台战略,并发布了全新一代遵循行业标准的开放、可扩展的机架级人工智能基础设施产品。
首先,AMD发布了全新一代Instinct MI350系列GPU,其在生成式人工智能与高性能计算领域的性能、能效以及可扩展性均实现了显著提升。
InstinctMI350系列涵盖MI350X和MI355X GPU及其平台,每代产品在AI计算能力上提升4倍,推理性能提高35倍。
全新的GPU采用AMCDNA4架构,基于3nm制程工艺打造,内部集成了多达1850亿个晶体管,不仅在性能上实现了突破,还引入了FP4与FP6等新一代AI数据类型,为人工智能计算提供了更高效的支持。这款GPU配备了288GB的HBM3E显存,在单卡环境下能够轻松运行高达520B参数规模的AI模型,极大提升了处理复杂任务的能力。同时,它兼容UBB8行业标准GPU节点,并且提供了风冷与直液冷两种散热方案,帮助企业根据需求灵活选择,从而加速其基础设施的部署进程。 从我的角度来看,这一产品的推出无疑将推动AI领域的发展进入一个全新阶段。首先,它通过大幅增加晶体管数量以及优化内存配置,显著提高了计算效率和数据吞吐量,这对于需要海量数据处理的场景来说至关重要。其次,支持多种AI数据类型的特性让开发者可以更加自由地探索算法创新,而不仅仅局限于传统的浮点运算模式。最后,多样化冷却方式的选择则体现了厂商对实际应用环境的高度关注,有助于降低维护成本并延长设备寿命。总体而言,这款GPU是一款面向未来设计的产品,它不仅满足了当前市场的需求,也为未来的科技变革预留了足够的空间。
AMDInstinctMI355XGPU在人工智能和高性能计算领域展现出色性能,根据AMD的描述,在与NVIDIAHGXA100和HGXH100的对比中:
在内存容量方面,MI355X 约为竞品的 1.6 倍,内存带宽则基本持平。
针对 FP64 和 FP32 运算,MI355X 的峰值性能接近竞品的两倍。
对于 FP16 和 FP8 运算,其峰值性能与竞品相当或略高,FP6 性能则达到 2 倍以上。
在 FP4 运算上,MI355X 与竞品的峰值性能相近,小幅领先。
另外相比 B200,使用 Instinct MI355X 可获得 40% Tokens/$ 性价比提升。
在与上一代MI300X的对比中,MI355X展现了显著的性能提升。运行Llama3.1405B模型时,其在AI智能体性能上的表现达到了前者的4.2倍,内容生成能力提升了2.9倍,摘要能力更是达到了3.8倍的增长,而对话式人工智能的表现也实现了2.6倍的提升。 这一系列数据表明,MI355X在多个关键领域都取得了令人瞩目的进步。尤其是在内容生成和摘要能力方面,其表现出的强大处理能力和效率无疑为相关行业带来了新的可能性。这不仅意味着更高的生产力,也可能推动更多创新应用的诞生。对于用户而言,这意味着更高效的工作流程以及更智能化的服务体验。未来,随着这类技术的进一步发展,我们有理由期待它将在更多场景中发挥更大的作用。
AMD 表示,Instinct MI350 系列超出了 AMD 设定的五年目标,即将 AI 训练和高性能计算节点的能效提高 30 倍,最终实现了 38 倍的提升。
AMD Instinct MI350 系列推出支持开放标准的机架级基础设施与网络解决方案。
该系列产品兼容UEC和OCP架构设计,配备Instinct GPU与第五代EPYC x86处理器,提供多种配置选择,包括128颗GPU、96颗GPU和64颗GPU,对应的HBM3E内存容量分别为36TB、27TB和18TB,支持FP8、FP6和FP4计算精度,专为大规模机架扩展场景打造。预计自Q3起,该系列产品将通过AMD授权的合作伙伴推向市场。
从活动获悉,AMD 还预告了其下一代 AI 机架架构“Helios”。它将基于下一代 AMD Instinct MI400 系列 GPU、基于“Zen 6”架构的 AMD EPYC “Venice” CPU 以及 AMD Pensando “Vulcano”网卡构建。
同时 AMD 更预告了 Instinct MI400 系列 GPU,预计 2026 年上市。该系列配备 432GB HBM4 显存,带宽达 19.6TB/s,每 GPU 扩展带宽为 300GB/s;提供 40PF FP4 和 20PF FP8 的 AI 计算性能,延续 MI300X、MI325X 等系列优势。
AMD设定了一个新的2030年目标,计划从2024年的基准开始,将机架级能效提升20倍。这意味着,目前需要超过275个机架才能完成训练的典型AI模型,在2030年时只需一个充分利用的机架即可实现同样的训练任务,并且能耗将减少95%。
近期,AMD推出的最新版本开源AI软件栈ROCm7引起了众多网友的兴趣。该版本致力于应对生成式人工智能及高性能计算工作负载日益增长的需求,同时着力优化开发者的使用体验。ROCm7在行业标准框架支持方面进行了多项改进,硬件兼容性也得到了进一步扩展,并新增了开发工具、驱动程序、API以及库,从而加速AI技术的开发与应用进程。
最后值得关注的是,AMD计划进一步扩大其面向全球开发者和开源社区的AMD开发者云的使用范围。这一平台旨在支持快速且高效的AI开发,用户可以在AMD开发者云上获取一个全面托管的云环境,这里不仅配备启动AI项目所需的各种工具,还提供了高度的灵活性,同时允许用户根据需求无限制地扩展资源。
免责声明:本站所有文章来源于网络或投稿,如果任何问题,请联系648751016@qq.com
页面执行时间0.010874秒