【免责声明】 本文是基于外部来源的信息重新整理的。请在参考本文内容前核实原始来源。
新闻摘要
以下内容已在网上发布。下面呈现了翻译后的摘要。详情请参见原文。
英伟达再次展现了其在AI硬件领域的主导地位,在2025年9月发布的MLPerf Inference v5.1基准测试中,推出了其Blackwell Ultra架构。该公司的GB300 NVL72机架系统,配备72个Blackwell Ultra GPU,在所有类别中创下了新的性能纪录。这一最新的基准测试引入了更新的模型和场景,包括对具有推理能力的大型语言模型的新测试。英伟达的提交展示了显著的改进,每GPU性能比上一代提高了高达45%。Blackwell Ultra架构在2024年推出的原始Blackwell的基础上,AI计算能力提高了1.5倍,每GPU吞吐量提高了高达5倍,超越了Hopper前代产品。这些结果进一步巩固了英伟达在AI推理能力方面的领导地位,在最新一轮的MLPerf基准测试中,没有其他公司超越其性能。
来源: 英伟达
本站解析
背景和环境
MLPerf Inference基准测试是评估AI硬件和软件在推理任务性能的关键行业标准。这些基准测试每年进行两次,以跟上AI技术的快速发展。最新版本MLPerf Inference v5.1包括了新的测试,反映了大型语言模型(LLM)和AI推理能力在实际应用中日益重要的地位。
专家分析
英伟达在MLPerf Inference基准测试中持续的主导地位,突显了其在AI硬件领域的领导地位。Blackwell Ultra架构代表了一个重大的进步,特别是在处理推理和大型语言模型推理等复杂AI工作负载的能力方面。GB300 NVL72系统的性能,尤其是在推理模型推理方面比Hopper提高了50倍,表明AI推理能力取得了重大进步。
关键要点:
- Blackwell Ultra维持了英伟达在AI推理领域的顶尖地位
- 该架构在处理复杂AI任务方面显示出显著改进
- 英伟达专注于机架规模系统,体现了可扩展性在AI基础设施中的重要性
补充数据和事实
最新的基准测试结果显示了令人印象深刻的性能提升:
- 每GPU性能比上一代提高了高达45%
- Blackwell Ultra的AI计算能力比原始Blackwell提高了1.5倍
- 每GPU吞吐量比Hopper架构提高了5倍
相关新闻
AI硬件性能的持续改善与跨行业对更复杂AI应用的日益需求相吻合。这一发展可能会加速自然语言处理、计算机视觉和AI辅助决策系统等领域的进步。
总结
英伟达在MLPerf Inference v5.1中凭借Blackwell Ultra架构取得的最新成就巩固了其在AI硬件领域的领导地位。随着AI的不断发展,对计算能力的需求越来越大,特别是在复杂的推理和大型语言模型处理任务方面,英伟达的进步必将在塑造AI应用和基础设施的未来中发挥关键作用。