【免责声明】 本文是基于外部来源的信息重新整理的。请在参考本文内容前核实原始来源。
新闻摘要
以下内容已在网上发布。下面提供了翻译摘要。详情请参见原文。
英伟达最新推出了Blackwell Ultra GPU,这标志着AI芯片技术取得了重大进步。Blackwell Ultra将于2025年下半年发布,其AI性能比前代GB200提高了1.5倍。与Hopper H100 GPU相比,在某些机器学习基准测试中的性能提高高达2.25倍。这种新架构拥有1.1 exaFLOPS的FP密集计算能力,HBM3e内存容量增大1.5倍,并且AI计算能力得到增强。一个配备8个Blackwell GPU的DGX系统可以在大型语言模型上每秒处理超过30,000个令牌。Blackwell Ultra采用双掩膜设计,拥有2080亿个晶体管,640个第五代张量核心,并支持新的4位浮点精度格式。这些创新使英伟达在AI加速领域处于领先地位,为下一代AI工厂和大规模AI服务提供前所未有的性能和效率。
来源: 英伟达
本站解析
背景和环境
英伟达推出Blackwell Ultra GPU标志着AI加速技术取得了重大突破。这一推出进一步巩固了英伟达在AI芯片市场的主导地位,他们目前控制着80-90%的AI加速器市场份额。Blackwell架构于2024年初首次亮相,随着AI工厂和大规模AI服务的需求不断增长,该架构已经迅速演进,Blackwell Ultra版本将性能和效率推向新的高度。
专家分析
Blackwell Ultra GPU相比前代产品的改进是全方位的。AI性能提高1.5倍,在某些机器学习基准测试中性能提高高达2.25倍,体现了英伟达在推进AI计算技术发展方面的决心。引入NVFP4 4位浮点精度格式和拥有2080亿个晶体管的双掩膜设计等新特性,展现了英伟达在芯片设计方面的创新思路。
关键点:
- 1.1 exaFLOPS的FP密集计算能力较上一代提高了50%
- 增强的张量核心,注意力层加速性能提升一倍,有利于大型语言模型的性能
- 集成机密计算和可信执行环境(TEE),解决了人们日益关注的AI数据安全问题
补充数据和事实
Blackwell Ultra的影响不仅体现在原始性能指标上:
- 一个配备8个Blackwell GPU的DGX系统在671亿参数的DeepSeek-R1模型上可达到每秒30,000个令牌的处理速度
- 该平台使英伟达的AI数据中心收入机会比GB200和Hopper平台增加了50倍
- 第五代NVLink互联和每GPU 800 Gb/s的ConnectX-8 SuperNIC模块网络连接提高了多GPU之间的通信和效率
相关新闻
Blackwell Ultra的发布恰逢AI加速领域的整体发展趋势。微软Azure计划在2025年部署基于Blackwell Ultra的虚拟机,突显了高性能AI基础设施在云服务中的需求日益增长。此外,Blackwell架构GPU在GeForce NOW等云游戏平台的应用,反映了英伟达将其AI创新应用于多个领域的战略。
总结
英伟达Blackwell Ultra GPU的推出标志着AI加速技术取得了重大进步,进一步巩固了英伟达在AI芯片市场的领导地位。其增强的性能、效率和安全特性,有望推动下一代AI工厂和大规模AI服务的发展,可能会重塑AI计算和应用开发的格局。