NVIDIA 黑威尔超级芯片:下一代 AI 芯片革新计算

科学技术

[Disclaimer] This article is reconstructed based on information from external sources. Please verify the original source before referring to this content.

新闻摘要

以下内容已在网上发布。下面提供了翻译摘要。详情请参见原文。

英伟达最新推出了Blackwell Ultra GPU,这标志着AI芯片技术取得了重大进步。Blackwell Ultra将于2025年下半年发布,其AI性能比前代GB200提高了1.5倍。与Hopper H100 GPU相比,在某些机器学习基准测试中的性能提高高达2.25倍。这种新架构拥有1.1 exaFLOPS的FP密集计算能力,HBM3e内存容量增大1.5倍,并且AI计算能力得到增强。一个配备8个Blackwell GPU的DGX系统可以在大型语言模型上每秒处理超过30,000个令牌。Blackwell Ultra采用双掩膜设计,拥有2080亿个晶体管,640个第五代张量核心,并支持新的4位浮点精度格式。这些创新使英伟达在AI加速领域处于领先地位,为下一代AI工厂和大规模AI服务提供前所未有的性能和效率。

来源: 英伟达

本站解析

背景和环境

Background and Context illustration

英伟达推出Blackwell Ultra GPU标志着AI加速技术取得了重大突破。这一推出进一步巩固了英伟达在AI芯片市场的主导地位,他们目前控制着80-90%的AI加速器市场份额。Blackwell架构于2024年初首次亮相,随着AI工厂和大规模AI服务的需求不断增长,该架构已经迅速演进,Blackwell Ultra版本将性能和效率推向新的高度。

专家分析

Blackwell Ultra GPU相比前代产品的改进是全方位的。AI性能提高1.5倍,在某些机器学习基准测试中性能提高高达2.25倍,体现了英伟达在推进AI计算技术发展方面的决心。引入NVFP4 4位浮点精度格式和拥有2080亿个晶体管的双掩膜设计等新特性,展现了英伟达在芯片设计方面的创新思路。

关键点:

  • 1.1 exaFLOPS的FP密集计算能力较上一代提高了50%
  • 增强的张量核心,注意力层加速性能提升一倍,有利于大型语言模型的性能
  • 集成机密计算和可信执行环境(TEE),解决了人们日益关注的AI数据安全问题

补充数据和事实

Blackwell Ultra的影响不仅体现在原始性能指标上:

  • 一个配备8个Blackwell GPU的DGX系统在671亿参数的DeepSeek-R1模型上可达到每秒30,000个令牌的处理速度
  • 该平台使英伟达的AI数据中心收入机会比GB200和Hopper平台增加了50倍
  • 第五代NVLink互联和每GPU 800 Gb/s的ConnectX-8 SuperNIC模块网络连接提高了多GPU之间的通信和效率

相关新闻

Blackwell Ultra的发布恰逢AI加速领域的整体发展趋势。微软Azure计划在2025年部署基于Blackwell Ultra的虚拟机,突显了高性能AI基础设施在云服务中的需求日益增长。此外,Blackwell架构GPU在GeForce NOW等云游戏平台的应用,反映了英伟达将其AI创新应用于多个领域的战略。

总结

Summary illustration

英伟达Blackwell Ultra GPU的推出标志着AI加速技术取得了重大进步,进一步巩固了英伟达在AI芯片市场的领导地位。其增强的性能、效率和安全特性,有望推动下一代AI工厂和大规模AI服务的发展,可能会重塑AI计算和应用开发的格局。

NVIDIA Blackwell Ultraの登場 – 次世代AIチップが計算処理を革新

科学・技術

[Disclaimer] This article is reconstructed based on information from external sources. Please verify the original source before referring to this content.

ニュース要約

以下の内容はオンラインで公開されたものです。その要約を日本語で提示します。詳細については原文をご参照ください。

NVIDIA は最新の Blackwell Ultra GPU を発表し、AI チップ技術の大幅な進化を示しました。2025年後半の発売を予定している Blackwell Ultra は、前世代の GB200 に比べて1.5倍のAIパフォーマンスを発揮します。また、Hopper H100 GPUと比較しても、特定のMLベンチマークで最大2.25倍の高パフォーマンスを実現しています。この新アーキテクチャには、1.1エクサFLOPSのFP密集演算、1.5倍大容量のHBM3eメモリ、そして強化されたAI演算機能が搭載されています。8基のBlackwell GPUを搭載したDGXシステムでは、大規模言語モデルの処理速度が毎秒30,000トークンを超えます。Blackwell Ultraは208億個のトランジスタ、640基の第5世代Tensorコア、4ビットの浮動小数点演算をサポートする新しい精度フォーマットなど、革新的な機能を備えています。これらの技術革新により、NVIDIAはAI加速分野の最前線に立ち、次世代のAIファクトリーやスケールの大きいAIサービスを、前例のないパフォーマンスと効率性で支えていきます。

出典: NVIDIA

本サイトによる解説

発表内容の背景

Background and Context illustration

NVIDIA が Blackwell Ultra GPU を発表したことは、AI加速技術の画期的な進歩を示しています。この製品投入は、NVIDIA がAIチップ市場で圧倒的な地位を築いていることを裏付けるものです。2024年初頭に登場したBlackwellアーキテクチャは、AIファクトリーや大規模AIサービスの高まるニーズに応えるべく、急速に進化を遂げてきました。その最上位モデルであるUltraは、性能と効率性の限界に挑戦しています。

専門的な分析

Blackwell Ultra GPUは、前世代からの大幅な改善点を多数備えています。AIパフォーマンスが1.5倍、特定のMLベンチマークで2.25倍の向上は、NVIDIAがAI演算の最先端を牽引し続けていることを示しています。新たに導入されたNVFP4 4ビット浮動小数点精度フォーマットや、208億個のトランジスタを搭載する二重レチクル設計など、チップ設計における革新的なアプローチが採用されています。

主な特徴:

  • 1.1エクサFLOPSのFP密集演算は、前世代から50%の向上
  • 注意機構層の処理性能が2倍に向上し、大規模言語モデルのパフォーマンスが向上
  • 機密コンピューティングとTrusted Execution Environment (TEE)の統合により、AIデータのセキュリティ対策が強化

追加データや根拠

Blackwell Ultraの影響は、単なるパフォーマンス指標を超えています:

  • 8基のBlackwell GPUを搭載したDGXシステムでは、6710億パラメータのDeepSeek-R1モデルの処理速度が毎秒30,000トークンを超える
  • このプラットフォームにより、NVIDIA のAIデータセンター収益機会が、GB200やHopperプラットフォームに比べて50倍に拡大
  • 第5世代NVLinkインターコネクトと、ConnectX-8 SuperNICモジュールによる800 Gb/sのネットワーク接続性が、マルチGPU間の通信と効率を向上

関連ニュース

Blackwell Ultraの発表は、AI加速分野における業界全体の動向と軌を一にしています。2025年にBlackwell UltraベースのバーチャルマシンをMicrosoft Azureに展開する計画は、クラウドサービスにおける高性能AIインフラへの需要の高まりを示しています。また、GeForce NOWなどのクラウドゲーミングプラットフォームでBlackwellアーキテクチャGPUが活用されることは、NVIDIAがAIイノベーションを複数の分野に展開しようとしていることを示唆しています。

まとめ

Summary illustration

NVIDIA Blackwell Ultra GPUは、AI加速技術の画期的な進歩を示しており、NVIDIAのAIチップ市場における主導的地位を一層強固なものにしています。その高性能、高効率、そして高セキュリティな機能は、次世代のAIファクトリーや大規模AIサービスを牽引し、AI計算とアプリケーション開発の景観を一変させる可能性があります。

NVIDIA Blackwell Ultra : Le Prochain Processeur IA Révolutionnant l’Informatique

Science and Technologie

[Disclaimer] This article is reconstructed based on information from external sources. Please verify the original source before referring to this content.

Résumé de l’actualité

Le contenu suivant a été publié en ligne. Un résumé traduit est présenté ci-dessous. Consultez la source pour plus de détails.

NVIDIA a dévoilé son tout dernier GPU Blackwell Ultra, marquant une avancée significative dans la technologie des puces IA. Prévu pour une sortie au second semestre 2025, le Blackwell Ultra offre 1,5 fois plus de performances IA que son prédécesseur, le GB200. Il atteint jusqu’à 2,25 fois de meilleures performances sur des benchmarks d’apprentissage automatique spécifiques par rapport au GPU Hopper H100. La nouvelle architecture se vante de 1,1 exaFLOPS de calcul dense en virgule flottante, d’une mémoire HBM3e 1,5 fois plus importante et de capacités de calcul IA améliorées. Un seul système DGX avec huit GPU Blackwell peut traiter plus de 30 000 jetons par seconde sur de grands modèles de langage. Le Blackwell Ultra arbore une conception à double réticule avec 208 milliards de transistors, 640 cœurs Tensor de cinquième génération et prend en charge de nouveaux formats de précision comme la virgule flottante 4 bits. Ces innovations positionnent NVIDIA à l’avant-garde de l’accélération IA, alimentant les usines IA de nouvelle génération et les services IA à grande échelle avec des performances et une efficacité sans précédent.

Source : NVIDIA

Notre commentaire

Contexte et arrière-plan

Background and Context illustration

L’introduction par NVIDIA du GPU Blackwell Ultra représente une avancée significative dans la technologie d’accélération de l’IA. Ce lancement s’appuie sur la position dominante de NVIDIA sur le marché des puces IA, où ils contrôlent actuellement 80 à 90 % du secteur des accélérateurs IA. L’architecture Blackwell, introduite pour la première fois début 2024, a évolué rapidement pour répondre à la demande croissante des usines IA et des services IA à grande échelle, la variante Ultra repoussant les limites des performances et de l’efficacité.

Analyse d’expert

Les améliorations du GPU Blackwell Ultra par rapport à ses prédécesseurs sont substantielles et multifacettes. L’augmentation de 1,5 fois des performances IA et l’amélioration de 2,25 fois sur des benchmarks d’apprentissage automatique spécifiques démontrent l’engagement de NVIDIA à faire progresser l’état de l’art du calcul IA. L’introduction de nouvelles fonctionnalités comme le format de virgule flottante 4 bits NVFP4 et la conception à double réticule avec 208 milliards de transistors illustre l’approche innovante de NVIDIA en matière de conception de puces.

Points clés :

  • 1,1 exaFLOPS de calcul dense en virgule flottante, soit une augmentation de 50 % par rapport à la génération précédente
  • Des cœurs Tensor améliorés avec une accélération des couches d’attention deux fois plus rapide améliorent les performances pour les grands modèles de langage
  • L’intégration de l’informatique de confiance et des environnements d’exécution de confiance (TEE) répond aux préoccupations croissantes concernant la sécurité des données IA

Données supplémentaires et faits

L’impact du Blackwell Ultra va au-delà des simples métriques de performance :

  • Un seul système DGX avec huit GPU Blackwell atteint plus de 30 000 jetons par seconde sur le modèle DeepSeek-R1 de 671 milliards de paramètres
  • La plateforme augmente l’opportunité de revenus des centres de données IA de NVIDIA de 50 fois par rapport aux plateformes GB200 et Hopper
  • L’interconnexion NVLink de cinquième génération et la connectivité réseau de 800 Gb/s par GPU via les modules SuperNIC ConnectX-8 améliorent la communication et l’efficacité multi-GPU

Actualités connexes

Le lancement du Blackwell Ultra coïncide avec des tendances plus larges de l’industrie en matière d’accélération de l’IA. Les plans d’Azure de Microsoft de déployer des machines virtuelles basées sur le Blackwell Ultra en 2025 soulignent la demande croissante d’infrastructures IA haute performance dans les services cloud. De plus, l’application des GPU de l’architecture Blackwell dans des plateformes de cloud gaming comme GeForce NOW indique la stratégie de NVIDIA de tirer parti de ses innovations IA dans plusieurs secteurs.

Résumé

Summary illustration

Le GPU NVIDIA Blackwell Ultra représente une avancée significative dans la technologie d’accélération de l’IA, renforçant le leadership de NVIDIA sur le marché des puces IA. Ses fonctionnalités améliorées en termes de performances, d’efficacité et de sécurité sont promises à façonner la prochaine génération d’usines IA et de services IA à grande échelle, avec le potentiel de redéfinir le paysage du calcul et du développement d’applications IA.

NVIDIA Blackwell Ultra: El chip de IA de próxima generación que revoluciona la informática

Ciencia y Tecnología

[Disclaimer] This article is reconstructed based on information from external sources. Please verify the original source before referring to this content.

Resumen de noticias

El siguiente contenido se publicó en línea. A continuación, se presenta un resumen traducido. Consulte la fuente para obtener más detalles.

NVIDIA ha presentado su más reciente GPU Blackwell Ultra, marcando un avance significativo en la tecnología de chips de IA. Programado para su lanzamiento en la segunda mitad de 2025, el Blackwell Ultra ofrece un 1,5 veces más rendimiento de IA que su predecesor, el GB200. Alcanza hasta 2,25 veces más rendimiento en benchmarks de aprendizaje automático específicos en comparación con la GPU Hopper H100. La nueva arquitectura cuenta con 1,1 exaFLOPS de cómputo denso en punto flotante, 1,5 veces más memoria HBM3e y capacidades de cómputo de IA mejoradas. Un solo sistema DGX con ocho GPU Blackwell puede procesar más de 30,000 tokens por segundo en modelos de lenguaje a gran escala. El Blackwell Ultra presenta un diseño de doble retícula con 208 mil millones de transistores, 640 Tensor Cores de quinta generación y admite nuevos formatos de precisión como el punto flotante de 4 bits. Estas innovaciones posicionan a NVIDIA a la vanguardia de la aceleración de IA, impulsando las fábricas de IA de próxima generación y los servicios de IA a gran escala con un rendimiento y eficiencia sin precedentes.

Fuente: NVIDIA

Nuestro comentario

Antecedentes y contexto

Background and Context illustration

La introducción del GPU Blackwell Ultra de NVIDIA representa un salto significativo en la tecnología de aceleración de IA. Este lanzamiento se basa en la posición dominante de NVIDIA en el mercado de chips de IA, donde actualmente controlan entre el 80-90% del sector de aceleradores de IA. La arquitectura Blackwell, presentada por primera vez a principios de 2024, ha evolucionado rápidamente para satisfacer las crecientes demandas de las fábricas de IA y los servicios de IA a gran escala, con la variante Ultra impulsando los límites del rendimiento y la eficiencia.

Análisis de expertos

Las mejoras del GPU Blackwell Ultra sobre sus predecesores son sustanciales y multifacéticas. El aumento del 1,5 veces en el rendimiento de IA y la mejora del 2,25 veces en benchmarks de aprendizaje automático específicos demuestran el compromiso de NVIDIA de avanzar en el estado del arte en el cómputo de IA. La introducción de nuevas características como el formato de punto flotante de 4 bits NVFP4 y el diseño de doble retícula con 208 mil millones de transistores muestra el enfoque innovador de NVIDIA en el diseño de chips.

Puntos clave:

  • 1,1 exaFLOPS de cómputo denso en punto flotante representa un aumento del 50% con respecto a la generación anterior
  • Los Tensor Cores mejorados con el doble de aceleración de la capa de atención mejoran el rendimiento para los modelos de lenguaje a gran escala
  • La integración de la computación confidencial y los Entornos de Ejecución Confiables (TEE) aborda las crecientes preocupaciones sobre la seguridad de los datos de IA

Datos adicionales y hechos

El impacto del Blackwell Ultra va más allá de las métricas de rendimiento bruto:

  • Un solo sistema DGX con ocho GPU Blackwell logra más de 30,000 tokens por segundo en el modelo DeepSeek-R1 de 671 mil millones de parámetros
  • La plataforma aumenta la oportunidad de ingresos de los centros de datos de IA de NVIDIA en 50 veces en comparación con las plataformas GB200 y Hopper
  • El interconector NVLink de quinta generación y la conectividad de red de 800 Gb/s por GPU a través de los módulos SuperNIC ConnectX-8 mejoran la comunicación y la eficiencia entre múltiples GPU

Noticias relacionadas

El lanzamiento del Blackwell Ultra coincide con tendencias más amplias en la industria de la aceleración de IA. Los planes de Microsoft Azure de implementar máquinas virtuales basadas en Blackwell Ultra en 2025 destacan la creciente demanda de infraestructura de IA de alto rendimiento en los servicios en la nube. Además, la aplicación de GPU con arquitectura Blackwell en plataformas de juegos en la nube como GeForce NOW indica la estrategia de NVIDIA de aprovechar sus innovaciones de IA en varios sectores.

Resumen

Summary illustration

El GPU Blackwell Ultra de NVIDIA representa un avance significativo en la tecnología de aceleración de IA, reforzando el liderazgo de NVIDIA en el mercado de chips de IA. Sus características mejoradas de rendimiento, eficiencia y seguridad están listas para impulsar la próxima generación de fábricas de IA y servicios de IA a gran escala, lo que podría dar forma al panorama del cómputo y el desarrollo de aplicaciones de IA.

NVIDIA Blackwell Ultra: Der nächste Generation KI-Chip, der das Rechnen revolutioniert

Wissenschaft and Technologie

[Disclaimer] This article is reconstructed based on information from external sources. Please verify the original source before referring to this content.

Nachrichtenzusammenfassung

Der folgende Inhalt wurde online veröffentlicht. Eine übersetzte Zusammenfassung wird nachstehend präsentiert. Weitere Details finden Sie in der Quelle.

NVIDIA hat seine neueste Blackwell Ultra GPU vorgestellt, die einen bedeutenden Fortschritt in der KI-Chip-Technologie markiert. Für die zweite Hälfte des Jahres 2025 geplant, liefert die Blackwell Ultra 1,5-mal mehr KI-Leistung als ihr Vorgänger, die GB200. Sie erreicht bis zu 2,25-mal höhere Leistung bei bestimmten ML-Benchmarks im Vergleich zur Hopper H100 GPU. Die neue Architektur bietet 1,1 ExaFLOPS an FP-Dichteberechnungen, 1,5-mal größeren HBM3e-Speicher und verbesserte KI-Rechenkapazitäten. Ein einzelnes DGX-System mit acht Blackwell-GPUs kann über 30.000 Token pro Sekunde auf großen Sprachmodellen verarbeiten. Die Blackwell Ultra verfügt über ein Dual-Reticle-Design mit 208 Milliarden Transistoren, 640 Tensor-Cores der fünften Generation und unterstützt neue Präzisionsformate wie 4-Bit-Gleitkommazahlen. Diese Innovationen positionieren NVIDIA an der Spitze der KI-Beschleunigung und treiben die nächste Generation von KI-Fabriken und großangelegte KI-Dienste mit beispielloser Leistung und Effizienz voran.

Quelle: NVIDIA

Unser Kommentar

Hintergrund und Kontext

Background and Context illustration

NVIDIA’s Einführung der Blackwell Ultra GPU stellt einen bedeutenden Durchbruch in der KI-Beschleunigungstechnologie dar. Diese Markteinführung baut auf NVIDIAs dominanter Position im KI-Chipmarkt auf, wo sie derzeit 80-90% des KI-Beschleunigermarktes kontrollieren. Die Blackwell-Architektur, die erstmals Anfang 2024 vorgestellt wurde, hat sich rasch weiterentwickelt, um den wachsenden Bedarf an KI-Fabriken und großangelegten KI-Diensten zu erfüllen, wobei die Ultra-Variante die Grenzen von Leistung und Effizienz verschiebt.

Expertenanalyse

Die Verbesserungen der Blackwell Ultra GPU gegenüber ihren Vorgängern sind beträchtlich und vielfältig. Der 1,5-fache Anstieg der KI-Leistung und die 2,25-fache Verbesserung bei bestimmten ML-Benchmarks zeigen NVIDIAs Engagement, den Stand der Technik in der KI-Berechnung voranzubringen. Die Einführung neuer Funktionen wie das NVFP4-4-Bit-Gleitkommaformat und das Dual-Reticle-Design mit 208 Milliarden Transistoren demonstriert NVIDIAs innovativen Ansatz im Chip-Design.

Schlüsselpunkte:

  • 1,1 ExaFLOPS an FP-Dichteberechnungen stellen eine 50%ige Steigerung gegenüber der vorherigen Generation dar
  • Verbesserte Tensor-Cores mit doppelter Aufmerksamkeitsschichten-Beschleunigung verbessern die Leistung für große Sprachmodelle
  • Integration von vertraulichem Computing und vertrauenswürdigen Ausführungsumgebungen (TEE) adressiert wachsende Bedenken hinsichtlich der Datensicherheit von KI

Zusätzliche Daten und Fakten

Die Auswirkungen der Blackwell Ultra gehen über reine Leistungskennzahlen hinaus:

  • Ein einzelnes DGX-System mit acht Blackwell-GPUs erreicht über 30.000 Token pro Sekunde auf dem 671-Milliarden-Parameter-Modell DeepSeek-R1
  • Die Plattform erhöht NVIDIAs Umsatzchancen im KI-Rechenzentrumsbereich um das 50-Fache im Vergleich zu GB200- und Hopper-Plattformen
  • Die Interconnect-Technologie der fünften Generation NVLink und 800-Gb/s-Netzwerkkonnektivität pro GPU über ConnectX-8-SuperNIC-Module verbessern die Kommunikation und Effizienz mehrerer GPUs

Verwandte Nachrichten

Die Einführung der Blackwell Ultra fällt mit breiteren Branchentrends in der KI-Beschleunigung zusammen. Die Pläne von Microsoft Azure, 2025 VM-Instanzen auf Basis der Blackwell Ultra einzusetzen, unterstreichen die wachsende Nachfrage nach hochleistungsfähiger KI-Infrastruktur in Cloud-Diensten. Darüber hinaus deutet die Anwendung von Blackwell-Architektur-GPUs in Cloud-Gaming-Plattformen wie GeForce NOW auf NVIDIAs Strategie hin, seine KI-Innovationen in mehreren Sektoren zu nutzen.

Zusammenfassung

Summary illustration

Die NVIDIA Blackwell Ultra GPU stellt einen bedeutenden Fortschritt in der KI-Beschleunigungstechnologie dar und festigt NVIDIAs Führungsposition im KI-Chipmarkt. Ihre verbesserte Leistung, Effizienz und Sicherheitsmerkmale sind darauf ausgerichtet, die nächste Generation von KI-Fabriken und großangelegte KI-Dienste anzutreiben und das Landschaft der KI-Berechnung und Anwendungsentwicklung möglicherweise neu zu gestalten.

NVIDIA Blackwell Ultra: The Next-Gen AI Chip Revolutionizing Computing

Science and Technology

[Disclaimer] This article is reconstructed based on information from external sources. Please verify the original source before referring to this content.

News Summary

The following content was published online. A translated summary is presented below. See the source for details.

NVIDIA has unveiled its latest Blackwell Ultra GPU, marking a significant advancement in AI chip technology. Set for release in the second half of 2025, the Blackwell Ultra delivers 1.5x more AI performance than its predecessor, the GB200. It achieves up to 2.25x higher performance on specific ML benchmarks compared to the Hopper H100 GPU. The new architecture boasts 1.1 exaFLOPS of FP dense compute, 1.5x larger HBM3e memory, and enhanced AI compute capabilities. A single DGX system with eight Blackwell GPUs can process over 30,000 tokens per second on large language models. The Blackwell Ultra features a dual-reticle design with 208 billion transistors, 640 fifth-generation Tensor Cores, and supports new precision formats like 4-bit floating point. These innovations position NVIDIA at the forefront of AI acceleration, powering next-generation AI factories and large-scale AI services with unprecedented performance and efficiency.

Source: NVIDIA

Our Commentary

Background and Context

Background and Context illustration

NVIDIA’s introduction of the Blackwell Ultra GPU represents a significant leap in AI acceleration technology. This launch builds upon NVIDIA’s dominant position in the AI chip market, where they currently control 80-90% of the AI accelerator sector. The Blackwell architecture, first introduced in early 2024, has evolved rapidly to meet the growing demands of AI factories and large-scale AI services, with the Ultra variant pushing the boundaries of performance and efficiency.

Expert Analysis

The Blackwell Ultra GPU’s enhancements over its predecessors are substantial and multifaceted. The 1.5x increase in AI performance and 2.25x improvement in specific ML benchmarks demonstrate NVIDIA’s commitment to advancing the state of the art in AI computation. The introduction of new features like the NVFP4 4-bit floating-point precision format and the dual-reticle design with 208 billion transistors showcases NVIDIA’s innovative approach to chip design.

Key points:

  • 1.1 exaFLOPS of FP dense compute represents a 50% increase over the previous generation
  • Enhanced Tensor Cores with twice the attention-layer acceleration improve performance for large language models
  • Integration of confidential computing and Trusted Execution Environments (TEE) addresses growing concerns about AI data security

Additional Data and Fact Reinforcement

The Blackwell Ultra’s impact extends beyond raw performance metrics:

  • A single DGX system with eight Blackwell GPUs achieves over 30,000 tokens per second on the 671 billion parameter DeepSeek-R1 model
  • The platform increases NVIDIA’s AI data center revenue opportunity by 50x compared to GB200 and Hopper platforms
  • Fifth-generation NVLink interconnect and 800 Gb/s network connectivity per GPU via ConnectX-8 SuperNIC modules enhance multi-GPU communication and efficiency

Related News

The launch of Blackwell Ultra coincides with broader industry trends in AI acceleration. Microsoft Azure’s plans to deploy Blackwell Ultra-based VMs in 2025 highlight the growing demand for high-performance AI infrastructure in cloud services. Additionally, the application of Blackwell architecture GPUs in cloud gaming platforms like GeForce NOW indicates NVIDIA’s strategy to leverage its AI innovations across multiple sectors.

Summary

Summary illustration

The NVIDIA Blackwell Ultra GPU represents a significant advancement in AI acceleration technology, reinforcing NVIDIA’s leadership in the AI chip market. Its enhanced performance, efficiency, and security features are poised to drive the next generation of AI factories and large-scale AI services, potentially reshaping the landscape of AI computation and application development.

タイトルとURLをコピーしました