[Disclaimer] This article is reconstructed based on information from external sources. Please verify the original source before referring to this content.
[Disclaimer] This article is reconstructed based on information from external sources. Please verify the original source before referring to this content.
[Disclaimer] This article is reconstructed based on information from external sources. Please verify the original source before referring to this content.
Le contenu suivant a été publié en ligne. Un résumé traduit est présenté ci-dessous. Consultez la source pour plus de détails.
NVIDIA a dévoilé son tout dernier GPU Blackwell Ultra, marquant une avancée significative dans la technologie des puces IA. Prévu pour une sortie au second semestre 2025, le Blackwell Ultra offre 1,5 fois plus de performances IA que son prédécesseur, le GB200. Il atteint jusqu’à 2,25 fois de meilleures performances sur des benchmarks d’apprentissage automatique spécifiques par rapport au GPU Hopper H100. La nouvelle architecture se vante de 1,1 exaFLOPS de calcul dense en virgule flottante, d’une mémoire HBM3e 1,5 fois plus importante et de capacités de calcul IA améliorées. Un seul système DGX avec huit GPU Blackwell peut traiter plus de 30 000 jetons par seconde sur de grands modèles de langage. Le Blackwell Ultra arbore une conception à double réticule avec 208 milliards de transistors, 640 cœurs Tensor de cinquième génération et prend en charge de nouveaux formats de précision comme la virgule flottante 4 bits. Ces innovations positionnent NVIDIA à l’avant-garde de l’accélération IA, alimentant les usines IA de nouvelle génération et les services IA à grande échelle avec des performances et une efficacité sans précédent.
L’introduction par NVIDIA du GPU Blackwell Ultra représente une avancée significative dans la technologie d’accélération de l’IA. Ce lancement s’appuie sur la position dominante de NVIDIA sur le marché des puces IA, où ils contrôlent actuellement 80 à 90 % du secteur des accélérateurs IA. L’architecture Blackwell, introduite pour la première fois début 2024, a évolué rapidement pour répondre à la demande croissante des usines IA et des services IA à grande échelle, la variante Ultra repoussant les limites des performances et de l’efficacité.
Analyse d’expert
Les améliorations du GPU Blackwell Ultra par rapport à ses prédécesseurs sont substantielles et multifacettes. L’augmentation de 1,5 fois des performances IA et l’amélioration de 2,25 fois sur des benchmarks d’apprentissage automatique spécifiques démontrent l’engagement de NVIDIA à faire progresser l’état de l’art du calcul IA. L’introduction de nouvelles fonctionnalités comme le format de virgule flottante 4 bits NVFP4 et la conception à double réticule avec 208 milliards de transistors illustre l’approche innovante de NVIDIA en matière de conception de puces.
Points clés :
1,1 exaFLOPS de calcul dense en virgule flottante, soit une augmentation de 50 % par rapport à la génération précédente
Des cœurs Tensor améliorés avec une accélération des couches d’attention deux fois plus rapide améliorent les performances pour les grands modèles de langage
L’intégration de l’informatique de confiance et des environnements d’exécution de confiance (TEE) répond aux préoccupations croissantes concernant la sécurité des données IA
Données supplémentaires et faits
L’impact du Blackwell Ultra va au-delà des simples métriques de performance :
Un seul système DGX avec huit GPU Blackwell atteint plus de 30 000 jetons par seconde sur le modèle DeepSeek-R1 de 671 milliards de paramètres
La plateforme augmente l’opportunité de revenus des centres de données IA de NVIDIA de 50 fois par rapport aux plateformes GB200 et Hopper
L’interconnexion NVLink de cinquième génération et la connectivité réseau de 800 Gb/s par GPU via les modules SuperNIC ConnectX-8 améliorent la communication et l’efficacité multi-GPU
Actualités connexes
Le lancement du Blackwell Ultra coïncide avec des tendances plus larges de l’industrie en matière d’accélération de l’IA. Les plans d’Azure de Microsoft de déployer des machines virtuelles basées sur le Blackwell Ultra en 2025 soulignent la demande croissante d’infrastructures IA haute performance dans les services cloud. De plus, l’application des GPU de l’architecture Blackwell dans des plateformes de cloud gaming comme GeForce NOW indique la stratégie de NVIDIA de tirer parti de ses innovations IA dans plusieurs secteurs.
Résumé
Le GPU NVIDIA Blackwell Ultra représente une avancée significative dans la technologie d’accélération de l’IA, renforçant le leadership de NVIDIA sur le marché des puces IA. Ses fonctionnalités améliorées en termes de performances, d’efficacité et de sécurité sont promises à façonner la prochaine génération d’usines IA et de services IA à grande échelle, avec le potentiel de redéfinir le paysage du calcul et du développement d’applications IA.
NVIDIA Blackwell Ultra: El chip de IA de próxima generación que revoluciona la informática
[Disclaimer] This article is reconstructed based on information from external sources. Please verify the original source before referring to this content.
El siguiente contenido se publicó en línea. A continuación, se presenta un resumen traducido. Consulte la fuente para obtener más detalles.
NVIDIA ha presentado su más reciente GPU Blackwell Ultra, marcando un avance significativo en la tecnología de chips de IA. Programado para su lanzamiento en la segunda mitad de 2025, el Blackwell Ultra ofrece un 1,5 veces más rendimiento de IA que su predecesor, el GB200. Alcanza hasta 2,25 veces más rendimiento en benchmarks de aprendizaje automático específicos en comparación con la GPU Hopper H100. La nueva arquitectura cuenta con 1,1 exaFLOPS de cómputo denso en punto flotante, 1,5 veces más memoria HBM3e y capacidades de cómputo de IA mejoradas. Un solo sistema DGX con ocho GPU Blackwell puede procesar más de 30,000 tokens por segundo en modelos de lenguaje a gran escala. El Blackwell Ultra presenta un diseño de doble retícula con 208 mil millones de transistores, 640 Tensor Cores de quinta generación y admite nuevos formatos de precisión como el punto flotante de 4 bits. Estas innovaciones posicionan a NVIDIA a la vanguardia de la aceleración de IA, impulsando las fábricas de IA de próxima generación y los servicios de IA a gran escala con un rendimiento y eficiencia sin precedentes.
La introducción del GPU Blackwell Ultra de NVIDIA representa un salto significativo en la tecnología de aceleración de IA. Este lanzamiento se basa en la posición dominante de NVIDIA en el mercado de chips de IA, donde actualmente controlan entre el 80-90% del sector de aceleradores de IA. La arquitectura Blackwell, presentada por primera vez a principios de 2024, ha evolucionado rápidamente para satisfacer las crecientes demandas de las fábricas de IA y los servicios de IA a gran escala, con la variante Ultra impulsando los límites del rendimiento y la eficiencia.
Análisis de expertos
Las mejoras del GPU Blackwell Ultra sobre sus predecesores son sustanciales y multifacéticas. El aumento del 1,5 veces en el rendimiento de IA y la mejora del 2,25 veces en benchmarks de aprendizaje automático específicos demuestran el compromiso de NVIDIA de avanzar en el estado del arte en el cómputo de IA. La introducción de nuevas características como el formato de punto flotante de 4 bits NVFP4 y el diseño de doble retícula con 208 mil millones de transistores muestra el enfoque innovador de NVIDIA en el diseño de chips.
Puntos clave:
1,1 exaFLOPS de cómputo denso en punto flotante representa un aumento del 50% con respecto a la generación anterior
Los Tensor Cores mejorados con el doble de aceleración de la capa de atención mejoran el rendimiento para los modelos de lenguaje a gran escala
La integración de la computación confidencial y los Entornos de Ejecución Confiables (TEE) aborda las crecientes preocupaciones sobre la seguridad de los datos de IA
Datos adicionales y hechos
El impacto del Blackwell Ultra va más allá de las métricas de rendimiento bruto:
Un solo sistema DGX con ocho GPU Blackwell logra más de 30,000 tokens por segundo en el modelo DeepSeek-R1 de 671 mil millones de parámetros
La plataforma aumenta la oportunidad de ingresos de los centros de datos de IA de NVIDIA en 50 veces en comparación con las plataformas GB200 y Hopper
El interconector NVLink de quinta generación y la conectividad de red de 800 Gb/s por GPU a través de los módulos SuperNIC ConnectX-8 mejoran la comunicación y la eficiencia entre múltiples GPU
Noticias relacionadas
El lanzamiento del Blackwell Ultra coincide con tendencias más amplias en la industria de la aceleración de IA. Los planes de Microsoft Azure de implementar máquinas virtuales basadas en Blackwell Ultra en 2025 destacan la creciente demanda de infraestructura de IA de alto rendimiento en los servicios en la nube. Además, la aplicación de GPU con arquitectura Blackwell en plataformas de juegos en la nube como GeForce NOW indica la estrategia de NVIDIA de aprovechar sus innovaciones de IA en varios sectores.
Resumen
El GPU Blackwell Ultra de NVIDIA representa un avance significativo en la tecnología de aceleración de IA, reforzando el liderazgo de NVIDIA en el mercado de chips de IA. Sus características mejoradas de rendimiento, eficiencia y seguridad están listas para impulsar la próxima generación de fábricas de IA y servicios de IA a gran escala, lo que podría dar forma al panorama del cómputo y el desarrollo de aplicaciones de IA.
NVIDIA Blackwell Ultra: Der nächste Generation KI-Chip, der das Rechnen revolutioniert
[Disclaimer] This article is reconstructed based on information from external sources. Please verify the original source before referring to this content.
Der folgende Inhalt wurde online veröffentlicht. Eine übersetzte Zusammenfassung wird nachstehend präsentiert. Weitere Details finden Sie in der Quelle.
NVIDIA hat seine neueste Blackwell Ultra GPU vorgestellt, die einen bedeutenden Fortschritt in der KI-Chip-Technologie markiert. Für die zweite Hälfte des Jahres 2025 geplant, liefert die Blackwell Ultra 1,5-mal mehr KI-Leistung als ihr Vorgänger, die GB200. Sie erreicht bis zu 2,25-mal höhere Leistung bei bestimmten ML-Benchmarks im Vergleich zur Hopper H100 GPU. Die neue Architektur bietet 1,1 ExaFLOPS an FP-Dichteberechnungen, 1,5-mal größeren HBM3e-Speicher und verbesserte KI-Rechenkapazitäten. Ein einzelnes DGX-System mit acht Blackwell-GPUs kann über 30.000 Token pro Sekunde auf großen Sprachmodellen verarbeiten. Die Blackwell Ultra verfügt über ein Dual-Reticle-Design mit 208 Milliarden Transistoren, 640 Tensor-Cores der fünften Generation und unterstützt neue Präzisionsformate wie 4-Bit-Gleitkommazahlen. Diese Innovationen positionieren NVIDIA an der Spitze der KI-Beschleunigung und treiben die nächste Generation von KI-Fabriken und großangelegte KI-Dienste mit beispielloser Leistung und Effizienz voran.
NVIDIA’s Einführung der Blackwell Ultra GPU stellt einen bedeutenden Durchbruch in der KI-Beschleunigungstechnologie dar. Diese Markteinführung baut auf NVIDIAs dominanter Position im KI-Chipmarkt auf, wo sie derzeit 80-90% des KI-Beschleunigermarktes kontrollieren. Die Blackwell-Architektur, die erstmals Anfang 2024 vorgestellt wurde, hat sich rasch weiterentwickelt, um den wachsenden Bedarf an KI-Fabriken und großangelegten KI-Diensten zu erfüllen, wobei die Ultra-Variante die Grenzen von Leistung und Effizienz verschiebt.
Expertenanalyse
Die Verbesserungen der Blackwell Ultra GPU gegenüber ihren Vorgängern sind beträchtlich und vielfältig. Der 1,5-fache Anstieg der KI-Leistung und die 2,25-fache Verbesserung bei bestimmten ML-Benchmarks zeigen NVIDIAs Engagement, den Stand der Technik in der KI-Berechnung voranzubringen. Die Einführung neuer Funktionen wie das NVFP4-4-Bit-Gleitkommaformat und das Dual-Reticle-Design mit 208 Milliarden Transistoren demonstriert NVIDIAs innovativen Ansatz im Chip-Design.
Schlüsselpunkte:
1,1 ExaFLOPS an FP-Dichteberechnungen stellen eine 50%ige Steigerung gegenüber der vorherigen Generation dar
Verbesserte Tensor-Cores mit doppelter Aufmerksamkeitsschichten-Beschleunigung verbessern die Leistung für große Sprachmodelle
Integration von vertraulichem Computing und vertrauenswürdigen Ausführungsumgebungen (TEE) adressiert wachsende Bedenken hinsichtlich der Datensicherheit von KI
Zusätzliche Daten und Fakten
Die Auswirkungen der Blackwell Ultra gehen über reine Leistungskennzahlen hinaus:
Ein einzelnes DGX-System mit acht Blackwell-GPUs erreicht über 30.000 Token pro Sekunde auf dem 671-Milliarden-Parameter-Modell DeepSeek-R1
Die Plattform erhöht NVIDIAs Umsatzchancen im KI-Rechenzentrumsbereich um das 50-Fache im Vergleich zu GB200- und Hopper-Plattformen
Die Interconnect-Technologie der fünften Generation NVLink und 800-Gb/s-Netzwerkkonnektivität pro GPU über ConnectX-8-SuperNIC-Module verbessern die Kommunikation und Effizienz mehrerer GPUs
Verwandte Nachrichten
Die Einführung der Blackwell Ultra fällt mit breiteren Branchentrends in der KI-Beschleunigung zusammen. Die Pläne von Microsoft Azure, 2025 VM-Instanzen auf Basis der Blackwell Ultra einzusetzen, unterstreichen die wachsende Nachfrage nach hochleistungsfähiger KI-Infrastruktur in Cloud-Diensten. Darüber hinaus deutet die Anwendung von Blackwell-Architektur-GPUs in Cloud-Gaming-Plattformen wie GeForce NOW auf NVIDIAs Strategie hin, seine KI-Innovationen in mehreren Sektoren zu nutzen.
Zusammenfassung
Die NVIDIA Blackwell Ultra GPU stellt einen bedeutenden Fortschritt in der KI-Beschleunigungstechnologie dar und festigt NVIDIAs Führungsposition im KI-Chipmarkt. Ihre verbesserte Leistung, Effizienz und Sicherheitsmerkmale sind darauf ausgerichtet, die nächste Generation von KI-Fabriken und großangelegte KI-Dienste anzutreiben und das Landschaft der KI-Berechnung und Anwendungsentwicklung möglicherweise neu zu gestalten.
NVIDIA Blackwell Ultra: The Next-Gen AI Chip Revolutionizing Computing
[Disclaimer] This article is reconstructed based on information from external sources. Please verify the original source before referring to this content.
The following content was published online. A translated summary is presented below. See the source for details.
NVIDIA has unveiled its latest Blackwell Ultra GPU, marking a significant advancement in AI chip technology. Set for release in the second half of 2025, the Blackwell Ultra delivers 1.5x more AI performance than its predecessor, the GB200. It achieves up to 2.25x higher performance on specific ML benchmarks compared to the Hopper H100 GPU. The new architecture boasts 1.1 exaFLOPS of FP dense compute, 1.5x larger HBM3e memory, and enhanced AI compute capabilities. A single DGX system with eight Blackwell GPUs can process over 30,000 tokens per second on large language models. The Blackwell Ultra features a dual-reticle design with 208 billion transistors, 640 fifth-generation Tensor Cores, and supports new precision formats like 4-bit floating point. These innovations position NVIDIA at the forefront of AI acceleration, powering next-generation AI factories and large-scale AI services with unprecedented performance and efficiency.
NVIDIA’s introduction of the Blackwell Ultra GPU represents a significant leap in AI acceleration technology. This launch builds upon NVIDIA’s dominant position in the AI chip market, where they currently control 80-90% of the AI accelerator sector. The Blackwell architecture, first introduced in early 2024, has evolved rapidly to meet the growing demands of AI factories and large-scale AI services, with the Ultra variant pushing the boundaries of performance and efficiency.
Expert Analysis
The Blackwell Ultra GPU’s enhancements over its predecessors are substantial and multifaceted. The 1.5x increase in AI performance and 2.25x improvement in specific ML benchmarks demonstrate NVIDIA’s commitment to advancing the state of the art in AI computation. The introduction of new features like the NVFP4 4-bit floating-point precision format and the dual-reticle design with 208 billion transistors showcases NVIDIA’s innovative approach to chip design.
Key points:
1.1 exaFLOPS of FP dense compute represents a 50% increase over the previous generation
Enhanced Tensor Cores with twice the attention-layer acceleration improve performance for large language models
Integration of confidential computing and Trusted Execution Environments (TEE) addresses growing concerns about AI data security
Additional Data and Fact Reinforcement
The Blackwell Ultra’s impact extends beyond raw performance metrics:
A single DGX system with eight Blackwell GPUs achieves over 30,000 tokens per second on the 671 billion parameter DeepSeek-R1 model
The platform increases NVIDIA’s AI data center revenue opportunity by 50x compared to GB200 and Hopper platforms
Fifth-generation NVLink interconnect and 800 Gb/s network connectivity per GPU via ConnectX-8 SuperNIC modules enhance multi-GPU communication and efficiency
Related News
The launch of Blackwell Ultra coincides with broader industry trends in AI acceleration. Microsoft Azure’s plans to deploy Blackwell Ultra-based VMs in 2025 highlight the growing demand for high-performance AI infrastructure in cloud services. Additionally, the application of Blackwell architecture GPUs in cloud gaming platforms like GeForce NOW indicates NVIDIA’s strategy to leverage its AI innovations across multiple sectors.
Summary
The NVIDIA Blackwell Ultra GPU represents a significant advancement in AI acceleration technology, reinforcing NVIDIA’s leadership in the AI chip market. Its enhanced performance, efficiency, and security features are poised to drive the next generation of AI factories and large-scale AI services, potentially reshaping the landscape of AI computation and application development.