Kontakt Support Mieten Beratung LinkedIn

NVIDIA

HGX B300

Die NVIDIA HGX B300 Plattform vereint acht Blackwell Ultra GPUs mit modernster NVLink- und Netzwerkarchitektur und liefert bis zu 30-fach mehr KI-Leistung für Rechenzentren der nächsten Generation.

NVIDIA HGX · Blackwell Ultra · AI und HPC Plattform

NVIDIA HGX B300 – Scale-Up-Plattform für generative KI, AI Factories und High-Performance-Computing

Die NVIDIA HGX Plattform vereint NVIDIA GPUs, NVIDIA NVLink, NVIDIA Networking und optimierte Software-Stacks für KI und High-Performance-Computing in einer End-to-End-Plattform für moderne Rechenzentren. Die NVIDIA HGX B300 integriert acht NVIDIA Blackwell Ultra GPUs mit Hochgeschwindigkeits-Interconnects und richtet sich an Unternehmen und Forschungseinrichtungen, die maximale Leistung für generative KI, Data Analytics, Training großer Modelle und HPC-Workloads benötigen.

Für AI Factories entwickelt

Die HGX B300 ist auf hohe Inferenz- und Trainingsleistung im großen Maßstab ausgelegt und unterstützt anspruchsvolle generative KI- und Reasoning-Workloads.

Acht Blackwell Ultra GPUs

Die Plattform kombiniert acht NVIDIA Blackwell Ultra SXM GPUs mit NVLink und NVLink Switch für schnellen Datenaustausch und hohe Skalierbarkeit innerhalb des Systems.

Netzwerkbereit für große Cluster

Mit NVIDIA Quantum InfiniBand oder Spectrum-X Ethernet lässt sich die Plattform für skalierte KI- und HPC-Infrastrukturen in modernen Rechenzentren ausbauen.

Unvergleichliche End-to-End-Plattform für beschleunigtes Computing

Die NVIDIA HGX Plattform bündelt die Leistungsfähigkeit von NVIDIA GPUs, NVIDIA NVLink, NVIDIA Networking und optimierten Software-Stacks für KI und High-Performance-Computing. Dadurch lassen sich moderne Rechenzentrumsumgebungen auf maximale Anwendungsleistung und eine schnellere Time-to-Insight ausrichten.

Die NVIDIA HGX B300 integriert acht NVIDIA Blackwell Ultra GPUs mit Hochgeschwindigkeits-Interconnects und positioniert sich als leistungsstarke Scale-Up-Plattform für generative KI, anspruchsvolle Datenanalyse und HPC. Im Vergleich zur HGX B200 nennt NVIDIA unter anderem 1,5-fach mehr FP4 Tensor Core FLOPS im dichten Format, doppelte Attention-Performance sowie mehr Netzwerkbandbreite innerhalb der Plattform.

KI-Leistung und Vielseitigkeit

Die HGX B300 adressiert Workloads, bei denen hoher Durchsatz, schnelle Reaktionszeiten und effiziente Kommunikation zwischen GPUs entscheidend sind. Damit eignet sie sich für Inferenz großer Modelle, Training im großen Maßstab und datenintensive Rechenaufgaben in produktiven KI-Umgebungen.

NVIDIA HGX B300 AI Factory Output und Reasoning-Performance
Visualisierung zur AI-Factory-Leistung der NVIDIA HGX B300. Leistungsangaben projektiert und vorbehaltlich Änderungen.

Mehr Output für AI Factories

Die sogenannte Frontier-Kurve stellt den Zusammenhang zwischen GPU-Durchsatz in Tokens pro Sekunde und der Interaktivität für einzelne Nutzer dar. Laut NVIDIA kann die HGX B300 am optimalen Schnittpunkt von Durchsatz und Reaktionszeit eine deutlich höhere AI-Factory-Leistung erreichen. In der gezeigten Darstellung wird eine bis zu 30-fache Steigerung gegenüber der NVIDIA Hopper Architektur hervorgehoben.

NVIDIA HGX B300 Trainingsvergleich für große KI-Modelle
Vergleich zur Trainingsleistung großer KI-Modelle. Projektionen vorbehaltlich Änderungen.

Skalierbares Training für große KI-Modelle

Für das Training großer Sprachmodelle hebt NVIDIA eine bis zu 2,6-fach höhere Trainingsleistung für Szenarien wie DeepSeek-R1 hervor. Die Plattform verfügt über mehr als 2 TB Hochgeschwindigkeitsspeicher und 14,4 TB/s NVLink Switch Bandbreite, um die Kommunikation zwischen den GPUs effizient zu halten und das Training im großen Maßstab zu unterstützen.

Beschleunigung durch NVIDIA Networking

In KI- und HPC-Clustern ist das Netzwerk ein zentraler Leistungsfaktor. Für scale-out-orientierte Umgebungen unterstützt NVIDIA HGX moderne Netzwerkarchitekturen mit NVIDIA Quantum InfiniBand und NVIDIA Spectrum-X. Beide Ansätze zielen auf geringe Latenz, hohe Bandbreite und eine bessere Auslastung verteilter Rechenressourcen.

Für KI-Cloud-Rechenzentren mit Ethernet-Infrastruktur positioniert NVIDIA Spectrum-X als Plattform für hohe KI-Leistung über Ethernet. In Verbindung mit passenden Switches und NICs unterstützt sie Performance-Isolation, vorhersehbare Ergebnisse bei parallelen KI-Jobs, Multi-Tenancy und Zero-Trust-orientierte Sicherheitskonzepte.

Typische Einsatzbereiche

  • Generative KI und große Sprachmodelle
  • AI Factories und skalierte Inferenz-Umgebungen
  • Training großer Modelle und multimodaler Systeme
  • High-Performance-Computing und Simulation
  • Datenanalyse und GPU-beschleunigte Rechenzentren

Highlights

Warum NVIDIA HGX B300 für moderne KI-Infrastrukturen relevant ist

Die HGX B300 kombiniert Blackwell Ultra GPUs, schnelle NVLink-Kommunikation und moderne Netzwerkoptionen zu einer Plattform für anspruchsvolle KI- und HPC-Workloads im Rechenzentrum.

8x Blackwell Ultra SXM

Eine leistungsstarke GPU-Basis für Scale-Up-Architekturen, Training großer Modelle und produktive Inferenz im Rechenzentrum.

14,4 TB/s NVLink Switch

Hohe Bandbreite für den Datenaustausch zwischen GPUs innerhalb der Plattform, wichtig für Training und parallele KI-Workloads.

2,1 TB Gesamtspeicher

Große Speicherressourcen für umfangreiche Modelle, große Kontexte und speicherintensive KI- und HPC-Szenarien.

1,6 TB/s Netzwerkbandbreite

Mehr Bandbreite für den scale-out-orientierten Einsatz in verteilten Infrastrukturen und AI-Factory-Architekturen.

Technische Daten

NVIDIA HGX Spezifikationen im Vergleich

Die NVIDIA HGX Plattform ist in Konfigurationen mit NVIDIA Blackwell und NVIDIA Blackwell Ultra verfügbar. Die folgende Übersicht stellt die im Ausgangsmaterial genannten Spezifikationen von HGX B300 und HGX B200 gegenüber.

 HGX B300HGX B200
Formfaktor 8x NVIDIA Blackwell Ultra SXM 8x NVIDIA Blackwell SXM
FP4 Tensor Core 144 PFLOPS | 108 PFLOPS 144 PFLOPS | 72 PFLOPS
FP8/FP6 Tensor Core 72 PFLOPS 72 PFLOPS
INT8 Tensor Core 3 POPS 72 POPS
FP16/BF16 Tensor Core 36 PFLOPS 36 PFLOPS
TF32 Tensor Core 18 PFLOPS 18 PFLOPS
FP32 600 TFLOPS 600 TFLOPS
FP64 / FP64 Tensor Core 10 TFLOPS 296 TFLOPS
Gesamtspeicher 2,1 TB 1,4 TB
NVIDIA NVLink Fünfte Generation Fünfte Generation
NVIDIA NVLink Switch NVLink 5 Switch NVLink 5 Switch
NVLink GPU-zu-GPU Bandbreite 1,8 TB/s 1,8 TB/s
Gesamt-NVLink-Bandbreite 14,4 TB/s 14,4 TB/s
Netzwerk-Bandbreite 1,6 TB/s 0,8 TB/s
Attention Performance 2x 1x

Hinweis: Leistungsangaben und Vergleichswerte können je nach Workload, Konfiguration und NVIDIA-Projektionen variieren. Herstellerangaben vorbehaltlich Änderungen.

Downloads

Datasheets zur NVIDIA Blackwell Plattform

Weiterführende technische Unterlagen zur Blackwell und Blackwell Ultra Plattform stehen als PDF zum Download bereit.

NVIDIA Blackwell Datasheet

Technische Informationen zur Blackwell Plattform als PDF.

Datasheet öffnen

NVIDIA Blackwell Ultra Datasheet

Technische Informationen zur Blackwell Ultra Plattform als PDF.

Datasheet öffnen

Beratung zur NVIDIA HGX B300 anfragen

Sie planen eine KI-Infrastruktur für generative KI, Training großer Modelle, AI Factories oder HPC? Wir unterstützen Sie bei Plattformauswahl, Architektur, Netzwerkdesign und der Einordnung passender NVIDIA Lösungen für Ihr Rechenzentrum.

Escape Technology auf LinkedIn folgen


Weitere Fragen? Wir liefern die Antwort.

Invalid Input
Invalid Input
Invalid Input
Invalid Input
Invalid Input