KI-Chip Nvidia Blackwell: KI-Revolution der nächsten Generation

Von Dipl.-Ing. (FH) Hendrik Härter 3 min Lesedauer

Anbieter zum Thema

Der Chipkonzern Nvidia will seine führende Rolle bei Technik für künstliche Intelligenz ausbauen. Firmenchef Jensen Huang stellte die aktuelle KI-Plattform vor: den Chip Blackwell. Dieser ist noch einmal leistungsfähiger als der aktuelle Grace Hopper.

Mit dem KI-Chip Blackwell will Nvidia die nächste Generation der künstlichen Intelligenz einläuten.
Mit dem KI-Chip Blackwell will Nvidia die nächste Generation der künstlichen Intelligenz einläuten.
(Bild: Nvidia)

Nvidia profitiert vom aktuellen Boom bei künstlicher Intelligenz. Damit das Unternehmen weiter eine führende Rolle in der KI-Technik einnehmen wird, hat Nvidia-Chef Jensen Huang in seiner Keynote am vergangenen Montag eine neue Generation einer KI-Computerplattform vorgestellt. Das System Blackwell bezeichnet Nvidia als „Antrieb einer neuen industriellen Revolution“. Der KI-Chip ist nach dem amerikanischen Mathematiker David Blackwell benannt.

Der Konzern will auch seine Rolle bei der Erzeugung von Inhalten mit künstlicher Intelligenz ausbauen. „Das Blackwell-System sei darin 30-mal besser als Hopper“, betonte Huang am Montag auf der hauseigenen Entwicklerkonferenz GTC in San Jose.

Der GB200 Grace Blackwell Chip verbindet zwei Tensor-Core-GPUs vom Typ B200 mit der Grace-CPU über einen Die-to-Die-Link. Konkret handelt es sich um den Ultra-Low-Power NVLink mit einer Datenrate von 900 GByte/s. Die von Nvidia entwickelte Blackwell-GPU soll in der Lage sein, Modelle mit bis zu 10 Billionen Parametern zu berechnen. Dazu stehen auf dem Chip 208 Milliarden Transistoren bereit.

Für eine entsprechend hohe KI-Rechenleistung können Systeme, die mit dem GB200 betrieben werden, an die Ethernet-Plattformen Quantum-X800 InfiniBand und Spectrum-X800 angeschlossen werden. Damit können Geschwindigkeiten von bis zu 800 GBit/s erreicht werden.

Einsatz des Blackwell Chips

Eingesetzt wird der GB200 als Schlüsselkomponente im GB200 NVL72. Dabei handelt es sich um eine leistungsstarke und wassergekühlte Rack-Lösung, die 36 GB200-Beschleuniger enthält. Jeder GB200-Beschleuniger besteht aus einer Grace-CPU und zwei Blackwell-GPUs, im Gegensatz zum vorherigen GH200-Beschleuniger, der eine Grace-CPU und eine Hopper-GPU enthielt.

Die GPUs sind nicht mehr auf dem gleichen Board wie die Grace-CPU angeordnet, sondern auf einem separaten Modul innerhalb des Servers. Die Verbindung zwischen der Grace-CPU und den Blackwell-GPUs erfolgt über NVLink C2C mit einer bidirektionalen Bandbreite von 900 GB/s. Jeder GB200-Beschleuniger verfügt über insgesamt 864 GByte Speicherkapazität, wobei jede der beiden Blackwell-GPUs mit 192 GByte HBM3E-Speicher an die Grace-CPU angebunden ist.

Daten mit der BlueField-3 verarbeiten

Der GB200 NVL72 enthält die Datenverarbeitungseinheiten BlueField-3, die es ermöglichen, Cloud-Netzwerkbeschleunigung, Composable Storage, Zero-Trust-Sicherheit und GPU-Compute-Elastizität in Hyperscale-KI-Clouds zu realisieren.

Diese Kombination bietet eine bis zu 30-fache Leistungssteigerung im Vergleich zur gleichen Anzahl von H100 Tensor Core GPUs für LLM-Inferenz-Workloads von Nvidia. Zusätzlich reduziert der GB200 NVL72 die Kosten und den Energieverbrauch um das bis zu 25-fache. Diese Integration von BlueField-3 in den GB200 NVL72 ermöglicht fortschrittliche Funktionen und eine erhebliche Verbesserung der Leistung und Effizienz in rechenintensiven KI-Anwendungen und Cloud-Umgebungen.

Was mit dem KI-Chip möglich ist

Die Hardware von Nvidia dominiert die Rechenzentren für das KI-Training. Darüber hinaus plant Nvidia, seine Rolle bei der Erstellung von Inhalten mit künstlicher Intelligenz auszubauen. CEO Jensen Huang betonte, dass das Blackwell-System beim KI-Training 30-mal besser sei als Hopper. Neben dieser Leistungsoptimierung bietet Nvidia neue Software an, die über Schnittstellen auch über die Cloud genutzt werden kann.

„Mit Grace Hopper hätte man zum Beispiel den Chatbot ChatGPT innerhalb von drei Monaten mit 8.000 Nvidia-Chips und einem Stromverbrauch von 15 Megawatt trainieren können“, sagte Huang. „Mit Blackwell schaffe man das in derselben Zeit mit 2.000 Chips und 4 Megawatt Strom.

Die Zukunft der künstlichen Intelligenz

Nvidia hat ein Computersystem für die Zukunft entwickelt, das darauf abzielt, dass die meisten Inhalte nicht mehr vorgefertigt aus Speichern abgerufen werden, sondern dass KI-Software sie basierend auf der aktuellen Situation frisch erzeugt.

Jensen Huang, CEO von Nvidia, ist überzeugt, dass diese Entwicklung bevorsteht. Ein Beispiel dafür ist die Möglichkeit, sich in Zukunft mit Gebäuden per Chatbot zu unterhalten, anstatt Daten an verschiedenen Orten einzusehen. Diese Vision zeigt den Fortschritt in der KI-Technologie und wie sie in der Lage sein wird, personalisierte und kontextbezogene Inhalte in Echtzeit zu generieren und somit die Interaktionen mit Technologie auf eine neue Ebene zu heben.

Die ursprünglich für Grafikkarten entwickelten Nvidia-Techniken bewähren sich schon seit Langem bei der Rechenarbeit für Anwendungen mit künstlicher Intelligenz. Konkurrenten wie Intel und AMD konnten bisher keinen Anschluss finden. Das lässt das Geschäft – und den Börsenwert – von Nvidia rasant wachsen. Große KI-Unternehmen wie Microsoft, Google und Amazon planen bereits den Einsatz von Blackwell.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

(ID:49970123)