Prozessoren für Rechenzentren Maia, Cobalt: Microsoft hat eigene KI-Chips entwickelt

Von Michael Eckstein 7 min Lesedauer

Anbieter zum Thema

Auf eigene Hardware und Applikationen abgestimmte Prozessoren können energieeffizienter und schneller rechnen als Bausteine von der Stange. Microsoft hat deswegen eigene Chips entwickelt: Maia ist ein auf generative KI-Workloads ausgerichtetes Silizium, während Cobalt cloudbasierte Services beschleunigen soll.

Microsoft lässt seinen Maia-100-KI-Beschleuniger bei TSMC im N5-Prozess fertigen. Er soll rund 105 Milliarden Transistoren vereinen.
Microsoft lässt seinen Maia-100-KI-Beschleuniger bei TSMC im N5-Prozess fertigen. Er soll rund 105 Milliarden Transistoren vereinen.
(Bild: Microsoft)

Immer wieder Apple: Der Konzern aus Cupertino hat wohl das spektakulärste Comeback aller Technologieunternehmen hingelegt. Vom fast bankrotten Übernahmekandidaten in den 1990er Jahren – angeblich waren IBM, Oracle und Canon interessiert – schaffte er es zum heute wertvollsten Unternehmen der Welt. Mit der Rückkehr von Steve Jobs 1996 zu der von ihm 1976 gegründeten Firma kam auch der Erfolg zurück. Bonbonbunte iMacs, iPods und schließlich iPhone und iPads wurden zu Verkaufsschlagern. Neuere iMacs und MacBooks machten klar, dass Computernutzer nicht nur auf Rechenleistung, sondern auch auf Design achten. Das iPhone gründete 2007 gleich eine neue Geräteklasse und machte Apple zum Technologie- und Marktführer der Smartphone-Ära.

Das iPhone markiert in mehrfacher Hinsicht einen Wendepunkt: Apple begann früh, auf diese Plattform abgestimmte, eigene Chips zu entwickeln. Während das Ur-iPhone von 2007 noch auf einem von Samsung hergestellten ARM1176-Prozessor basierte, kam 2010 das iPhone 4 mit dem Apple-A4-Prozessor auf den Markt. 2020 verkündete das Unternehmen die Abkehr von Prozessorlieferant Intel und stattet seitdem auch seine PCs und Notebooks mit eigenen Prozessoren aus, die in Punkto Energieeffizienz und Rechenleistung alle anderen PC-Chips in den Schatten stellen.

Mit eigenen KI-Chips raus aus Nvidia-Abhängigkeit

Hier schließt sich der Kreis zu Microsoft: Auch der Konzern aus Redmond hat entschieden, eigene Prozessoren zu entwickeln. Allerdings nicht für Smartphones und PCs, sondern für sein Cloud-Geschäft. Auf der Hausmesse „Microsoft Ignite“ hat das Unternehmen nun zwei maßgeschneiderte Chips und integrierte Systeme vorgestellt: Den „Azure Maia AI Accelerator“, der für Aufgaben der künstlichen Intelligenz (KI) und der generativen KI optimiert ist, und die „Azure Cobalt CPU“, die auf die Ausführung allgemeiner Rechenlasten in der Microsoft Cloud zugeschnitten ist.

Nach eigenen Angaben sind die Chips „das letzte Puzzlestück für Microsoft, um Infrastruktursysteme bereitzustellen, die von der Siliziumauswahl über Software und Server bis hin zu Racks und Kühlsystemen von Grund auf neu konzipiert wurden und für interne und kundenspezifische Arbeitslasten optimiert werden können“. Zunächst werden sie demnach die Dienste des Unternehmens wie Microsoft Copilot oder Azure OpenAI Service unterstützen.

„Wir gestalten jeden Aspekt unserer Rechenzentren neu“, sagte Scott Guthrie, Executive Vice President der Cloud + AI Group von Microsoft. „Bei der Größenordnung, in der wir arbeiten, ist es für uns wichtig, jede Schicht des Infrastruktur-Stacks zu optimieren und zu integrieren, um die Leistung zu maximieren, unsere Lieferkette zu diversifizieren und den Kunden eine Infrastrukturauswahl zu bieten.“

Armv9-Architektur als Grundlage

Der Cobalt-Chip basiert – wie die Chips von Apple und vielen anderen Herstellern – auf der Prozessorarchitektur von Arm. Jeder Chip besteht aus 128 Prozessorkernen der Neoverse-V2-Familie des britischen Chip-Designers Arm. Es sind die ersten Prozessoren, die auf der neuen Armv9-Architektur basieren. Sie sind ausgelegt auf High Performance Computing (HPC) in Kombination mit Maschinellem Lernen (ML). Mit Funktionen wie Memory Tagging Extension (MTE) und Performance Defined Power (PDP) ist Neoverse V2 laut Arm der bisher sicherste und leistungseffizienteste Kern der V-Serie.

Ein breites 12-Kanal-Speicherinterface sorgt demnach für zügigen Datendurchsatz. Microsoft wird das Silizium ab 2024 in seine Azure-Cloud-Services integrieren. Das bedeutet: Die Produktion der Chips läuft bereits. Cobalt ist nach eigenen Angaben für allgemeine Aufgaben in Rechenzentren ausgelegt, also ein so genannter General Purpose Chip. Diese Sparte dominiert bislang Intel mit seinen Xeon-Prozessoren.

105 Milliarden Transistoren für massiv-parallele Datenverarbeitung

Maia 100 hingegen soll in erster Linie KI-Workloads beschleunigen, etwa das rechenintensive Trainieren Neuronaler Netze. Technische Details blieb Microsoft bei der Präsentation der Chips weitgehend schuldig. Insgesamt besteht die „General Purpose GPU“ (GPGPU) 105 Milliarden Transistoren, die Auftragsfertiger TSMC mit seiner N5-Prozesstechnologie herstellt. Zum Vergleich: Nvidias A100-Chip hat 54, der Nvidia H100 rund 80 Milliarden Transistoren. Auch Maia-Chips sollen Microsoft-Kunden vom kommenden Jahr an als Service über die Rechenzentren des Konzerns nutzen können.

Die Wahl der Arm-Technologie war ein Schlüsselelement in Microsofts Nachhaltigkeitsziel, sagt Wes McCullough, Corporate Vice President of Hardware Product Development von Microsoft. Das Unternehmen will die „Leistung pro Watt“ in seinen Rechenzentren optimieren, was im Wesentlichen bedeutet, dass mehr Rechenleistung für jede verbrauchte Energieeinheit zur Verfügung steht.

„Die Architektur und die Implementierung wurden mit Blick auf die Energieeffizienz entwickelt“, erklärt McCullough. „Wir nutzen die Transistoren auf dem Silizium so effizient wie möglich.“ Multipliziere man die erreichten Effizienzgewinne bei Servern in allen Microsoft-Rechenzentren, ergebe sich eine ziemlich große Energieeinsparung. Konkrete Werte bleibt das Unternehmen leider schuldig.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Microsoft will komplettes Hardwaresystem selbst optimieren

Letztlich will Microsoft nach eigenen Angaben ein Hardwaresystem aufbauen, das maximale Flexibilität bietet und hinsichtlich Energieeffizienz, Rechenleistung, Nachhaltigkeit und Kosten optimiert werden kann, erklärt Rani Borkar, Corporate Vice President für Azure Hardware Systems and Infrastructure (AHSI). „Software ist unsere Kernkompetenz, aber offen gesagt, sind wir ein Systemunternehmen. Bei Microsoft entwickeln und optimieren wir Hardware und Software gemeinsam, so dass eins plus eins größer ist als zwei.“

Mit der nun vorgestellten Silizium-Architektur kann Microsoft nach seinen Angaben nicht nur die Kühleffizienz verbessern, sondern auch die Nutzung der vorhandenen Rechenzentrumsressourcen optimieren und die Serverkapazität innerhalb der vorhandenen Stellfläche maximieren, so das Unternehmen.

Angeblich gab es bislang keine Racks, die den besonderen Anforderungen der Maia 100 Server-Boards entsprachen. Also baute Microsoft sie von Grund auf neu. Diese Racks sind breiter als die Racks, die normalerweise in den Rechenzentren des Unternehmens stehen. Dieses erweiterte Design bietet reichlich Platz für Strom- und Netzwerkkabel, die für die besonderen Anforderungen von KI-Workloads unerlässlich sind.

Angriff auf Nvidia – ein bisschen

Mit seinen Chip-Ambitionen geht Microsoft auch Nvidia an: Dessen Chips und Systeme, aktuell die Modelle Hopper und Grace, sind derzeit für KI-Anwendungen das Maß der Dinge. Nvidia hat hier einen Marktanteil von gut 80 Prozent. Die Nachfrage danach ist seit Jahren sehr hoch, so dass Nvidia auch hohe Preise dafür durchsetzen kann. Schon werden Preise von bis zu 40.000 US-Dollar pro Chip kolportiert. Selbst die abgespeckten „China-Versionen“ seiner Chips werden Nvidia quasi von den Produktionslinien der Fabs weggerissen – auch außerhalb Chinas. Viele KI-Entwickler kämpfen mit den hohen Beschaffungskosten.

Nicht ohne Grund hat der Konzern gerade erneut Rekordquartalszahlen vorgelegt: Gegenüber dem Vergleichsquartal im Vorjahr stieg der Umsatz um 206 Prozent von 5,93 Milliarden auf 18,21 Milliarden US-Dollar, was zu einem astronomischen Gewinnzuwachs von 680 Millionen auf 9,24 Milliarden US-Dollar führte – einem Plus von 1.259 Prozent. Damit nicht genug: Für das vierte Quartal erwartet Nvidia einen Umsatz von rund 20 Milliarden US-Dollar, die Gewinne dürften weiter sprudeln.

FPGA-Conference Europe: Werden Sie Referent

Als Redner auf Europas größter Konferenz für Field Programmable Gate Arrays, der FPGA Conference Europe, können Sie der Branche neue Impulse geben. Wenn Sie ein Experte für FPGAs oder adaptierbare Embedded-Systeme sind und Ihre Erkenntnisse, Lösungen und technologischen Prognosen mit einem breiten, internationalen Fachpublikum teilen möchten, dann reichen Sie uns gerne Ihren Vortragsvorschlag ein.

Vortrag einreichen

Durch den Einsatz der eigenen KI-Chips will Microsoft also nicht allein die Datenverarbeitung beschleunigen, sondern auch die enormen Beschaffungs- und Betriebskosten senken. Gleichzeitig kündigt das Unternehmen wenig verwunderlich an, auch weiterhin Nvidia-Chips einsetzen zu wollen. So soll etwa der neue H200 Tensor-Core-Grafikprozessor die bisherige H100-Flotte erweitern und die Inferenzierung größerer Modelle ohne Erhöhung der Latenzzeit ermöglichen. Daneben will Microsoft verstärkt auch Prozessoren von AMD einsetzen, um etwa das Verarbeiten von KI-Workloads „für das Training von KI-Modellen mit hoher Reichweite und generatives Inferencing“ auf Virtuellen Maschinen (VM) zu beschleunigen. Zum Einsatz kommt dafür AMDs neuester Grafikprozessor Instinct MI300X.

Was bedeutet das für Intel und AMD?

Für Intel ist Microsofts Schritt in doppelter Hinsicht eine Hiobs-Botschaft: Erstens wird Microsoft potenziell weniger Intel-Prozessoren in seinen riesigen Rechenzentren einsetzen. Cobalt statt Xeon dürfte die Devise lauten. Zweitens lässt CEO Satya Nadella seine Chips nicht in Fabs von Intel fertigen, was den Intel Foundry Services (IFS) neben Umsatz wichtiges Renommee gebracht hätte. Stattdessen kommt dessen Hauptkonkurrenten TSMC zum Zuge, seines Zeichens größter Chip-Auftragsfertiger der Welt. Beides kommt zu einer Zeit, in der Intel in seinem Brot-und-Butter-Geschäft mit Serverprozessoren Marktanteile unter anderem an den wiedererstarkten Konkurrenten AMD verliert. Von diesem bezieht Microsoft nun zusätzlich noch Grafikprozessoren wie den Instinct MI300X.

Hinzu kommt: Microsoft ist nicht der einzige Großkunde von Intel, der in die Chipentwicklung vorstößt. Neben Apple haben auch Google (Alphabet), Facebook (Meta) und Amazon ihre eigenen Chips entwickelt. Dies sind in der Regel Prozessoren, die auf das Beschleunigen von KI-Workloads ausgelegt sind – etwa das Trainieren von neuronalen Netzen. Der Trend ist eindeutig: Statt nurn noch Chips von der Stange zu kaufen, setzen Großunternehmen zunehmend auf dedizierte Eigenentwicklungen. Intel muss versuchen, diese Konzerne als Kunden für seine Fabs zu gewinnen.

Auch AMD könnte den Schritt Microsofts hin zu eigenen Prozessoren zu spüren bekommen: Zwar läuft der Absatz der eigenen x86-Serverchips „Epyc“ und der erwähnten Grafikprozessoren dem Vernehmen nach sehr gut – laut Marktforscher Mercury Research nähert sich das Unternehmen einem Anteil am Servermarkt von 18 Prozent. Doch auf lange Sicht könnte die Nachfrage nachlassen, wenn (nicht nur) Microsoft vermehrt eigenes Silizium präferiert. (me)

(ID:49824221)