Im aktuellen Heibel-Ticker habe ich die derzeitige NVIDIA Story anschaulich aufbereitet: Nvidia ist nach Quartalszahlen um 28% angesprungen, hat über Nacht mehr an Wert zugelegt, als das größte DAX-Unternehmen SAP wert ist. Wenn Sie wissen wollen, warum dieser Kurssprung sogar gerechtfertigt ist, dann lesen Sie hier weiter.
Ich will versuchen zu erklären, warum ein Graphikkartenkonzern, der halb soviel wert ist (678 Mrd. EUR) wie alle DAX-Aktien zusammen (1.623 Mrd. EUR), an nur einem Tag mehr an Wert zulegen kann (190 Mrd. EUR) als das wertvollste DAX-Unternehmen SAP (150 Mrd. EUR) an Marktkapitalisierung auf die Waage bringt. Und, wem das noch nicht genug Superlative sind, ich werde zeigen, dass der Konzern noch immer günstig bewertet ist.
Mittwoch Abend veröffentlichte Nvidia Q1-Zahlen für den Zeitraum Februar bis April 2023 (abweichendes Geschäftsjahr endet stets Ende Januar). Der Umsatz ging gegenüber dem Vorjahresquartal um 13% auf 7,19 Mrd. USD zurück, der Gewinn fiel um 20% auf 1,09 USD/Aktie. Vor einem Jahr war die Branche von Chipknappheit geplagt, Nvidia konnte High-End Graphikchips für Spielecomputer zu jedem Preis verkaufen. Analysten hatten für das abgelaufene Quartal daher einen wesentlich stärkeren Umsatz- (-21%) und Gewinneinbruch (-33%) erwartet.
Ursächlich für die positive Überraschung war der Geschäftsbereich Rechenzentren. Graphikkarten, die in Rechenzentren eingesetzt werden, um komplexe Aufgaben zu erledigen: Künstliche Intelligenz (KI)! Allein in diesem Bereich wurden mit 4,284 Mrd. USD um 400 Mio. USD oder auch 10% mehr umgesetzt, als Analysten erwartet hatten. Dieser Geschäftsbereich macht derzeit 60% des Konzernumsatzes aus, ist also der größte Geschäftsbereich.
Die wirkliche Überraschung war allerdings die Prognose für das laufende Quartal: Der Umsatz mit Rechenzentren soll im Q2 auf 7 Mrd. USD steigen, +63% - nicht gegenüber dem VorJAHRESquartal, sondern gegenüber dem Vorquartal.
Chipproduzenten weltweit haben die kommende Chipnachfrage der Pandemie-Zeit zum Ausbau der Produktionskapazitäten genutzt. Durch Lieferkettenprobleme zog sich die Chipknappheit länger hin als die Pandemie und die Kunden platzierten "double-orders", bestellten vielfach doppelt so viele Chips, wie sie benötigten, um überhaupt etwas zu bekommen. Es folgte im Jahr 2022 Katerstimmung in der Chipindustrie, da die Lager der Kunden voll waren, die Lieferketten rund liefen, mehr Produktionskapazitäten vorhanden waren, die Bestellungen jedoch ausblieben.
Nvidia-Gründer und CEO Jensen Huang griff in dieser Zeit zum Telefonhörer und bestellte die Produktion seiner H100-GPU. Der Graphikchip H100 ist die Basis für alle Chips, die in Rechenzentren für die künstliche Intelligenz eingesetzt werden. Nachdem die Fähigkeiten von ChatGPT weltweit für Überraschung sorgen, bestellen Alphabet, Amazon, Microsoft, Oracle, SAP, etc. diesen Chip auf Teufel komm raus. Was macht den Chip so besonders?
Die Entwicklung des H100 ist bereits seit sechs Jahren in der heißen Endphase. Jensen Huang hat damals die überraschende Entscheidung getroffen, aus dem Rennen der Miniaturisierung auszusteigen. Er erklärte damals Moore's Law für tot. Moore's Law besagt, dass die CPU, der Prozessor des Computers, seine Komplexität (=Leistung) binnen 12 oder 24 Monaten (je nach Quelle) verdoppelt.
Die Chipindustrie versteifte sich darauf, CPU-Chips immer kleiner zu machen und somit die Leistung von Hochleistungsrechnern auf iPhones und Smartwatches zu übertragen. Doch die Leistungssprünge wurden seit einigen Jahren kleiner, die Grenzen dieser Entwicklung kamen in Sicht.
Jensen Huang entschied, eine zweite Recheneinheit der elektronischen Geräte auszubauen, den Graphikchip. Bislang war dieser Graphikchip (GPU) vergleichsweise dumm, denn er transferierte lediglich komplexe Vektordaten in einfache Pixel, die vom Monitor angezeigt wurden. In der Verarbeitung komplexer Graphikdaten, Relationen und Vektoren sind GPUs den CPUs überlegen. Durch Softwarelösungen lagerte Huang komplexe Rechenaufgaben von der CPU auf die GPU aus, machte die GPU leistungsfähiger und ermöglichte somit weitere Leistungssprünge in der Leistung von Computern.
Zudem kaufte sein Unternehmen eine Software zu, die komplexe Aufgaben auf viele GPUs verteilen kann und somit für Rechenzentren Leistungssprünge ermöglicht.
Das menschliche Gehirn kann ja nicht nur 3+4=7 linear ausrechnen, sondern ist kontinuierlich einer Reizüberflutung ausgesetzt, die mit unendlich vielen Querverbindungen zueinander ins Verhältnis gesetzt, gerichtet und periodisiert werden. Nur so können wir uns auf das Wesentliche konzentrieren. Je mehr dieser Querverbindungen in der GPU-Landschaft von Rechenzentren vorhanden sind, desto effizienter arbeitet die darin entwickelte KI.
Der Wettbewerb, also AMD und Intel, sind Nvidia um Jahre unterlegen. Jensen Huang glaubte an diesen Weg und richtete sein Unternehmen konsequent darauf aus. AMD beschritt diesen Weg ebenfalls, doch nicht mit der gleichen Überzeugung, und ist daher heute nur eine Billigversion davon. Natürlich hat auch AMD GPUs, die fast die Leistung von Nvidias H100 haben. Natürlich hat auch AMD inzwischen entsprechende Softwarelösungen. Doch die komplexe Architektur, die ich soeben beschrieben habe, ist bei Nvidia in allen Bereichen ein wenig effizienter und damit in Summe der Konkurrenz um Jahre voraus.
Nun ist ChatGPT die erfolgreichste Softwareeinführung, die es jemals gab. Die Möglichkeiten für Buchhaltung, Controlling, Juristen, Faktencheck, Korrekturlesen, Research, Krebsforschung, autonomes Fahren, Software-Entwicklung, Verkaufsprozessoptimierung, ... sind gigantisch. Unternehmen, die diese Möglichkeiten nicht nutzen, werden künftig nicht bestehen können.
So werden Rechenkapazitäten von Rechenzentren und Cloud-Anbietern gebucht und genutzt. Die oben genannten Cloud-Anbieter (Alphabet, Amazon, Microsoft, ...) bauen ihre Rechenzentren aus, um die Nachfrage zu befriedigen. Eine H100-GPU kostet 20.000 USD. Über Ebay wurden die H100-GPUs in den vergangenen Monaten zu Preisen um 40.000 USD gehandelt, da die Nachfrage explodiert war. Nun sagt Nvidia: Beruhigt Euch, wir haben ausreichend Produktionskapazitäten gesichert, um die sprunghaft angestiegene Nachfrage zu befriedigen.
Und so kommt es zu einem Umsatzanstieg von 4 auf 7 Mrd. USD binnen eines Quartals. Damit hat niemand gerechnet, kein einziger Analyst hatte diese Entwicklung auf dem Schirm. Im abgelaufenen Geschäftsjahr, in dem sich Nvidia über die Rekordnachfrage nach den Spiele-GPUs freute, war der Umsatz bei 15 Mrd. USD. Allein im Q2 des Folgejahres soll mit nur einem der vier Geschäftsbereiche ein Umsatz von 7 Mrd. USD erzielt werden, also fast der Hälfte des vorangegangenen Jahresumsatzes. Oder anders herum: Wenn es nach Q2 kein weiteres Wachstum mehr gibt, springt der Umsatz für die vier darauf folgenden Quartale auf 28 Mrd. USD, was fast einer Verdopplung entspricht ... allein aus dem Geschäft mit Rechenzentren.
Daneben bietet Nvidia noch GPUs für Spielecomputer und professionelle Visualisierung (bspw. 3D-Graphikbearbeitung à la Holo-Deck), sowie DRIVE, die KI-basierte Plattform für autonomes Fahren an. Das sind nun nicht gerade Anwendungen, bei denen ich eine rückläufige Nachfrage erwarten würde.
Was, wenn alle Rechenzentren auf die H100-GPUs von Nvidia umgestellt sind? Ist das nicht nur ein Einmalaufwand, der danach abflauen wird?
Nein, davon gehe ich nicht aus. Zwei Betrachtungsweisen sprechen dagegen: Heute hat die KI einen IQ von vielleicht 70-80. Man wird versuchen, den IQ der KI über 100, möglichst auf Niveaus von 130 bis vielleicht sogar 140 zu steigern. Einstein lag bei über 160, Goethe wird ein IQ von über 200 nachgesagt. Warum sollte die KI nicht solche Werte erreichen können?
Oder eine zweite Betrachtungsweise: Heute werden jährlich 230 Mrd. USD in Rechenzentren investiert, bis 2027 soll dieser Wert auf 290-330 Mrd. USD ansteigen. Solche Investitionen beinhalten heute Grund und Boden, Gebäudebau, Lüftung, Rechner, Racks und vieles mehr. CPU und GPU machen dabei heute rund 50% der Investitionskosten aus. Und davon wiederum geht bei modernen Rechenzentren nur 10% in die CPUs, während die verbleibenden 90% für GPUs aufgewendet werden.
2027 werden also aller Voraussicht nach mindestens 290 Mrd. USD investiert (https://datacentremagazine.com/articles/top-10-global-data-centre-markets), davon die Hälfte in Chips, also 145 Mrd. USD. Davon 90% für GPUs, also 130,5 Mrd. USD.
Im Bereich der KI für Rechenzentren hat Nvidia heute einen Marktanteil von 88%. Das liegt daran, dass Nvidia der Konkurrenz heute um Jahre voraus ist. Bis 2027 wird sich das ändern, da wird der Wettbewerb dafür sorgen, dass der Marktanteil von Nvidia schrumpft. Oder?
Hmm, schwer vorstellbar, wenn ich mir den Vorsprung anschaue. Intel konnte seinen Vorsprung über Jahrzehnte behaupten, ehe es vom Thron gestoßen wurde. Gehen wir also mal davon aus, dass Nvidia zumindest 50% Marktanteil bis 2027 behaupten kann. Ich komme dann auf einen Jahresumsatz mit GPUs für Rechenzentren von 130,5/2= 65,25 Mrd. USD pro Jahr. Das entspricht einer weiteren Verdopplung des Rechenzentren-Umsatzes von Nvidia in nur drei Jahren.
Doch in den Rechenzentren-Prognosen ist die KI-Revolution noch nicht enthalten. Sämtliche Cloud-Anbieter wie Dropbox, E-Mail-Dienste, Adobe-Anwendungen, Bilder- und Video-Datenbanken bis hin zu Chat-Apps und anderen Social Media Anwendungen laufen heute auf - seit vorgestern - veralteten Systemen. KI ist mit diesen Cloud-Diensten nicht möglich. Sämtliche Rechenzentren der Welt laufen plötzlich auf veralteter Hardware, denn entweder die KI von ChatGPT zieht sich die Daten auf die eigenen Rechenzentren, um sie auszuwerten, oder aber die veralteten Rechenzentren stellen selber um. Der Bedarf an neuen Rechenzentren oder an neuer Hardware für bestehende Rechenzentren ist daher viel größer als in den bisherigen linearen Wachstumsprognosen enthalten.
Die H100 GPU ist ein Produkt, das für die Tech-Giganten, die in den Jahren der Pandemie Billionen USD an Cash generierten, Risiko und Chance zugleich ist. Alphabet beispielsweise sieht seine Dominanz in der Google-Suchmaschine gefährdet, wenn Microsoft den ChatGPT bei Bing sinnvoll integriert. 200 Mrd. USD Umsatz macht Google derzeit mit dem Suchmaschinengeschäft im Jahr. Google muss also jede H100-GPU kaufen, die es bekommen kann, und sei es nur um zu vermeiden, dass Microsoft sie kauft.
Die H100 GPU ist die US-Antwort auf 1 Mrd. Chinesen oder Inder, die mit ihrem Fleiß die Wirtschaft der USA herausfordern. Die H100 GPU ist die US-Antwort auf ein Übergreifen der Inflation auf den Arbeitsmarkt, auf dem keine qualifizierten Fachkräfte zu finden sind. Die H100 GPU ist die US-Antwort auf die drohende Rezession, die die weltweiten Finanzsysteme an ihre Grenzen bringen würde. Die H100 GPU könnte einen Produktivitätsschub auslösen, der mit der industriellen Revolution vergleichbar wäre - mit allen Vor- und auch Nachteilen.
Seit 1998 verfolge ich mit Begeisterung die US- und europäischen Aktienmärkte. Ich schreibe nun wöchentlich für mehr als 25.000 Leser über die Hintergründe des Aktienmarktes und die Ursachen von Kursbewegungen. Meine Leser schätzen meinen neutralen, simplen und unterhaltsamen Stil. Als Privatanleger nutzen sie meine Einschätzungen und Anlageideen, um ihr Portfolio unabhängig zu optimieren.
heibel-ticker.de© Copyright 2006 - 2024 Heibel-Unplugged