Miete fällt innerhalb von 10 Monaten um 50 %, warum ist der Nvidia H100 nicht mehr attraktiv? | Fokusanalyse
Autor: Qiu Xiaofen
Redakteur: Su Jianxun
Kürzlich hat das Thema des Zusammenbruchs der Mietpreise für Nvidia-Karten in der AI-Branche für Aufsehen gesorgt. In einem weit verbreiteten Artikel auf ausländischen Websites wird die aktuelle Tendenz mit dem dramatischen Ausdruck „Nvidia-GPU-Mietblase platzt“ beschrieben.
36Kr hat erfahren, dass die starken Schwankungen der Mietpreise für Nvidias Kernprodukte in China tatsächlich der Realität entsprechen. Der Mietpreisverlauf für Nvidias beliebte Chips im Jahr 2024 ist wie folgt —
Nvidia H100 wird normalerweise in Form von 8 Karten pro Knoten vermietet. Ein Kartenangebot schwankte Anfang des Jahres zwischen 120.000 und 180.000 pro Monat, jetzt bei 75.000.
Die Verbrauchergrafikkarte „Nvidia 4090“ wurde während des „Mining-Booms“ auf 18.000 bis 19.000 hochgetrieben und war kaum zu bekommen. Anfang dieses Jahres lag der Mietpreis für eine „Nvidia 4090“-Karte bei etwa 13.000, derzeit liegt der Mietpreis bei 7.000 bis 8.000.
Das bedeutet, dass die Mietpreise für diese beiden beliebten Nvidia-Chips innerhalb von zehn Monaten beide um 50 % gesunken sind, was nicht mehr das begehrte Objekt der letzten zwei Jahre ist.
Jedoch erklärten mehrere Branchenexperten, dass dies nicht so alarmierend ist wie in ausländischen Artikeln dargestellt, und keine Panik nötig sei. Branchenexperten haben berechnet, dass die Mietpreise für reguläre Rechenleistungschips in den letzten fünf Jahren um etwa 80 % gesunken sind. Die Veröffentlichung der Nvidia H100 und 4090 war im Jahr 2022, also vor zwei Jahren, und entspricht im Wesentlichen dem objektiven Preisverfall.
Natürlich gibt es auch andere kombinierte Faktoren. Der Preisverfall bei den Mietpreisen für Nvidias beliebte Chips ist im Wesentlichen auf den Produktzyklus von Nvidia und die Veränderungen auf dem Markt von Angebot und Nachfrage bei Rechenkapazität zurückzuführen.
Angesichts dieser neuen Marktveränderungen nimmt auch die heimische Rechenleistungsbranche sofortige Anpassungen vor.
Schieflage im Gleichgewicht von Angebot und Nachfrage bei Rechenkapazität
Der Rückgang der Mietpreise für Nvidia-Chips steht im Zusammenhang mit der aktuellen Übergangsphase von alten zu neuen Produkten bei Nvidia.
Ein Branchenexperte erklärte, dass im Vergleich zur H100 der neue Blackwell-Architekturchip GB200 von Nvidia in diesem Jahr geringere Kosten pro Recheneinheit aufweist, und die meisten AI-Unternehmen in Erwägung ziehen, „auf neue Produkte zu warten“, was zu einer gewissen Kühle gegenüber den alten Produkten führt.
Laut Huang Renxun beschreibt er ein ganz anderes Bild für das neue Produkt — er sagte, dass die Nachfrage nach Blackwell-Chips hoch sei, was dazu führt, dass die Verteilung so schwierig sei wie „auf einem Seil zu balancieren“, und er sich leicht bei Großkunden unbeliebt machen könnte.
Trotz der großen Erwartungen hat dieses neue Produkt jedoch mit dem Problem einer peinlichen Verzögerung zu kämpfen.
Ingenieure von Nvidia führen die Schwierigkeiten auf eine neue Verpackungstechnologie bei TSMC zurück; TSMC beschuldigt Nvidia, den Produktionsprozess übermäßig gedrängt zu haben, was ihnen weniger Verifizierungszeit als üblich ließ. Dadurch wurde die neue Chip-Release, die im dritten Quartal dieses Jahres auf den Markt kommen sollte, nun auf das vierte Quartal oder sogar nächstes Jahr verschoben.
Ein Branchenexperte aus der Chipindustrie sagte gegenüber 36Kr, dass nach der offiziellen Einführung des GB200 der Preisverfall für alte Nvidia-Chips voraussichtlich weiter zunehmen wird, und er rechnet damit, dass sich der Markt in den nächsten sechs Monaten nicht erholen wird.
Darüber hinaus hängt der rasante Rückgang der Mietpreise für Nvidia-Produkte auch damit zusammen, dass das derzeitige Angebot und die Nachfrage auf dem Markt für Rechenkapazität nicht übereinstimmen.
Im Inland ist der Ansatz für die Schaffung von Rechenleistung entgegengesetzt zu dem im Ausland — im Inland wird zuerst ein Rechenleistungspool aufgebaut und dann schrittweise AI-Anwendungen entwickelt, was bedeutet, „einen Hammer für den Nagel zu finden“; während die Rechenleistungsindustrie im Ausland kommerzieller ist und eher dazu neigt, ein Rechenleistungszentrum zu errichten, nachdem ein konkreter Kunde gefunden wurde.
Laut Branchenstatistiken sind in den letzten zwei Jahren insgesamt 13.000 intelligente Rechenzentren im Inland aufgetaucht. Bis zur ersten Hälfte des Jahres 2024 hat die Größe der Rechenleistung im Inland weltweit den zweiten Platz erreicht (246 EFLOPS), wobei das Wachstum der intelligenten Rechenleistung über 65 % beträgt.
Während dieses Bau-Booms gab es parallel auch einen Trend zur Hortung von Nvidia H100-Chips in China. Als diese Chips schließlich schrittweise China über Hongkong und Singapur erreichten, bemerkte die Rechenleistungsindustrie jedoch pessimistisch, dass die einst ressourcenintensivste Vorabberechnung inzwischen zurückgegangen ist. (Details im Artikel: „In den „Six Little Tigers“ der großen Modelle haben mindestens zwei Unternehmen beschlossen, große Modelle aufzugeben | Fokusanalyse“).
Gleichzeitig hat die Nachfrage nach Inferenz und Modellanpassung seit 2024 zwar die Vorabberechnung übertroffen, jedoch nicht das erwartete „Explosion“-Szenario erreicht, „noch wurde ein Super-KI-Anwendung oder eine klare Szene gesehen“.
Da die große Menge an gespeicherter Rechenleistung aus gebunkerten Chips in den letzten zwei Jahren kurzfristig keine breite AI-Anwendung findet, kann der Preisverfall aufgrund der Schieflage von Angebot und Nachfrage bei Rechenkapazität nachvollzogen werden.
Früher Kauf von Karten, jetzt Vermietung von Karten
Früher war ein weit verbreitetes Geschäftsmodell in der Rechenleistungsindustrie der Verkauf von Nvidia „Bare Metal“, in der Branche auch „Eisenverkauf“ genannt. Doch angesichts der sich ändernden Nachfrage und des Angebots in der Rechenleistungsindustrie ist das reine Verkaufen von Hardware zu simpel und unwiderstehlich, was auf lange Sicht schwer aufrechtzuerhalten ist. Insbesondere seitdem die Mietpreise von Nvidia seit diesem Jahr „zusammengebrochen“ sind, hat sich auch die Haltung der AI-Industrie gegenüber Rechenleistungschips leise geändert.
Wenn in den letzten zwei Jahren jemand in der Lage war, mehr Nvidia-Chips zu kaufen, bedeutete das, dass er die besten Chancen hatte, schneller leistungsfähigere Modelle zu trainieren. Heute neigen AI-Unternehmen jedoch eher dazu, strong>Chips zu mieten, um Rechenleistung zu erhalten, anstatt Chips direkt zu kaufen, was stark auf Kosten und Kapitalfluss drückt.
Um diesem Trend gerecht zu werden, hat die Rechenleistungsindustrie entsprechende Anpassungen vorgenommen und versucht, vielfältigere Mietdienste anzubieten.
Ein Branchenexperte bemerkte, dass AI-Anbieter, die eine Nvidia-Karte mieten wollten, bisher in der Regel mehrere Knoten benötigten und für mindestens ein Jahr mieteten. Die Änderung in diesem Jahr war jedoch, dass Kunden mit Rechenleistungsbedarf nicht nur verstreuter geworden sind, sondern auch empfindlicher auf Kosten reagieren und höhere Anforderungen an stundenweise Mietdienstleistungen stellen.
„Einige Rechenzentren ermöglichen es Ihnen jetzt, einige Nvidia-Karten für nur wenige Stunden zu mieten“, was ein wenig so ist wie früher, wo Sie eine oder zwei Etagen für ein Jahr mieten mussten, aber jetzt können Sie ein Zimmer für einen kürzeren Zeitraum mieten.
Allerdings führt diese Änderung direkt dazu, dass die Amortisationszeit für die Rechenleistungsindustrie länger wird. Ein Branchenexperte sagte gegenüber 36Kr: „Ein Rechenzentrum, das auf H100-Chips basiert, hat eine Amortisationszeit von über 5 Jahren für die Hardware“.
Gleichzeitig versuchen Branchenteilnehmer in der Rechenleistungsindustrie, die Granularität der Rechenleistungsdienste zu erhöhen, mit einem Trend zur allmählichen Erweiterung auf die Modellebene, die Anwendungsebene.
36Kr erfuhr, dass einige Betreiber von intelligenten Rechenzentren neben dem Verkauf von Rechenleistung auch den Kunden downstream helfen werden, die Feinabstimmung ihrer Modelle vorzunehmen;
oder direkt in Branchen mit höherem Rechenleistungsbedarf wie Finanzen, Pharmazie, erneuerbare Energien eindringen und spezifische Szenarien kombinieren, um mehr potenzielle Nachfrage für den Verkauf oder die Vermietung von Rechenleistung zu erschließen.
Der zuvor erwähnte Branchenexperte bemerkte, dass durch die Kombination mit verschiedenen AI-Diensten die Amortisationszeit für die Hardware auf etwa 2 Jahre verkürzt werden kann.
Diese Anpassungen sind nicht unbedingt nachteilig. Nachdem die AI-Industrie und die Rechenleistungsindustrie zwei Jahre lang in einem rasanten Tempo voranschritten, wird die Beziehung von Angebot und Nachfrage klarer, und beide Seiten beginnen, Nvidia-Chips, die über die letzten zwei Jahre heiß begehrt waren, aus einer rationaleren Perspektive zu betrachten.
Ende
Ende