StartseiteArtikel

Interview mit Mark Andreessen, dem "Gottvater von Silicon Valley", zu Beginn des Jahres 2026: Die KI-Revolution hat erst begonnen, und der Preis für Intelligenz stürzt.

品玩Global2026-01-12 08:36
Der 80-jährige technologische Einsatz hat sich endlich ausgezahlt.

Am 7. Januar 2026 führte Marc Andreessen, Mitbegründer von a16z (Andreessen Horowitz), ein 81-minütiges tiefergehendes Gespräch in seinem eigenen Podcast The a16z Show. Als Erfinder des Netscape-Browsers und einer der einflussreichsten Investorinnen in Silicon Valley hat Andreessen in diesem AMA (Ask-Me-Anything)-Interview selten systematisch seine vollständigen Einschätzungen zur KI-Branche dargelegt.

Dies ist kein üblicher Zukunftsvorausschauungsvortrag. Andreessen beginnt mit einer akademischen Arbeit über Neuronale Netze aus dem Jahr 1943 und betrachtet den Aufstieg der KI im Kontext einer 80-jährigen Technologieentwicklung. Er bewertet detailliert die Durchbrüche chinesischer KI-Unternehmen und räumt ein, dass DeepSeek und Kimi Silicon Valley "überrascht" haben. Er prognostiziert, dass der Mangel an GPUs innerhalb von zehn Jahren in eine Überproduktion umschlagen wird und die Kosten pro Einheit der KI "wie ein Stein fallen" werden.

Die wichtigste Einschätzung lautet: Dies ist die größte technologische Revolution, die er in seinem Leben gesehen hat, noch größer als das Internet, und kann mit der Elektrizität und der Dampfmaschine verglichen werden. Aber wir stehen erst am Anfang.

Im Folgenden finden Sie eine Übersetzung der Kernaussagen dieses Interviews.

Original Link: https://www.youtube.com/watch?v=xRh2sVcNXQ8

I. Dies ist die größte technologische Revolution, und wir stehen erst im ersten Inning

Moderator: Marc, in welchem Inning befinden wir uns derzeit in der KI-Revolution? Was macht Sie am meisten aufregen?

Andreessen: Zunächst möchte ich sagen, dass dies die größte technologische Revolution in meinem Leben ist. Quantitativ gesehen ist sie eindeutig größer als das Internet. Verglichen werden kann sie mit Dingen wie dem Mikroprozessor, der Dampfmaschine und der Elektrizität.

Warum ist das so? Wenn Sie in die 1930er Jahre zurückblicken, bevor der Computer erfunden wurde, hatten Wissenschaftler bereits die Theorie der Berechnung verstanden. Es gab eine große Debatte: Sollte der Computer nach dem Vorbild einer "Addiermaschine" (Kassenregister) oder nach dem Modell des menschlichen Gehirns gebaut werden?

Schließlich entschied sich die Branche für ersteres. Dies ist die Computerbranche, in der wir in den letzten 80 Jahren tätig waren - das Bauen von reinen Rechenmaschinen, die Milliarden von mathematischen Operationen pro Sekunde ausführen können, aber nicht wie Menschen Sprache verstehen können.

Aber 1943 wurde die erste akademische Arbeit über Neuronale Netze veröffentlicht.

Sie können auf YouTube ein Interview mit dem Autor McCulloch aus dem Jahr 1946 sehen. Er sitzt in einer Strandvilla, ohne aus irgendeinem Grund Hemd, und spricht über die Zukunft, in der Computer auf der Grundlage von neuronalen Netzen nach dem Modell des menschlichen Gehirns aufgebaut werden. Dies war ein Weg, der nicht eingeschlagen wurde.

Das Konzept der neuronalen Netze wurde von einer kleinen Gruppe von Menschen über 80 Jahre lang erforscht. Im Wesentlichen funktionierte es nicht, und Jahrzehnte der Überhoffnung wurden von Enttäuschungen gefolgt. Als ich in den 80er Jahren studierte, war KI ein eher abgelegenes Forschungsgebiet, und jeder glaubte, dass es niemals funktionieren würde.

Dann kam der ChatGPT-Moment. Das war vor weniger als drei Jahren - Weihnachten 2022. Plötzlich wurden alle Ideen greifbar. Die gute Nachricht an dieser Technologie ist, dass sie äußerst demokratisiert ist. Die besten KIs der Welt sind direkt auf ChatGPT, Grok und Gemini verfügbar.

Ich möchte sagen: Ich bin fast täglich von dem, was ich sehe, überrascht.

Jeden Tag lese ich eine neue akademische Arbeit über KI, die mich völlig verblüfft - es ist eine neue Fähigkeit oder eine neue Entdeckung, die ich nie erwartet hätte. Andererseits sehen wir das Aufkommen aller neuen Produkte und Start-ups.

Das Umsatzwachstum, das diese neuen KI-Unternehmen erzielen - ich spreche von echten Kundenumsätzen - ist absolut beispiellos. Das Umsatzwachstum der führenden KI-Unternehmen ist definitiv schneller als bei jeder anderen Branche, die ich je gesehen habe.

Alles in allem hat es den Anschein, dass wir noch am Anfang stehen. Es ist schwer vorstellbar, dass wir bereits am Höhepunkt sind. Ich bezweifle stark, dass die Produkte, die die Menschen heute nutzen, in fünf oder zehn Jahren noch so aussehen werden. Ich denke, dass wir noch einen langen Weg vor uns haben.

II. Die Kosten für Intelligenz fallen "hyperdeflationär": schneller als das Moore'sche Gesetz

Moderator: Eine der größten Zweifel ist, dass zwar die Einnahmen riesig sind, aber die Ausgaben scheinen ebenfalls zu steigen. Was wird in dieser Diskussion ignoriert?

Andreessen: Lassen Sie mich mit dem Geschäftsmodell beginnen. Es gibt im Wesentlichen zwei Kern-Geschäftsmodelle in dieser Branche: das Verbrauchermodell und das Unternehmens-Infrastrukturmodell.

Im Bereich der Verbraucher leben wir in einer sehr interessanten Welt - das Internet ist vollständig verbreitet. Auf der Erde nutzen fünf Milliarden Menschen eine Form des mobilen Breitband-Internets. Smartphone-Preise auf der ganzen Welt liegen bis hinunter zu zehn US-Dollar.

Ich erzähle Ihnen das, weil Verbraucher-KI-Produkte im Wesentlichen so schnell wie möglich an alle diese Menschen verteilt werden können. Das Internet ist die Trägerwelle, über die KI mit Lichtgeschwindigkeit auf die breite Weltbevölkerung verteilt werden kann. Sie können keine Elektrizität, keine Innenrohrleitungen, keine Fernseher herunterladen, aber Sie können KI herunterladen.

Das ist, was wir sehen: Das Wachstum von Verbraucher-KI-Produkten, die als "Killer-Apps" gelten, ist erstaunlich schnell. Die Monetarisierungsmöglichkeiten sind sehr gut, auch bei höheren Preisen. Es ist inzwischen üblich, dass Verbraucher-KI-Modelle monatliche Preise von 200 oder 300 US-Dollar haben, was ich als sehr positiv ansehe.

Im Unternehmensbereich ist die Frage im Wesentlichen: Wie viel ist Intelligenz wert?

Wenn Sie in der Lage sind, Ihrer Geschäftstätigkeit mehr Intelligenz hinzuzufügen, z. B. indem Sie die Kundenservice-Bewertungen verbessern, die Cross-Selling-Raten erhöhen, den Kundenverlust verringern oder Ihre Marketingkampagnen effizienter durchführen - all dies ist direkt mit KI verbunden. Das Umsatzwachstum der führenden KI-Infrastrukturunternehmen ist unglaublich schnell.

Das Kern-Geschäftsmodell ist im Wesentlichen "Token nach Bedarf kaufen" - also wie viel Intelligenz-Token Sie pro US-Dollar kaufen können.

Hier kommt der Knackpunkt: Was passiert mit den Preisen für KI? Sie fallen schneller als das Moore'sche Gesetz.

Alle Inputs für KI werden auf Einheitsebene billiger. Das Ergebnis ist eine extreme Deflation der Kosten pro Einheit. Dies führt zu einem Wachstum der Nachfrage, das über das Niveau hinausgeht, das sich aus der Elastizität von Angebot und Nachfrage ergibt.

Es ist unbestritten, dass die Preise für "Token nach Bedarf" von hier an stark fallen werden. Dies wird nur die Nachfrage treiben. Dann wird alles in der Kostenstruktur optimiert werden.

III. Vom Mangel zur Überproduktion: Das Schicksal der GPUs ist besiegelt

Moderator: Tatsächlich hat AWS gesagt, dass die von ihnen verwendeten GPUs eine Lebensdauer von sogar mehr als sieben Jahren haben können.

Andreessen: Ja, das ist eine sehr wichtige Beobachtung. Dies bringt uns zu einer anderen Frage - die Debatte zwischen großen und kleinen Modellen.

Viele Rechenzentren werden gebaut, um große Modelle zu hosten, zu trainieren und zu betreiben. Gleichzeitig findet auch eine Revolution der kleinen Modelle statt.

Wenn Sie die Fähigkeiten der Spitzenmodelle im Laufe der Zeit verfolgen, werden Sie feststellen, dass nach sechs oder zwölf Monaten ein kleines Modell dieselben Fähigkeiten hat. Es gibt also eine Art Konkurrenz, bei der die Fähigkeiten der großen Modelle im Wesentlichen komprimiert und in kleineren Modellen zur Verfügung gestellt werden.

Ich möchte Ihnen ein Beispiel aus den letzten zwei Wochen geben. Ein chinesisches Unternehmen hat ein Modell namens Kimi entwickelt. Die neue Version von Kimi ist ein Inferenzmodell, das - zumindest nach den aktuellen Benchmarks - im Wesentlichen die Inferenzfähigkeiten von GPT-5 nachahmt.

Ein Inferenzmodell auf GPT-5-Niveau ist ein großer Fortschritt gegenüber GPT-4 und mit extrem hohen Entwicklung und Betriebskosten verbunden. Plötzlich haben Sie ein Open-Source-Modell namens Kimi, das entweder so komprimiert ist, dass es auf einem MacBook läuft, oder auf zwei MacBook.

Wenn Sie also ein Unternehmen sind und ein Inferenzmodell mit GPT-5-Fähigkeiten haben möchten, aber nicht die Kosten von GPT-5 zahlen möchten oder es nicht in der Cloud hosten möchten, sondern lokal laufen lassen möchten - Sie können es tun.

Natürlich wird OpenAI GPT-6 entwickeln. Es gibt also einen Treppeffekt, und die gesamte Branche bewegt sich vorwärts. Die großen Modelle werden leistungsfähiger, und die kleinen Modelle hinken hinterher.

Was die Chips betrifft, ist in jedem Markt mit Warencharakter die Hauptursache für Überproduktion der Mangel.

Wenn Sie einen Mangel an GPUs, Chips oder Rechenzentrumskapazitäten haben und sich die Geschichte der menschlichen Reaktion auf Nachfrage ansehen - wenn etwas fehlt und physisch repliziert werden kann, wird es repliziert.

Im Moment fließen möglicherweise hundert Milliarden oder sogar Billionen von US-Dollar in die Entwicklung dieser Dinge. Die Kosten pro Einheit für KI-Unternehmen werden in den nächsten zehn Jahren wie ein Stein fallen.

Nvidia ist tatsächlich ein großartiges Unternehmen, das seinen Status verdient hat. Aber es ist derzeit so wertvoll und generiert so viel Gewinn, dass dies für die anderen Unternehmen in der Chipbranche das beste Signal aller Zeiten ist.

Andere große Unternehmen wie AMD jagen ihnen hinterher. Und sehr wichtig ist, dass die Hyperskalierer ihre eigenen Chips herstellen. Viele große Technologieunternehmen produzieren ihre eigenen Chips, und natürlich machen das auch die Chinesen.

Es ist sehr wahrscheinlich, dass KI-Chips in fünf Jahren billig und reichlich vorhanden sein werden, was sich äußerst positiv auf die Wirtschaftlichkeit der Unternehmen auswirken wird, in die wir investieren.

IV. Der "Supernova-Moment" der chinesischen KI: Der Aufstieg von DeepSeek und Kimi

Andreessen: Die Tatsache, dass KI auf sogenannten GPUs läuft, ist eher zufällig. Das klassische Architekturmodell eines PCs besteht aus einem CPU und einem GPU. Tatsächlich gibt es zwei andere Formen der Berechnung, die äußerst wertvoll sind und parallelisiert werden können, was sie ideal für die GPU-Architektur macht.

Diese beiden äußerst lukrativen Anwendungen - eine ist die Kryptowährung, die vor etwa 15 Jahren entstand, und die andere ist die KI, die vor etwa vier Jahren begann.

Was China betrifft, finde ich die Ereignisse der letzten 18 Monate ziemlich bemerkenswert. Im Wesentlichen haben sich in weniger als 12 Monaten vier oder fünf chinesische Unternehmen bis an die Spitze der Branche vorgearbeitet.

Am bemerkenswertesten ist ein Unternehmen namens DeepSeek. Das Modell von DeepSeek liegt in fast allen Benchmarks auf dem gleichen Niveau wie Claude 3.5 Sonnet, GPT-4o und Gemini. Dies ist wirklich ein Supernova-Moment.

Es ist nicht nur leistungsstark, sondern es stammt von einem Hedgefonds, nicht von einem großen Technologieunternehmen, was völlig überraschend ist. Es ist vollständig Open Source, und jeder kann es herunterladen und ausführen.

Dann haben Sie das Kimi-Modell von Moonshot AI, ByteDance, das Qwen-Modell von Alibaba und Baidu. All dies hat sich in weniger als 12 Monaten bis an die Spitze vorgearbeitet.

Das Interessante ist: Sobald jemand bewiesen hat, dass etwas möglich ist, scheint es für andere nicht schwer zu sein, aufzuholen, auch wenn sie viel weniger Ressourcen haben.

Ich denke, dass mehrere Dinge passieren:

Erstens spielt Open Source eine enorme Rolle. Wenn jemand einen neuen Durchbruch erzielt, sagt das Open-Source-Modell im Wesentlichen: "So funktioniert es." Dann kann jeder Intelligente in der Welt es studieren und verstehen, wie man es repliziert.

Zweitens sind die Talente in diesem Bereich sehr jung. Viele der besten KI-Forscher in der Welt sind erst 22, 23 oder 24 Jahre alt. Sie können nicht lange in diesem Bereich tätig gewesen sein - sie müssen in den letzten vier oder fünf Jahren hereingekommen sein. Wenn sie es schaffen, werden es in Zukunft noch mehr Leute können.

Drittens müssen die USA und andere Länder verstehen, was China tut. Chinas Strategie bei Open-Source-Modellen hat tatsächlich zu einer globalen Preiswettbewerb geführt. Dies hat die US-Politiker dazu gebracht, die Regulierungsrichtung neu zu überdenken.

V. Große und kleine Modelle: Die Entstehung einer Pyramide der Intelligenz

Andreessen: Es gibt einige sehr kluge Leute in dieser Branche, die glauben, dass letztendlich alles nur auf großen Modellen laufen wird. Offensichtlich sind die großen Modelle immer die intelligentesten. Also möchten Sie immer das Intelligente.

Die Gegenargumente lauten: Es gibt in der Welt viele Aufgaben, für die kein Einstein benötigt wird. Eine Person mit einem IQ von 120 ist gut genug. Sie benötigen keinen Stringtheoretiker mit einem IQ von 160, Sie benötigen nur eine kompetente Person.

Ich neige dazu zu glauben, dass die Struktur der KI-Branche der Struktur der Computerbranche ähneln wird - Sie werden nur sehr wenige Dinge haben