StartseiteArtikel

Warum ist es so, dass die meisten Start-ups im Bereich von Large Language Models (LLM) scheitern müssen?

神译局2025-06-30 15:06
Diese Modelle verschlingen (fast) alles, was mit ihnen in Kontakt kommt.

Das Göttliche Übersetzungsbüro ist ein Übersetzungsteam unter der Flagge von 36Kr. Es konzentriert sich auf Bereiche wie Technologie, Geschäft, Arbeitsplatz und Lebensstil und stellt vor allem neue Technologien, neue Ansichten und neue Trends aus dem Ausland vor.

Herausgeberhinweis: Wenn die Giganten der Large Language Models (LLMs) die Anwendungs-Ebene verschlingen, ist das Betreiben eines Unternehmens mit einem "Wrapper" um ein bestehendes Modell zu einem hochriskanten Spiel geworden. Dieser Artikel lüftet die Illusion der Plattform und analysiert die Gene der Überlebenden – entweder baut man seine eigenen Barrieren auf, oder man wird zu Nahrung für die Riese. Der Artikel ist eine Übersetzung.

Die meisten AI-Startups machen den gleichen Fehler: Sie denken, sie bauen ihr Geschäft auf einer Plattform auf. Tatsächlich bauen sie aber ihr Nest in einem Raubtier.

I. Einleitung: Der Klipp, der wie eine Rennstrecke aussieht

Die AI-Startup-Ökosystem erkennt allmählich eine harte Realität. In den letzten 18 Monaten haben Tausende von Startups, die von Top-Venture-Capital-Investoren unterstützt werden, ihr gesamtes Zukunftshoffen auf die Idee gesetzt, dass Large Language Models (LLMs) die neuen Anwendungsplattformen sind. Diese Idee ist äußerst verlockend: Die APIs sind einfach aufzurufen, die Demos können Investoren überzeugen, und Startups, die einfach einen "Wrapper" um ein bestehendes Modell bauen, können schnell Kapital beschaffen und ihre Produkte noch schneller auf den Markt bringen.

Aber die meisten dieser Startups basieren auf einer kognitiven Täuschung: Sie denken, die Modelllieferanten seien stabile Plattformen wie AWS oder iOS. Das ist ein großer Irrtum. Die Modelllieferanten sind keine Plattformen, sondern Raubtiere.

II. Die Illusion der Modularität

Der Kernirrtum der LLM-Startup-Boom ist die Wahnvorstellung von der Komponierbarkeit. Die Gründer denken, sie könnten wie in der Vergangenheit Unternehmen, die auf Windows oder AWS basierten, auf Claude, GPT-4 oder Gemini Produkte im Milliarden-Dollar-Bereich entwickeln. Aber anders als bei der Cloud-Infrastruktur ist der Anbieter des unteren Modells in der Technologie-Stack nicht eine neutrale Ebene, sondern ein vertikal integriertes End-to-End-Produktunternehmen.

OpenAI will nicht nur GPT-4 an Entwickler lizenzieren, sondern auch die Chat-Oberfläche, die Benutzerkonten, die Vertriebskanäle und die Vertrauensebene kontrollieren. Das Gleiche gilt für Anthropic und Google. Die Analogie zu AWS bricht hier zusammen – AWS hat niemals mit seinen Kunden um die Aufmerksamkeit der Benutzer gekämpft, aber diese Unternehmen tun genau das.

Wenn Sie etwas auf der Grundlage eines fremden Modells entwickeln, haben Sie keine Kontrolle über Ihr Schicksal. Sie sind keine Plattform, sondern Nahrung, Testfall, Experimentierobjekt. Entweder werden Sie als Bedrohung wahrgenommen, wenn Sie zu schnell wachsen, oder Sie werden zu einem statistischen Ausreißer, wenn Sie zu langsam wachsen. Wie auch immer, Sie können jederzeit verworfen werden.

III. Die strategischen Fehler in der Venture-Capital-Ökosystem

Die LLM-Welle hat einen gemeinsamen Blindpunkt von Investoren und Gründern aufgedeckt: Sie vermischen die Bequemlichkeit der Prototypentwicklung mit der Dauerhaftigkeit des Geschäftsmodells. Angeregt durch beeindruckende Demos und schnelle Iterationen strömt das Risikokapital wild ein. Startups, die einfach eine dünne UX-Schicht über eine öffentliche API legen, werden sogar als Infrastruktur-Investitionsziele angesehen.

Aber diese Unternehmen sind keine Plattformen, sondern nur Schnittstellen, die auf unsicheren Fundamenten stehen.

Viele haben lange geglaubt, dass die Anbieter der unteren Modelle wie Cloud-Infrastruktur-Anbieter funktionieren würden: Vorhersagbar, stabil und zufrieden mit der Monetarisierung ihrer Rechenleistung. Aber diese Anbieter sind keine ruhigen Rohrleitungen, sondern unruhige Spieler, die auf die unteren Ebenen der Wertschöpfungskette hungrig starren. Ihr Ziel ist nicht, Startups zu befähigen, sondern sie zu ersetzen.

IV. Die Ausnahmen, die die Regel bestätigen

Einige wenige Startups werden dieser Kollaps überleben, und einige werden sogar gegen den Strom aufsteigen. Aber sie haben alle eines gemeinsam: Sie haben unersetzliche Schutzbarrieren.

Vertriebsbarrieren: Unternehmen mit tiefgreifenden Branchenbeziehungen (z. B. in den Bereichen Medizin, Unternehmens-SaaS oder Rechtstechnologie) verbessern die bestehenden Arbeitsabläufe ihrer Kunden mit LLMs. Ihr Vorteil liegt nicht im Modell, sondern in ihrer Fähigkeit, verschiedene Komponenten zu integrieren.

Eigenes Datenbestände: Unternehmen mit einzigartigen Datensätzen (egal ob vertikal strukturiert oder Echtzeitdaten) haben Produkte, die deutlich besser sind als die internen Lösungen von OpenAI oder Anthropic. Ein Beispiel ist ein radiologisches Diagnoseunternehmen, das Millionen von annotierten Bildern hat. Aber beachten Sie: Es reicht nicht, nur Daten zu besitzen. Man muss auch sicherstellen, dass man die rechtliche Nutzungsberechtigung hat und dass die Daten tief in den Produktarbeitsablauf integriert sind.

Inferenzkontrolle: Startups, die ihre eigenen Modelle selbst hosten oder feinabstimmen (einschließlich kleiner LLMs oder synthetischer Architekturen), haben die Kostenkontrolle in der Hand, einen Vorteil bei der Latenz und die Produktautonomie.

Synthetische Plattformen: Einige wenige Unternehmen bauen eine Orchestrierungsschicht, ein Agenten-Framework oder eine Gedächtnisarchitektur, deren Komplexität und Verteidigungsfähigkeit stark genug sind, um Netzwerkeffekte auszulösen. Dies sind keine "Wrapper"-Produkte, sondern aufstrebende Betriebssysteme für intelligente Arbeit.

V. Warum die "Wrapper"-Theorie für LLMs so verlockend ist

Es gibt einen Grund, warum Investoren und Gründer in diese Falle tappen. Das "Wrapper"-Modell für LLMs bietet:

  • Sofortige Demos: Einige Aufrufe der OpenAI-API und ein React-Frontend, und das Produkt ist sofort einsatzbereit.
  • Extrem schnelles Vorankommen: Ein Team kann innerhalb von Wochen iterieren, Kapital beschaffen und expandieren.
  • Weniger Geldverbrauch: Wenige Infrastrukturbedürfnisse, kleine Rekrutierungszahlen und niedrige Fehlertoleranzkosten.

In einer Umgebung, die von Hype und Kapital durchsetzt ist, sind diese Vorteile kaum zu widerstehen. Aber sie verdecken die Kernstrategiefehler: Es besteht keine Kontrolle über die Wertschöpfung.

Gründer orientieren sich zu sehr an der scheinbaren Wachstumsrate, und Investoren gehen nur nach der Wachstumskurve. Niemand geht jedoch auf die entscheidende Frage ein: Was passiert, wenn OpenAI Ihr gesamtes Geschäftsmodell mit drei Zeilen Code nachbauen kann? Was passiert, wenn Anthropic Ihre Zugriffe einschränkt oder Google Wettbewerbsklauseln hinzufügt?

VI. Die Unvermeidlichkeit der vertikalen Integration

Das Verhalten der Modelllieferanten ist nicht irrational. Im Gegenteil, sie treffen die rationale Wahl eines Monopolisten: Sie expandieren nach oben, extrahieren Gewinne und kontrollieren die Benutzerbeziehungen.

Die Vorstellung, dass die Anbieter der unteren Modelle sich mit der Rolle der Infrastruktur zufrieden geben würden, ist zu naiv. Wenn man das Modell, die Oberfläche und den Daten-Flywheel in der Hand hat, wird man kaum die Gewinne weggeben. Wenn man selbst das nächste Salesforce aufbauen kann, warum sollte man dann dritte Startups unterstützen?

Die AI-Ökosystem durchläuft eine Phasenänderung. Die gegenwärtige Situation ist wie als Facebook die besten Funktionen in seiner Ökosystem (Fotos/Check-ins/Veranstaltungen) übernahm oder als Microsoft eine Excel-Kopie in sein Betriebssystem integrierte. Wenn Rechenleistung zu Intelligenz wird, wird die vertikale Integration zum Schicksal.

VII. Das dringendste Anliegen der Gründer

Wenn Ihr Geschäft auf einem fremden LLM basiert, stellen Sie sich unbedingt folgende Fragen:

  • Warum entwickelt OpenAI nicht selbst dieses Geschäft?
  • Welche Schutzbarrieren besitze ich, die nicht vom Modell abhängen?
  • Was passiert, wenn mir morgen der Zugang zur API entzogen wird?

(Herausgeberhinweis: Das Unternehmen Windsurf, das ein AI-gestütztes Programmierwerkzeug mit dem Claude-Modell entwickelt, wird sicherlich gut verstehen, worum es hier geht. Natürlich, wenn es von OpenAI übernommen wird, ist das auch eine andere Seite der Medaille.)

Wenn man diese Fragen nicht überzeugend beantworten kann, muss man sofort umorientieren. Das heißt nicht, dass man die AI aufgeben muss, sondern dass man seine Geschäftsposition neu definieren muss.

Die neuen Entscheidungsgrundsätze lauten wie folgt:

  • Wenn Sie näher an den Benutzern sind als der Modelllieferant, haben Sie möglicherweise eine Chance zu überleben.
  • Wenn der Modelllieferant Ihre Geschäftstätigkeit mit einem Funktionsschalter ersetzen kann, sind Sie praktisch tot.

Gründer müssen die Abhängigkeitsketten analysieren und alle Komponenten, die kommodifiziert werden können, merciless abtrennen. Daten, Vertrieb und Infrastruktur – das sind die neuen Schutzbarrieren. Alles andere steht auf schlanken Beinen.

VIII. Schlussfolgerung: Wenn das Fundament einstürzt

Es ist nicht schamvoll, die falsche Abstraktionsebene gewählt zu haben, aber es ist gefährlich, an einem falschen Ansatz zu festhalten. Die "Wrapper"-Produkte für LLMs entstanden in einer speziellen Zeit: Die APIs waren offen, die Differenzierung wurde überschätzt, und die vertikale Integration war noch nicht da.

Diese Zeit ist vorbei.

Die neue Ära gehört den Spielern, die nicht nur die API kontrollieren. Daten, Vertrieb, Infrastruktur – das sind die neuen Schutzbarrieren. Alles andere wird untergehen.

Die Plattform-Falle ist ausgelöst. Die Frage ist jetzt: Wer kann rechtzeitig entkommen?

Übersetzer: boxi.