Vom Eigenentwickeln zur Umschichtung: Entwickler haben die Frontend-Codes von 200 KI-Firmen rückwärts analysiert und die APIs verfolgt. Tatsächlich haben 146 von ihnen ChatGPT usw. umschichtet. Viele von ihnen haben die gleiche Technologiebasis, verdienen aber 75-fache Supergewinne.
„Von 200 KI-Startups verwenden 73 % tatsächlich nur eine „Hülle“, hauptsächlich um ChatGPT oder Claude zu ummanteln!“
Sobald diese Schlussfolgerung publik wurde, verursachte sie in der KI-Startup-Szene beträchtliche Schläge und Kontroversen.
Denken wir an das Jahr 2023. OpenAI-CEO Sam Altman sagte damals direkt: „Das Ummanteln von ChatGPT ist zum Scheitern verurteilt.“
Die Realität ist jedoch genau das Gegenteil: Mit dem Ruhm von ChatGPT kam es zu einer aufeinanderfolgenden Welle von Startup-Wünschen, unzählige Investitionen strömten ein, und einige Unternehmen haben bereits vor der Produktveröffentlichung beachtliche Aufmerksamkeit erregt.
Jetzt hat ein Softwareingenieur namens Teja Kusireddy mit Daten einen Teil der Wahrheit hinter dieser „Blüte“ aufgedeckt. Er hat Reverse Engineering und Code-Decompilierung an 200 KI-Unternehmen durchgeführt und die API-Aufrufe verfolgt. Dabei hat er festgestellt, dass viele Unternehmen, die von „umbruchsvoller Innovation“ sprechen, ihre Kernfunktionen immer noch auf Drittanbieterdienste angewiesen sind und lediglich eine „innovative“ Hülle um diese gelegt haben. Die Differenz zwischen der Marktwerbung und der tatsächlichen Situation ist schockierend.
Also, ist es so, dass die Investoren „gar nichts verstehen“, oder sind die KI-Startups „zu geschickt im Betrugsgeschäft“? Wie lässt sich die Grenze zwischen „Eigenentwicklung“ und „Ummantelung“ festlegen? Im Folgenden werden wir anhand des von Teja Kusireddy veröffentlichten ausführlichen Artikels aus seiner ersten Person heraus sehen, welche neuen Entdeckungen und Schlussfolgerungen er mit Daten aufgedeckt hat.
Warum habe ich das „Reverse Engineering“ initiiert?
Letzten Monat bin ich in ein unerwartetes „Kaninchenbau“ geraten und war ratlos — es begann als einfache Frage, aber am Ende ließ es mich an allem, was ich über die gesamte KI-Startup-Ökosystem wusste, zweifeln.
Es war zwei Uhr nachts, als ich beim Debuggen einer Webhook-Integration zufällig etwas Merkwürdiges entdeckte.
Ein Unternehmen, das behauptete, „eigenentwickelte Deep-Learning-Infrastruktur“ zu besitzen, rief alle paar Sekunden die OpenAI-API auf.
Und dieses Unternehmen hatte gerade mit der Aussage „Wir haben völlig unterschiedliche KI-Technologien entwickelt“ 4,3 Millionen US-Dollar von Investoren eingefahren.
Genau in diesem Moment beschloss ich, die Sache gründlich zu untersuchen und herauszufinden, wie komplex sie wirklich ist.
Untersuchungsmethode: Wie habe ich es gemacht?
Ich wollte kein Hitzeplakat schreiben, das auf „Intuition“ basiert. Ich brauchte Daten, echte Daten.
Also fing ich an, Werkzeuge zu bauen:
In den folgenden drei Wochen habe ich Folgendes getan:
Ich habe die Webseiten von 200 KI-Startups aus den „Wir suchen Mitarbeiter“-Anzeigen auf YC, Product Hunt und LinkedIn gecrawlt;
- Ich habe ihre Netzwerkverkehrssitzungen für 60 Sekunden überwacht;
- Ich habe ihre JavaScript-Pakete decompiliert und analysiert;
- Ich habe die aufgezeichneten API-Aufrufe mit einer Fingerprint-Bibliothek bekannter Dienste verglichen;
- Schließlich habe ich die Versprechungen auf ihren Marketingseiten mit der tatsächlichen technischen Umsetzung verglichen.
Ich habe bewusst Unternehmen ausgeschlossen, die weniger als sechs Monate alt waren (deren Teams sich noch in der Einarbeitungsphase befanden) und mich stattdessen auf die Startups konzentriert, die bereits externe Finanzierungen erhalten hatten und öffentlich von „exklusiver Technologie“ gesprochen haben.
Ergebnisse, die mich starr machten
Die Ergebnisse zeigen: 73 % der Unternehmen weisen eine deutliche Lücke zwischen den beanspruchten Technologien und der tatsächlichen Umsetzung auf.
Die 200 KI-Startups lassen sich in folgende Kategorien einteilen:
Was mich jedoch wirklich schockierte, war nicht nur diese Zahl. Noch überraschender war für mich, dass ich nicht einmal wütend war.
Im Folgenden werden wir die Dinge Schritt für Schritt aufschlüsseln und drei Muster unterscheiden.
Muster 1: Das sogenannte „eigenentwickelte Modell“ ist eigentlich nur GPT-4 mit ein paar zusätzlichen Operationen
Jedes Mal, wenn ich die Aussage „Unser eigenentwickeltes Large Language Model“ höre, kann ich fast vorhersagen, was ich als Nächstes entdecken werde.
Und tatsächlich habe ich in 34 von 37 Fällen richtig getippt.
Entschlüsselung der technischen Merkmale:
Beim Überwachen des ausgehenden Datenverkehrs waren diese die offensichtlichen „Spuren“:
- Bei jeder Interaktion des Benutzers mit dem sogenannten „KI-System“ wird eine Anfrage an api.openai.com gesendet;
- Der Anfrageheader (Request Headers) enthält die OpenAI-Organization-Kennung;
- Die Antwortzeit entspricht genau dem Verzögerungsmuster der OpenAI-API (die meisten Abfragen dauern 150–400 ms);
- Die Token-Nutzung stimmt mit den GPT-4-Gebührenstufen überein;
- Das exponentielle Backoff-Verhalten bei der Rate Limitierung ist ebenfalls identisch mit dem von OpenAI.
Enthüllung eines echten Falls
Ein Unternehmen, das von einem „revolutionären Natural Language Understanding-Engine“ sprach, stellte sich nach der Decompilierung als ein System mit folgenden wenigen Codezeilen heraus:
So ist es: Das gesamte sogenannte „eigenentwickelte Modell“ tauchte 23-mal in ihrer Finanzierungs-Präsentation auf.
- Keine Feinabstimmung
- Keine benutzerdefinierte Schulung
- Keine innovative Architektur
Es wurde einfach GPT-4 der Systemhinweis gegeben, „bitte so tun, als wärst du nicht GPT-4“.
Tatsächlich betragen die Kosten und Preise dieses Unternehmens nur:
- GPT-4-API: 0,03 US-Dollar pro 1.000 Eingabe-Tokens, 0,06 US-Dollar pro 1.000 Ausgabe-Tokens
- Durchschnittliche Abfrage: ca. 500 Eingabe-Tokens, 300 Ausgabe-Tokens
- Kosten pro Abfrage: ca. 0,033 US-Dollar
Die Gebühren für die Benutzer betragen: 2,50 US-Dollar pro Abfrage (oder 299 US-Dollar für 200 Abfragen pro Monat)
Die direkte Kostenrentabilität beträgt ein Vielfaches von 75!
Was noch abstruser ist … ich habe tatsächlich festgestellt, dass der Code von drei verschiedenen Unternehmen fast identisch ist:
- Die Variablennamen sind identisch
- Der Kommentarstil ist identisch
- Der Befehl „OpenAI niemals erwähnen“ ist ebenfalls identisch
Also schließe ich daraus, dass diese Unternehmen entweder:
- Von demselben Tutorial kopiert haben
- Einen gemeinsamen Freelance-Engineer engagiert haben
- Einen gemeinsamen Startup-Accelerator-Template verwendet haben
Ein weiteres Unternehmen hat zusätzliche sogenannte „innovative Funktionen“ hinzugefügt:
In ihrer Präsentation für Investoren nannte es diese Funktion „Intelligent Fallback Architecture“.
Hier möchte ich persönlich sagen, dass „das Ummanteln der OpenAI-API an sich kein Problem ist. Das Problem besteht darin, dass diese Unternehmen es „eigenentwickeltes Modell“ nennen, während es tatsächlich nur eine API plus ein benutzerdefinierter Systemhinweis ist.“
Das ist so, als würde man ein Tesla kaufen, das Logo ändern und behaupten, man habe „eigene Elektromobiltechnologie“ entwickelt.
Muster 2: Jeder nutzt die RAG-Architektur (aber niemand will es zugeben)
Im Vergleich zum ersten Muster ist diese Kategorie subtiler. Die RAG (Retrieval-Augmented Generation) Architektur ist tatsächlich nützlich, aber die Lücke zwischen der Marketingwerbung und der tatsächlichen Umsetzung bei vielen KI-Startups ist noch größer.
Sie prahlen damit, dass sie „fortgeschrittene neuronale Suche + eigenentwickeltes Embedding-Modell + semantische Suchinfrastruktur …“ entwickelt haben.
Tatsächlich besitzen sie:
Ich habe festgestellt, dass 42 Unternehmen fast identische Technologiestacks verwenden:
- Als Embedding-Modell wird OpenAI's text-embedding-ada-002 verwendet (statt „unser eigenentwickeltes Embedding-Modell“);
- Als Vektor-Speicher wird Pinecone oder Weaviate verwendet (statt „unser proprietäres Vektor-Datenbank“);
- Zur Textgenerierung wird GPT-4 verwendet (statt „unser trainiertes Modell“).
Der tatsächliche Code sieht so aus:
Das heißt nicht, dass die Technologie schlecht ist — RAG funktioniert tatsächlich. Aber es als „eigenentwickelte KI-Infrastruktur“ zu bezeichnen, ist so absurd, wie ein WordPress-Website „maßgeschneiderte Content-Management-Architektur“ zu nennen.
Mal eine Kostenschätzung für dieses Unternehmen (pro Abfrage):
- OpenAI Embedding-Modell: 0,0001 US-Dollar pro 1.000 Tokens
- Pinecone-Abfrage: 0,00004 US-Dollar pro Abfrage
- GPT-4-Generierung: 0,03 US-Dollar pro 1.000 Tokens
- Gesamtkosten: ca. 0,002 US-Dollar pro Abfrage
Der tatsächliche Preis, den die Benutzer zahlen, beträgt