Das Token-Einsparungs-Wunderwerk hat in 3 Tagen 4.100 Sterne gesammelt. Entwickelt von einem 19-jährigen Jungen, kann es Informationen unverändert halten und bis zu 87% sparen.
Das informationsschonende Token spart bis zu 87%. Ein Token-sparendes Werkzeug wird auf GitHub immer beliebter.
In nur 3 Tagen hat es sich nur durch Mundpropaganda verbreitet und bereits 4.1K Sterne auf GitHub gesammelt. Die Wachstumskurve ist beeindruckend:
Sogar der 19-jährige ausländische Junge, der dieses Projekt entwickelt hat, war verblüfft und hat gesagt, dass er das nicht erwartet hätte.
Es war ursprünglich ein "Scherz", den er in nur 10 Minuten geschrieben hat, aber es wurde unerwartet von vielen Menschen beliebt.
Er hat es "Scherz" genannt, weil der Hintergrund des Projekts namens caveman (Höhlenmensch) zu einfach ist: Redewendungen sind nicht immer besser. Manchmal bedeutet weniger Wörter = korrekter.
Richtig, dieses Plugin für Claude Code/Codex hat das Ziel, dass der Agent "wie ein Höhlenmensch spricht" (kurz und bündig).
Zum Beispiel, wenn die Lösung die gleiche ist, braucht der normale Claude einen ganzen Absatz, um es zu beschreiben:
(Übersetzung) Der Grund, warum Ihre React-Komponente neu gerendert wird, liegt wahrscheinlich darin, dass Sie bei jedem Render-Zyklus eine neue Objektreferenz erstellen. Wenn Sie ein Inline-Objekt als Prop übergeben, wird React bei einem flachen Vergleich jedes Mal ein anderes Objekt annehmen und dadurch eine Neuausführung auslösen. Ich empfehle Ihnen, useMemo zu verwenden, um das Objekt zu cachen.
caveman dagegen ist ziemlich knapp:
(Übersetzung) Bei jedem Render wird eine neue Objektreferenz erstellt. Ein Inline-Objekt als Prop übergeben = neue Referenz = Neuausführung auslösen. Verwenden Sie useMemo, um es zu umschließen.
Erste Tests zeigen, dass es bei vollständiger technischer Genauigkeit die Ausgabe-Tokens um etwa 75% reduziert.
Darüber hinaus gibt es ein zusätzliches Tool, das die Benutzer-Memory-Dateien komprimieren kann, um die Eingabe-Tokens pro Sitzung um etwa 45% zu reduzieren.
Aktuell kann dieses Plugin in einer skills-unterstützenden Umgebung mit einer Zeile installiert werden:
npx skills add JuliusBrussee/caveman
"Manchmal reichen wenige Tokens"
Ehrlich gesagt ist die Idee, dass der Agent kurz und bündig spricht, um Tokens zu sparen, nicht neu.
Der Junge, der caveman entwickelt hat, hat erwähnt, dass eine Studie im März dieses Jahres festgestellt hat:
Durch die Einschränkung der Kürze (erzwungene kurze Antworten) hat sich die Genauigkeit des großen Modells um 26 Prozentpunkte verbessert. Und in Bezug auf mathematische Schlussfolgerungen und wissenschaftliche Wissensstandards hat es die Leistungsebene vollständig umgekehrt (ursprünglich war das große Modell schlechter als das kleine Modell, aber später hat es es überholt).
Also hat der Junge gesagt, dass die Entstehung von caveman auf einer allgemein bekannten Beobachtung basiert -
"Höhlenmensch-Sprache" (caveman-speak) kann die Token-Nutzung des großen Sprachmodells erheblich reduzieren, ohne den technischen Kerninhalt zu verlieren.
Schauen Sie sich eine Before/After-Analyse an, und Sie werden es verstehen:
Um die gleiche Reparaturaufgabe auszudrücken, braucht der normale Claude 69 Tokens, während caveman nur 19 braucht.
Die Tokens werden um etwa 75% gespart, ohne dass sich dies auf das Verständnis der Aufgabe durch den Agenten und die Lösung der Aufgabe auswirkt.
Laut dem Entwickler behält caveman Folgendes vollständig bei:
Codeblöcke, Inline-Code, URLs, Dateipfade, Befehle, Überschriften, Tabellenstrukturen, Datumsangaben, Versionsnummern usw. Jeder technische Inhalt bleibt unverändert, nur der natürliche Sprachtext wird komprimiert.
Mit anderen Worten, nur unnötige Redewendungen werden entfernt. (PS: Ein einfaches "Hallo" von Claude Code verbraucht bereits 13% des Kontingents.)
Naturgemäß können Sie auch die Knappheit des Agenten selbst steuern. Sie können zwischen ausführlich und minimal (Lite → Full → Ultra) wählen.
Lite: Entfernt Höflichkeitsformeln und unnötige Redewendungen, behält die grundlegende Syntaxstruktur bei;
Full: Die Standardversion von caveman. Artikel wie "ein" oder "der/die/das" werden weggelassen. Der Satz besteht nur aus Schlüsselwortfragmenten und wird manchmal mit kurzen Interjektionen ergänzt. Die Sprechweise ist etwas wie die eines Höhlenmenschen;
Ultra: Die maximale Kompressionsmodus, bei der so viel wie möglich gespart wird.
Um herauszufinden, wie viele Tokens tatsächlich gespart werden können, hat der Junge auch auf der echten Claude-API getestet (wiederholbar) -
Bei 10 Aufgaben lag der Token-Sparbetrag zwischen 22% und 87%, im Durchschnitt sogar 65%.
Die konkreten Aufgaben umfassen u. a. die Erklärung eines React-Render-Bugs, die Behebung des Problems mit dem abgelaufenen Token des Authentifizierungs-Middlewares, die Einrichtung eines PostgreSQL-Verbindungspools, die Erklärung des Unterschieds zwischen git rebase und merge, die Umgestaltung von Callbacks in async/await...
Der Junge hat jedoch auch gewarnt, dass caveman nur die Ausgabe-Tokens beeinflusst, die Denk- und Schlussfolgerungs-Tokens bleiben unverändert.
caveman macht nicht das Gehirn kleiner, sondern den Mund. Der größte Gewinn ist die Lesbarkeit und Geschwindigkeit, die Kosteneinsparung ist ein zusätzlicher Bonus.
Die genaue Installationsmethode lautet wie folgt:
Wenn Sie AI-Programmiertools wie Cursor, Copilot, Windsurf oder Claude Code verwenden, können Sie es in einer skills-unterstützenden Umgebung mit einer Zeile installieren:
npx skills add JuliusBrussee/caveman
Wenn Sie es für einen bestimmten Agenten installieren möchten, können Sie es so tun:
npx skills add JuliusBrussee/caveman -a cursornpx skills add JuliusBrussee/caveman -a copilotnpx skills add JuliusBrussee/caveman -a clinenpx skills add JuliusBrussee/caveman -a windsurf
Claude Code-Benutzer können es auch so installieren:
claude plugin marketplace add JuliusBrussee/cavemanclaude plugin install caveman@caveman
Bei Codex ist es etwas komplizierter. Sie müssen zuerst das Repository klonen, Codex im Projekt öffnen und dann über /plugins nach Caveman suchen und es manuell installieren.
Nach der Installation können Sie den Höhlenmenschen aufrufen, indem Sie den caveman-Modus auswählen oder einfach sagen "Sprich wie ein Höhlenmensch" oder "Verwende weniger Tokens".
Um es zu stoppen, können Sie in den normalen Modus wechseln oder einfach "stop caveman" sagen.
Hinter dem Projekt steht ein 19-jähriger Entwickler
Interessanterweise ist der Autor von caveman auch ziemlich jung -
Julius Brussee, derzeit 19 Jahre alt, studiert im ersten Semester an der Universität Leiden in den Niederlanden. Sein Studiengang ist Data Science und Künstliche Intelligenz.
Obwohl er erst an der Universität anfängt, hat er bereits reichliche Wettbewerbs- und Gründungsfahrung (nicht wirklich).
Im Januar 2025 gründete er Revu Labs und entwickelte hauptsächlich die Revu-Anwendung, eine native macOS-Lernanwendung.
Einfach ausgedrückt, kann Revu automatisch die von Ihnen hochgeladenen PDFs in Lernmaterialien umwandeln und dann die Wiederholung mit einem ähnlichen intelligenten Algorithmus wie bei Duolingo planen. Hinter ihr arbeiten mehrere Agenten zusammen, um sicherzustellen, dass die Daten unbeschädigt und vollständig lokal bleiben.
Dann nahm er an einem Innovationswettbewerb an der Technischen Universität Eindhoven teil und baute eine unternehmensweite Wissensverwaltungsplattform namens Stacklink.
Diesmal war es noch komplizierter. Stacklink musste alle verstreuten Informationen des Unternehmens (z. B. Google Docs, Slack, Notion) integrieren und dann eine einheitliche Indizierung erstellen, insbesondere auch das Problem der AI-Halluzination berücksichtigen.
Kürzlich gründete er zusammen mit anderen das Unternehmen Pitchr und übernahm die Rolle des Produkt- und Technologieverantwortlichen.
Wenn Sie sich das Produkt von Pitchr ansehen, werden Sie sicher lächeln, denn es entwickelt eine AI-Präsentationshilfeplattform (um Ihnen zu helfen, Ihre Präsentationen besser zu präsentieren).
Außerdem hat Julius selbst noch etwas ergänzt, das nicht in seinem Lebenslauf steht:
Er gründete auch früher Locked In (eine iOS-Produktivitätsanwendung mit NFC-Integration, die eine Retentionsrate von 100% in der ersten Woche erreichte) und Neurabridge (ein AI-Beratungsunternehmen, das von The Economist berichtet wurde).
Trotz der Entwicklung dieser Projekte hat die unerwartete Beliebtheit von caveman Julius sehr beeindruckt:
Nun ja, der "Scherz", den ich so spontan geschrieben habe, ist populär geworden, während ich Monate lang mit Revu, Stacklink... gearbeitet habe, aber diese Projekte haben nicht die gleiche Aufmerksamkeit erhalten.
Allen gefällt die Funktion caveman sehr. Die Leute installieren es, und ich lachte mich schief.
Aber es gibt etwas, über das niemand spricht - die Projekte, an denen ich monatelang hart gearbeitet habe, wurden in derselben Woche auch anerkannt, aber die Aufmerksamkeit war nicht so groß. Ich beschwere mich nicht, ich beobachte nur.
Der Schlüssel zur Verbreitung ist die Resonanz. Der Witz hat die Tür geöffnet. Die echte Arbeit passiert im Hintergrund.
caveman ist auch umstritten
Naturgemäß ist die Beliebtheit von caveman nicht nur auf den Witz "lass die KI wie ein Urmensch sprechen" zurückzuführen, sondern es gibt auch einige Kontroversen.
Zwei Punkte werden am meisten diskutiert:
Der Großteil der Einsparungen betrifft die Ausgabe-Tokens, während die echten Kosten in den Kontext-Eingabe-Tokens liegen.
Erzwingt man dem großen Modell, kürzer zu sprechen, wird es dadurch dümmer?