19.000 Zeilen Claude Code "KI-Müll" dringen in Node.js ein: Ein weltweit führendes Open-Source-Projekt ist bald nicht mehr zu retten.
In letzter Zeit steht eines der einflussreichsten Projekte der Open-Source-Welt, Node.js, vor einer beispiellosen Entscheidung. Eine Kontroverse darüber, ob künstlich intelligenter Code in die Kern-Codebasis von Node.js aufgenommen werden darf, löst heftige Debatten in der technologischen Community aus.
So ist die Situation:
1 19.000 Zeilen Claude Code in Node.js - eine umstrittene Entscheidung
Im Januar 2026 wurde ein auffälliger Pull Request (PR) in die Kern-Codebasis von Node.js eingereicht. Dieser PR enthielt fast 19.000 Zeilen Code (genauer gesagt etwa 14.000 Zeilen, verteilt auf 66 Dateien) und sollte Node.js eine neue virtuelle Dateisystemfunktion (VFS) hinzufügen.
Der Einreicher war Matteo Collina, Mitglied des Technischen Leitungsausschusses (TSC) von Node.js, Mitbegründer und CTO der Firma Platformatic sowie Betreuer des Fastify-Frameworks. In der PR-Beschreibung schrieb er deutlich: "Ich habe eine große Anzahl von Claude Code-Tokens verwendet, um diesen PR zu erstellen. Alle Codezeilen wurden jedoch von mir persönlich überprüft."
Das Auftauchen dieses PR hätte normalerweise als technischer Sieg gewertet werden können - in nur einer Weihnachtsferienzeit wurde eine große Funktion implementiert, die normalerweise Monate voller Arbeit erfordert.
Matteo Collina hat öffentlich erklärt, dass die KI eine Vielzahl von repetitiven Aufgaben übernommen hat, wie die Implementierung aller fs-Methoden, das Schreiben von Testabdeckungen und die Generierung von Dokumentationen. Er selbst hat sich auf die Architektur und die API-Design konzentriert und den Code zeilenweise überprüft. Ohne die KI hätte dies als Ferienprojekt überhaupt nicht möglich gewesen.
In seinem Blogbeitrag "Warum Node.js ein virtuelles Dateisystem braucht" schrieb er: "Ehrlich gesagt würde ein so großer PR normalerweise Monate voller Arbeit erfordern. Dies war diesmal möglich, weil ich Claude Code verwendet habe. Ich habe die KI die lästigen Teile übernehmen lassen, die Arbeit, die es möglich macht, 14.000 Zeilen Code zu schreiben, aber die niemand gerne manuell schreibt: die Implementierung jeder fs-Methodenvariante (synchron, Callback, Promise), die Konfiguration der Testabdeckung und die Generierung von Dokumentationen. Ich habe mich auf die Architektur, das API-Design und die zeilenweise Überprüfung des Codes konzentriert. Ohne die KI hätte dies als Ferienprojekt überhaupt nicht möglich gewesen, es hätte gar nicht realisiert werden können."
Anscheinend war die Sache schon eine Zeit lang vorbei, aber vor einigen Tagen hat Fedor Indutny, ein langjähriger Kernmitarbeiter von Node.js, die Aktion von Matteo Collina in Frage gestellt, der mit Hilfe des Tools Claude Code Code generiert und einen PR eingereicht hat.
Fedor Indutnys Bedenken liegen nicht in der Codequalität, sondern darin, ob der KI-unterstützte Code den DCO 1.1-Bestimmungen entspricht (ein rechtlicher Nachweis, den jeder Node.js-Mitwirkender bei der Einreichung eines PR unterzeichnen muss). Er hat sogar eine Petition gestartet, um den Technischen Leitungsausschuss (TSC) von Node.js aufzufordern, die Verwendung von KI-unterstützter Entwicklung im Kernprojekt zu verbieten.
Die Kernargumente der Petition lauten:
Wichtigkeit der Infrastruktur: Node.js ist eine kritische Infrastruktur, die auf Millionen von Servern läuft und Entwicklern über die täglich verwendeten Befehlszeilentools Unterstützung bietet. Die Meinung ist, dass die Verdünnung des über Jahre hinweg sorgfältig geschriebenen Kerncodes dem Projektauftrag und den Werten widerspricht.
DCO-Konformitätskontroverse: Obwohl die Rechtsabteilung der OpenJS Foundation der Ansicht ist, dass LLM-unterstützte Änderungen nicht gegen den DCO verstoßen, hält die Petitionsgruppe dies nur für die Spitze des Eisbergs.
Ethische Überlegungen: Einige große KI-Provider haben bei der Trainingsphase unzulässige Materialien verwendet, einschließlich urheberrechtlich geschützter Werke und nicht autorisierten Open-Source-Codes.
Bildungseffekte: Es gibt Beweise dafür, dass die Verwendung von KI-Modellen den Lernprozess von Studenten behindert. Die Absenkung der Codequalitätsstandards kann zu einem Verständnisverlust des Node.js-Kerns führen und die langfristige Entwicklung des Projekts gefährden. Der Codeüberprüfungsprozess dient nicht nur dazu, Fehler und Sicherheitslücken zu finden, sondern auch dazu, den Einreichern zu helfen, zu lernen und zu wachsen. Aber KI-Modelle haben keine Lernfähigkeit, die Überprüfungszeit wird verschwendet, und die Fähigkeiten der Mitwirkenden verbessern sich nicht.
Privilegienproblem: Die Verwendung von KI-Modellen erfordert entweder ein kostenpflichtiges Abonnement oder einen großen Hardwareaufwand, um sie lokal auszuführen. Der eingereichte generierte Code sollte von den Prüfern reproduzierbar sein, ohne auf ein kostenpflichtiges LLM-Tool zurückgreifen zu müssen.
Zusammenfassend weisen die Gründe der Petitionsgruppe hauptsächlich auf die "Infrastruktur-Eigenschaft" von Node.js und die Nachvollziehbarkeit des Codes hin.
Als kritische Laufzeitumgebung, die auf Millionen von Servern weltweit läuft, hängt der Kerncode von Node.js seit langem von Entwicklern ab, die ihn mit großer Sorgfalt manuell pflegen. In ihrer Ansicht ist diese "nachvollziehbare und verständliche" Codeerstellungsmethode ein wichtiger Bestandteil der Vertrauenswürdigkeit des Projekts. Die Einführung von KI-generiertem Code, insbesondere bei großen Änderungen, könnte diese Ingenieurtradition schwächen und sogar die Reputation von Node.js in der Entwicklergemeinschaft erschüttern.
Ein weiterer Kernpunkt des Konflikts liegt in der "Nachvollziehbarkeit". Im traditionellen Entwicklungsprozess ist der Code nicht nur ein Träger der Ausführungslogik, sondern auch eine Darstellung der Designentscheidungen. Prüfer können durch das Lesen des Codes die Abwägungen der Entwickler in Bezug auf Leistung, Kompatibilität und Architektur verstehen. Aber KI-generierter Code hat oft keinen klaren Designkontext, wodurch der Prüfungsprozess von "Verständnis des Designs" zu "Überprüfung der Implementierung" zurückfällt. Wenn dieses Problem auf eine Änderung von 19.000 Zeilen angewendet wird, wird die Komplexität der Codeüberprüfung exponentiell erhöht.
2 Der Codeeinreicher reagiert auf die Kontroverse: Wenn es einen Fehler gibt, ist es meine Verantwortung
Die Petition hat in der Community heftige Debatten ausgelöst, aber es gibt nicht nur Zustimmung. Die "KI-Enabler", vertreten durch Matteo Collina, haben eine starke Gegenargumentation vorgebracht.
Collina hat in seinem Blogbeitrag "The DCO Debate: Who Is Responsible for AI-Generated Code?" seine Ansicht ausführlich erläutert. Er vergleicht die KI mit der "Nudelmühle der Oma" - das Werkzeug hilft bei der Herstellung, aber die endgültige Verantwortung liegt bei der Oma.
"Ich habe die Architektur gewählt. Ich habe die API anhand der Rückmeldungen aller Prüfer gestaltet. Ich habe die Designentscheidungen getroffen, die von der KI eingeführten Probleme erkannt und behoben. Ich verstehe, was jeder Teil des Codes tut und warum. Ich habe den DCO unterzeichnet. Mein Name steht darauf. Wenn es einen Fehler gibt, ist es meine Verantwortung. Wenn es Lizenzprobleme gibt, habe ich die Konformität zertifiziert."
Collina hat auch einen wichtigen Punkt gemacht: Die Prüfer sollten ebenfalls als Mitautoren betrachtet werden. "Die Prüfer, die einen PR überprüfen, Änderungen vorschlagen, Randfälle erkennen und helfen, die endgültige Implementierung zu gestalten - sind sie nicht Mitautoren dieser Arbeit? Das war in der Geschichte von Node.js bei jedem PR so."
Darüber hinaus hofft Collina, dass die Community sich über die tatsächliche Bedeutung von "manuelle Überprüfung" bei KI-unterstützten Beiträgen einigen kann. Es reicht nicht, einfach zu sagen: "Ich habe es überprüft". Wir müssen in der Lage sein, Fragen wie diese zu beantworten: Verstehen Sie die Funktion dieses Codes? Können Sie die Designentscheidungen erklären? Können Sie auf Rückmeldungen antworten, ohne erneut die KI zu fragen? Können Sie diesen Code in einem Jahr warten? Diese Fragen haben wir den Mitwirkenden immer gestellt. Die Werkzeuge können sich ändern, aber die Erwartungen an die Menschen bleiben gleich.
Collina hat in seinem Artikel auch erklärt, dass die breitere Open-Source-Ökosystem bereits einen ersten Konsens über das Problem der KI-unterstützten Beiträge erreicht hat.
Linux-Kernel-Community: Als Schöpfer des DCO hat die Linux-Kernel-Community eine klare Policy-Datei für KI-unterstützte Beiträge. Ihre coding-assistants.rst erfordert einen strengen Mensch-Maschine-Zyklus. KI-Agenten dürfen kein Signed-off-by-Tag hinzufügen. Nur Menschen können den DCO legal zertifizieren. Der Codeeinreicher muss alle von der KI generierten Codes überprüfen, die Lizenzkonformität überprüfen und seine eigene Signatur hinzufügen. KI-Unterstützung muss über das Assisted-by-Tag offen gelegt werden.
Das Rechtsteam von Red Hat: CTO Chris Wright und Rechtsberater Richard Fontana haben eine detaillierte Analyse veröffentlicht, die direkt die DCO-Frage beantwortet. Sie erklären, dass der DCO niemals so interpretiert wurde, dass jeder Beitragszeile eine persönliche kreative Leistung des Mitwirkenden entsprechen muss. Viele Beiträge enthalten routinemäßige, nicht urheberrechtlich geschützte Materialien, und die Entwickler unterzeichnen dennoch. Der eigentliche Punkt des DCO ist die Verantwortung. Unter Offenlegung und manuellem Überwachung können KI-unterstützte Beiträge vollkommen mit dem Geist des DCO kompatibel sein.
OpenJS Foundation: Die eigene Rechtsbehörde von Node.js hat direkt in Bezug auf den PR Stellung bezogen. Der Geschäftsführer Robin Ginn hat bestätigt, dass die Stiftung Rechtsberater konsultiert hat und mit der DCO-Kompatibilität von KI-unterstützten Beiträgen zufrieden ist und sich verpflichtet, diese Position offiziell festzuhalten.
Diese drei unabhängigen Organisationen - der Schöpfer des DCO, eines der größten Open-Source-Rechtsteams der Welt und die eigene Stiftung von Node.js - sind zu demselben Schluss gekommen: KI verstößt nicht gegen den DCO. Wichtig ist die Verantwortlichkeit.
3 Die Community ist in Aufruhr
Unterdessen sind die Benutzer von Communities wie Hacker News und Reddit auch wegen dieser Angelegenheit in Aufruhr!
Auf Reddit haben einige Entwickler direkt die KI ins Visier genommen und ihre Einbindung in den Kerncode abgelehnt.
Der Benutzer sagte: "Ehrlich gesagt, obwohl ich für umfangreiche Code-Refaktorisierungen und automatisierte Generierung bin, ist die direkte Nutzung von KI-Modellen zur Verwaltung solcher Änderungen nicht die beste Lösung. Ich würde es lieber sehen, dass der Autor die Refaktorisierung über AST (Abstrakter Syntaxbaum)-Transformationsskripte oder andere programmierbare Skripte durchführt. Diese Methode ist logisch klar und lässt mich die Art und den Grund der Codeänderungen intuitiver verstehen. Im Vergleich dazu sind die von KI-Modellen generierten Änderungen nicht reproduzierbar und erfordern kostenpflichtige Abonnementtools, was die Kollaborationsschwelle erhöht. Darüber hinaus, wenn die Refaktorisierung zu komplex ist, empfehle ich, sie in mehrere kleine inkrementelle PRs aufzuteilen, um die Gesamtkomplexität zu verringern."
Ein anderer Benutzer hat sich beschwert, dass, wenn der PR-Einreicher selbst sagt, dass der Code von der KI geschrieben wurde, warum die Prüfer dann das Risiko eingehen sollten, den Code manuell zu überprüfen. Er schrieb:
"Ehrlich gesagt, dieser PR ist zu groß, um die Qualität garantieren zu können. Der Einreicher selbst sagt: 'Ohne KI hätte ich so viel Code nicht geschrieben'. Das heißt doch, dass selbst der Autor wahrscheinlich nicht in der Lage ist, diese 20.000 Zeilen Code vollständig zu beherrschen. Wenn Sie den Code mit einem Klick generieren, warum sollten die Prüfer dann tage- und nachtlang sitzen und den Code manuell überprüfen?"
Der Benutzer hat auch noch das Copyright-Problem erwähnt. "Wir alle wissen, dass KI 'Ehrung' an den Code aus dem Trainingssatz leistet. Wenn es Ihnen zufällig einen Code aus einem geschlossenen Patent eines anderen gibt, können Sie es gar nicht unterscheiden. Kleinere Änderungen sind noch in Ordnung, aber diese massenhafte 'Übertragung' birgt ein sehr hohes rechtliches Risiko - wer kann garantieren, dass der Code sauber ist? Wenn Sie später verklagt werden, wer übernimmt die Verantwortung?"
Ein anderer Benutzer hat eine Rechnung gemacht und sagte:
"Ich habe gerechnet, dass es 19.000 Zeilen Code sind. Wenn man pro Zeile 2 Minuten für die Überprüfung benötigt, dann sind das (19.000 ✖️2) ➗ 60 ➗ 7 ungefähr 90 Arbeitstage (bei 7 Stunden pro Tag).
Sind Sie sicher, dass alle diese Codezeilen wirklich zeilenweise gelesen wurden? Ich meine, wenn der Autor es sich nichtmal Mühe macht, den Code zu schreiben, werden sie sich wirklich die Zeit nehmen, ihn alle zu lesen?
Wenn es sich um den Geschäftscode einer privaten Website oder einer kleinen Firma handeln würde, könnte man das Risiko eingehen; aber für ein Open-Source-Projekt, auf das unzählige Menschen angewiesen sind und das als Infrastruktur dient, ist es schon beängstigend, so viel von KI generierten 'scheinbar fehlerfreien' Code zu sehen."
Aber einige Benutzer sind der Meinung, dass diese Codes von einem Kernbetreuer von Node.js stammen und er den Code auch manuell überprüft hat