Nach Monaten langer Diskussion hat Linus endlich entschieden. Linux hat offiziell "Gesetze" für KI-Code erlassen: Die Verwendung von KI ist erlaubt, aber die Verantwortung muss von Menschen übernommen werden.
Wenn man sagt, dass die Einstellung der Open-Source-Community gegenüber KI in den letzten zwei Jahren noch auf der Frage „Soll man KI verwenden oder nicht“ lag; so ist diese Frage jetzt von der Realität vollständig umgeschrieben worden – wie kann man das Risiko auf ein Minimum reduzieren, wenn die Verwendung von KI unvermeidlich ist?
Gerade vor kurzem ist die langjährige Kontroverse um KI-generierten Code im Linux-Kernel-Community endlich beigelegt: Linus Torvalds und die Linux-Kernel-Maintainer haben offiziell eine Reihe von Regeln für die Verwendung von KI-Code auf Projektebene festgelegt.
Einfach ausgedrückt: KI kann verwendet werden, aber du musst für alles, was sie tut, verantwortlich sein.
Linus' Einstellung: KI ist nur ein Werkzeug, „KI verbieten“ macht keinen Sinn
In den letzten Monaten befand sich die Linux-Kernel-Community tatsächlich in einer heiklen Situation:
● Auf der einen Seite gibt es immer mehr verbreitete KI-Programmierwerkzeuge, wie z.B. Copilot von GitHub und Claude und andere große Modelle;
● Auf der anderen Seite besteht die tiefe Sorge der Maintainer hinsichtlich der Codequalität, der rechtlichen Risiken und der Community-Kultur.
Der Ausbruch der Kontroverse war Anfang dieses Jahres. Damals kam es zu einer öffentlichen Spaltung zwischen Kernentwicklern von Intel und Oracle über die Frage, ob KI-Code streng eingeschränkt werden sollte. Die Diskussion eskaliert sogar zu einem heftigen Konflikt auf Community-Ebene. Einige befürworten eine strenge Regulierung oder sogar ein Verbot, während andere der Meinung sind, dass dies nur eine normale Phase in der technologischen Entwicklung ist.
Schließlich hat Linus Torvalds persönlich Eingriff genommen und mit einem Satz diese Kontroverse beendet: „Es macht eigentlich keinen Sinn, über KI-Müllcode zu diskutieren. Das ist einfach nur dumm.“
Nach seiner Ansicht ist KI im Wesentlichen wie ein Editor oder ein Compiler nur ein Werkzeug. Was wirklich reguliert werden muss, sind die „Menschen“, nicht das Werkzeug, das sie verwenden. Daher ist es besser, die Verantwortung an die Personen zu binden, die den Code einreichen, anstatt zu versuchen, „KI zu verbieten“.
Egal, ob KI verwendet wird oder nicht, wer den Code einreicht, ist für ihn verantwortlich
Die zentralste Änderung dieser neuen Richtlinie scheint nur eine Anpassung eines Labels zu sein: KI-generierter Code darf nicht mit dem Label „Signed-off-by“ versehen werden, sondern muss stattdessen das Label „Assisted-by“ erhalten, um die Beteiligung von KI klar zu markieren.
Eine kurze Erklärung: Im Linux-Entwicklungsprozess hat das Label „Signed-off-by“ immer eine große rechtliche Bedeutung gehabt. Es bedeutet, dass der Einreicher verspricht, dass der Code legal stammt und dass er das Recht hat, ihn einzureichen. Jetzt ist dieses Label für KI-generierten Inhalt ausdrücklich verboten und wird durch ein neues Label – „Assisted-by“ – ersetzt.
Zweck dieser Anpassung ist eigentlich sehr klar:
● Die Beteiligung von KI muss klar markiert werden (Transparenz)
● Die endgültige Verantwortung liegt weiterhin vollständig bei den menschlichen Entwicklern (Verantwortlichkeit)
Mit anderen Worten, egal, ob der Code von dir geschrieben oder von KI generiert wurde, solange du ihn einreichst: Wenn es zu Bugs, Leistungsproblemen oder sogar Sicherheitslücken kommt – die Verantwortung liegt bei dir. Die Linux-Community hat nicht versucht, die „Vertrauenswürdigkeit“ von KI zu definieren, sondern umgeht dieses Problem einfach und bringt die Frage zurück auf das traditionellste Ingenieurprinzip: Wer einreicht, ist verantwortlich.
Warum ist die Open-Source-Community so besorgt über KI?
Wenn man nur auf den Oberflächeninhalt schaut, ist es leicht, diese Kontroverse als Konflikt zwischen „alten Ingenieuren“ und „modernen neuen Werkzeugen“ zu verstehen. Tatsächlich ist diese Kontroverse kein „technisches Problem“, sondern ein rechtliches Problem.
Die Open-Source-Welt ist seit langem von einem Schlüsselmechanismus abhängig: DCO (Developer Certificate of Origin), d.h. wenn Entwickler Code einreichen, müssen sie erklären, dass sie das Recht haben, diesen Code einzureichen. Aber hier kommt das Problem: KI wie Copilot und ChatGPT werden auf der Grundlage von riesigen Mengen an Open-Source-Code trainiert, einschließlich streng einschränkenden Lizenzen wie GPL (GNU General Public License) und verschiedenen Daten mit unklarer Urheberschaft.
Dies führt zu einer peinlichen Situation: Entwickler können nicht vollständig beweisen, dass der KI-generierte Code „rechtmäßig stammt“. Dies wurde von Red Hat in einer früheren Analyse deutlich gewarnt: Die Verwendung von KI-generiertem Code kann versehentlich zu Verstößen gegen Open-Source-Lizenzen führen und sogar das DCO-System grundlegend erschüttern.
Abgesehen von den rechtlichen Risiken gibt es noch ein realistischeres Problem: Es gibt zu viel KI-Code und die Qualität ist unterschiedlich. Die Open-Source-Community hat sogar einen Namen dafür gefunden: „AI slop“ (KI-Müllcode).
Dieser Code sieht oft strukturell komplett und grammatikalisch korrekt aus, ist aber logisch voller Lücken und enthält sogar viele „Illusionen“. In der Realität sind bereits viele echte Fälle aufgetreten:
● Der Maintainer von cURL musste das Bug-Bounty-Programm schließen, weil er von einer großen Anzahl von fehlerhaften Berichten, die von KI generiert wurden, überflutet wurde;
● Das Whiteboard-Tool tldraw hat begonnen, externe Pull Requests automatisch zu schließen, um ineffiziente Einreichungen zu reduzieren;
● In Projekten wie Node.js und OCaml sind sogar Patches mit Tausenden von Zeilen KI-generiertem Code aufgetaucht, was zu Kontroversen unter den Maintainern führte.
Schließlich ist es eigentlich nicht die KI selbst, die die Community nicht akzeptieren kann, sondern das Verhalten, „die Verwendung von KI zu verheimlichen“.
Ein typischer Fall ist im Linux-Kernel aufgetreten: Der NVIDIA-Engineer und Kernel-Maintainer Sasha Levin hat einmal einen Patch eingereicht, der vollständig von einem großen Modell generiert wurde, ohne jedoch irgendeine KI-Markierung. Obwohl dieser Code funktionierte, führte er zu Leistungseinbußen und hat andere Maintainer während der Überprüfungstage misgeführt.
Nachträglich hat selbst Linus Torvalds zugegeben, dass dieser Code nicht ausreichend überprüft wurde, weil keine KI-Markierung vorhanden war. Also ist das Wesen des Problems eigentlich sehr klar: Die Open-Source-Community hat keine Angst davor, dass du KI verwendest, aber sie hasst es, dass du „tust, als hättest du es selbst geschrieben“.
Es ist nicht nur Linux, die gesamte Open-Source-Szene ist in Bewegung
Ähnliche Konflikte treten nicht nur in Linux auf: In der Mod-Community des klassischen Spiels Doom war das GZDoom-Projekt auch wegen der KI-Verwendung gespalten.
Damals wurde festgestellt, dass der Projektleiter Christoph Oelckers KI-generierten Code verwendet hatte, ohne dies zu offenbaren. Als er von der Community angegriffen wurde, hat er einfach gesagt: „Wenn euch das nicht gefällt, könnt ihr forken.“ Tatsächlich hat die Community dies getan – ein neuer Zweig namens UZDoom ist schnell entstanden, und viele Kernentwickler sind dorthin gewechselt. Das ursprüngliche Projekt hat dadurch schweren Schaden erlitten.
Es hat sich gezeigt, dass in der Open-Source-Welt, wenn die Transparenz gebrochen wird, eine Spaltung fast unvermeidlich ist.
Im Vergleich dazu ist die endgültige Lösung, die die Linux-Kernel-Community gefunden hat, sehr „ingenieurdenkend“: Wichtig ist, ob der Code gut ist, nicht, ob er von KI geschrieben wurde. Du kannst KI verwenden, um Code zu generieren, aber wenn der Code Probleme hat, wenn er „KI-Müll“ ist, wenn er den Kernel kaputt macht, dann – derjenige, der auf „Einreichen“ klickt, muss sich persönlich an Linus verantworten.
In der Open-Source-Welt von Linux ist dies wahrscheinlich die stärkste Bindungsmethode.
Referenzlink: https://www.tomshardware.com/software/linux/linux-lays-down-the-law-on-ai-generated-code-yes-to-copilot-no-to-ai-slop-and-humans-take-the-fall-for-mistakes-after-months-of-fierce-debate-torvalds-and-maintainers-come-to-an-agreement
Dieser Artikel stammt aus dem WeChat-Account „CSDN“, Zusammenfassung: Zheng Liyuan, veröffentlicht von 36Kr mit Genehmigung.