KAN, auch bekannt als Liu Ziming, ist nach China zurückgekehrt, um als Lehrer zu arbeiten. Dies wurde von der offiziellen Website der Tsinghua-Universität bestätigt.
Der erste Autor des heissgefeierten neuronalen Netzwerk-Architektur KAN hat seinen neuen Arbeitsplatz nach dem Abschluss bestätigt, was von der offiziellen Website der Tsinghua-Universität zertifiziert wurde:
Liu Ziming wird im September diesen Jahres der Fakultät für Künstliche Intelligenz der Tsinghua-Universität beitreten und als Assistentprofessor tätig sein.
Die erste Version der KAN-Publikation wurde im April 2024 veröffentlicht. Sobald sie veröffentlicht wurde, wurde sie aufgrund ihrer besseren Genauigkeit und Interpretierbarkeit im Vergleich zum Multi-Layer Perceptron (MLP) ein heiss diskutiertes Thema in der akademischen Welt. Ihr GitHub-Repository erhielt binnen ein paar Tagen 1,1k Sterne.
Wie in der Publikation erwähnt, liegt der Schwerpunkt der Aufmerksamkeit darin:
KANs sind eine starke Alternative zu MLPs und bieten neue Chancen für die weitere Verbesserung von Deep-Learning-Modellen, die derzeit stark auf MLPs angewiesen sind.
Liu Zimings Position war bereits vor einiger Zeit festgelegt. Aus seiner Rekrutierungsanzeige im Mai 2025 geht hervor, dass die Rekrutierung seiner ersten Gruppe Doktoranden bereits abgeschlossen ist.
Der erste Autor von KAN kehrt nach China zurück und lehrt
Liu Ziming ist aus Wuhan und ein ehemaliger Schüler der Wugang No. 3 High School.
Er war seit der Mittelschule ein Wettbewerbsstudent. Im Gymnasium widmete er sich den Physikwettbewerben und wurde 2015 als 8. Plazierter in die nationale Physik-Trainingsmannschaft aufgenommen und in die Fakultät für Physik der Peking-Universität verpflichtet.
Während seines Bachelorstudiums interessierte sich Liu Ziming für das Schnittgebiet von Physik und Maschinellem Lernen. Er veröffentlichte Artikel als erster Autor in Zeitschriften wie European Physical Journal C und Physical Review C sowie auf wissenschaftlichen Konferenzen wie NeurIPS 2020.
Nach seinem Bachelorabschluss absolvierte Liu Ziming einen Doktorstudiengang in Physik an der MIT unter der Leitung des Physikers Max Tegmark – dieser Physikprofessor war ursprünglich Kosmologe und hat sein Forschungsinteresse später auf Künstliche Intelligenz verlagert.
KAN ist das Ergebnis der Zusammenarbeit zwischen Liu Ziming und Max Tegmark. Unter der Leitung von Max Tegmark arbeitete Liu Ziming an der Verbesserung der Interpretierbarkeit von neuronalen Netzwerken. Die ursprüngliche Inspiration für KAN (Kolmogorov-Arnold Networks) war es, von dem mathematischen Kolmogorov-Arnold-Theorem auszugehen, um die "Black Box" der neuronalen Netzwerke zu öffnen.
Genauer gesagt besagt der Kern des Kolmogorov-Arnold-Theorems: Jede mehrvariable stetige Funktion, die auf einem beschränkten Bereich definiert ist, kann als zweischichtige verschachtelte Überlagerung endlich vieler einvariabler stetiger Funktionen dargestellt werden.
Dies bietet einen Ansatz für die Entstehung von KAN: Die Lernaufgabe komplexer hochdimensionaler Funktionen wird in die Lernaufgabe einer Gruppe einvariabler Funktionen umgewandelt.
Das bedeutet, dass KAN überhaupt keine linearen Gewichte benötigt: MLP verwendet feste Aktivierungsfunktionen an den Knoten, während KAN die zu lernenden Aktivierungsfunktionen an den Kanten (Gewichten) platzieren kann. Die linearen Gewichte jeder Kante werden durch einvariable Funktionen ersetzt.
Unter dieser Designweise können die Wirkungspfade der einzelnen Variablen im Netzwerk direkt beobachtet werden, was KAN eine Interpretierbarkeit und Interaktivität verleiht, die MLP nicht bieten kann.
Nach der Veröffentlichung der Publikation kam es schnell zu einer starken Resonanz. Laut Google Scholar hat KAN inzwischen über 3000 Zitationen.
Im August 2024 veröffentlichten Liu Ziming und seine Mitarbeiter KAN 2.0, um die Praktikabilität und Benutzerfreundlichkeit von KAN weiter zu verbessern.
Liu Ziming interpretiert KAN als dreistufiges AI+Science:
Science for AI: Die Prinzipien stammen aus der Mathematik;
Science of AI: Es werden einige Phänomene bezüglich des Neural Scaling Law aufgeklärt;
AI for Science: Mit KAN können symbolische Formeln in wissenschaftlichen und technischen Problemen entdeckt werden.
Und dies ist auch seine Forschungsrichtung.
Im Mai 2025 teilte Liu Ziming auf sozialen Medien mit, dass er die Position an der Tsinghua-Universität erhalten hat. In seiner Rekrutierungsanzeige erläuterte er auch seinen Forschungsstil:
1. Motiviert durch Neugier (es macht Spaß) und Einfluss (auch auf aktuelle Trends reagiert, aber es wird eher langfristiger Einfluss angestrebt). Im Idealfall soll die Forschung sowohl wissenschaftliche Inspiration als auch Einfluss haben. KAN ist ein solches Beispiel. Wir möchten von wissenschaftlicher Seite aus mehr Möglichkeiten für AI vorstellen. 2. Kombination von Theorie und Experiment. Die Theorie hat die Strenge der Physik, was möglicherweise von Mathematikern als unpräzise kritisiert wird haha. Experimente dienen eher der Erklärung von Phänomenen als dem blindem Erreichen des State-of-the-Art. Experimente zeigen uns, welche Theorien möglicherweise nützlich sind, und die Theorie gibt uns Anweisungen, wie wir Experimente gestalten sollen. 3. Die Forschungsprobleme liegen normalerweise auf einer mittleren Abstraktionsebene zwischen reiner Theorie und reiner Anwendung. Der Vorteil der Abstraktion ist die hohe Allgemeingültigkeit für verschiedene Probleme, aber die Abstraktion muss von hoher Qualität und für die Praxis nützlich sein. Deshalb werde ich mit Anwendungsgruppen (konkreten wissenschaftlichen Bereichen) zusammenarbeiten, um zu verstehen, wie wir bessere Abstraktionen entwickeln können, um der Anwendung näher zu kommen.
Derzeit arbeitet Liu Ziming als Postdoktorand an der Stanford University. Sein Betreuer ist Andreas Tolias.
One More Thing
Übrigens hat Liu Ziming die Physik, der er seit der Gymnasium widmet, nicht aufgegeben.
Sein täglich aktualisierter Blog heißt "physics of AI", was die Forschung von AI auf die Art und Weise der Physikforschung bedeutet. Das Ziel ist es, zu beantworten: Welches Modell zeigt welche Phänomene auf welchen Daten.
"Der Schlüssel liegt in 'vielen kleinen Erkenntnissen' anstatt in der Hoffnung auf 'wenige grosse Entdeckungen'."
△
Seit dem 31. Dezember 2025 aktualisiert Liu Ziming seinen Blog täglich. In seinen eigenen Worten:
Mit nur 2 Stunden täglich kann ich durch Spielzeugmodelle (toy models) erstaunliche Fakten über neuronale Netzwerke entdecken. Viele Erkenntnisse mögen am Ende unbedeutend oder irrelevant sein, aber einige von ihnen werden einen so großen Einfluss haben, dass sie den aktuellen Stand des Bereichs verändern können.
Referenzlinks:
[1]https://collegeai.tsinghua.edu.cn/rydw/qzpi/liuziming.htm
[2]https://zhuanlan.zhihu.com/p/1907988943389045778[3]https://kindxiaoming.github.io/
Dieser Artikel stammt aus dem WeChat-Account „Quantum Bit“, Autor: Yuyang. 36Kr hat die Veröffentlichung mit Genehmigung vorgenommen.