Überwindung des Plastizitätsengpasses: Neues Werk des Teams von Tsinghua-Universität setzt neue Rekorde in der kontinuierlichen Lernfähigkeit - Training geleitet durch übertragbare Aufgabenbeziehungen
Ein Team der Tsinghua-Universität hat das Problem des "Lernvergessens" in KI mithilfe von "Aufgabenbeziehungen" gelöst. Das vorgeschlagene H-embedding guided hypernet berechnet zunächst die Ähnlichkeit zwischen alten und neuen Aufgaben und lässt dann das Hypernetzwerk anhand dieser Beziehungen spezifische Modellparameter generieren. Ein niedrigdimensionaler kleiner Vektor kann direkt eingesetzt werden, und auf Tests wie ImageNet-R wird die Vergessensrate um weitere zehn Prozent gesenkt.
Fortlaufendes Lernen (Continual Learning, CL) ist eine wichtige Fähigkeit künstlicher Intelligenzsysteme auf dem Weg zur langfristigen Intelligenz. Sein Kernziel besteht darin, dass das Modell in einer Aufgabenfolge ständig neue Kenntnisse aufnimmt und gleichzeitig die Leistung bei alten Aufgaben aufrechterhält oder sogar verbessert.
Allerdings tendiert das Modell im Rahmen des gängigen Deep-Learnings dazu, beim Lernen neuer Aufgaben alte Kenntnisse erheblich zu vergessen, was als "katastrophaler Verlust" (Catastrophic Forgetting) bezeichnet wird. Dies ist der wichtigste Engpass, der die breite praktische Anwendung von fortlaufendem Lernen einschränkt.
Die bestehenden CL-Methoden lassen sich grob in drei Kategorien einteilen: Wiedergabemethoden auf der Grundlage von Datenwiedergabe, Regularisierungsmethoden auf der Grundlage von Parameterbeschränkungen und dynamische Erweiterungsmethoden auf der Grundlage der Modellstruktur. Obwohl sie alle in unterschiedlichem Maße den Verlust von Kenntnissen mildern, wird ein grundlegendes Problem immer noch ignoriert:
Die meisten CL-Methoden gehen immer noch von einer "modellzentrierten" Perspektive aus und vernachlässigen die Modellierung und Nutzung der inneren Beziehungen zwischen Aufgaben.
Allerdings bestimmt die Aufgabenbeziehung direkt die Richtung und Effizienz des Wissensübertrags: Welche Aufgaben eine hohe Kooperationsfähigkeit haben, welche Aufgaben stark in Konflikt stehen, welche alten Aufgaben für neue Aufgaben nützlich sind und welche neuen Aufgaben bestehende Fähigkeiten beeinträchtigen könnten - diese Informationen sind für ein robustes fortlaufendes Lernen von entscheidender Bedeutung.
Um diese seit langem bestehende Lücke zu schließen, haben Forscher der Tsinghua-Universität ein neues CL-Konzept mit einem "aufgabenbeziehungsorientierten" Ansatz vorgeschlagen: Ein fortlaufendes Lernframework für Hypernetzwerke, das von H-embedding geleitet wird.
Link zur Studie: https://arxiv.org/pdf/2502.11609
Der Kerngedanke besteht darin, dass vor dem Lernen jeder neuen Aufgabe ein auf Übertragbarkeit sensibles Aufgabenembedding H-embedding mithilfe von Informationstheorie-Maßen erstellt wird und das Hypernetzwerk auf der Grundlage dieses Embeddings aufgaben-spezifische Parameter generiert, um so die Aufgabenbeziehungen explizit im CL-Prozess zu kodieren.
Motivation der Methode: Aufgabenbeziehungen sollten als explizite Leitinformationen für CL dienen
In einem typischen CL-Szenario kann das Modell erst nach dem Training einer neuen Aufgabe eine "ex-post-Analyse" auf der Grundlage von Parameteränderungen durchführen, um die Störung und den Übertrag zwischen Aufgaben zu beurteilen.
Dieses Modell hat von Natur aus drei Probleme:
1. Fehlende aufgabenbezogene Prioriwissen: Das Modell kann keine Übertragungswege vor dem Training planen
Das Modell weiß weder, welche alten Aufgaben für die aktuelle Aufgabe nützlich sind, noch welche Kenntnisse besonders geschützt werden müssen.
2. Positive und negative Übertragung sind schwer gleichzeitig zu optimieren
Traditionelle Methoden können oft nur eines von beiden berücksichtigen: Starke Regularisierung reduziert den Verlust von Kenntnissen, aber schwächt die Fähigkeit zum Lernen neuer Aufgaben; starkes Lernen neuer Aufgaben verbessert die Vorwärtsübertragung, führt aber zu einem erheblichen Verlust von Kenntnissen.
3. Mit zunehmender Anzahl von Aufgaben akkumulieren Störungen, was die Skalierbarkeit der Methode erschwert
Je länger die Aufgabenfolge ist, desto höher sind die Kosten für das "blinde Lernen" des Modells.
Daher stellt sich die natürliche Frage:
"Könnte die Fähigkeit zur Vorwärts- und Rückwärtsübertragung verbessert werden, wenn das fortlaufende Lernen anstelle von reinen Modellparametern von Aufgabenbeziehungen ausgeht, um den Lernweg zu gestalten?"
Vor diesem Hintergrund hat das Forschungs-Team den "aufgabenbeziehungsorientierten" Entwurfskonzept eingeführt, um die Übertragbarkeit von Aufgaben in lernbare Prioriinformationen umzuwandeln und direkt die Parametergenerierung und die Strategien zum Schutz von Kenntnissen anzutreiben.
Haupterfolge
Vorschlag von H-embedding: Aufgabenübertragbarkeitsembedding auf der Grundlage von H-Score
Graphische Darstellung der Beziehung zwischen Übertragbarkeit und Aufgabenembedding
Das Team verwendet den Informationstheorie-Indikator H-Score, um den Übertragswert von jeder alten Aufgabe zur aktuellen Aufgabe zu charakterisieren. Der H-Score kann die Wirksamkeit der Merkmale der Quellaufgabe für die Zielaufgabe widerspiegeln und ist ein effizient berechenbares Maß für die Übertragbarkeit in der Praxis.
Anschließend werden diese Übertragbarkeitswerte mithilfe der analytischen Hierarchieprozessmethode (AHP) normalisiert, um sie mit der Distanzmetrik im Embedding-Raum übereinzustimmen, und dann wird das niedrigdimensionale H-embedding der Aufgabe durch Optimierung der Distanzübereinstimmung erhalten.
Diese Darstellung hat drei wichtige Eigenschaften:
- Priori verfügbar: Kann vor dem Start des Aufgaben-Trainings erhalten werden
- Niedrigdimensional und kompakt: Erleichtert die langfristige Speicherung und schnelle Abfrage
- Übereinstimmung mit der Übertragbarkeit: Die Distanz zwischen Embeddings spiegelt die Beziehung zwischen Aufgaben wider
Dadurch verfügt das fortlaufende Lernen über eine "explizit verwaltbare Aufgabenbeziehungsstruktur".
Vorschlag eines von H-embedding angetriebenen Hypernetzwerk-Parametergenerierungsframeworks
Dieses Framework verwendet ein Hypernetzwerk, um für jede Aufgabe auf der Grundlage des Aufgabenembeddings spezifische Parameter zu generieren. Noch wichtiger ist, dass ein leichtgewichtiger Decoder in das Modell integriert wird, um das Hypernetzwerk zu zwingen, die Aufgabenbeziehungen explizit zu absorbieren, indem es das H-embedding rekonstruiert.
Der Trainingsvorgang umfasst drei Arten von Schlüsselverlusten:
- Aufgabenverlust: Lernen der aktuellen Aufgabe
- Fortlaufendes Lern-Regularisierungsterm: Reduzierung der Überdeckung von alten Kenntnissen
- Embedding-gesteuerter Verlust: Sicherstellung, dass die Aufgabenbeziehungen an der Parametergenerierung beteiligt sind
Durch dieses Design kann das Modell: Die generierten Parameter automatisch an die Aufgabenunterschiede anpassen, bei verwandten Aufgaben positive Übertragung durchführen und bei konfliktiven Aufgaben den Schutz von Kenntnissen stärken, um so das Kernproblem von CL auf struktureller Ebene zu lösen.
Hochgradige Anwendbarkeit: End-to-End-Training möglich, kompatibel mit verschiedenen parametereffizienten Feintuning-Techniken
Dieses Framework ist äußerst praktikabel:
- Nur ein Embedding pro Aufgabe muss gespeichert werden (sehr geringer Speicherbedarf)
- Unterstützung von gängigen Architekturen wie CNN und ViT
- Kann mit parametereffizienten Feintuning-Techniken wie LoRA kombiniert und auf verschiedenen vortrainierten Modellen eingesetzt werden
Experimentelle Ergebnisse: Überlegenheit auf mehreren CL-Referenzdaten
Das Forschungs-Team hat umfassende Bewertungen auf mehreren gängigen fortlaufenden Lernreferenzdaten durchgeführt, darunter CIFAR - 100, ImageNet - R und DomainNet, die verschiedene Modellarchitekturen (z. B. ResNet, Vision Transformer) und Lernumgebungen (z. B. Ganzmodelltraining, parametereffizientes Feintuning) abdecken. Die Hauptergebnisse sind wie folgt:
Die Ergebnisse zeigen:
1. FAA übertrifft alle bestehenden Methoden und erzielt auf allen Datensätzen eine bessere Endleistung.
2. Es treten gleichzeitig starke Vorwärts- und Rückwärtsübertragungsfähigkeiten auf. Die Differenz zwischen DAA und FAA ist minimal, was bedeutet, dass das Lernen neuer Aufgaben alte Aufgaben fast nicht beeinträchtigt und gleichzeitig effektiv Wissen aus alten Aufgaben aufnehmen kann.
3. Der Algorithmus ist robuster gegenüber der Zunahme der Anzahl von Aufgaben. In den Erweiterungsversuchen von 5 → 10 → 20 Aufgaben nimmt der Leistungsgewinn der Methode kontinuierlich zu, was eine gute Skalierbarkeit zeigt. Und bei späteren Aufgaben hat die Einführung von Embedding - Guidance eine deutliche Beschleunigung der Konvergenz gebracht.
4. Die Effektivität der Komponenten wird durch die Ablationsversuche bestätigt. Das Entfernen der H - embedding - Führung oder der AHP - Normalisierung führt zu einem deutlichen Rückgang der Leistung.
Schlussfolgerungen und Ausblicke
Die Forscher haben ein "aufgabenbeziehungsorientiertes" fortlaufendes Lernparadigma vorgeschlagen. Durch die Einführung des Informationstheorie - angetriebenen Aufgabenbeziehungsembeddings H - embedding vor dem Training kann das Modell:
- Die Übertragbarkeit vorhersagen, anstatt passiv anzupassen
- Das Wissensinteraktions zwischen Aufgaben bewusst während des Lernprozesses verwalten
- Den Verlust von Kenntnissen erheblich reduzieren und die Übertragungseffizienz verbessern
Das von H - embedding geleitete Hypernetzwerkframework hat auf mehreren Referenzdaten eine führende Leistung erzielt, was die Schlüsselrolle der Aufgabenbeziehungsmodellierung im fortlaufenden Lernen zeigt.
In Zukunft können auf Aufgabenstrukturwahrnehmung basierende Methoden möglicherweise auf komplexere Szenarien wie das multimodale inkrementelle Lernen, die langfristige Anpassung von großen Modellen an Aufgaben, die Aufgabenautonomie (task discovery) und die automatische Planung der Lernreihenfolge erweitert werden. Dies bietet neue Richtungen für die Entwicklung eines skalierbaren und wachsenden allgemeinen KI - Systems.
Referenzen:
https://arxiv.org/pdf/2502.11609
https://yangli - feasibility.com/home/group.html
Dieser Artikel stammt aus dem WeChat - Account "New Intelligence Yuan", Autor: LRST. Veröffentlicht von 36Kr mit Genehmigung.