Intelligenz allein reicht nicht mehr aus.
Im Zeitalter der Künstlichen Intelligenz (KI) hat sich der Kernwert von Modellen von der reinen „Intelligenz“ hin zur „Verifizierbarkeit von richtig und falsch“ verschoben. Der Autor weist darauf hin, dass die Durchbrüche der KI in den Bereichen Code und Mathematik nicht darauf beruhen, dass das Modell schlauer geworden ist, sondern darauf, dass diese Umgebungen eine klare Rückkopplungsschleife bieten, die es dem System ermöglicht, sich durch massives Ausprobieren und Fehler machen autonom zu entwickeln. Im Gegensatz dazu machen Bereiche wie Kreativität und Schreiben, die subjektiv sind und keine einheitlichen Standards haben, nur langsame Fortschritte. Dies führt dazu, dass die traditionellen Fähigkeiten der Logik und der Expression an Wert verlieren. In Zukunft wird die knappe Kompetenz nicht mehr das Wissen aufzubauen sein, sondern die Fähigkeit, unklare Aufgaben in verifizierbare Indikatoren umzuwandeln und die Fähigkeit, ein System zu entwerfen.
In den letzten ein oder zwei Jahren hat das rasante Wachstum der KI den Eindruck erweckt, dass sie immer schlauer wird.
Aber die Wahrheit könnte genau das Gegenteil sein. François Chollet, der Vater von Keras und Google KI-Forscher, hat in einem kürzlichen Gespräch darauf hingewiesen, dass die am meisten gewinnbringende KI nicht schlauer geworden ist, sondern nur in eine Umgebung gelangt ist, in der richtig und falsch verifiziert werden kann.
Sobald richtig und falsch verifiziert werden kann, kann die KI automatisch ausprobieren und Fehler machen und die Ergebnisse skalieren. Deshalb sind Code-Tools schnell für kommerzielle Zwecke einsetzbar, während Bereiche wie Schreiben und Kreativität, in denen es schwierig ist, richtig und falsch zu bestimmen, nur langsame Fortschritte machen.
Diese unterschiedliche Geschwindigkeit der technologischen Entwicklung definiert neu, welche Art von „Intelligenz“ noch wertvoll ist.
Angesichts des neuen technologischen Bezugssystems kann es sein, dass Sie sich anhand alter Standards einschätzen und sich damit an der falschen Stelle befinden.
Abschnitt 1 | Die KI ist nicht schlauer geworden, aber plötzlich nützlicher
Code-Intelligenz-Agenten sind plötzlich sehr nützlich geworden. Der von ihnen geschriebene Code kann sogar direkt eingesetzt werden. Die Unterstützung bei mathematischen Beweisen folgt schnell nach und zeigt eine immer stabilere Leistung.
Viele Menschen führen dies darauf zurück, dass das Modell schlauer geworden ist.
Aber wenn man genauer hinsieht, liegt die entscheidende Veränderung nicht in einem Intelligenzsprung des Modells selbst, sondern darin, dass es in eine Schleife gelangt ist, in der es „Dinge erledigen“ kann.
Nehmen wir den Code als Beispiel. Ob ein Programm richtig geschrieben ist, kann direkt verifiziert werden: Ob es funktioniert, ob es Fehler gibt und ob die Testfälle bestanden werden. Das bedeutet, dass die KI nicht raten muss und nicht von Menschen Zeile für Zeile korrigiert werden muss. Sie kann selbstständig das Programm ausführen, das Ergebnis überprüfen und dann weiter bearbeiten. Jeder Versuch hinterlässt eine effektive Rückmeldung. Wenn diese Rückmeldungen schnell akkumulieren, verbessert sich die Leistung des Systems erheblich.
Deshalb sind Code-Intelligenz-Agenten in kürzester Zeit sehr nützlich geworden und nähern sich sogar dem Niveau der direkten Einsetzbarkeit.
Dieselbe Logik breitet sich auch auf andere Bereiche aus. Die Mathematik ist der nächste Bereich. Ob ein Beweis stimmt, kann mit strengen Regeln überprüft werden; ob ein Schritt in der Herleitung richtig ist, kann logisch verifiziert werden. Sobald solche Fragen eindeutig richtig oder falsch bestimmt werden können, haben sie denselben Weg des schnellen Wachstums wie beim Schreiben von Code.
Dieses Muster wird sogar in der Entwicklung der KI-Selbsttestung bestätigt.
ARC AGI ist derzeit die anspruchsvollste bekannte KI-Intelligenztestung. Bei der Veröffentlichung der Version V1 erreichte das Basis-Modell noch weniger als 10 % der maximal erreichbaren Punktzahl. Erst mit der Entstehung von Inferenz-Modellen gab es einen Durchbruch. Später wurde die noch anspruchsvollere Version V2 veröffentlicht, die jedoch schnell überwunden wurde: Die Forscher ließen die KI ähnliche Aufgaben generieren, sich selbst lösen, die Antworten verifizieren und dann die erfolgreichen Fälle für die Weiterentwicklung nutzen. Durch diesen wiederholten Zyklus wurde die Punktzahl in nur wenigen Monaten auf 97 % gesteigert.
Sobald richtig und falsch verifiziert werden kann, kann die KI durch massives Ausprobieren und Fehler machen schnell evolvieren.
Aber in anderen Szenarien sieht die Situation ganz anders aus.
Beim Schreiben von Artikeln, beim Kreativarbeiten und beim Festlegen von Strategien gibt es keine einheitlichen Standards. Was heißt „gut geschrieben“? Die Einschätzungen verschiedener Menschen unterscheiden sich stark. Die KI kann in diesen Bereichen zwar Inhalte generieren, aber nicht wie beim Schreiben von Code durch das Ausprobieren und Fehler machen der Maschine selbst schnell einen „richtigen Antwort“ nähern.
Wie Chollet zuvor erwähnt hat, hängt die Trainingsdaten in diesen nicht verifizierbaren Bereichen stark von der Kennzeichnung durch menschliche Experten ab. Die Kosten sind sehr hoch, was zu langsamen Fortschritten und sogar zu einer Sättigung führt.
Dies führt derzeit in der Branche zu zwei völlig unterschiedlichen Tempos:
Bei einer Art von Problemen werden die Fortschritte immer schneller und sogar exponentiell.
Bei der anderen Art von Problemen scheint es auch Fortschritte zu geben, aber die Leistung bleibt immer instabil und es ist schwierig, die kommerzielle Schwelle zu überschreiten.
Warum ist das so? Die zugrunde liegende Logik ist eigentlich sehr einfach:
Kann dieses Problem klar verifiziert werden?
Wenn es verifiziert werden kann, kann die KI losziehen und sich selbst weiterentwickeln; wenn es nicht verifiziert werden kann, bleibt sie im Stadium des „Anscheinend ganz gut“ stehen.
Deshalb sehen Sie, dass bei derselben KI in einigen Szenarien die menschliche Arbeit ersetzt werden kann, während in anderen sie nur als Hilfsmittel eingesetzt werden kann. Das Modell selbst hat nicht plötzlich ein höheres IQ erhalten, sondern es wurde in einer Umgebung, in der richtig und falsch klar unterschieden werden kann, so trainiert, dass es stärker in der Lage ist, Aufgaben auszuführen.
Abschnitt 2 | Die „Intelligenz“ erlebt eine Inflation
Hinter der technologischen Erscheinung des ersten Abschnitts verbirgt sich eine noch grausamere Wahrheit: Die „Intelligenz“, die in der Arbeitswelt und in der Bildung seit langem gefördert wurde, verliert schnell ihren Mehrwert.
Seit langem hat die Gesellschaft sehr anschauliche Standards für die Bewertung von Fähigkeiten: Ein breites Wissensreservoir, eine schnelle Reaktionsgeschwindigkeit und eine vollständige logische Darstellung. In der Zeit vor der KI, als der Zugang zu Informationen sehr kostspielig und die Verarbeitungseffizienz sehr niedrig war, waren diese Eigenschaften äußerst selten. Die „Intelligenz“ selbst war die Kernkompetenz.
Aber heute nivellieren die großen Modelle diese Barriere gleichmäßig.
Der Zugang zu Informationen hat fast keine Schwelle mehr, die Inhaltsorganisation kann automatisiert werden und sogar komplexe Ausdrücke und logische Strukturen können in Sekundenschnelle generiert werden. Sie müssen nicht mehr viel Zeit darauf verwenden, Wissen zu sammeln, um schnell ein Ergebnis zu erhalten, das „intelligent genug“ aussieht.
Die tiefgreifendste Auswirkung dieser technologischen Veränderung ist nicht einfach das „Ersetzen von Menschen durch Maschinen“, sondern die Umgestaltung des Bewertungssystems für Fähigkeiten.
In der Vergangenheit war der Sieger derjenige, der die Antwort geben konnte; heute ist die Antwort das billigste Industrieprodukt. Die Kernfrage lautet nun: Wer kann diese Antworten nutzen, um wirkliche Probleme zu lösen?
François Chollets Theorie kann genau dieses Phänomen erklären: Er teilt die Systemfähigkeiten in „Intelligenz (Fähigkeit, mit dem Unbekannten umzugehen)“ und „Fertigkeiten/Wissen (Fähigkeit, mit dem Bekannten umzugehen)“ auf. Wenn das System über ein ausreichend großes statisches Wissensreservoir verfügt, muss es nicht über eine hohe reale „Intelligenz“ verfügen, um in den meisten alltäglichen Aufgaben gut zurechtzukommen.
Der Aufstieg der KI besteht im Wesentlichen darin, dass mit brutaler Rechenleistung und massiven Daten viele Aufgaben, die früher menschliche „Intelligenz und Genialität“ erforderten, auf die Ebene des reinen „Wissensabrufs“ herabgestuft werden. Dies führt auch zur Spaltung der Definition von AGI: Soll es „Alles automatisierbar“ werden oder „wie ein Mensch lernen, aus einem Fall auf andere zu schließen“? Die derzeitige KI strebt stark nach dem ersten Ziel, aber dies ist nur die Anhäufung von Fertigkeiten, nicht ein Sprung in der Intelligenz.
Dies entspricht genau der Erfahrung der meisten Menschen: Die von der KI angebotenen Lösungen sind perfekt, aber oft nicht umsetzbar; sie kann Probleme analytisch erklären, aber fehlt die Fähigkeit, die Dinge tatsächlich zu erledigen.
Dies ist die Grenze zwischen „Intelligenz (Ausdruck und Logik)“ und „Nützlichkeit (Durchführung und Ergebnis)“.
Wenn der Zugang zu Informationen und der Ausdruck billig werden, reicht es nicht mehr aus, einfach schnell zu verstehen und klar zu erklären. Diese Fähigkeiten sind immer noch die Grundlage, aber nicht mehr der entscheidende Faktor, der den Unterschied macht. Sie sind wie die Rechenleistung und die Internetgeschwindigkeit heute: Sobald sie zur Infrastruktur werden, sind sie nicht mehr der Maßstab für die Bewertung.
Der echte Unterschied wird von einer anderen Fähigkeit bestimmt.
Abschnitt 3 | Welche Fähigkeiten werden wertvoll
Wenn die „Intelligenz“ nicht mehr selten ist, was ist dann die neue knappe Fähigkeit?
Viele Menschen würden sagen: Durchsetzungsvermögen, Kommunikationsfähigkeit, Führungsqualität. Diese sind zwar wichtig, aber nicht ganz am Kern der Sache.
Die echte Antwort verbirgt sich tatsächlich in der in Abschnitt 1 erwähnten Grenze: Kann man eine Sache in etwas Verifizierbares umwandeln?
In der Realität haben die meisten Aufgaben nicht von Natur aus diese Bedingung. Schreiben von Artikeln, Planung, Strategieentwicklung, Kreativarbeit … diese Dinge haben unklare Ziele und subjektive Standards, und es ist schwierig, richtig und falsch absolut zu bestimmen. Deshalb kann die KI hier nur auf dem Niveau eines Hilfsmittels bleiben und nicht wie beim Schreiben von Code eine Selbstentwicklung erreichen.
Deshalb wird in Zukunft die echte knappe Fähigkeit sein, diese unklaren Dinge in verifizierbare Aufgaben umzuwandeln. Dies ist nicht einfach das „Aufteilen von Zielen“ oder das „Erstellen von Checklisten“, sondern eine tiefere Fähigkeit zur Systemgestaltung: das Aufbauen einer Verifizierungsumgebung.
Chollet nennt dies „Kontrollmechanismus (Control Mechanism)“. Im Wesentlichen ist dies eine von Menschen entworfene Regel, um der KI zu sagen, wie sie ausprobieren, verifizieren und optimieren soll.
Letztes Jahr haben die beiden Start-up-Unternehmen Poetic und Confluence Labs bei der Bewältigung der herausfordernden ARC V2-Inferenz-Benchmark-Testung den Wert dieser Fähigkeit bewiesen. Ihre Lösung bestand nicht darin, ein „schlaueres Modell“ zu entwickeln, sondern einen raffinierten Kontrollmechanismus zu entwerfen: Sie ließen die KI ähnliche Testaufgaben generieren, versuchten, die Aufgaben mit Programmen zu lösen, verifizierten die Richtigkeit der Antworten, notierten die erfolgreichen Inferenzpfade und nutzten diese Daten dann für die Weiterentwicklung.
Nach ein paar Monaten hat Confluence Labs die Genauigkeit auf 97 % gesteigert und die Kosten für die Aufgaben reduziert. Der Grund ist nicht, dass das Modell plötzlich schlauer geworden ist, sondern dass jemand die ursprünglich unklare Inferenzaufgabe in eine Verifizierungsumgebung umgewandelt hat, die wiederholt ausgeführt und kontinuierlich optimiert werden kann.
Diese Logik kann vollständig auf weitere Geschäftsbereiche übertragen werden.
Wer die subjektiven Kundenkonversationen in quantifizierbare Bewertungsdimensionen umwandeln kann, wer das von „Online-Sinn“ abhängige Kurzfilm-Skript in Indikatoren für die Vollanschauwahrscheinlichkeit und die Resonanz der Charaktere zerlegen kann, wer die Strategieplanung in stufenweise verifizierbare Meilensteine umwandeln kann, der hat den Schlüssel in der Hand, um die KI von einem „Spielzeug“ zu einer „Produktivkraft“ zu machen.
Deshalb ist es, wenn man die KI nutzt, der Fall, dass einige Leute nur die Layout-Effizienz etwas verbessern, während andere die gesamte Geschäftsmaschinerie neu gestalten. Der Unterschied liegt nicht in den Tools, sondern in der Fähigkeit, Probleme neu zu gestalten und Regeln zu definieren.
Chollets Rat ist klar: Je tiefer Ihr Fachwissen, desto besser können Sie diese Tools nutzen. Anstatt der Evolution der KI entgegenzusteuern, sollten Sie lernen, sich von ihr tragen zu lassen und der Strömung folgen.
Aber hierbei bedeutet „Fachwissen“ nicht nur das Auswendiglernen von Branchenkenntnissen, sondern eine neue Übersetzungskompetenz: Das Umwandeln Ihrer unklaren Erfahrungen in Ihrem Bereich in klare Indikatoren, an denen die KI optimieren kann. Genauer gesagt, das Entwerfen von Bewertungsstandards, das Aufbauen von Testumgebungen und das Definieren von Verifizierungsregeln, damit die Maschine bei jedem Schritt klare Rückmeldungen erhält.
In Zukunft wird die Arbeitsteilung klar sein: Die KI löst die Aufgaben, die Menschen stellen die Aufgaben. Wer das Prüfungsblatt gut gestaltet, der wird wertvoller sein.
Die Antworten verlieren an Wert, die Standards gewinnen an Wert.
Abschluss | Am richtigen Platz stehen
Viele Menschen messen sich immer noch an alten Standards: Ob sie schlau genug und hart genug arbeiten.
Aber die Regeln des Spiels haben sich geändert.
Das wirklich Knappe ist nicht mehr „mehr zu wissen“, sondern die Fähigkeit, unklare Erfahrungen in verifizierbare Probleme umzuwandeln.
Angesichts des neuen technologischen Bezugssystems bleibt nur noch eine Frage:
Werden Ihre Fähigkeiten von der KI verstärkt oder von ihr ersetzt?
Original-Artikel-Link:
https://www.youtube.com/watch?v=k2ZLQC8P7dc&t=15s
Quelle: Offizielle Medien/Online-Nachrichten
Dieser Artikel stammt aus dem WeChat-Account „AI Deep Researcher“, Autor: AI Deep Researcher, Redakteur: Deep Thought. Veröffentlicht von 36Kr mit Genehmigung.