Der neueste Trend, Harness. Li Kaifu und Lu Qi haben bereits mit großen Summen investiert.
Das größte Problem für Garnelenzüchter ist erstens, dass Tokens zu teuer sind, und zweitens, dass Langzeitaufgaben unzuverlässig sind.
Wenn man OpenClaw in eine Langzeitaufgabe, die länger als 24 Stunden dauert, hineinwirft und dann einfach loslässt, sind die Ergebnisse oft nicht sehr ermutigend.
Entweder werden die Tokens aufgebraucht, bevor die Aufgabe halb fertig ist, oder es gibt einen Fehler an einer Stelle, der dann bis zum Ende fortgeführt wird, und das zurückgegebene Ergebnis ist völlig unbrauchbar.
Die Geschichte, wie der E-Mail-Account von Summer Yue, der Sicherheitsausrichtungsdirektor bei Meta, von OpenClaw in einer Nacht geleert wurde, ist auch ein "klassisches Stück, das weitergelebt wird".
https://x.com/summeryue0/status/2025774069124399363
Noch früher gab es mehrere Fälle, in denen Agenten sensible Unternehmensdaten an Mitarbeiter ohne Zugangsberechtigung weitergegeben haben.
All diese Dinge deuten auf dasselbe Problem hin.
Je intelligenter ein einzelnes KI-System ist, desto wahrscheinlicher ist es, dass es an kritischen Punkten versagt, wenn es in einen längeren Zeitraum und in komplexere Kooperationsketten eingebunden wird.
Das ist wie ein Praktikant mit hohem IQ, der die ersten 30 Minuten beeindruckt, aber dann beginnt, sich selbst Probleme zu machen.
Die Leute in der Branche beginnen zu verstehen, dass es nicht genügt, die Modelle einfach intelligent zu machen. Es muss auch etwas geben, das steuert, wie die Modelle ihre Intelligenz einsetzen.
Dieses Etwas hat in letzter Zeit einen immer häufiger auftretenden Namen: Harness.
Ein neu auftauchendes Konsens
Das Wort "Harness" bedeutet wörtlich "Reitzeug".
In der KI-Welt bezieht es sich auf das Kontrollsystem, das das "Modell (das Pferd)" mit den "menschlichen Bedürfnissen (dem Reiter)" verbindet.
Einfach ausgedrückt: Abgesehen von dem "Gehirn" des Agenten (z. B. Claude Opus 4.6) ist der Rest Harness.
Es beteiligt sich nicht direkt an der Ausführung der Aufgabe und macht sich auch nicht selbst intelligenter, aber es entscheidet, wohin das Pferd läuft, wie schnell es geht und wann es anhalten soll.
Diese Einschätzung ist nicht nur die Meinung einer einzelnen Firma.
Im Februar dieses Jahres veröffentlichte OpenAI einen offiziellen Blogbeitrag mit dem Titel "Harness Engineering: Leveraging Codex in an Agent-First World". Mit einer Reihe von Experimenten wurde bewiesen, dass ein dreiköpfiges Ingenieurteam mit Harness Engineering in fünf Monaten ein Produkt mit einer Million Codezeilen von einem Agenten schreiben lassen kann.
https://openai.com/zh-Hans-CN/index/harness-engineering/
Anthropic hat kürzlich auch eine neue Agentenarchitektur namens Managed Agents vorgestellt. In den technischen Dokumenten wird wiederholt das Konzept des "Agent Harness" betont.
Das bedeutet, dass nach OpenClaw fast alle Spitzenakteure in der Branche gleichzeitig festgestellt haben, dass Prompt Engineering und Context Engineering nicht ausreichen. Es braucht ein höheres Ebene an Kontrollsystem.
Die Logik von Harness klingt auf den ersten Blick unlogisch: Man gibt Beschränkungen, um Autonomie zu erhalten.
Aber der dahinter liegende Grund ist eigentlich einfach zu verstehen: Je größer die Autonomie eines Systems ist, desto wahrscheinlicher ist es, dass es vom Kurs abkommt. Deshalb kann man es mit einem guten Reitzeug besser lenken und es kann weiterlaufen.
Dieses Konsens wird schnell akzeptiert.
Für normale Benutzer wird es in den nächsten sechs Monaten bis einem Jahr wahrscheinlich eine Reihe neuer KI-Produkte geben, die nicht mehr darauf bestehen, wie groß ihr Modell ist, sondern darauf, dass sie das Modell "zähmen" können.
Gerade jetzt hat eine Firma, die erst seit vier Monaten besteht, bereits zwei Runden mit großen Investitionen bekommen.
Eine Firma, bei der Lu Qi und Kai-Fu Lee selten zusammen auftreten
Der Name der Firma ist Nextie.
Am 13. April gab sie bekannt, dass sie zwei aufeinanderfolgende Finanzierungsrunden abgeschlossen hat.
Die Angel-Runde wurde von Innovation Works und Atypical Ventures gemeinsam geleitet, und Miracle Plus hat weiter investiert. Privatinvestoren wie der ehemalige Microsoft-Vizepräsident David Ku haben ebenfalls beteiligt.
David Ku
Das Kapitalreserven können die kontinuierliche Innovation in den nächsten drei bis fünf Jahren unterstützen.
Angesichts der Abschwächung des Primärmarktes ist diese Zahl nicht besonders auffällig.
Was die Leute in der Branche wirklich aufmerksam macht, ist die Liste der Investoren. Lu Qi und Kai-Fu Lee treten selten zusammen auf und setzen gleichzeitig in dieselbe Agenten-Start-up-Firma ein.
Lu Qi
Kai-Fu Lee
Die Tatsache, dass zwei Personen, die als Windhähne in der KI-Branche gelten, in der Gesellschafterliste einer Firma auftreten, die erst seit einem Quartal besteht, ist ein Signal.
Aber was diese Geschichte wirklich wichtig macht, ist nicht nur die Investoren, sondern auch der Leiter.
Er heißt Di Li, der ehemalige Vizepräsident des Microsoft Asia Internet Engineering Institute.
Di Li
In der KI-Branche hat er eine noch bekanntere Identität: Der Vater von Xiaoice.
Die 6. Generation von Xiaoice im Jahr 2018
Um zu verstehen, was Di Li diesmal vorhat, muss man zuerst verstehen, was er in den letzten Jahren nicht erreichen konnte.
Ende 2022, als das Potenzial der Transformer-Architektur von der Außenwelt erst richtig verstanden wurde, schlug Di Li innerhalb von Xiaoice vor, so bald wie möglich GPU zu kaufen, um die Trainierung von größeren Modellen zu beschleunigen.
Dieser Vorschlag wurde in der damaligen Entscheidungsstruktur zurückgestellt.
Das war ein entscheidender Zeitraum, in dem die Fähigkeiten der BasisModelle schnell auseinanderklafften. Xiaoice hat diesen Zug verpasst.
Im Februar 2023 hat Di Lis Team ein Projekt namens Xiaoice Chain (X-CoTA) gestartet.
Betrachtet man es heute zurück, hat Xiaoice Chain fast dasselbe getan wie das spätere CoT (Chain of Thought), das die Modelle dazu bringt, vor der Antwort eine "Denksequenz" zu erstellen und den Denkprozess sichtbar zu machen.
Xiaoice Chain hat mit nur etwa 2 % der Parameter von GPT-3 eine beobachtbare und nachvollziehbare Denksequenz erstellt.
Dann hat es nur einen Monat überlebt.
Im März desselben Jahres wurde es eingestellt mit der Begründung: "Wir verstehen es nicht, also dürfen wir es nicht machen."
Ende 2023 war das Geschäft von Xiaoice in Japan gut, und das Team hatte Geld auf dem Konto. Sie schlugen vor, ein Inferenzmodell zu entwickeln, aber dieser Vorschlag wurde in der damaligen Entscheidungsstruktur erneut abgelehnt.
Di Li hat später in einem öffentlichen Interview diese Sache als "bis heute einzige tiefe Enttäuschung" bezeichnet. Im Grunde genommen hat man nicht nur ein Projekt verloren, sondern auch anderthalb bis zwei Jahre Zeit.
Wenn man diese Punkte miteinander verbindet, wird klar, dass Xiaoice eigentlich mehrere Samen hat, die hätte wachsen können.
BasisModelle, Denksequenzen, Inferenzfähigkeiten - jeder dieser Samen trifft genau auf die Richtungen, in denen die Branche später explodiert ist.
Nur haben diese Samen alle an kritischen Punkten nicht gewachsen.
Am 9. Dezember 2025 gründete Di Li mit dem Gründungsteam von Microsoft Xiaoice die Firma Nextie.
Vier Monate später endete seine Wettbewerbsverbotsphase offiziell.
Das bedeutet, dass er endlich die Dinge, die er in seinem Kopf schon mehrere Jahre lang durchdacht hat, von vorne beginnen kann.
220 Jahre akademischer Literatur
Schafft hochwertige Intelligenz
Das, was er diesmal von vorne macht, heißt "Gruppenintelligenz".
Die Idee der Gruppenintelligenz ist nicht erst kürzlich aufgetaucht.
Das Team von Di Li hat die gesamte akademische Literatur von 1800 bis 2020, also 220 Jahre lang, durchgesehen. Das Ziel war, zu verstehen, wie die menschliche Gesellschaft als ein Gruppenintelligenzsystem Schritt für Schritt eine Massive hochwertige kognitive Kooperation entwickelt hat.
Dies ist bisher das einzige bestätigte Beispiel für eine Gruppenintelligenz, die kontinuierlich Wert schafft.
Der Fokus dieser Sache ist sehr konkret.
Das erste Produkt, das Nextie im Februar dieses Jahres veröffentlichte, heißt "Tuanzi" (tuanzi.ai).
Nachdem ein Benutzer eine Frage gestellt hat, setzen sich mehrere Agenten "um einen Tisch" und betrachten die Frage aus verschiedenen Perspektiven, ergänzen einander, diskutieren miteinander und es gibt auch professionelle Schritte wie Abstimmungen und Peer-Reviews.
Di Li nennt dieses System intern "kognitive Kollision".
Hier gibt es etwas, das auf den ersten Blick unlogisch erscheint.
Nach der Logik sollten Multi-Agenten-Systeme mehr Tokens verbrauchen als einzelne Agenten, denn es gibt mehr Stimmen.
Aber die Daten von Tuanzi zeigen, dass bei gleicher Denktiefe der Gesamtverbrauch an Tokens um mehr als 50 % sinkt.
Das Geheimnis steckt in den drei Wörtern "Koordinierungsssteuer".
Bei traditionellen Multi-Agenten-Architekturen wächst der Tokenverbrauch exponentiell, wenn es mehr Schritte und Verzweigungen gibt, weil der Kontext immer weiter kopiert und weitergeleitet wird.
Nexties Ansatz ist, dass jeder Schritt "konvergiert".
Die Zwecke von Debatten, Zweifeln, Reflexionen und Abstimmungen sind nicht, die Informationen zu verbreiten, sondern sie in jeder Ebene zu konvergieren, bevor sie weitergeleitet werden.
Dies ist eine Erfahrung aus der menschlichen Gesellschaft.
Eine gute Sitzung ist nicht nur darum, dass alle ihre Meinung sagen, sondern auch darum, dass man nach der Diskussion zu einem Konsens kommt und diesen Konsens in das nächste Thema bringt.
Die Intelligenztiefenbewertung (IDI) von Tuanzi ist in den drei Szenarien Langzeit-Multi-Agenten-Kooperation, hochschwierige Forschungsaufgaben und Massive Gruppen-Simulation deutlich höher als die von einzelnen großen Modellen wie GPT-5.2 Thinking.
Aber all dies ist aus der Perspektive des B2B-Sektors zu sehen.
Die wirklich interessanten Veränderungen stecken in dem neuen Produkt, das Nextie Ende April vorstellen wird.
Kommt "Xiaobingdao" zurück?
Kann mehr tun
Di Li hat in einem kürzlichen Interview angegeben, dass das Team derzeit mit voller Kraft ein neues Produkt entwickelt, das der Form nach "Xiaobingdao" ähnelt.
Aufgrund von Urheberrechtsbeschränkungen wird es nicht mehr diesen Namen tragen, aber der Kern der Idee ist derselbe, und es verwendet eine völlig neue Technologiearchitektur