StartseiteArtikel

Große Modelle 2025, drei große Kontroversen: Technologie, Preis, AGI

晓曦2025-01-23 22:42
Um sich zu etablieren, darf man keine Abkürzungen nehmen.

Angesichts des allgegenwärtigen "Mauerstoßens" der großen Modelle sehnt sich die Branche mehr denn je nach Erkundung und Innovation.

Im ersten Monat des Jahres 2025 scheinen globale Akteure des großen Modells wie OpenAI, Google und DeepSeek geschlossen eine Reihe von Neuheiten zu veröffentlichen.

Ein Überblick über die gesamte Branche der großen Modelle zeigt fast zum ersten Mal in der Geschichte umfassende Meinungsverschiedenheiten und fehlende Konsense innerhalb der Branche:

1. Anwendungen vs. Technologie – Ist das Update von Grundmodellen zum Stillstand gekommen? Verlagerte sich der Innovationsschwerpunkt der Branche auf Anwendungen?

2. Preiskampf vs. Wertschöpfungskampf – Soll der "Preiskampf" ausgetragen werden? Wie soll er ausgetragen werden? Können Startups mithalten?

3. Einzelmodus vs. Multimodus – Wie wichtig ist Multimodus für AGI wirklich?

An dieser Weggabelung wählt jedes große Modellunternehmen freiwillig oder gezwungenermaßen seine Positionierung.

Beispielsweise versucht OpenAI's GPT-o1, das Scaling Law durch verstärkendes Lernen zu "verlängern", während Google Titans eine neue Speicherarchitektur für Modelle erforscht; gleichzeitig richten jedoch mehr Spieler ihre Aufmerksamkeit auf die Optimierung von Anwendungen, Funktionsaktualisierungen und die Benutzerbindung.

Als eines der "Sechs Kleinen Drachen" der nationalen Großmodellbranche ist MiniMax bislang für starke Produktfähigkeiten bekannt und bringt in diesem Moment durch Open Source und eine Reihe von Updates seine Haltung zum Ausdruck.

Seit Anfang Januar 2025 hat MiniMax innerhalb von zehn Tagen vier KI-Modelle veröffentlicht, darunter das große Sprachmodell MiniMax-Text-01 und das visuelle Multimodalmodell MiniMax-VL-01 sowie das Videomodell S2V-01 und das Sprachmodell T2A-01. Die beiden Modelle der Serie MiniMax-01 sind die ersten in der Geschichte des Unternehmens, die Open Source wurden.

Der Gründer sagte kürzlich in einem Interview mit den Medien direkt: "Wenn ich es noch einmal wählen könnte, hätte ich es am ersten Tag Open Source gemacht." Es ist üblich für ein kommerzielles Unternehmen, sich von Open Source zu Closed Source zu wandeln, ein Phänomen, das sich im Spitznamen "OpenAI wird CloseAI" widerspiegelt. Der Weg von Closed Source zu Open Source ist jedoch selten.

Aus dieser Serie von Updates von MiniMax wird ersichtlich, dass dieses Unternehmen versucht, durch Open Source, Innovation und technologische Wege den Markteindruck als "nur stark im Produkt" zu ändern. Der Gründer bemerkte: "Die Bedeutung einer Technologie-Marke liegt im Wesentlichen darin, dass die wichtigste Triebkraft in dieser Branche der technologische Fortschritt ist."

Gleichzeitig versucht MiniMax angesichts der aktuellen drei "Nicht-Konsense" der großen Modellbranche, durch diese Serie von Modellen eine eigene Antwort zu geben.

Anwendungen vs. Technik

Die Branche erreicht erneut einen "Transformer-Moment"

Seit letztem Jahr gibt es einen bemerkenswerten Trend innerhalb der Branche der großen Modelle: Die Durchbrüche in der zugrunde liegenden Technologie haben sich verlangsamt.

OpenAIs GPT-5 wird immer wieder verschoben und ist bis heute nicht sichtbar. Die drei großen Faktoren der KI, Rechenleistung, Algorithmen und Daten, sind in unterschiedlichen Stadien der Stagnation, und die Fähigkeiten von Modellen im Jahr 2024 scheinen das Wachstum eingestellt zu haben.

Demgegenüber steht der Ausbruch des "Wettkampfs um Anwendungen" bei großen Modellen.

Laut AppGrowing-Daten wurden seit dem Beginn des "Wettkampfs um Anwendungen" durch Kimi auf dem heimischen Markt mehr als 6,25 Millionen Anzeigen für die zehn besten großen Modellprodukte geschaltet, was bei Berechnung zum Marktpreis einem Wert von 1,5 Milliarden RMB entspricht.

Es ist so weit gekommen, dass man scherzhaft sagt: "Der einzige, der in der großen Modellbranche Geld verdient, ist die Werbeplattform wie Bilibili, Douyin und Xiaohongshu"; "Der Subventionskrieg um gemeinsame Fahrräder kommt zumindest den Nutzern zugute, jetzt verdienen nur noch Werbeplattformen."

Im Bereich der Anwendungen haben viele Unternehmen entschieden, sich auf App-Produkte zu spezialisieren, individuelle Kooperationsprojekte zu entwickeln oder kleine Modelle für Regierung und Unternehmen anzupassen; im Bereich der Modelltechnologie haben sowohl nationale als auch internationale Unternehmen überwiegend das sicherere "GPT-Referenzmodell" gewählt und folgen umfassend der technischen Richtung von OpenAI – aber als OpenAI offenbar eine "Mauer" erreicht, scheint die gesamte Branche langsamer zu werden.

Am 15. Januar veröffentlichte und öffnete MiniMax das neueste MiniMax-01-Modell, bestehend aus dem großen Sprachmodell MiniMax-Text-01 und dem visuellen Multimodalmodell MiniMax-VL-01.

Ein gleichzeitig veröffentlichtes 68-seitiges technisches Papier "MiniMax-01: Scaling Foundation Models with Lightning Attention" sorgte in der gesamten KI-Technologie-Community für Diskussionen.

Technologiemedien wie VentureBeat und AI-Forscher, Investoren und Schöpfer loben die architektonische Innovation und die Fähigkeit von MiniMax-01, lange Texte zu verarbeiten.

In Bezug auf die Parametergröße hat MiniMax-01 insgesamt 4.560 Milliarden Parameter, dessen Gesamtleistung auf mehreren gängigen Benchmark-Datensätzen mit SOTA (State-of-the-Art) Modellen wie GPT-4o und Claude-3.5-Sonnet vergleichbar ist und Eingaben von bis zu 4 Millionen Tokens unterstützt. Dies ist die 32-fache Länge von GPT-4o und die 20-fache von Claude-3.5-Sonnet.

Im neuesten Ergebnis des Bewertungsdatensatzes LongBench V2 liegt MiniMax-Text-01 im Gesamtranking direkt hinter OpenAI's o1-preview und dem Menschen auf Platz drei.

LongBench V2 Rangliste, LongBench V2 ist ein Testset für das tiefere Verständnis und das Schließen bei langen kontextuellen Mehrfachaufgaben in realistischen Szenarien.

Wenn die Modellleistung allein beeindruckend wäre, würde MiniMax-01 nicht so große Aufmerksamkeit unter KI-Forschern erregen.

Was Aufmerksamkeit erregt, ist, dass MiniMax erstmals in einem kommerziellen Großmodell mit 4.560 Milliarden Parametern einen Linear Attention-Mechanismus einführt, der sich vom traditionellen Transformer-Architektur unterscheidet und mit extrem geringen Rechenleistungskosten versucht, ein neues Lösungsansatz für ein Problem zu bieten, das die gesamte große Modellbranche betrifft.

MiniMax-01 hat die grundlegende und zentrale Transformer-Architektur der großen Modelle neu strukturiert und dabei in einer traditionellen Lösung (obere Hälfte des Bildes unten) die Linear Attention eingeführt, was einer Änderung der "Moleküle" zur Veränderung der Materie gleichkommt.

Deshalb hat die Open Source von MiniMax-01 in der KI-Forschungsgemeinschaft für so große Aufmerksamkeit gesorgt.

MiniMax-01 Core Architekturdiagramm

Linear Attention ist keine Technologie, die von MiniMax erstmals vorgeschlagen wurde, ebenso wie große Sprachmodelle nicht von OpenAI erstmals vorgeschlagen wurden. Beide sind jedoch die ersten, die mutig und entschieden eine großflächige Implementierung durchführen und umfassende Innovationen auf der Grundlage von Algorithmen bis hin zum Framework vornehmen, was letztendlich zu einem disruptiven Erfolg führte.

Es ist diese Innovation auf der Grundlage der grundlegendsten Technologie, die es MiniMax-01 ermöglicht, mit einem Zehntel der Rechenleistung von GPT-4o Leistungen zu erzielen, die mit SOTA-Modellen vergleichbar sind, sowie die weltweit führende Eingabe von 4 Millionen Tokens in ultralangen Kontexten.

Am Ende der technischen Arbeit erklären die Forscher von MiniMax, dass noch ein Achtel von MiniMax-01 auf traditionellen Transformer-Technologiekonzepten basiert. Derzeit forschen sie an einer neuen und effizienteren Architektur, die schließlich traditionelle Lösungen vollständig entfernt und ein unbegrenztes Kontextfenster ermöglicht.

Dies bedeutet, dass, wenn MiniMax erfolgreich ist, große Modelle nicht länger durch die Eingabelänge begrenzt werden, was einen großen Schritt in Richtung AGI (Allgemeine Künstliche Intelligenz) bedeuten würde.

Ähnlich wie BERT damals auftauchte und die große Modellbranche in einen "Transformer-Moment" führte, könnten wir bis zu einem gewissen Grad den "zweiten Transformer-Moment" erleben.

Preiskampf vs. Wertschöpfungskampf

Die Kosten der Rechenleistung steigen, "alle arbeiten für Nvidia"

Wenn wir auf die Entwicklungen 2024 in der Branche der großen Modelle zurückblicken, gibt es ein Schlagwort, das man nicht übersehen sollte - "Preiskampf".

Dieses Schlachtfeld konzentriert sich hauptsächlich auf das B2B-Segment, genauer gesagt auf große Modellenanbieter, die B2B-Kunden große Modell-API-Dienstleistungen zur Verfügung stellen und nach Menge berechnen.

Im Mai 2024 senkte das nationale Startup-Unternehmen DeepSeek (Deep Exploration) bei der Veröffentlichung seines neuesten Modells DeepSeek-V2 plötzlich die API-Preise drastisch und senkte die Preise auf beim Einlesen von einer Million Tokens auf nur 1 Yuan, was fast einem Hundertstel des damals geltenden GPT-4 Turbo-Preises entspricht. Kurz danach folgten Player wie ByteDance, Baidu, Alibaba, Tencent, Zhiyun AI und iFlytek und ein beeindruckender Preiskampf der großen Modelle entbrannte.

Demgegenüber stehen die hohen Kosten der Rechenleistung.

Seit dem Hype um ChatGPT Ende 2022 sind die bereits knappen Nvidia-GPU-Chips im Kontext des weltweiten KI-Modellbooms weiter im Preis gestiegen, was den Marktwert von Nvidia dazu brachte, 3 Billionen US-Dollar zu überschreiten, Apple zu übertreffen und zum zweitgrößten Unternehmen der Welt nach Microsoft zu werden.

GPU-Chips sind nicht nur teuer, sondern auch rar, sodass es 2023 sogar Berichte über ausländische Startups gab, die Nvidia-GPUs als Sicherheit für 2,3 Milliarden US-Dollar nutzten. Angesichts der hohen und knapp bemessenen Rechenleistung gibt es sogar in den großen Technologieunternehmen interne Kämpfe um GPU-Zuordnung – viele in der Branche scherzen, "jeder arbeitet für Nvidia".

Auf der einen Seite stehen die hohen Kosten der Rechenleistung, auf der anderen Seite der heftige Preiskampf, was große Modellenanbieter in eine schwierige Situation bringt.

Es gibt jedoch eine Lösung.

Die Antwort scheint langweilig – Probleme, die durch Technologie verursacht werden, müssen letztendlich durch Technologie gelöst werden.

Nehmen wir DeepSeek als Beispiel: Wie MiniMax gehört auch DeepSeek zu den unermüdlichen "technologischen Innovatoren". Im Jahr 2024, nachdem sie die Technologie weiter optimierten, erreichte ihr V3-Modellparameter 671B mit Schulungskosten von nur 5,576 Millionen USD im Vergleich zu 12 Millionen USD für die Schulungskosten von GPT-3 im Jahr 2020 und über 100 Millionen USD für GPT-4.

Tatsächlich hängt die Reduktion der Schulungskosten von Modellen nicht nur vom Algorithmus ab. Sie umfasst mehrere Schritte, die Rechenleistung und Anwendungsschichten betreffen und die Optimierung und Steuerung von Algorithmen, Architekturen, Hardware und Software-Toolchains beinhalten, allgemein bekannt als AI Infra (AI-Infrastruktur). Angesichts der steigenden Rechenleistungskosten ist das vorrangige Ziel von AI Infra die Optimierung von Rechenressourcen, um die Schulungskosten von Modellen bei gleichzeitiger Leistungssicherung zu senken.

Die von MiniMax-01 eingeführte Linear Attention-Technologie zielt darauf ab, die Matrixberechnungskomplexität mithilfe eines Algorithmus zu senken und somit die Rechenleistungskosten zu senken. Gleichzeitig hat MiniMax Technologien wie Data-Packing, Linear Attention Sequence Parallelism (LASP+), Multi-Level Padding und andere eingeführt, um Daten, Algorithmen und GPU-Kommunikation umfassend zu optimieren, was eine Maschine Floating Point Utilisation (MFU) von bis zu 75% auf den Nvidia H20 GPUs erreicht und die Schulungs- und Inferenzkosten erheblich senkt. Der Input-Preis beträgt nur 1 Yuan pro einer Million Tokens, was ein Zehntel von GPT-4o ist.

Der Gründer von MiniMax sagte in einem Interview mit den Medien auf die Frage, "welches die zufriedenstellendsten technischen Errungenschaften von MiniMax im letzten Jahr seien": AI Infra und Rechenleistungsoptimierung sowie Multimodalität.

Einzelmodus vs. Multimodus: Wie weit sind wir von AGI entfernt?

Multimodalität ist wahrscheinlich der Bereich mit den geringsten Meinungsverschiedenheiten, aber dem intensivsten Wettbewerb.

Ein Modus (Modal) ist ein Begriff aus der Informatik, der als Klassifizierung von Wahrnehmungs- und Interaktionsmodi zwischen Computern und Menschen verstanden werden kann – wie Text, Bilder, Ton, Videos usw.

Derzeit zielen die meisten, mit Ausnahme weniger Einzelmodus-Befürworter, auf die Multimodalitätsroute ab, wobei das Grundlegendste der Text- und Bildmodus ist und solche mit breiteren Ambitionen Audio, Video, 3D-Modellierung und mehr umfassen.

Beispielsweise veröffentlichte MiniMax am 20. Januar das Sprachmodell T2A-01, das 17 Sprachen unterstützt und bereits für alle Benutzer im Conch-Sprachprodukt verfügbar ist.

Man kann sich das Syntheseergebnis in dem folgenden Beispielvideo ansehen.

Ab der 16. Sekunde des Videos können Sie allein anhand des Audios das Geschlecht, das Alter und die Emotionen der sprechenden Person erraten: ein ergrauter älterer Mann, eine ernsthafte Frau, ein aufgebrachter Jugendlicher, ein unschuldiges Kleinkind, jede Stimme trägt ihre eigene Traurigkeit, Aufregung, Freude, Intonation.

Text-to-Speech ist eigentlich eine alte Technologie, bisher klang die gesprochene Ausgabe jedoch immer sehr steif und konnte die Emotionen und die Intonation nicht wie ein menschliches Wesen steuern. Google Translate wurde sogar wegen seiner zu mechanischen Aussprache ein heißes Internet-Mem.

Das von MiniMax eingeführte Sprachmodell hat mittlerweile ein kommerzielles Niveau erreicht, und es scheint in der Lage zu sein, Szenarien wie AI-Hörbücher, Hörspiele, Animationen und Video-Dubbing abzudecken.

Noch größer als das Sprachmodell sind jedoch die Aufmerksamkeit erzeugenden Videomodelle.

Im Februar 2024 tauchte Sora plötzlich auf, was dazu führte, dass große Videomodelle weltweit ins "Rasen" gerieten. Während dieser Zeit tauchten jedoch viele konkurrierende Modelle auf, und Sora befand sich nach seiner Veröffentlichung beständig in einem "Futures"-Zustand, bis er im Dezember endlich offiziell gestartet wurde.

Derzeit gibt es zwei Hauptansätze im Bereich der großen Videomodelle: von Text zu Video und von Bild zu Video.

Beide haben ihre Stärken und Schwächen. Der von Text zu Video-Ansatz (Text-to-Video) verwendet in der Regel das Diffusion-Verfahren, das eine ausgezeichnete "Divergenz-Denk" Fähigkeit hat – Benutzer können durch Texteingabe jeden vorstellbaren Video-Inhalt generieren; auf der Kehrseite erfordert das Modell jedoch hohe Rechenleistung für das Training und Inferenz, und die Stabilität des Videohauptobjekts ist sehr gering – insbesondere die Gesichter der Menschen.

Im Gegensatz dazu generiert das von Bild zu Video-Ansatz (Image-to-Video) Videos basierend auf benutzerübergebenen Bildern, und ein typisches Anwendungsbeispiel wäre das "Bewegen von alten Fotos", das eine verbesserte Stabilität des Hauptobjekts und weniger Rechenressourcen erfordert, jedoch die Video-Freiheit stark einschränkt.

Dennoch hat MiniMax am 10. Januar mit seinem neuesten Videomodell S2V-01 die Schranken zwischen beiden Konzepten aufgebrochen. Mit der selbst entwickelten Referenzfunktion basierend auf einem einzeln aufgenommenen Bild kann der Benutzer ein Bild hochladen und ein Referenzobjekt erstellen, und das Modell extrahiert dann visuelle Informationen aus dem hochgeladenen Bild und generiert ein Video basierend auf den Benutzereingaben. Dies gewährleistet die Stabilität des Hauptobjekts im Video, gleichzeitig bleibt die kreative Ausdrucksstärke flexibel.

Oben sind die vom Conch-AI-Benutzer erstellten Fallstudien zu sehen. Eingabebefehl: Ein männlicher Polizist öffnet eine Autotür und steigt aus dem Polizeiauto aus. Die Kamera folgt dem Mann und bleibt nah dran, konzentriert sich auf das Gesicht des Mannes. Der Mann trägt eine Polizeiuniform. Der Gesichtsausdruck des Mannes ändert sich von ruhig zu aggressiv. Die Stadt ist in eine nächtliche Szene getaucht, umgeben von mehreren Polizeiautos mit blinkenden Lichtern.

Oben ist der vom Conch-AI-Benutzer erstellte Fall zu sehen. Eingabebefehle: Die zerstörte Wasteland City Kowloon, ein Veteran führt einen Hund durch die Straßen und bleibt angesichts vorbeifliegender Überwachungsdrohnen wachsam. In der Ferne sind vage Schüsse zwischen riesigen prähistorischen Robotern und Rebellen zu hören.

Insbesondere in den folgenden Bildern ist S2V-01 in der Lage, ein hohes Maß an visuellem Detail in den Gesichtern und Gesichtszügen von Personen aufrechtzuerhalten, wenn es um die Erzeugung von Videos durch Nahaufnahmebilder von Personen geht.

Besonders bemerkenswert ist, dass Bilder Moles auf Stirn, Wange und Mundwinkel zeigen und das generierte Video von Conch-AI in der Lage ist, diese Details klar wiederzugeben und ihre Position in verschiedenen Aufnahmen konsistent beizubehalten – dies könnte der erste AI-Videogenerator sein, der dies leisten kann.

Auf internationalen Plattformen zeigen Schöpfer großes Interesse an der Leistung von S2V-01

Es ist bemerkenswert, dass das MiniMax-S2V-01-Modell sehr menschenähnlich mit visuellen und Textinformationen umgeht.

Tatsächlich sind Multitasking, Multi-Kontext und Multimodalität einige der wichtigsten Forschungsrichtungen zu allgemeiner künstlicher Intelligenz (AGI) – der "Krone des Ruhms" in der KI-Welt.

Das Ziel der KI-Welt ist ein extrem komplexer und flexibler AGI, der nicht nur Aufgaben wie Bildklassifizierung und Textübersetzung über mehrere Sprachen hinweg ausführen kann, sondern auch alle kognitiven Fähigkeiten simulieren kann, die den menschlichen Fähigkeiten entsprechen, wie Analyse, Planung und Innovation.

Allerdings ist Multimodalität derzeit nicht der einzige technische Weg, einige technologische Schulen betrachten Sprachmodelle als den Weg zu AGI. Doch derzeit, bei der bisher fehlenden klaren AGI-Übereinstimmung innerhalb der Branche, ist Agent (Intelligent Agent) ein klar definiertes Schlüsselziel.

Mit dem Fortschritt der grundlegenden Technologien großer Modelle steigen auch die Anforderungen an die Fähigkeiten von Agenten in verschiedenen Branchen, die Aufgaben werden immer komplexer und die Datenmengen immer größer. Dementsprechend erfordern große Modelle nicht nur eine längere Kontexthandhabungskapazität, sondern müssen auch zunehmend menschlich wirken und ihre Verarbeitungskapazität für multimodale Informationen wie Bilder, Videos und Klänge kontinuierlich verbessern.

Das Jahr 2025 könnte das Jahr werden, in dem KI-Agenten explodieren.

Fazit

Nach den Daten des AI-Produkt-Rankings vom Dezember 2024 hat die AI-Community-App Talkie von MiniMax mit 29,77 Millionen monatlichen aktiven Nutzern die weltweit größte AI-Inhaltsgemeinschaft erreicht – das erste Mal, dass ein chinesisches KI-Unternehmen mit ähnlichen Anwendungen im Ausland an die Spitze kommt.

Theoretisch sollte MiniMax als Gewinner dieses Wettbewerbs "technische Dominanz" mehr als jeder andere unterstützen.

Interessanterweise hat der Gründer von MiniMax in einem Interview kürzlich die Perspektive geäußert: "Die chinesische KI-Branche ist in den letzten ein bis zwei Jahren in einen großen Irrweg gegangen, nämlich zu glauben, dass je mehr Nutzer ein Modell hat, desto schneller es sich entwickelt. Dies hat dazu geführt, dass Unternehmen viel Geld ausgeben, um mehr Nutzer zu gewinnen", was intensiv in der Branche diskutiert wurde.

Offen gesagt, könnte er recht haben.

MiniMax war schon immer eine einzigartige Existenz in der Branche der großen Modelle.

Eine Tatsache ist, dass viele große Entwicklungsunternehmen weltweit erst nach dem Erfolg von ChatGPT Ende 2022 gegründet wurden, aber MiniMax wurde bereits Ende 2021 gegründet. Dies führte dazu, dass nach dem plötzlichen Erfolg von ChatGPT jeder neugierig war und alle versuchten herauszufinden, wer MiniMax ist.

In technischer Hinsicht war MiniMax immer etwas "außergewöhnlich".

Im Jahr 2023, als der heimische Markt von Dense-Modellen dominiert wurde, investierte MiniMax über 80% seiner Rechenleistung und Ressourcen in die Entwicklung von MoE (Mixture of Experts) Modellen und im Jahr 2024 führte es das erste MoE-Großmodell in China ein.

Später verriet MiniMax, dass das Unternehmen keine alternativen Pläne jenseits von MoE vorbereitet hatte.

Ein Jahr später hat sich herausgestellt, dass MiniMax die richtige Wahl getroffen hat. Heute ist die MoE-Route von allen akzeptiert, insbesondere in der derzeitigen Welt der immer größer werdenden Modellskalen und Rechenaufgaben, ist die Mixture of Experts-Technologie ein unverzichtbares Kernstück, um Modelle im großen Maßstab zu implementieren.

Während die Branche weitgehend der GPT-o1-Route folgt, zielte MiniMax mutig auf das Problem des "Transformer-Stoßens" ab, das die gesamte Branche betrifft, und erreichte durch Innovation der grundlegenden Architektur mit begrenzten Rechenleistungskosten Ergebnisse, die mit den international führenden Modellen vergleichbar sind.

Nutzer stimmen immer mit ihren Füßen ab.

Ob Text, Bild, Ton oder Video, jedes Mal, wenn die Fähigkeit und die Verarbeitungszeit der Modelle signifikant verbessert werden, spiegelt sich diese Verbesserung direkt in den Produkten und Nutzererfahrungen wider. MiniMax hat berichtet, dass immer wenn die Fähigkeiten von Modellen verbessert werden, sich die Benutzerbindung und die Nutzungsintensität deutlich verbessern.

Von der ersten Tag der Unternehmungsgründung an ist MiniMax eine Ansammlung von "Nicht-Konsensen", sie haben in der Auswahl der Geschäfte, technologischen Routen und AGI-Implementierungswegen klare und unabhängige Urteile, sind nicht ängstlich und folgen keinen Trends, und wagen es, sich auf der Weg der Nicht-Konsensen zu bewegen, um Grenzen zu überschreiten und schwierige, aber richtige Dinge zu tun.

Die derzeitige große Modellindustrie ist in die zweite Hälfte der Spiele eingetreten, alle "niedrigen Früchte" sind gepflückt, und es gibt kaum Hoffnung, nur durch Nachahmung zu siegen.

Der vom technologischen Fortschritt eröffnete Markt muss letztendlich durch technologischen Fortschritt stabilisiert werden.