StartseiteArtikel

MiniMax Vizepräsident Liu Hua: Standardisierte große Modelle sind die Zukunft, technische Evolution ist besser als Anpassung | Vorderste Linie

田哲2024-12-06 10:19
Anstatt in Anpassungen zu investieren, sollten standardisierte Modelle schneller iteriert werden.

Text | Tian Zhe

Bearbeitung | Su Jianxun

Mit dem Eintritt von KI in das Zeitalter der großen Modelle konzentriert sich der globale Technologiewettbewerb zunehmend auf China und die USA. Die hohen Rechenleistungskosten und der große Datenbedarf bestimmen, dass die Forschung und Entwicklung großer Modelle eine extrem hohe Eintrittsbarriere hat. In diesem technologischen Wettlauf wetteifern die großen Modellanbieter der wenigen führenden Länder um Wettbewerbsvorteile.

MiniMax ist eines der ersten inländischen großen Modellunternehmen, das ins Ausland expandierte. Berichten zufolge wird der Auslandsumsatz von MiniMax in diesem Jahr 70 Millionen US-Dollar übersteigen.

Derzeit hat MiniMax auf dem Auslandsmarkt zwei Hauptprodukte für Endverbraucher eingeführt: HailuoAI und Talkie, die sich auf die Erzeugung von KI-Video/Audio und eine KI-Inhaltscommunity konzentrieren. 36 Kr erfuhr, dass die Haupteinnahmequellen von MiniMax im Ausland neben der Endverbraucher-KI-Anwendung Talkie, die derzeit einen großen Anteil einnimmt, auch das Abonnement von Hailuo AI und B2B-API-Dienste umfasst.

Kürzlich tauschten sich Tian Feng, General Manager für Cloud Native in der Nordregion von Tencent Cloud, und Liu Hua, Vizepräsident von MiniMax, mit 36Kr und anderen Medien aus. Sie diskutierten gemeinsam über die Entwicklungstrends der großen Modelltechnologie und den kollaborativen Wert zwischen den beiden Unternehmen, von der globalen Wettbewerbslage und technischen Wegen bis hin zu Kommerzialisierungsrichtungen.

Liu Hua erklärte, dass neben dem bestehenden Abonnementmodell auch das Anzeigengeschäft eine der Einnahmequellen von Talkie ist. Darüber hinaus wird MiniMax vorerst keine kundenspezifischen Modellprojekte auf dem Auslandsmarkt entwickeln, sondern weiterhin standardisierte API-Schnittstellen für B2B-Kunden anbieten.

Der Grund dafür ist, dass Start-up-Unternehmen ihre Hauptressourcen in die Forschung und Entwicklung sowie Iteration von Kerntechnologien investieren sollten, anstatt viel Energie auf individuelle kundenspezifische Projekte zu verwenden. "Wenn ein großes Modell umfangreiche kundenspezifische Entwicklungen erfordert, um den Kundenanforderungen gerecht zu werden, zeigt dies, dass diese Modellausgabe noch nicht ausgereift ist. Es wäre besser, in die Beschleunigung der Modelliteration zu investieren, anstatt Zeit und Kosten für Anpassungen aufzuwenden." sagte Liu Hua.

Er enthüllte, dass MiniMax die künftige Forschungs- und Entwicklungsrichtung festgelegt hat, die sich hauptsächlich auf die Reduzierung der Modellfehlerrate, die Realisierung unbegrenzter Eingabe- und Ausgabegrößen sowie die Entwicklung multimodaler Pfade konzentriert.

Erstens schlägt er hinsichtlich der Modellfehlerrate vor, dass die Fehlerrate der vorherigen Generation von GPT-Modellen etwa 30% beträgt. Da sie häufig in kreativen Bereichen ohne Standardantworten eingesetzt werden, wurde ihnen von den Nutzern nicht ausreichend Beachtung geschenkt. Wenn jedoch große Modelle in Produktions-, Forschungs- und Designumgebungen verwendet werden, wäre es ideal, die Fehlerrate auf einstellige Zahlen zu senken. MiniMax strebt eine ideale Fehlerrate zwischen 2% und 3% an.

Zweitens mit der schrittweisen Erweiterung von Textaufgaben auf Sprach- und Videoaufgaben gibt es eine rapide Zunahme der erforderlichen Tokenmenge. Der Schlüssel zur Implementierung neuer Technologien liegt daher in der Verbesserung der Fähigkeit großer Modelle, umfangreiche Eingaben und Ausgaben zu verarbeiten.

Derzeit basiert das jüngste Forschungs- und Entwicklungsmodell der Abab-7-Serie von MiniMax auf einer neuen Architektur unter Verwendung der MoE- und Linear Attention-Mechanismen, die die Berechnungskomplexität von langen Texten wesentlich reduzieren kann.

Laut 36Kr behält die US-amerikanische Großmodellindustrie einen gewissen Grad an Vorsprung bei, wobei führende Unternehmen wie OpenAI, Anthropic und XAI starke Ressourcen- und Technologievorteile genießen. Zum Beispiel hat OpenAI fast 2.000 Mitarbeiter, und die jährlichen Kosten für Rechenleistung können Milliarden von US-Dollar erreichen.

Chinesische große Modellunternehmen holen jedoch schnell auf, insbesondere in den Bereichen Sprache und Video. Chinas Sprach-API-Dienste nähern sich dem Niveau von GPT-4o an. Wenn namhafte Technologiefirmen in China ebenfalls in diesen Bereich einsteigen, werden sie unweigerlich durch ihre Ressourcenstärke eine wichtige Position einnehmen.

Liu Hua glaubt, dass es für Chinas KI-Start-ups nach wie vor ein großes Entwicklungspotenzial gibt. So hat MiniMax Unterstützung von Cloud-Anbietern wie Tencent Cloud erhalten und durch eine erfolgreiche Kommerzialisierung einen Finanzkreislauf erreicht.

Darüber hinaus ist Liu Hua der Ansicht, dass es entscheidend ist, eigene Forschungs- und Entwicklungsarbeit durchzuführen, um wirklich originelle Lösungen zu schaffen, die sowohl im In- als auch im Ausland nutzbar sind und große Modelle mit eigenständiger Wettbewerbsfähigkeit entwickeln können.

Bezüglich der Zusammenarbeit mit MiniMax erklärte Tian Feng, General Manager für Cloud Native in der Nordregion von Tencent Cloud, dass Tencent Cloud MiniMax eine Reihe von Hochleistungsintelligenzprodukten angeboten hat, die Rechenleistung, Speicher und Netzwerk in einem integrieren. Dies ermöglicht es MiniMax, sich mehr auf das Training und die Engineering-Aspekte der Modelle zu konzentrieren. Unter anderem bietet das Objekt-Speicherprodukt einen Beschleunigungsmechanismus für Metadaten, um die Leistung zu gewährleisten, während verschiedene feinkörnige Managementmaßnahmen zur Datenverwaltung den Aufwand und die Effizienz optimieren. Das Data Lake-Produkt wurde speziell für die Vorverarbeitung von Korpusdaten optimiert, um die Leistungsfähigkeit der Aufgabenverarbeitung zu verbessern und MiniMax dabei zu helfen, über 30% Rechenleistungseinsparungen bei einer Leistungssteigerung von über 35,5% zu erzielen.

Informationen zufolge ermöglicht das Hochleistungsrechencluster von Tencent Cloud mit einem systematisierten Wartungsmechanismus die Erkennung von Netzwerkfehlern innerhalb einer Minute, die Bestimmung des Fehlers innerhalb von drei Minuten und die schnellste Wiederherstellung des Systems innerhalb von fünf Minuten. Die tägliche Fehlerrate des Clusters mit tausend Knoten ist jetzt auf 0,16 gesunken, was ein Drittel des Branchendurchschnitts darstellt.

Gleichzeitig kann das Xinyao-Netzwerk von Tencent Cloud das Training großer Modelle unterstützen, wodurch während des Trainingsprozesses der Anteil der Netzwerkkommunikation (der Anteil der Kommunikationszeit an der Gesamtzeit) auf bis zu 6% reduziert werden kann, was die Gesamteffizienz des Trainings um mehr als 20% steigert.

So wie sich die US-amerikanischen Großmodellunternehmen bereits als führend etabliert haben, wird sich dieses Phänomen auch auf dem chinesischen Markt zeigen. Liu Hua ist der Ansicht, dass in Zukunft nur noch wenige Unternehmen über grundlegende große Modelle forschen werden, während sich die meisten Unternehmen allmählich auf die Entwicklung von KI-Anwendungen konzentrieren werden.

Was MiniMax betrifft, so werden sie weiterhin in die Forschung und Entwicklung von Kerntechnologien investieren, um mit guter Technologie gute Produkte voranzutreiben, die wiederum durch ein gutes Serviceerlebnis und einen guten Ruf die Technologie fördern werden.