StartseiteArtikel

In Silicon Valley lernen die Leute heute Nacht Chinesisch. Es wird berichtet, dass Cursor eine "Umhüllung" eines chinesischen Produkts ist. Alle Spitzenkräfte in der KI-Branche sind Chinesen.

新智元2025-11-03 11:30
In der Silicon Valley AI-Szene ist kürzlich ein märchenhafter Vorfall passiert: Ohne Chinesischkenntnisse kann man nicht in die Kerngruppe der KI eintreten. Nach den Sitzungen wird ausschließlich Chinesisch gesprochen, und die Ausländer sind perplex! Selbst wenn das Modell denkt, spricht es Chinesisch.

Wenn Sie sich in letzter Zeit mit dem AI - Kreis in Silicon Valley beschäftigen, werden Sie ein wunderbares Phänomen bemerken.

Während in China alle Englisch lernen und Fachartikel lesen, sprechen die Mitglieder des ausländischen AI - Kreises inzwischen Chinesisch! Das ist wirklich eine Umkehrung der Normalität.

Nehmen wir Meta als Beispiel. Wenn Sie kein Chinesisch können, haben Sie keine Chance, in das Kernteam einzusteigen.

Bei offiziellen Sitzungen wird Englisch gesprochen, aber nach den Sitzungen plaudern alle in Chinesisch.

Jetzt sind es die Ausländer, die ratlos sind!

Bei einer Sitzung von OpenAI vor einigen Wochen waren beim Betreten des Raumes fast die gesamte linke Vorderhalfte des 300 - Personen - Saales von Chinesen eingenommen.

Was noch interessanter ist: Nachdem Chinesen zum Markenzeichen für Spitzenkünstler in der AI - Branche geworden sind, klauen auch die Ausländer von den chinesischen Open - Source - Modellen.

Die Legende des "Klausterns" ausländischer Modelle

Cursor hat kürzlich Version 2.0 veröffentlicht und ihr erstes eigenentwickeltes Modell, Composer, vorgestellt.

Aber bald wurde es peinlich: Die Nutzer stellten fest, dass Composer ständig "Chinesisch spricht".

Im Denkprozess, der von <think></think> umschlossen ist, spricht das sogenannte eigenentwickelte Modell Cursor ausschließlich Chinesisch.

Das lässt die Ausländer erneut ratlos da stehen.

Das interessanteste ist Windsurf. Es hat direkt zugegeben, dass es eine angepasste Version von GLM - 4.6 für Feinabstimmung und verstärkendes Lernen verwendet.

Abgesehen von den beiden bewussten Entscheidungen, nämlich "Spitzenkünstler in der AI - Branche sprechen Chinesisch" und "Modelle werden mit chinesischen Open - Source - Modellen feinabgestimmt", beginnen jetzt sogar einige Prominente, OpenAI und Anthropic zu verlassen und sich stattdessen für chinesische Open - Source - Modelle zu entscheiden.

Warum? Weil diese Modelle umfangreich, leistungsstark und preiswert sind.

Eine kürzlich veröffentlichte Nachricht lässt uns fühlen, dass die Ausländer jetzt nicht nur nicht mehr blind auf geschlossene Modelle wie OpenAI vertrauen, sondern sich stattdessen zunehmend für chinesische Modelle entscheiden.

Beispielsweise hat Chamath Palihapitiya erklärt, dass sein Team eine Vielzahl von Arbeitslasten auf Kimi K2 verlagert hat, weil es deutlich leistungsstärker und weitaus preiswerter als OpenAI und Anthropic ist.

Dieser Mann ist ein bekannter US - Unternehmer und Investor. Seine Äußerungen lassen auf etwas schließen:

Chinesische Open - Source - Modelle sind wirklich toll!

Aber im Kommentarfeld gibt es auch einige ernsthafte Stimmen, die darauf hinweisen, dass dieser Mann in der Frühphase in Groq investiert hat (nicht das Groq von Musk).

Und nun hat sein Team die Arbeitslasten von Bedrock (angeblich einer der Top - 20 - Kunden) auf Kimi K2 auf Groq verlagert, weil das Modell leistungsstärker ist!

Es könnte aber auch nur eine Propaganda für den Service von Groq sein.

Warum spricht Cursor so oft "Chinesisch" während des Denkprozesses? Die Nutzer haben zwei Hauptgründe zusammengefasst:

1. Die Schwierigkeit und die Kosten für die Eigenentwicklung sind zu hoch.

Angesichts der Ressourcen von Cursor ist es unwahrscheinlich, dass es ein starkes Modell von Grund auf vortrainieren kann. Es ist eher so, dass es auf einem Open - Source - SOTA - Agentenmodell eine zweiteilige Schulung vornimmt. Daher ist es nicht verwunderlich, dass es "Chinesisch spricht". Dies ist eher das Ergebnis der Wahl der Basis und der Trainingsdaten.

2. Die Verzögerung und das Vermeiden von Konfrontationen von Composer.

Composer wird wahrscheinlich mit einem "vor einigen Monaten" veröffentlichten Open - Source - SOTA feinabgestimmt. Aber die Entwicklung von großen Modellen ist rasant: Wenn es auf den Markt kommt, ist die Basis schon veraltet. Daher will es sich weder mit dem neuesten Open - Source - SOTA vergleichen lassen noch über die Details der Basis sprechen. Selbst wenn die Finanzierung gut ist, kann es schwerlich von der Vorstellung befreien, dass es "nur ein leerer Hülle" ist.

Alles in allem gilt immer noch: Chinesische Open - Source - Modelle sind wirklich toll.

Das geht schon aus den Statistiken auf ausländischen Datenplattformen hervor.

Was die Fähigkeiten angeht, gehören die chinesischen Open - Source - Modelle zur Spitzengruppe

Auf der Artificial Analysis Intelligence - Indexliste stehen, abgesehen von den ersten Plätzen, die von den geschlossenen Modellen OpenAIs GPT - 5, Googles Gemini 2.5, xAIs Grok und Anthropics Claude 4.5 eingenommen werden, direkt dahinter Open - Source - Modelle.

Und die meisten davon sind chinesische Modelle: MiniMax - M2, DeepSeek - V3.1, Qwen3 - 235B - A22B, GLM - 4.6, Kimi K2.

Das Open - Source - Urgestein Meta's Llama und die dazugehörigen feinabgestimmten Versionen müssen hinter ihnen Platz nehmen.

Das Gleiche gilt für die Coding - Indexliste. DeepSeek V3.1 ist sogar besser als Googles Gemini 2.5 Pro.

Auf der Agentenliste befinden sich Kimi, GLM und Qwen ebenfalls in den vorderen Plätzen.

Wenn man die Modelle in Open - Source - und geschlossene Modelle einteilt, sind die Open - Source - Modelle in der globalen AI - Branche wirklich leistungsstark.

Und wenn man noch die Preise der chinesischen Open - Source - Modelle berücksichtigt, werden sie noch attraktiver.

Was das Wachstum der AI - Fähigkeiten im Laufe der Zeit angeht, hat OpenAI zwar immer die Spitze, aber MiniMax, DeepSeek, Qwen, GLM und Kimi lassen es sich nicht nehmen.

Diese AI - Welle hat nicht nur die Richtung der Welttechnologie verändert, sondern auch die Wahrnehmung von Talentmarken.

Übrigens war es vor kurzem Zuckerberg von Meta, der erstmals das Gehalt eines einzelnen Spitzentalents auf über eine Milliarde US - Dollar anbot.

Wer sind die Spitzenchinesen in Silicon Valley?

Zunächst Meta.

In dem erst vor einigen Monaten gegründeten Superintelligence Labs von Meta waren in dem ursprünglichen 44 - Personen - Team fast die Hälfte Chinesen.

Unter ihnen haben Shengjia Zhao und später Yang Song die Positionen als Chefwissenschaftler und Forschungsleiter inne.

Weiterführende Lektüre: Huang Renxun hat recht! Meta's geheimes AGI - Traumteam wird aufgedeckt, die Hälfte der 44 - Personen - Truppe kommt aus China

Chefwissenschaftler von MSL, Shengjia Zhao .

Shengjia Zhao absolvierte sein Bachelorstudium an der Tsinghua - Universität und promovierte in Informatik an der Stanford - Universität.

Nach seinem Abschluss im Juni 2022 trat er in das Technikkolleg von OpenAI ein. Mit nur 3 Jahren Arbeitserfahrung hat er bereits zahlreiche beeindruckende Errungenschaften auf seiner Laufbahn.

Als er noch bei OpenAI war, war er an mehreren bahnbrechenden Durchbrüchen beteiligt.

Mitglied des ursprünglichen Teams von ChatGPT, das die globale AI - Welle ausgelöst hat

Schlüsselbeitragender zu GPT - 4

Chefforscher des ersten AI - Inferenzmodells o1 von OpenAI, wurde zusammen mit dem Mitbegründer von OpenAI Ilya Sutskever als "Gründungsbeitragender" eingestuft

Tiefer involviert in den Aufbau der Mini - Serie, einschließlich 4.1 und o3

Verantwortlich für das Synthetisierungsdaten - Team von OpenAI

Als das erste Inferenzmodell, das die "Denkfähigkeit" von AI einschaltete, hat der Erfolg von o1 direkt die Entwicklungswelle der "Denkkette" - Technologie in der gesamten Branche vorangetrieben.

Weiterführende Lektüre: Tsinghua - Alumni Shengjia Zhao wird Chefwissenschaftler von Meta's Superintelligence! Schlüsselmann hinter GPT - 4

Forschungsleiter von MSL, Yang Song.

Yang Song absolvierte sein Bachelorstudium im Studiengang Mathematik und Physik an der Tsinghua - Universität und promovierte in Informatik an der Stanford - Universität. Seine Forschungsrichtung konzentriert sich auf Generative Modelle und multimodale Inferenz.

In der akademischen Welt ist er für seine Forschungen zu "Diffusionsmodellen" bekannt und einer der Technologiegründer in diesem Bereich.

Er hat in Institutionen wie Google Brain, Uber ATG und dem Microsoft Research Institut stagiert und verfügt über reiche industrielle und theoretische Erfahrungen.

Nachdem er 20