Alibaba, ByteDance und Tencent setzen gemeinsam stark auf neue Trends.
Im zweiten Halbjahr dieses Jahres ist AI Coding (Künstliche Intelligenz in der Programmierung) der heißeste Bereich in der Branche geworden und hat auch erstmals die Aussichten für die kommerzielle Umsetzung von KI eröffnet.
„Von Silicon Valley bis nach China sagt jeder, dass er an Coding-Projekten arbeitet. Es gibt einfach zu viele Fälle, um sie alle zu bewerten.“ So sagte ein Technologieinvestor der Zeitschrift „China Entrepreneur“.
Im September dieses Jahres absolvierte Anthropic mit seiner führenden Position im Bereich Coding eine Serie-F-Finanzierung in Höhe von 13 Milliarden US-Dollar und erreichte einen Unternehmenswert von 183 Milliarden US-Dollar. Dieser Unternehmenswert hat sich im Vergleich zu nur sechs Monaten zuvor verdreifacht.
Der Anwendungsnutzen von Coding hat es Anthropic ermöglicht, im B2B-Markt mit OpenAI, das 800 Millionen globale Nutzer hat, gleichwertig zu konkurrieren. Mit einem Marktanteil von 32 % liegt es vor OpenAI mit 25 % und ist somit der am häufigsten von Unternehmen genutzte Modellanbieter. Das Einkommen ist von 1 Milliarde US-Dollar im Jahr 2024 auf 4,5 Milliarden US-Dollar im ersten Halbjahr 2025 gestiegen.
Das Feuer der Coding-Forschung brennt auch in China. Sowohl große Unternehmen als auch Start-ups haben im Jahr 2025 unabhängige IDEs (integrierte Entwicklungsumgebungen) auf den Markt gebracht.
Im März dieses Jahres wurde die chinesische Version des Coding-Tools Trae von ByteDance veröffentlicht. Bis Mai hatte das Produkt bereits über eine Million monatliche aktive Nutzer. Im Juli startete Tencent die interne Tests des AI-Programmierassistenten „CodeBuddy IDE“. Im August dieses Jahres lancierte Alibaba die AI-Programmierplattform Qoder.
Die angesehenen Start-ups im Bereich großer Modelle geben auch nicht nach. Im Juli dieses Jahres veröffentlichte Darkside of the Moon das Kimi K2-Modell, das insbesondere in Bezug auf die Programmier-, Agent- und Langtextfunktionen verbessert wurde.
Im August dieses Jahres hat das von DeepSeek veröffentlichte DeepSeek-V3.1-Modell die Anthropic-Ekosysteme verbunden, sodass Nutzer die Fähigkeiten von DeepSeek-V3.1 problemlos in das Claude Code-Framework integrieren können.
Die externen Umstände erhöhen auch die Dringlichkeit der Coding-Forschung von großen Unternehmen. Am 5. September kündigte Anthropic aus verschiedenen Gründen plötzlich die Beendigung der Dienstleistungen für chinesische Unternehmen an. Nun stellt sich die Frage, welches große Unternehmen oder Start-up am ehesten das chinesische Anthropic werden kann und möglicherweise die erste Klasse auf dem Zug der KI erobert.
Warum ist Coding so beliebt, und was genau ist es?
Warum zielen alle internationalen Konzerne auf den AI Coding-Bereich? Kürzlich gab Wu Yongming, CEO der Alibaba Group, eine klare Antwort. Mitte September sagte er in einem Vortrag auf der Yunqi-Konferenz: Natürliche Sprache ist die Programmiersprache der KI-Zeit, und Agenten sind die neuen Softwarelösungen. „Die Entwicklung der Coding-Fähigkeiten von großen Modellen ist der unvermeidliche Weg zur AGI.“
„Die gegenwärtigen Agenten befinden sich noch in einer frühen Phase und lösen hauptsächlich standardisierte und kurzfristige Aufgaben. Um Agenten in die Lage zu versetzen, komplexere und langfristigere Aufgaben zu lösen, ist die Coding-Fähigkeit von großen Modellen der Schlüssel. Da Agenten autonom programmieren können, können sie theoretisch unendlich komplexe Probleme lösen, ähnlich wie ein Ingenieurteam, das komplexe Anforderungen versteht und die Programmierung und Tests autonom durchführt.“
Was genau ist also AI Coding?
Einfach ausgedrückt, ist es die Unterstützung von Nutzern bei der Programmierung mit KI. Die KI-Technologie wird tief in den gesamten Softwareentwicklungsprozess integriert, um die Einstiegshürde zu senken und die Effizienz zu erhöhen. Mit Coding-Tools können auch normale Menschen Websites und Mini-Programme mit natürlicher Sprache entwickeln, und Programmierer können sie nutzen, um Code zu vervollständigen und zu generieren. In der integrierten IDE-Umgebung können Coding-Tools auch bei der gesamten Produktentwicklung, von der Produktdesign bis zum Test und zur synchronen Änderung, helfen.
Für große Unternehmen bedeutet die Verbesserung der Codeproduktionseffizienz niedrigere Kosten und höhere Gewinne. Die heutigen Technologiekonzerne überlassen mittlerweile einen erheblichen Teil ihrer Programmierarbeit der KI. Cai Chongxin gab kürzlich bekannt: Derzeit wird 30 % des Codes von Alibaba von KI generiert.
Für kleine Unternehmen und Anwender kann die Verwendung von Coding-Tools bei der Produktentwicklung die technischen Barrieren überwinden und die Chancengleichheit herstellen. Gleichzeitig sind sie auch die Zielgruppe, die von den Anbietern von Basis-Modellen bedient werden soll.
Die Fähigkeit der KI-Programmierung ist sowohl das natürliche Ergebnis der Verbesserung der Modellfähigkeiten als auch ein Faktor, der die Weiterentwicklung der Modellfähigkeiten fördert. Daher kann die Coding-Fähigkeit in hohem Maße die Stärke der großen Modelle von Konzernen repräsentieren, und der kommerzielle Erfolg ist bereits bewiesen. Unternehmen, die in Zukunft ein erfolgreiches Plattformökosystem aufbauen und die Agenten-Anwendungen erweitern möchten, müssen sich unbedingt mit Coding auseinandersetzen.
Der Gründer von Anthropic, Dario Amodei, sagte in einem Interview: Das Wachstum der Nutzerzahl in der Programmierung ist sehr schnell. „Wenn das Modell in der Programmierung stärker wird, kann es uns auch helfen, das nächststärkere Modell zu trainieren. Dies ist ein sehr vorteilhafter positiver Zyklus.“
Konkurrenz unter den Konzernen: Wer hat den Vorsprung?
Tatsächlich haben die meisten Technologiekonzerne frühzeitig die Chancen in der KI-Programmierung erkannt.
Yao Shunyu, ein ehemaliger Forscher von OpenAI, sagte in einem Interview mit der Plattform „Sprache ist die Welt“, dass er Coding als die Hauptaufgabe der Forschung ansieht. Er ist der Meinung, dass alle großen Unternehmen die Coding-Fähigkeit ihrer Modelle verbessern werden und dass bei allen Vor- und Nachtrainingen sowie bei der Verstärkungslernphase diese Aspekte berücksichtigt werden.
Nehmen wir Tencents CodeBuddy als Beispiel. Tencent hat bekannt gegeben, dass derzeit über 90 % seiner internen Ingenieure CodeBuddy nutzen, dass die durchschnittliche Programmierzeit um über 40 % reduziert ist und dass der Anteil des von KI generierten Codes an den neuen Code über 50 % beträgt. Auf der Grundlage der Erfahrungen aus der internen Massenproduktion hat die Forschungseffizienz um über 16 % zugenommen.
Die Produktform von CodeBuddy hat sich bereits 2022 entwickelt. Es hat nacheinander drei Phasen durchlaufen: das Plugin, die CodeBuddy IDE-Form und die CLI (das Produkt heißt CodeBuddy Code). Derzeit werden diese drei Formen nebeneinander bestehen und den Nutzern und Unternehmen zur Auswahl angeboten.
Wang Shengjie, der Leiter von Tencents AI-Entwicklungsprodukten für Entwickler, sagte der Zeitschrift „China Entrepreneur“, dass einige interne Entwickler von Tencent zwischen 2021 und 2022 vorschlugen, die KI zur schnellen Verständnis von Code-Dokumenten und zur Unterstützung bei der Entwicklung von wiederholbaren Geschäftscodes zu nutzen. „Damals hieß das Motto: 'Tab Tab Tab No backspace'. Wir hofften, dass die KI die Generierung eines Anwendungs-Codes unterstützen würde.“
In der zweiten Phase haben einige Geschäftsteams von Tencent festgestellt, dass die reine Code-Snippet-Generierung nicht ausreicht und dass sie wünschen, dass das Code-Tool Projektstrukturen verstehen und Funktionen wie Unit-Tests anbieten soll. Daher hat Tencent intern die Chat- und Craft-Modi des Tencent AI Code-Assistenten (später umbenannt in Tencent Code Assistant CodeBuddy) eingeführt, wobei der Mensch im Mittelpunkt steht und die KI die Unterstützung bietet.
Mit fortschreitender Forschung hat Wang Shengjies Team schrittweise mit dem Team des Huyuan-Großmodells zusammengearbeitet, um ein Plugin zu entwickeln und es in IDEs wie VS Code zu integrieren, die von Entwicklern häufiger genutzt werden, um Entwicklern bei der Code-Vervollständigung, -Kommentierung und -Empfehlung zu helfen.
Im Jahr 2025, mit dem Auftreten von Agenten und der Zusammenarbeit von Multi-Agenten, glaubt Wang Shengjie, dass die echte AI Coding-Ära begonnen hat und dass bald revolutionäre Veränderungen stattfinden werden. Coding wird in die gesamte Produktentwicklungszyklus integriert werden - von der Codegenerierung bis zum internen Produkt-Test, zur Rückmeldung und zur Anpassung usw.
Nicht nur Tencent, sondern auch ByteDance hat intensive Aktivitäten im Bereich der Coding-Entwicklung unternommen. Hong Dingkun, der stellvertretende Technologiechef von ByteDance, sagte im Mai dieses Jahres, dass es drei Gründe dafür gibt, dass ByteDance sich ernsthaft mit AI Coding befasst: Es soll helfen, dass mehr Menschen Code beherrschen und komplexere Aufgaben erledigen können, die Arbeitsleistung von professionellen Ingenieuren zu steigern und das Modell dahin zu bringen, einen höheren Intelligenzpegel zu erreichen.
ByteDance hat bekannt gegeben, dass Trae drei Monate nach seinem Start im Juni bereits über eine Million monatliche aktive Nutzer hatte. Innerhalb von ByteDance nutzen über 80 % der Ingenieure Trae zur Unterstützung bei der Entwicklung.
Alibaba, das sich vollständig im Bereich der großen Modelle engagiert, setzt auch entschieden auf den Coding-Sektor. Einerseits verbessert Alibaba ständig die Codierfähigkeit des Qwen-Basisgroßmodells und hat auch ein spezielles Coding-Modell eingeführt. Gleichzeitig hat Alibaba auch ein eigenes Coding-Endprodukt namens Qoder entwickelt.
Bei der jüngsten Yunqi-Konferenz hat Alibaba sieben Modell-Updates veröffentlicht, von denen zwei direkt die Obergrenze der Coding-Fähigkeiten verbessert haben. Das Qwen3-Max-Modell hat über eine Billion Parameter und setzt vor allem auf die Coding-Programmierfähigkeit und die Fähigkeit zur Nutzung von Agent-Tools. Das Qwen3-Coder-Intelligenz-Programmiermodell war auf der Open Router-Plattform zeitweise das zweitbeliebteste Coder-Modell weltweit, nur hinter Claude Sonnet 4.
Das unabhängige Produkt Qoder von Alibaba hat zwei Besonderheiten: Erstens erlauben Trae von ByteDance und CodeBuddy von Tencent die Auswahl des Modells, während Qoder dies nicht tut. Die Techniker von Qoder erklären, dass die maschinelle Auswahl besser und schneller ist als die menschliche Auswahl. Sie hoffen, dass die Entwickler die Effektivität vergleichen können, um zu sehen, ob es möglich ist, die Ziele von Schnelligkeit, Qualität und Kosteneffizienz zu erreichen.
Die Preise für Qoder sind auch höher. Für globale Nutzer beträgt die Abonnementgebühr für Pro-Nutzer 20 US-Dollar pro Monat und für Pro+-Nutzer 60 US-Dollar pro Monat. Dies entspricht bereits dem Monatsabo von Cursor, einem weltweit führenden AI-Programmierunternehmen. Im Vergleich dazu kostet die internationale Version von Trae 3 US-Dollar im ersten Monat und 10 US-Dollar pro Monat danach. Die chinesische Version von CodeBuddy ist derzeit kostenlos, aber für die Nutzung der Pro-Version müssen Punkte gesammelt werden. Zweitens...
Im Vergleich zu Alibaba haben Trae von ByteDance und CodeBuddy von Tencent noch kein spezielles Coding-Modell entwickelt und stützen sich stattdessen auf die Große Modelle Doubao von ByteDance und Huyuan von Tencent.
Zu den Auswirkungen der Existenz eines eigenen Großmodells sagte Wang Shengjie: „Die Modellfähigkeit wirkt sich auf den Aufruf und die Generierungsergebnisse aus, aber die heutigen großen Modelle verfügen alle über eine gewisse Code-Fähigkeit. Wir müssen von der Produktperspektive aus die Balance zwischen Leistung, Qualität, Sicherheit und Kosten usw. berücksichtigen. Wir bezeichnen dies insgesamt als Produkt-Erlebnis.“
Tencents CodeBuddy hat dennoch seine Vorteile - das Tencent-Ökosystem und die Unternehmensanwendungen. Wang Shengjie sagte, dass Tencent nicht einfach Cursor folgen werde, sondern Unterschiede schaffen wolle. Beispielsweise kann es die Ressourcen von Tencent Cloud verbinden, einschließlich WeChat Mini-Programmen, und die Anwendungen direkt in die Cloud deployen. Darüber hinaus kann es auch für Unternehmensanwendungen spezifische Lösungen anbieten.
Was wird im nächsten Stadium entscheidend sein: Produkt-Erlebnis und Kontext-Engineering
Während Coding die Fähigkeiten von Modellen verbessert, beschleunigt sich auch die Konkurrenz auf diesem Gebiet. Ende September dieses Jahres veröffentlichte Anthropic das Claude Sonnet 4.5. Das neue Modell kann 30 Stunden lang kontinuierlich programmieren, 11.000 Codezeilen auf einmal generieren und sogar die gesamte Codebasis neu strukturieren.
Das Interesse an Finanzierungen im Bereich von Coding steigt weiter. Laut ausländischen Medien berichten wird Cursor derzeit über eine Finanzierung von mindestens 1 Milliarde US-Dollar verhandeln. Der Unternehmenswert vor der Finanzierung beträgt 27 Milliarden US-Dollar, was im Vergleich zu seinem Wert vor drei Monaten verdreifacht ist.
Seit dem Start der öffentlichen Tests im März 2022 bis Ende 2023 hatte das Vierer-Team von Cursor einen jährlichen wiederkehrenden Umsatz (ARR) von über 1 Million US-Dollar erzielt, und die täglichen aktiven Nutzer lagen über 30.000. Bis Juni dieses Jahres hatte der ARR bereits über 500 Millionen US-Dollar erreicht. Die Medien erwarten, dass dieser Wert bis Ende des Jahres noch verdoppelt werden könnte.
Es ist bemerkenswert, dass Cursor kein eigenes Großmodell entwickelt, sondern externe Großmodelle wie GPT und Claude über APIs aufruft und sich stattdessen auf die Verbesserung des Produkt-Erlebnisses konzentriert. Dies zeigt, dass obwohl Coding eng mit der Fähigkeit von Großmodellen verbunden ist, der Ausgang der Konkurrenz nicht allein von den Modellen selbst abhängt. Das Produkt-Erlebnis und das Verständnis der Nutzer sind die Schlüssel.
Beispielsweise ist das Produkt Claude von Anthropic der erste Wahl von Technikern. Abgesehen von seiner hohen Zuverlässigkeit und der geringen Halluzinationsrate, die durch das Modell bestimmt werden, hat es auch viele Details für Entwickler optimiert. Zum Beispiel hat es einen leserlichen Code-Format, eine benutzerfreundliche Schnittstelle, eine reiche Integration von Tools und ein tieferes Verständnis von Randfällen. Darüber hinaus hat Claude bei der Modellgestaltung bessere Datentrennung und Datenschutz implementiert, was auch die Sicherheitsanforderungen von Unternehmen erfüllt - all dies ist auf die vertikale Erforschung des Coding-Szenarios von Claude zurückzuführen.
Wang Shengjie sagte, dass die Logik von AI Coding-Produkten darin besteht, die Effizienz zu verbessern, das Erlebnis zu verbessern, die Generierungsgeschwindigkeit zu erhöhen und die Genauigkeit zu verbessern, und die agentischen Workflows (automatisierte Arbeitsabläufe) zu optimieren.
Wie kann man Schnelligkeit und Genauigkeit erreichen? Wang Shengjie ist der Meinung, dass das derzeitige technische Schlüssel ist das Kontext-Engineering. In der Programmierumgebung müssen Entwickler oft mit Projekten mit mehreren Dateien, langen Codeblöcken oder komplexen Geschäftslogiken umgehen. Dies erfordert, dass das Modell eine große Menge an Kontextinformationen „merken“ und in Beziehung setzen kann.
Die Verbesserung der Kontextfähigkeit erfordert, dass Unternehmen und Nutzer zusammen die Logik optimieren. „Um eine solide Coding-Infrastruktur aufzubauen, müssen die Nutzer höhere Qualität an Kontextinformationen eingeben und Wiki-Beschreibungen (Dokumentationen) generieren, nicht nur den Code selbst, sondern auch die dazugehörigen Hilfsinformationen.“ So sagte Wang Shengjie.
Tatsächlich liegt der Vorsprung von Claude auch darin, dass es ein Ultra-Großkontextfenster von bis zu 1 Million Tokens unterstützt. Dies ermöglicht es Claude, die gesamte Code-Struktur, die Dokumentation und sogar die historische Kommunikation eines Projekts vollständig zu „verarbeiten“. Das Modell kann auf der Grundlage der globalen Informationen einen kohärenteren und der gesamten Projektlogik entsprechenden Code generieren.
Kontext wird auch ein häufiges