StartseiteArtikel

Andrew Ng's Jahresrückblick: 2025 ist der Beginn der künstlichen Intelligenz-Industriezeit.

机器之心2025-12-30 18:00
Ein spektakuläres Jahr.

Das Jahr 2025 neigt sich dem Ende zu.

Leser, die sich für die AI-Szene interessieren, wissen, dass dieses Jahr ein Jahr der harten Konkurrenz zwischen den großen AI-Konzernen war, ein Jahr mit extrem häufigen Talentschmuggeln und Organisationsumstrukturierungen, ein Jahr, in dem der Wettrüsten an großen Modellen unerwartet intensiv wurde, und auch ein Jahr, in dem der Bau von AI-Infrastruktur in vollem Gange war …

Am Ende dieses aufregenden Jahres veröffentlichte unser alter Freund, der Gastprofessor für Informatik an der Stanford University, der ehemalige Leiter von Baidu AI und der ehemalige Leiter von Google Brain, Professor Andrew Ng, sein traditionelles Jährliches Paket: Ein Brief und eine Jahresrückschau auf das Gebiet der Künstlichen Intelligenz im Jahr 2025.

Jahresendebotschaft: Drei goldene Schlüssel

Das Neujahrstage-Ferienende naht, und auch die wundervollen Winterferien der Schüler und die chinesischen Neujahrstage-Ferien sind in greifbarer Nähe. „Nie aufhören zu lernen“ ist ein altbekanntes Thema vor den Ferien, insbesondere für diejenigen, die in dem dynamisch wachsenden und hochkonkurrierenden Bereich der Künstlichen Intelligenz Chancen für ihre Karriereentwicklung suchen. Was man tun sollte und wie man es tun sollte, das hat Andrew Ng in seinem diesjährigen Brief erklärt.

Hier ist der vollständige Text des offenen Briefes:

Liebe Freunde,

Ein weiteres Jahr lang rückt die KI mit erstaunlicher Geschwindigkeit voran und schafft für alle - auch für Neueinsteiger in diesem Bereich - beispiellose Möglichkeiten für die Softwareentwicklung. Tatsächlich ist es für viele Unternehmen heute eine der größten Probleme, genügend Engineer zu finden, die wirklich etwas über KI verstehen.

Jedes Jahr nehme ich mir in den Winterferien Zeit, um zu lernen und Projekte umzusetzen. Ich hoffe, dass ihr das auch macht. Dies hilft mir nicht nur, meine vorhandenen Fähigkeiten zu verbessern und neue Kenntnisse zu erwerben, sondern auch, meine technische Karriere voranzubringen.

Um wirklich in der Lage zu sein, KI-Systeme zu entwickeln, empfehle ich Ihnen, drei Dinge zu tun:

Systematisch KI-Kurse besuchen

Ständig daran arbeiten, KI-Systeme zu entwickeln

(Optional) Forschungsartikel lesen

Im Folgenden erkläre ich, warum all diese drei Punkte so wichtig sind.

Ich höre oft von Entwicklern, die anderen raten: „Lass das Lernen sein und fang einfach an, zu arbeiten.“ Das ist aber sehr schlechter Rat! Wenn Sie nicht in einer Gemeinschaft erfahrener KI-Entwickler sind, riskieren Sie, wenn Sie ohne Verständnis der KI-Grundlagen loslegen, die Erfindung des Rades zu wiederholen oder, noch schlimmer, es total falsch zu erfinden.

Beispielsweise habe ich bei Bewerbungsgesprächen viele Bewerber getroffen, die eine Standard-RAG-Dokumentensplit-Strategie neu erfunden haben, bewährte Bewertungsmethoden für agentische KI wiederholt implementiert haben oder unübersichtlichen und schwer wartbaren Code für die Verwaltung des LLM-Kontexts geschrieben haben. Wenn sie zuvor einige relevante Kurse besucht hätten, wüssten sie besser, welche „Bausteine“ in der Branche bereits existieren. Natürlich können sie weiterhin entscheiden, diese Module von Grund auf neu zu implementieren oder sogar bessere Methoden zu entwickeln als die bestehenden Lösungen, aber zumindest können sie vermeiden, Wochen Zeit mit unnötigen Umwegen zu verschwenden.

Daher ist strukturiertes Lernen von entscheidender Bedeutung.

Ehrlich gesagt finde ich es persönlich sehr interessant, Kurse zu besuchen. Ich würde jederzeit lieber einen guten KI-Kurs öffnen und lernen als Netflix anzuschauen.

Allerdings reicht es nicht aus, nur Kurse zu besuchen. Viele wichtige Erfahrungen können nur durch die eigene Praxis erworben werden. Das Studium der Theorie, wie ein Flugzeug funktioniert, ist natürlich für die Ausbildung als Pilot sehr wichtig, aber niemand hat je nur durch das Besuch von Kursen gelernt, ein Flugzeug zu fliegen. Irgendwann ist es unumgänglich, tatsächlich in die Cockpit zu steigen! Das Gute ist: Mit der Entstehung von hochintelligenten Programmierassistenten ist die Schwelle für die eigene Umsetzung niedriger als je zuvor. Und wenn Sie anfangen, die verschiedenen Bausteine der KI zu lernen, werden Sie oft neue Ideen bekommen, was noch möglich ist. Wenn ich mal keine Projektideen habe, besuche ich normalerweise einige Kurse oder lese einige Forschungsartikel. Wenn ich das für eine Weile mache, bekomme ich immer eine Menge neue Projektideen. Und ehrlich gesagt finde ich es wirklich Spaß, „Dinge zu bauen“ und hoffe, dass Sie auch diese Freude spüren können!

Schließlich muss nicht jeder das tun, aber ich habe festgestellt, dass die stärksten Bewerber auf dem heutigen Arbeitsmarkt fast alle gelegentlich Forschungsartikel lesen. Obwohl ich finde, dass Artikel viel schwieriger zu verstehen sind als Kurse, enthalten sie eine Menge auf dem neuesten Stand der Technik liegender Informationen, die noch nicht in eine einfacher verständliche Form übersetzt wurden. Ich gebe dem Lesen von Artikeln eine niedrigere Priorität als dem Besuch von Kursen und der praktischen Umsetzung, aber wenn Sie die Möglichkeit haben, Ihre Fähigkeit zum Lesen von Artikeln zu verbessern, empfehle ich Ihnen dringend, das zu tun. (Sie können auch ein Video von mir anschauen, in dem ich darüber spreche, wie man Forschungsartikel liest.) Das Besuch von Kursen und die praktische Umsetzung macht mir Spaß, das Lesen von Artikeln ist eher eine „Prüfung“, aber die gelegentlichen Einsichten, die man aus den Artikeln bekommt, sind wirklich erfreulich.

Ich wünsche Ihnen schöne Winterferien und ein frohes neues Jahr. Neben dem Lernen und Schaffen hoffe ich auch, dass Sie viel Zeit mit Ihren Lieben verbringen - das ist ebenfalls sehr wichtig!

Love,

Andrew

Jahresrückschau: Der Beginn der KI-Industriezeit

Das Jahr 2025 war wirklich ein aufregendes Jahr.

Als traditionelles Jährliches Paket bringt uns Andrew Ngs Jahresrückschau jedes Jahr die wichtigsten Ereignisse und Entwicklungstrends in der Künstlichen Intelligenz zurück.

2022 war ein glänzendes Jahr für die KI. Systeme zur Erzeugung von Text, Bildern, Videos, Musik und Code waren bald da, was zu Diskussionen über die Zukunft der Kreativität führte.

2023 war ein Jahr der Innovation und Angst. Die Welle der generativen KI ergriff alle Branchen in den Griff, und ihre ständig wachsenden Fähigkeiten führten zu Befürchtungen, dass intelligente Maschinen den Menschen überflüssig machen könnten.

2024 war ein Jahr des stürmischen Fortschritts. Die Künstliche Intelligenz machte bahnbrechende Fortschritte. Intelligente Agentensysteme verbesserten ihre Fähigkeiten zur logischen Schlussfolgerung, zum Umgang mit Werkzeugen und zur Steuerung von Desktopanwendungen. Kleine Modelle verbreiteten sich rasch, viele von ihnen waren stärker und kostengünstiger als ihre Vorgänger.

2025 könnte als der Anfang der KI-Industriezeit in Erinnerung bleiben. Lassen Sie uns mit Andrew Ngs Perspektive die repräsentativsten KI-Ereignisse des Jahres 2025 erkunden.

Artikel-Link: https://www.deeplearning.ai/the-batch/issue-333/

Denkfähige Modelle lösen größere Probleme

Ende des vergangenen Jahres hat OpenAI das erste Inferenzmodell o1 vorgestellt, in das ein agentenfähiger Inferenzworkflow integriert wurde. Im Januar dieses Jahres hat DeepSeek-R1 der Welt gezeigt, wie man diese Fähigkeit aufbaut. Das Ergebnis war: Die Leistung in Mathematik und Programmierung stieg sofort an, die Antworten auf Fragen wurden genauer, die Fähigkeiten von Robotern verbesserten sich, und die KI-Agenten machten schnelle Fortschritte.

Zu Beginn des Jahres 2025 führten die Modelle Inferenzstrategien nur aus, wenn sie explizit dazu aufgefordert wurden. Heute machen dies die meisten neuen Large Language Models standardmäßig, was die Leistung in einer Vielzahl von Aufgaben erheblich verbessert hat.

Die ersten Inferenzmodelle wurden durch RL-Training entwickelt und sind speziell darauf ausgelegt, mathematische Probleme korrekt zu lösen, wissenschaftliche Fragen genau zu beantworten und Code zu generieren, der die Unittests besteht. Beispielsweise hat o1-preview auf der AIME 2024 43 Prozentpunkte besser abgeschnitten als sein nicht-inferierendes Vorgänger-Modell GPT-4o und auf der GPQA Diamond 22 Prozentpunkte besser. Bei Programmieraufgaben auf Codeforces befand sich seine Leistung im 62. Perzentil der menschlichen Wettbewerber, während GPT-4o nur im 11. Perzentil lag.

Wenn Inferenzmodelle lernen, Werkzeuge wie Taschenrechner, Suchmaschinen oder bash-Terminals zu nutzen, verbessert sich ihre Leistung weiter. Beispielsweise erreichte das OpenAI o4-mini mit Werkzeugen in einem schwierigen Test, der die multimodale Verständnis- und Technikkundschaft in 100 Bereichen prüft, eine Genauigkeit von 17,7 %, was um mehr als 3 Prozentpunkte höher ist als ohne die Nutzung von Werkzeugen.

Robotik-Aktionsmodelle haben ebenfalls durch RL gelernt, zu inferieren. Beispielsweise hat das ThinkAct-Modell durch die Belohnung für das Erreichen des Zielorts seine Leistung in Robotikaufgaben im Vergleich zu Modellen ohne Denkfähigkeit (z. B. OpenVLA) um etwa 8 % verbessert.

Inferenzmodelle helfen auch Agenten, komplexe Probleme zu bewältigen. Beispielsweise nutzt AlphaEvolve Google Gemini, um Code wiederholt zu generieren, zu bewerten und zu verbessern und schließlich schnellere Algorithmen für reale Probleme zu entwickeln. Eines der Ergebnisse war, dass es eine Hypothese für ein langjährig ungelöstes Problem zur Erklärung der Mikrobenresistenz aufstellte. Menschliche Wissenschaftler stellten und bestätigten fast gleichzeitig unabhängig dieselbe Hypothese.

Die Inferenzfähigkeit hat die Leistung von LLMs erheblich verbessert, aber bessere Ergebnisse gehen auch mit Kosten einher. Das Gemini 3 Flash verbraucht beim Ausführen des Artificial Analysis Intelligence Index Benchmarks mit eingeschalteter Inferenz insgesamt 160 Millionen Tokens (Punktzahl 71), während es bei ausgeschalteter Inferenz nur 7,4 Millionen Tokens verbraucht (deutlich niedrigere Punktzahl von 55). Darüber hinaus verzögert die Generierung von Inferenztokens die Ausgabe, was auch die Leistung von LLM-Inferenzdienstleistern stärker belastet. Forscher arbeiten jedoch an einer Effizienzsteigerung. Claude Opus 4.5 und GPT-5.1 erreichten bei hoher Inferenz denselben Score im Intelligence Index, aber das erste verbrauchte 48 Millionen Tokens, während das zweite 81 Millionen Tokens verbrauchte.

Riesige Gehälter locken Spitzen-KI-Talente

Die führenden KI-Unternehmen engagieren sich in einem heftigen Kampf um Talente und locken Spitzenkräfte von ihren Konkurrenten mit Gehältern an, die mit denen von Berufssportstars vergleichbar sind.

Im Juli startete Meta eine massive Rekrutierungskampagne, um für sein neu gegründetes Meta Superintelligence Labs ein Team zusammenzustellen. Es bot Forschern aus Top-KI-Unternehmen wie OpenAI, Google und Anthropic Gehälter in Höhe von mehreren Milliarden US-Dollar an. Als Reaktion darauf lockten Metas Konkurrenten wiederum Schlüsselmitarbeiter von Meta und voneinander ab, was den Marktwert von KI-Talenten auf ein beispielloses Niveau trieb.

Laut der Wall Street Journal hat Meta-Chef Mark Zuckerberg nach der erfolgreichen Rekrutierung von Alexandr Wang und seinem Kernteam eine „Wunschliste“ erstellt.

Um Leute zum Wechsel zu überzeugen, besuchte Zuckerberg sie persönlich und brachte manchmal selbstgemachte Suppe mit. Diese Bemühungen waren erfolgreich, und er konnte unter anderem Jason Wei und Hyung Won Chung von OpenAI gewinnen, beide sind Kernforscher in der Inferenzmodellentwicklung.

Die Wall Street Journal berichtet, dass Andrew Tulloch, der zusammen mit der ehemaligen OpenAI-CTO Mira Murati das Thinking Machines Lab gründete, zunächst das Angebot von Meta, das einen Bonus im Wert von 1,5 Milliarden US-Dollar enthielt, ablehnte. Monate später wechselte er doch zu Meta.

Meta hat auch Ruoming Pang, der zuvor die Apple KI-Modelle leitete, eingestellt. Laut Bloomberg beläuft sich sein Gehaltsvertrag auf mehrere Milliarden US-Dollar über mehrere Jahre. Metas Angebot übertraf das Gehalt von Apples höchsten Führungskräften außer dem CEO, und Apple entschied sich nicht, es zu matchen.

Im Zuge dieser Personalwanderung hat Microsoft KI-Chef Mustafa Suleyman mehr als 20 Forscher und Engineer von Google mitgenommen, darunter Amar Subramanya, der stellvertretende Ingenieurchef.

Elon Musks xAI hat mehr als ein Dutzend KI-Forscher und Engineer von Meta abgeworben. Musk kritisierte die Angebote der Konkurrenten als „verrückt“ und betonte die „extrem leistungsorientierte“ Kultur seines Unternehmens sowie das höhere Wachstumspotenzial der Aktienanteile.

Mit dem Beginn von 2026 hat sich die KI-Rekrutierungslandschaft stark verändert. Laut der Wall Street Journal bietet OpenAI, um Kopfjäger abzuwehren, einen höheren Anteil an Aktienbezügen als seine Konkurrenten, beschleunigt die Zuteilung von Optionsrechten für neue Mitarbeiter und zahlt Aufenthal