Dreizehn Jahre Planung, plötzlicher Überholsprung: Die wahre Geschichte des Aufstiegs von Googles KI
Im August 2025 stieg ein Bildgenerator namens Nano Banana an die Spitze der LMArena. Später wurde die Gemini App die am häufigsten heruntergeladene App im Apple Store, und es wurde im Inneren von OpenAI ein Code Red ausgerufen. Wenige wissen jedoch, dass der Ausgangspunkt dieses Comebacks eine geheime Auktion in einem Casino-Hotel am Lake Tahoe im Jahr 2012 war. In den folgenden dreizehn Jahren erwarb Google DeepMind, erfand den Transformer, entwickelte eigenständig TPU-Chips, erlebte den Schlag von ChatGPT und den Fiasko von Bard, bis der Gründer Sergey Brin zurückkehrte und der Kernforscher Noam Shazeer wieder ins Team kam, um schließlich 2025 die Überholung zu vollenden. Dies ist eine Geschichte über Talente, Zeit und Langzeitdenken.
Es war kurz nach halb drei Uhr morgens im August 2025.
Die Google-AI-Projektmanagerin Naina Raisinghani saß am Computer und wollte das neueste Ergebnis des DeepMind-Labors – einen ultraschnellen Bildgenerator – auf der LMArena-Rangplattform hochladen.
Das System verlangte einen Namen für die Einreichung.
Um diese Zeit war niemand online.
Also mischte sie einfach zwei Spitznamen, die ihre Freunde ihr gegeben hatten, zusammen: Nano Banana🍌.
Einige Tage später stieg Nano Banana an die Spitze der Rangliste und wurde ein heißes Thema auf X. Weltweit generierten die Nutzer Milliarden von Bildern.
Google hatte es für eine Weile nicht mit genügend Rechenleistung fertig und musste dringend Server ausleihen.
Der Leiter Josh Woodward nannte diese Veröffentlichung später eine „erfolgreiche Katastrophe“.
Im September war die Gemini App die am häufigsten heruntergeladene App im Apple App Store. Im November veröffentlichte Google das bisher stärkste Gemini 3-Modell, das ChatGPT in mehreren Indikatoren übertraf, und die Aktienkurse stiegen stark an.
Die Nachricht erreichte das andere Ende von Silicon Valley, und im Inneren von OpenAI wurde ein Code Red ausgerufen.
Wenn man die Künstliche Intelligenz als Marathon ansieht, hat Google gerade einen epischen Sprint hinter sich gebracht.
Wenige wissen jedoch, dass der Ausgangspunkt dieses Comebacks auf ein Zimmer Nummer 703 in einem Casino-Hotel vor dreizehn Jahren zurückzuführen ist.
Der Einsatz am Lake Tahoe
Eines Tages Anfang Dezember 2012 fand in einem Casino-Hotel am Lake Tahoe, einem beliebten Skigebiet in den Vereinigten Staaten, eine geheime Auktion statt.
Der Lake Tahoe liegt an der Grenze zwischen Kalifornien und Nevada und ist der größte Gebirgssee Nordamerikas mit einem bläulich-saphirblauen Wasser und erstklassigen Skipisten.
Teile von „Der Pate 2“ wurden hier gedreht, und Mark Twain war von der Landschaft fasziniert.
Da der See nur etwa 320 Kilometer von der San Francisco Bay Area entfernt ist, wird er als der „Garten“ von Silicon Valley bezeichnet – sowohl Zuckerberg als auch Ellison haben hier Villen gebaut.
Aber an diesem Tag waren die Silicon-Valley-Magnaten nicht zum Skifahren gekommen. Sie waren hier, um um eine Person zu versteigern.
Das Objekt der geheimen Auktion war eine erst einen Monat alte Firma mit nur drei Mitarbeitern – DNNresearch.
Die Firma hatte keine sichtbaren Produkte oder Vermögenswerte, aber die Identität der Bieter sprach für sich: Google, Microsoft, DeepMind und Baidu.
Der 65-jährige Geoffrey Hinton saß auf dem Boden des Zimmers 703 im Hotel. Er war alt und schlank und litt unter starken Bandscheibenbeschwerden – er konnte weder Auto fahren noch Flugzeuge nutzen. Dieser Professor der Universität Toronto war ein Pionier im Bereich des Deep Learning und hatte seit 1972, als er an die Universität Edinburgh kam, 40 Jahre in diesem Bereich gearbeitet.
Er legte die Regeln für die Auktion fest: Der Startpreis lag bei 12 Millionen US-Dollar, und jeder Gebotssprung musste mindestens 1 Million US-Dollar betragen.
Nach ein paar Stunden war der Preis auf 44 Millionen US-Dollar gestiegen. Hinton fühlte sich schwindelig und sagte, „Es fühlt sich an, als ob wir in einem Film wären“. Er stoppte die Auktion und verkaufte die Firma an den letzten Bieter – Google.
Interessanterweise hatte auch Google vor sechs Monaten einen Anteil an der Entstehung dieser 44-Millionen-Dollar-Auktion.
„Google Cat“ und der älteste Praktikant
Im Juni 2012 veröffentlichte die Google-Forschungsabteilung Google Brain das Ergebnis eines Projekts namens „Google Cat“.
Einfach ausgedrückt, sollte dieses Projekt mit Algorithmen Katzen in YouTube-Videos erkennen.
Das Projekt wurde von Andrew Ng initiiert, der von Stanford zu Google wechselte und Jeff Dean, einen Google-Legenden, ins Team holte. Außerdem bekam er von Gründer Larry Page ein großes Budget.
Google Cat baute ein neuronales Netzwerk auf und nutzte 16.000 CPU-Kerne in Googles Rechenzentren für das Training. Am Ende erreichte es eine Erkennungsgenauigkeit von 74,8 %.
Diese Zahl verblüffte die Branche.
Aber Andrew Ng zog sich kurz vor Projektende zurück und widmete sich seinem eigenen Internet-Bildungsprojekt. Bevor er ging, empfahl er Hinton als seinen Nachfolger.
Hinton sagte, dass er die Universität nicht verlassen würde und nur einen Sommer bei Google arbeiten würde.
Aufgrund der speziellen Google-Bewerberregeln wurde der damals 64-jährige Hinton der älteste Sommerpraktikant in der Google-Geschichte.
Nachdem dieser Praktikant die technischen Details des Google Cat-Projekts kennengelernt hatte, sah er sofort die versteckten Mängel hinter dem Projekt-Success. Später sagte er: „Sie haben das falsche neuronale Netzwerk verwendet und die falsche Rechenleistung eingesetzt.“
Hinton war überzeugt, dass er die gleiche Aufgabe besser machen konnte.
Also begann er sofort nach seiner kurzen Praktikumszeit mit der Umsetzung.
Hinton holte zwei seiner Studenten – Ilya Sutskever und Alex Krizhevsky – ein. Beide waren aus der Sowjetunion stammende Juden, der erste hatte ein enormes mathematisches Talent, der zweite war gut in der technischen Umsetzung. Die drei arbeiteten eng zusammen und entwickelten ein neues neuronales Netzwerk für den ImageNet-Bilderkennungswettbewerb.
Im Oktober 2012 gewann das Siegeralgorithmus AlexNet des Hinton-Teams mit einer erstaunlichen Erkennungsgenauigkeit von 84 %.
Im Vergleich zu Google Cat, das 16.000 CPU-Kerne verwendet hatte, nutzte AlexNet nur vier NVIDIA-GPU-Karten.
Die akademische Welt und die Branche waren fasziniert.
Die AlexNet-Publikation wurde zu einer der einflussreichsten Publikationen in der Geschichte der Informatik und wurde bisher über 120.000 Mal zitiert. Google Cat hingegen wurde schnell vergessen.
Die 44 Millionen US-Dollar am Lake Tahoe setzten einen neuen Maßstab für die Welt des Deep Learning. Im Vergleich dazu wirkte der 1-Millionen-Dollar-Turing-Preis wie Taschengeld.
Alle Talente im Netz
Nachdem Google das Hinton-Team gewann, setzte es seine Bemühungen fort.
Im Januar 2014 erwarb Google DeepMind, das im Wettbewerb am Lake Tahoe mitgemacht hatte, für rund 600 Millionen US-Dollar.
Der Gründer dieser londoner Firma, Demis Hassabis, war ein Schachprodigy, der mit vier Jahren anfing, Schach zu spielen und mit 14 Jahren Schachmeister wurde.
Elon Musk hatte Gründer Larry Page auf diese Firma hingewiesen, in die er investiert hatte.
Um Hinton mitnehmen zu können, um die Leistungsfähigkeit von DeepMind zu testen, chartered das Google-Team ein Privatflugzeug und modifizierte die Sitze – Hinton konnte aufgrund seiner Bandscheibenprobleme nicht in normalen Flugzeugsitzen sitzen.
Nach der Übernahme hatte Google eine der besten Deep-Learning-Expertenteams der Welt.
Zur gleichen Zeit wurde ein weniger bemerkenswertes Projekt in Angriff genommen: Google begann mit der Eigenentwicklung von KI-Chips.
Das Team glaubte, dass Anwendungen wie Spracherkennung viel Rechenleistung benötigen würden, und entwickelte daher die TPU (Tensor Processing Unit), die energieeffizienter war als herkömmliche CPU- und GPU-Chips.
Dieser Schritt schien zunächst unbedeutend.
Aber mehr als ein Jahrzehnt später würde es zum entscheidenden Hebel für Googles Comeback werden.
Transformer: Die Welt verändernde Publikation
Im März 2016 schlug DeepMinds AlphaGo den Weltmeister des Go, Lee Sedol, mit 4:1 und verblüffte die Welt.
Dies war das erste Mal, dass KI in einem so komplexen Strategie-Spiel einen menschlichen Spitzenspieler besiegte.
Im selben Jahr hatte Sundar Pichai kürzlich das Amt des Google-Chefs übernommen. Er schrieb in seinem Blog: „Die letzten zehn Jahre waren die Zeit der Smartphone, die nächsten zehn Jahre werden die Zeit der KI sein.“
Im Juni 2017 veröffentlichte ein Google-Team eine Publikation namens „Attention Is All You Need“. Acht Google-Wissenschaftler entwickelten das Transformer-Modell – eine neue Architektur, die auf rekurrenten neuronalen Netzen verzichtet und stattdessen auf Attention-Mechanismen basiert.
Diese Publikation markierte den Beginn der heutigen Zeit der Large Language Models. ChatGPT, Claude, Gemini … alle heutigen stärksten KI-Modelle basieren auf dem Transformer.
Bis 2025 wurde diese Publikation über 173.000 Mal zitiert und gehört zu den am häufigsten zitierten Publikationen des 21. Jahrhunderts.
Eigentlich ironisch: Alle acht Autoren verließen später Google und gründeten oder traten anderen Firmen bei.
Einer von ihnen hieß Noam Shazeer.