Man kann einfach Goldmedaillen bei der Physik-Olympiade gewinnen. Google hat ein "Forschungspartner"-Modell herausgebracht, das monatlich 1800 Yuan kostet.
Am 13. Februar hat Google die Inferenz-verstärkte Version von Gemini 3 Deep Think vorgestellt. Dieser „Inferenzmodus“ wurde speziell für wissenschaftliche Forschungen und Ingenieuranwendungen entwickelt, um die Fähigkeiten intelligenter Systeme bei komplexen Aufgaben zu erweitern.
Die neue Version hat auf der Grundlage der Gemini 3 - Architektur den Inferenzmechanismus verbessert und das Konzept des „Inference - time Compute“ eingeführt. Dadurch kann es bei der Bearbeitung komplexer logischer und systemweiter Probleme mehrstufige Ableitungen durchführen und gleichzeitig die Genauigkeit bei der Validierung der strukturellen Konsistenz und der Lösung von Ingenieuraufgaben erhöhen.
Angesichts der Tatsache, dass Deep Think bei der Problemlösung umfangreiche Rechenressourcen des Backends benötigt, hat Google differenzierte Zahlungsregeln festgelegt:
Für private Fachnutzer, die maximale Leistung anstreben, wurde Deep Think offiziell in das premium - Google AI Ultra - Programm aufgenommen. Abonnenten müssen 249,99 US - Dollar pro Monat (etwa 1.800 Yuan) zahlen, um uneingeschränkten Zugang zu tiefgreifenden Inferenzfunktionen, 30 TB Speicherplatz und die höchste Priorität bei der Bereitstellung von Rechenleistung zu erhalten.
Für die API - Anbindung für Entwickler und Unternehmen wird nach dem Verbrauch berechnet: 2 US - Dollar für eine Million eingegebener Tokens und 12 US - Dollar für eine Million ausgegebener Tokens.
01 Intelligenzbenchmark: Spitzenleistung von Algorithmenwettbewerben bis hin zur modernen Physik
Der technische Prototyp von Gemini 3 Deep Think wurde im Juli 2025 beim Internationalen Mathematikolymp (IMO 2025) berühmt.
Damals hat das Modell innerhalb der vorgeschriebenen Zeit von 4,5 Stunden fünf von sechs extrem schwierigen Aufgaben mithilfe reiner natürlicher Sprachinferenz gelöst und 35 Punkte erzielt (Goldmedaille - Niveau). Im Gegensatz zu früheren KI - Systemen, die die Aufgaben in Computerprogrammcode übersetzen mussten, hat Deep Think gezeigt, dass KI wie menschliche Mathematiker direkt komplexe mathematische Probleme durch logische Ableitungen lösen kann.
Die nun offiziell veröffentlichte Inferenz - verstärkte Version von Gemini 3 Deep Think baut auf diesem erstklassigen Inferenz - Potenzial auf und hat eine interdisziplinäre Generalisierung erreicht:
Auf der Wettbewerbs - Programmierplattform Codeforces hat das Modell eine Elo - Bewertung von 3455 erreicht und gehört somit fest in die Kategorie „Legendary Grandmaster“. Dieser Bewertungsbereich zeigt, dass es auf dem Gebiet der komplexen Algorithmenentwicklung und der Lösung von schwierigen Problemen zu den weltweit besten Teilnehmern zählt.
Im ARC - AGI - 2 - Test, der als Eckstein für die allgemeine Künstliche Intelligenz (AGI) gilt, hat Deep Think unter Offline - Bedingungen eine Rekordleistung von 84,6 % erzielt. Dies beweist, dass das Modell nicht länger ausschließlich auf das Korpus angewiesen ist, sondern echte abstrakte Induktion und logisches Entdecken bei wenigen Beispielen erreicht hat.
Bei noch schwierigeren interdisziplinären Herausforderungen hat Deep Think ebenfalls hervorragend abgeschnitten: im Humanity's Last Exam (HLE) (48,4 %) und im CMT Benchmark (50,5 %).
Obwohl es sich um tiefe interdisziplinäre Paradoxien oder komplexe physikalische Ableitungen handelt, zeigt das Modell eine starke strukturelle Konsistenz und logische Robustheit.
Die Grundlage für diese Daten ist die qualitative Veränderung des Inferenzparadigmas von Gemini 3 Deep Think.
Im Gegensatz zum traditionellen Generierungsmechanismus, bei dem Modelle spontan antworten, hat Deep Think den „Inference - time Compute“ - Modus eingeführt. Bevor es eine Ausgabe liefert, konstruiert und simuliert es intern verschiedene Lösungswege und führt eine Echtzeit - Selbstvalidierung der Konsistenz durch. Sobald Konflikte in den Voraussetzungen oder logische Lücken erkannt werden, führt das System sofort eine logische Rückverfolgung durch und reorganisiert die Ableitungskette.
Dieser Mechanismus des „langsamen Denkens“ markiert die Evolution der KI von einem „Dialogtool“ zu einem „Forschungs - Partner“ und bietet eine zuverlässigere intellektuelle Unterstützung für strenge wissenschaftliche Forschungen und komplexe Ingenieuraufgaben.
02 Offizielle Demos: Der Inferenzmodus deckt den gesamten Forschungs - und Ingenieurprozess ab
Google hat durch mehrere Demos die praktische Anwendung von Deep Think in den Bereichen Forschung und Ingenieurwesen gezeigt.
Der Mathematiker Carbone verwendet Deep Think, um eine hoch spezialisierte mathematische Studie zu begutachten.
Im Forschungskontext hat Lisa Carbone, eine Mathematikerin der Rutgers University, Deep Think verwendet, um eine hoch spezialisierte mathematische Studie zu begutachten.
Carbones Forschung liegt im Bereich der hochenergetischen Physik und zielt darauf ab, die mathematische Struktur zu finden, die Einsteins Gravitationstheorie und die Quantenmechanik verbindet. In diesem Bereich, in dem Trainingsdaten sehr rar sind, hat Deep Think einen feinen logischen Fehler entdeckt, den auch die Peer - Review - Gruppe nicht erkannt hatte. Das Modell kann Informationen aus verschiedenen Dokumenten in ein einheitliches Inferenznetzwerk integrieren, die Konsistenz von Formeln und Ergebnissen beurteilen und Markierungen sowie Analysereports für die Forscher generieren.
Dies markiert die Entwicklung der KI von einem „Dialogtool“ zu einem „Forschungs - Partner“ und den Sprung von der unterstützenden Suche zu der eigenständigen logischen Entdeckung mithilfe von Systemen wie Aletheia (Googles internes professionelles Agenten - Architektur für mathematische Explorationen).
Forscher der Duke University nutzen Deep Think, um die Herstellungsmethode für komplexe Kristallwachstum zu optimieren.
An der Duke University hat das Wang Lab Deep Think verwendet, um die Herstellungsmethode für komplexes Kristallwachstum zu optimieren, um die Entwicklung potenzieller Halbleitermaterialien zu unterstützen. Deep Think hat ein Experimentdesign entwickelt, mit dem Filme mit einer Dicke von über 100 Mikrometern hergestellt werden können, was mit bisherigen Methoden kaum möglich war. Dies bietet eine effiziente und praktikable experimentelle Route für die Materialentwicklung.
Im Ingenieurwesen verwenden Wissenschaftler Deep Think, um das Design von physikalischen Komponenten zu beschleunigen.
Im Ingenieurwesen hat Anupam Pthak, Leiter der Forschung und Entwicklung der Google Platforms and Devices - Abteilung und ehemaliger CEO von Liftware, Deep Think verwendet, um das Design von physikalischen Komponenten zu beschleunigen. Nachdem der Benutzer ein handgezeichnetes Skizze einer komplexen mechanischen Struktur hochgeladen hat, kann das Modell automatisch die räumliche Topologie, geometrische Einschränkungen und Schlüsseldimensionen erkennen und ausführbare Modellierungsskripte in OpenSCAD - und Python - Format generieren.
Der gesamte Prozess umfasst die Analyse der geometrischen Beziehungen, die Berechnung der Dimensionen, die Modellierung der Verbindungsbeziehungen und die endgültige Erstellung der Ausgabedateien. In der offiziellen Demo hat das generierte Skript direkt eine 3D - Druckmaschine angesteuert, um ein reales Modell gemäß den Designanforderungen herzustellen.
Darüber hinaus hat Deep Think auch in der Analyse von mehrdateienbasierten Systemcodes seine Fähigkeiten bewiesen. Das Modell kann die Referenzbeziehungen von Variablen, die Abhängigkeiten von Funktionsaufrufen und potenzielle Randbedingungen erkennen und handlungsfähige Verbesserungsvorschläge geben. Die Demo betont, dass das Modell die gesamte Architektur komplexer Ingenieurprojekte verarbeiten kann und zuverlässige Referenzen für die Systemgestaltung und die Codevalidierung bietet.
Der Höhepunkt der offiziellen Demo ist die einheitliche Anwendung über verschiedene Szenarien hinweg: Ob es sich um die Analyse wissenschaftlicher Studien, die Planung von Materialexperimenten, die Ingenieurmodellierung oder die Validierung komplexer Codesysteme handelt, kann Deep Think über eine einzige Inferenzkette logische Ableitungen durchführen und Ergebnisse ausgeben, und bietet so ein effizientes und einheitliches Intelligenztool für Forschung und Ingenieuraufgaben.
03 API - und Branchenintegration: Tiefe Einbindung in Forschung und Industrie
Mit der Veröffentlichung von Deep Think wurde auch das Early Access Program (EAP) für die Gemini - API gestartet. Unternehmen und Forschungsinstitute können das Modell in ihre internen Datenbanken integrieren, um die Konsistenz von Schaltkreisen, die mathematische Ableitung, die Analyse der Experimentaldatenstruktur und die Prüfung der Randbedingungen von Softwaresystemen zu überprüfen.
Google hat angekündigt, dass es Forschungs - und Industrieteams aus dem Bereich der Energiemodellierung, der Neuentwicklung von Materialien und der Biowissenschaften und Medizin priorisieren wird.
Google hat noch keine vollständige Öffnungszeitplanung und keine weiteren Funktionserweiterungspläne veröffentlicht. Durch das Early Access Program können jedoch die relevanten Teams frühzeitig die Inferenzfähigkeiten von Deep Think in komplexen Forschungs - und Ingenieurprojekten erleben.
(Der freie Übersetzer Wuji hat ebenfalls an diesem Artikel mitgewirkt)
Dieser Artikel stammt von „Tencent Technology“, Autor: Su Yang, veröffentlicht von 36Kr mit Genehmigung.