StartseiteArtikel

Terence Tao warnt vor Gefahren. Google und DeepMind arbeiten mit fünf renommierten Institutionen zusammen und bekämpfen mit KI ein Jahrhundertsproblem.

新智元2025-10-30 12:09
Der "Oppenheimer-Moment" in der Mathematikwelt

Google DeepMind setzt erneut stark ein und bringt fünf weltweit führende Institutionen zusammen, um mit KI die Heilige Gral der Mathematik anzugehen! Gleichzeitig warnt Terence Tao vorsichtig: Es muss auf die potenziellen Risiken einer Missbrauch von KI geachtet werden.

Heute hat Google DeepMind das "KI-fördernde Mathematikprojekt" ins Leben gerufen und fünf weltweit führende Institutionen zusammengebracht.

Sie werden die stärkste mathematische KI von Google einsetzen, um neue Gebiete zu erkunden und zu entdecken.

Darin befinden sich das IMO-Goldmedaillengewinner Gemini Deep Think, der Algorithmusentdeckungs-KI-Agent AlphaEvolve und der formale Beweisautovervollständiger AlphaProof.

Derzeit ist die erste Reihe von Partnerinstitutionen beeindruckend:

Imperial College London

Institute for Advanced Study (IAS) in Princeton

Institut des Hautes Études Scientifiques (IHES)

Simons Institute for the Theory of Computing (University of California, Berkeley)

Tata Institute of Fundamental Research (TIFR)

Diese fünf Institutionen haben eine gemeinsame Mission: Mathematische Probleme zu entdecken, die von KI beleuchtet werden können, und die wissenschaftliche Entdeckung zu beschleunigen.

Terence Tao befürchtet jedoch, dass "derzeit die Anwendung von KI in der mathematischen Forschung zunimmt und neben einem verantwortungsvollen Einsatz auch Fälle von KI-Missbrauch häufig auftreten".

Deshalb hält er es für an der Zeit, eine Diskussion darüber zu starten, wie KI am besten integriert werden kann, wie ihre Rolle transparent offen gelegt werden kann und wie die Risiken gemindert werden können.

Vielleicht kann dies nicht nur die Strenge der mathematischen Forschung wahren, sondern auch den Weg für die Fusion von KI und Mathematik ebnen.

Fünf führende Institutionen verbünden sich, um mathematische Probleme anzugehen

Mathematik ist die grundlegendste Sprache des Universums.

Nach Ansicht von Google DeepMind kann KI als ein mächtiges Werkzeug dienen und mit Mathematikern zusammenarbeiten, um deren Kreativität anzuregen.

Das "KI-fördernde Mathematikprojekt" wurde ins Leben gerufen, um:

Eine neue Generation von mathematischen Problemen zu entdecken, die von KI tiefgreifende Einsichten erhalten können;

Die Infrastruktur und Werkzeuge aufzubauen, die für diese fortschrittlichen Forschungen erforderlich sind;

Schließlich den Schritt der wissenschaftlichen Entdeckung zu beschleunigen.

Dieses Projekt wird von Google.org finanziell unterstützt und von der Spitzentechnologie von Google DeepMind begleitet.

In den letzten Monaten hat die eigene Forschung von Google DeepMind enorme Fortschritte gemacht.

2024 haben AlphaGeometry und AlphaProof bei der IMO einen Silbermedaille gewonnen.

Das neueste Gemini-Modell mit Deep Think hat sogar in diesem Jahr bei der IMO eine Leistung auf Goldniveau erreicht und 5 Aufgaben perfekt gelöst und 35 Punkte erzielt.

Im Mai dieses Jahres hat Google DeepMind AlphaEvolve veröffentlicht, das als der stärkste universelle KI-Agent gilt.

Bei 50 offenen Problemen in den Bereichen mathematische Analyse, Geometrie, Kombinatorik und Zahlentheorie hat AlphaEvolve in 20 % der Aufgaben die optimale Lösung gefunden.

Außerdem hat es im Bereich der mathematischen und algorithmischen Entdeckung eine neue, effizientere Methode für die Matrixmultiplikation erfunden.

Genauer gesagt hat es bei der speziellen Aufgabe der 4x4-Matrixmultiplikation einen Algorithmus gefunden, der nur 48 Skalarmultiplikationen erfordert.

Dieses Ergebnis bricht den seit 1969 bestehenden, 50 Jahre alten Rekord des Strassen-Algorithmus.

Darüber hinaus hat AlphaEvolve im Bereich der Informatik Forschern geholfen, eine neue mathematische Struktur zu entdecken.

Außerdem hat es festgestellt, dass die Schwierigkeit der Lösung einiger komplexer Probleme höher ist, als man früher dachte. Dies hilft Forschern, die Rechengrenzen genauer zu verstehen und die Richtung für zukünftige Forschungen zu bestimmen.

Alle diese Fortschritte sind ein starker Beweis für die schnelle Entwicklung der gegenwärtigen KI-Modelle.

Das menschliche Verständnis vom vollen Potenzial von KI und wie sie die tiefsinnigsten wissenschaftlichen Probleme lösen kann, hat erst begonnen.

Wo liegen die Grenzen von KI + Mathematik?

Terence Tao ist seit langem ein Befürworter und bester Praktiker der Anwendung von "KI + Mathematik".

Er hat sich mehrmals mit Spitzen-KI wie GPT - 5 Pro zusammengetan und viele mathematische Probleme gelöst, was die Effizienz erheblich verbessert hat.

Es besteht kein Zweifel, dass in der Mathematik KI-Werkzeuge wie LLMs und Beweishelfer die Forschungsweise verändern.

Neuere Spitzenpublikationen integrieren KI und treiben die Innovation von formellen Beweisen bis hin zu komplexen Berechnungen voran.

Publikationslink: https://borisalexeev.com/pdf/erdos707.pdf

Mit der tiefen Einbindung von KI ergibt sich jedoch ein Schlüsselproblem:

Wie kann sichergestellt werden, dass die Verwendung dieser Werkzeuge die Strenge und den Wert der Publikation nicht beeinträchtigt?

Terence Taos Vorschläge

Anlässlich dessen hat Terence Tao auf einer öffentlichen Plattform eine Diskussion gestartet und in einem langen Beitrag drei Vorschläge gemacht.

Im Folgenden umfasst der Begriff "KI" nicht nur LLMs, sondern auch neuronale Netze, Erfüllbarkeitssolver, Beweishelfer und alle anderen komplexen Werkzeuge.

1 KI-Nutzungsdeklaration

In Publikationen muss jede wesentliche Nutzung von KI, die über deren Grundfunktionen wie automatische Vervollständigung, Rechtschreibprüfung oder AI-Zusammenfassung eines Suchmaschinen-Agenten hinausgeht, klar deklariert werden.

2 Diskussion und Minderung von KI-Risiken

In Publikationen sollten die generellen Risiken, die von den verwendeten KI-Werkzeugen ausgehen können, diskutiert werden, und es sollte erklärt werden, welche Maßnahmen ergriffen wurden, um diese Risiken zu mindern.

Im Folgenden werden Beispiele gegeben:

2.1. Fiktive Inhalte, "Halluzinationen"

KI kann Referenzen, Beweisprozesse oder Texte erfinden, was zu Tatsachenfehlern führt.

Es wird empfohlen, keine von KI generierten Texte im Hauptteil der Publikation zu verwenden; wenn KI-Ausgaben unbedingt verwendet werden müssen, sollten sie in einer anderen Schriftart oder mit einer deutlichen Markierung gekennzeichnet werden.

2.2. Fehlende Reproduzierbarkeit

Ergebnisse von proprietären KI oder solche mit hohen Rechenkosten sind schwer zu reproduzieren. Die Lösung besteht darin, Prompts, Arbeitsabläufe, zertifizierte Daten usw. zu veröffentlichen, damit andere die Ergebnisse kostengünstig überprüfen können.

2.3. Fehlende Interpretierbarkeit

KI-Ausgaben sind oft unverständlich, und ihre Erklärungen können unhaltbar sein. Es wird empfohlen, jeder KI-Ausgabe einen von Menschen geschriebenen, gut lesbaren Text zuzuordnen.

Beispielsweise kann ein Theorem sowohl einen von Menschen geschriebenen, leicht lesbaren informellen Beweis als auch einen von KI generierten, schwer lesbaren formalen Beweis enthalten.

2.4. Fehlende Überprüfbarkeit

KI kann leichte Fehler enthalten, und die Überprüfung ist zeitaufwendig.

Formalisierungsprüfungen und Konsistenzprüfungen helfen, dieses Problem zu mindern, und es sollte ein mehrstufiger Ansatz verfolgt werden.

Wichtig ist, den Überprüfungsbereich zu markieren und neben dem Theorem ein "Prüfzeichen" hinzuzufügen, und nicht überprüfte Teile sollten klar angegeben werden.

2.5. Ungenügende Formalisierung des Ziels

KI kann ein "verfehltes" Ziel exakt lösen, d. h. die formalisierte Proposition weicht vom ursprünglichen Absicht des Autors ab. Um dies zu vermeiden, sollten formalisierte Ziele aus unabhängigen Quellen bezogen oder der Formalisierungsprozess von Menschen gründlich überprüft werden.

2.6. Möglichkeit, Lücken auszunutzen, um das Ziel zu erreichen

In Verbindung mit dem vorherigen Problem kann KI Lücken in der formalisierten Formulierung ausnutzen, z. B. indem es beliebige Axiome hinzufügt, um eine Proposition zu "beweisen".

Die Gegenmaßnahme besteht darin, bekannte Lücken aufzulisten und Mechanismen zur Ausschluss zu diskutieren, um die Strenge des Prozesses sicher