10.000 Eisteins geboren? Harvard-Professor äußerte eine skurrile These: Die menschliche Intelligenz hat ihre Grenzen erreicht, und KI wird innerhalb von fünf Jahren zur Göttin.
Nachdem die „Autoresearch“ des KI - Gurus Karpathy wie wild gefeuert hat, können sich auch die Physiker nicht länger fassen!
Bei der globalen Physikkonferenz war ein Symposium über die Frage, „ob KI Physiker ersetzen wird“, voll besetzt.
Während der Konferenz warf der Harvard - Theoretiker Matthew Schwartz eine Bombe ein –
Die Intelligenz von Large Language Models (LLMs) wächst exponentiell mit einer Rate von 10 - facher Zunahme pro Jahr und wird in fünf Jahren die menschliche Intelligenz übertreffen.
Wir Menschen werden hingegen nicht schlauer.
Nach seiner Meinung ist der Mensch nicht das Ende der Intelligenz.
Aufgrund der physikalischen Grenzen des biologischen Gehirns können wir möglicherweise niemals gewisse wissenschaftliche Gipfel erklimmen.
In Anbetracht dessen macht Schwartz den kühnen Versprechen: In einem Jahrhundert wird die KI - Enhancement 10.000 Einsteins hervorbringen und das Forschungs - Paradigma vollständig verändern!
Fast zur gleichen Zeit berichteten ausländische Medien, dass das „Nordstern“ - Ziel von OpenAI darin besteht, bis 2026 einen „vollautomatischen KI - Forscher“ zu schaffen.
Dies bedeutet, dass KI in Zukunft autonom Forschungsfragen stellen, Experimente planen, Training durchführen, Ergebnisse analysieren und optimieren wird.
Zu diesem Zeitpunkt wird KI wirklich von einem „Hilfsmittel“ zu einem „autonomen Forschungs - Subjekt“ aufgewertet!
10.000 Einsteins! Der Harvard - Guru gegen DeepMind
In den letzten Tagen hat die globale Physikkonferenz der American Physical Society (APS) in Denver begonnen.
Ein Symposium mit dem Titel „Die KI - Revolution meistern: Stellen Sie sicher, dass Ihre Forschungskarriere nicht von der Zeit überholt wird“ wurde zum „Pilgerort“ für junge Physiker.
Während der dreistündigen intellektuellen Auseinandersetzung spielte der Harvard - Theoretiker Matthew Schwartz die Rolle eines radikalen „Propheten“.
Er behauptet, dass die Large Language Models in fünf Jahren die menschliche Intelligenz übertreffen werden.
Schwartz setzt die Anzahl der Modellparameter direkt mit der Intelligenzskala gleich. Er sagte offen an die Zuhörer:
Die Größe der LLMs wächst exponentiell mit einer Rate von 10 - facher Zunahme pro Jahr, und wir …
… werden nicht schlauer.
Er machte eine bewusste Pause und setzte in den Lachen des Publikums die grausame zweite Hälfte des Satzes fort.
Nach Schwartz' Meinung ist der Mensch nicht das Ende der Intelligenz, sondern nur ein temporärer Koordinatenpunkt in der Evolutionsgeschichte.
Im Gegensatz zum Menschen können Maschinen hochdimensionale Räume veranschaulichen, eine riesige Menge an Informationen im Speicher speichern und komplexe Gleichungen verarbeiten, die weit über das Verständnis des Durchschnittsmenschen hinausgehen.
Er stellte weiter fest, dass das menschliche Gehirn möglicherweise die ultimaten Fragen wie die „Theorie alles“ überhaupt nicht verstehen kann, so wie eine Katze niemals Schach lernen kann.
Wenn die Begabung von Physikern einer Normalverteilung (Glockenkurve) folgt, glaubt Schwartz, dass wir KI nutzen können, um diese Kurve auf der Begabungsachse höher zu schieben:
Wenn wir KI nutzen, um den Menschen zu stärken, können wir in einem Jahrhundert 10.000 Einsteins hervorbringen, anstatt nur einen.
Igor Babuschkin, Mitbegründer von xAI, ist ebenfalls der Meinung, dass es nur eine Frage der Zeit ist, bis LLMs in der Konstruktion neuer Theorien die menschlichen Physiker übertreffen.
Der nächste große Durchbruch in der theoretischen Physik wird höchstwahrscheinlich von einer Prompt stammen, die jemand an das Modell sendet.
Das „Trumpfblatt“ der Physiker: Gute Fragen stellen
Allerdings gab der Google DeepMind - Engineer Matthew Ginsberg sofort eine nüchterne „Entgegnung“.
Obwohl er sich auf der Spitze der KI - Welle befindet, ist Ginsberg dennoch der Meinung, dass das Kerngebiet der Physiker darin besteht, „Fragen zu stellen“.
Im Vortrag betonte Ginsberg die Wichtigkeit der menschlichen Kreativität.
Er stellte fest, dass die Essenz von LLMs darin besteht, durchschnittliche Antworten auf der Grundlage von „Konsens“ zu generieren, während die Mission großer Physiker darin besteht, „nicht - konsensuelle“ Durchbrüche zu erzielen.
In seinen eigenen Worten –
Das Stellen von Fragen ist das Wesen eines guten Physikers. Zumindest bis jetzt ist dies 100 % unser Gebiet.
Das Stellen guter Fragen ist unser Wert. Ich bin immer noch überzeugt, dass der Mensch noch seine Bedeutung hat.
Am Ende dieser Auseinandersetzung erreichten vier Experten einen etwas ernsten Konsens: Derzeit bleibt den Menschen nur Geschmack, Kreativität und die Fähigkeit, Fragen zu stellen.
Was jedoch beunruhigend ist, ist, dass sowohl Schwartz als auch Ginsberg vorhersagen, dass KI möglicherweise in zehn Jahren lernen wird, „Fragen zu stellen“.
Das letzte Gebiet des Menschen auf der wissenschaftlichen Karte könnte ebenfalls in andere Hände fallen.
OpenAIs „Nordstern“: 2028 wird KI das Labor übernehmen
Zufällig hat OpenAI seinen strategischen Schwerpunkt auf ein noch größeres Ziel, das „Nordstern“ - Projekt, gerichtet –
Das Aufbauen eines vollautomatischen „KI - Wissenschaftler“ - Systems, das in der Lage ist, komplexe wissenschaftliche Probleme unabhängig zu lösen.
Nach dem von Chefwissenschaftler Jakub Pachocki offen gelegten Roadmap wird die Evolution von OpenAI in Phasen erfolgen:
Kurzfristiges Ziel (bis September 2026): Zunächst wird ein „autonomer KI - Forschungs - Praktikant“ aufgebaut, der darauf abzielt, Forschungsaufgaben in bestimmten Bereichen in einem geschlossenen Kreis zu bearbeiten.
Mittelfristige Entwicklung (2028): In der Rechenzentrale wird ein „Multi - Agent - Forschungs - Labor“ eingesetzt. Mehrere Agenten werden durch Arbeitsteilung und Zusammenarbeit den gesamten Forschungszyklus von der theoretischen Konzeption bis zur Modellvalidierung abschließen.
Ultimatives Ziel: Die Schaffung einer universellen wissenschaftlichen Intelligenz, die in der Lage ist, große Projekte unabhängig zu übernehmen und die Identität eines „qualifizierten Forschers“ hat.
Man kann sehen, dass OpenAI eine Revolution im Bereich des „Forschungs - Paradigmas“ plant: Das Ziel ist es, bis 2028 einen „KI - Forscher“ mit Fähigkeiten in allen Disziplinen zu schaffen –
ein Multi - Agent - System, das in der Lage ist, komplexe Probleme in den Bereichen Mathematik, Physik, Biologie, Chemie und sogar Ökonomie und Politik unabhängig zu lösen.
Pachocki ist jedoch der Meinung, dass „der Mensch immer noch die Kontrolle über das Ganze behalten und die Ziele setzen muss. Wir werden eines Tages ankommen, an dem die Rechenzentrale ein komplettes Forschungs - Labor beherbergt“.
Diese Entwicklung beschränkt sich nicht nur auf die Forschung. Schließlich könnten diese Rechenzentralen die Arbeit ganzer Unternehmen wie OpenAI und Google übernehmen.
Aufgaben, die in der Vergangenheit ein großes menschliches Team erforderlich machten, können in Zukunft von wenigen Personen erledigt werden.
Pachocki warnt davor, dass diese Veränderung zu einer „unpräzedentierten Machtkonzentration“ führen wird.
Wird das Forschungs - Paradigma verändert? Gibt es noch genug Zeit für den Menschen?
Beim Übergang von einer „Rechenleistungswerkstatt“ zu einem „Forschungs - Hub“ nähert sich die Fähigkeit von KI, tiefe wissenschaftliche Probleme zu lösen, der menschlichen Grenze an und übertrifft sie sogar.
Das in OpenAI weit verbreitete Codex hat die Machbarkeit der Delegierung komplexer Aufgaben bestätigt.
Interessanterweise war Pachocki, der einen „Code - Reinheitsfetisch“ hat, noch vor einem Jahr ein treuer Anhänger von Vim und hat sich weigerte, irgendein Code - Vervollständigungs - Tool zu nutzen, sondern hat lieber Zeichen für Zeichen Code eingegeben.
Er sagte in einem Interview: „Ich habe einen starken Code - Reinheitsfetisch.“
Allerdings hat die Entwicklung der neuesten Modelle diesen Perfektionisten überzeugt.
Code - Experimente, die früher eine Woche dauerten, können jetzt von KI in einem Wochenende abgeschlossen werden. Er sagte: „Die Effizienz ist unschlagbar!“
Trotzdem bleibt er bei der Gestaltung des Kernaufbaus vorsichtig: „Es hat noch nicht das erforderliche Niveau erreicht. Ich werde es nicht die Kontrolle über das Ganze übernehmen lassen.“
Pachocki betonte auch, dass KI kein universelles „Wundermittel“ ist und ihre Effektivität von der Ü