Die neueste Podcast-Folge von OpenAI ist online. Unternehmensleitung gibt erstmals Einblick in die internen Auseinandersetzungen vor der Veröffentlichung von ChatGPT.
Am 1. Juli Ortszeit veröffentlichte OpenAI auf seinem offiziellen YouTube-Kanal die zweite Podcast-Folge. Sie wird von Andrew Mayne, einem ehemaligen Ingenieur, moderiert, und Mark Chen, Chief Research Officer der Firma, sowie Nick Turley, Leiter von ChatGPT, nehmen als Gäste teil.
In dieser Folge wird nicht nur die Entstehung des Namens „ChatGPT“, die internen Kontroversen vor der Veröffentlichung und der Prozess des viralen Erfolgs zurückbetrachtet, sondern es werden auch zentrale Themen wie die Entwicklung der Veröffentlichungsstrategie von OpenAI, das Gleichgewicht zwischen Nützlichkeit und Neutralität des Modells sowie die zukünftige Entwicklung der Gedächtnisfunktion und der personalisierten Dienstleistungen eingehend diskutiert. Die Kernaussagen sind:
- „Chat with GPT - 3.5“ wurde kurz vor der Veröffentlichung auf die Nacht von einem Tag auf den anderen in „ChatGPT“ vereinfacht. Über die Bedeutung von „GPT“ besteht im Team bis heute Uneinigkeit.
- In der Vergangenheit arbeitete OpenAI wie bei der Herstellung von Hardware an einem fehlerfreien Produkt. Nach der Veröffentlichung von ChatGPT hat sich die Logik in „Verbesserung während der Nutzung“ gewandelt. Reinforcement Learning mit menschlichem Feedback (RLHF) ist nun der Kernprozess: Es verbessert nicht nur die Fähigkeiten, sondern repariert auch in Echtzeit Sicherheitslücken und Vorurteile.
- Im frühen Stadium führte ein Ungleichgewicht bei RLHF dazu, dass das Modell die Benutzer übermäßig anprach. OpenAI hat daraufhin transparente Regeln und anpassbare Rollen eingeführt, um „Standardneutralität + Benutzeranpassung“ zu erreichen.
- In Bezug auf die Inhaltsicherheit hat OpenAI angekündigt, dass es hochriskante Themen wie Biowaffen streng kontrolliert, während es in niedrigrisikoscenarien wie Make - up - Diagnosen und Outdoor - Identifikationen eher flexibel ist. Das Ziel ist es, ein dynamisches Gleichgewicht zwischen Verantwortung und Innovation zu finden.
- Das aktuelle Modell kann bereits hunderte Pull Requests asynchron einreichen, automatisierte Tests und Protokollanalysen durchführen, wodurch Ingenieure von der „Codegenerierung aus Gesprächen“ zu der Möglichkeit übergehen können, „höhere Anweisungen zu geben und ganze Aufgabenpakete automatisch ausführen zu lassen“.
- In Zukunft müssen intelligente Assistenten in der Lage sein, Aufgaben von fünf Minuten bis fünf Tagen wie menschliche Kollegen zu bewältigen. Die Kreuzvalidierung durch mehrere Agenten kann die Fehlerrate bei langkettigen Schlüssen reduzieren.
- AI - Modelle werden zunehmend zu einem neuen „Werkzeugkasten“ für Forscher. Dieser Trend deutet darauf hin, dass die KI von der „unterstützenden Suche“ zur „aktiven Zusammenarbeit“ übergehen wird und eine Welle interdisziplinärer Wissensschöpfung auslösen wird.
- Wenn die Vorschläge der KI die Kenntnisse des Durchschnittsbürgers übertreffen, wird es schwieriger, ihre Fehler zu entdecken. Dies bedeutet, dass Entwickler, Benutzer und Regulierungsbehörden Anforderungen an die „Erklärbarkeit“ der KI und eine Warnung vor der „Verletzbarkeit“ des Systems aufbauen müssen.
Im Folgenden finden Sie die Zusammenfassung dieser Podcast - Folge:
01. Die Entstehung des Namens ChatGPT
In der Geschichte der künstlichen Intelligenz war die Entstehung von ChatGPT voller Dramatik. Turley erinnert sich, dass es ursprünglich „Chat with GPT - 3.5“ hieß. Kurz vor der Veröffentlichung entschied das Team in der Nacht spontan, den Namen zu vereinfachen. Diese scheinbar zufällige Anpassung machte es zu einer äußerst erkennbaren Marke in der Geschichte der Technologie. Vor der Veröffentlichung stritt das Team noch über die Bedeutung von „GPT“: Einige sagten, es sei die Abkürzung für „generative pretrained“, andere hielten es für „generative pre - trained transformer“. Diese Kontroverse ist bis heute nicht vollständig beseitigt.
Der Ruhm des Produkts nach der Veröffentlichung übertraf alle Erwartungen. Turley sagte, dass er an dem Veröffentlichungstag, als er die Daten sah, dachte, es sei ein statistischer Fehler, und erst am vierten Tag erkannte er die revolutionäre Wirkung. Mark Chen erwähnte auch, dass seine Eltern früher dachten, seine Forschung an der „allgemeinen künstlichen Intelligenz“ sei unrealistisch. Nach dem Ruhm von ChatGPT drängen sie ihn nicht mehr, zu Google zu wechseln. Dieser „scheinbar belanglose Name“ wurde schließlich zusammen mit Google, Yahoo und anderen in die Geschichte eingehen. Die Entscheidung, den Namen in der Nacht zu ändern, hat heimlich die Entwicklung der künstlichen Intelligenz verändert.
02. Der Ruhm von ChatGPT
Als „South Park“ ChatGPT in die Handlung aufnahm, spürte Turley das Zusammentreffen von Technologie und Kultur: „Nach vielen Jahren habe ich diese Serie wieder gesehen und war tief berührt, als ich die Technologie, an der ich mitgewirkt habe, in der Popkultur sah.“ Hinter dem Ruhm lagen erhebliche technische Herausforderungen. Turley erinnert sich, dass jemand auf der Weihnachtsfeier jener Zeit vorhersagte, dass die Popularität nachlassen würde, aber in Wirklichkeit stieg sie stetig an.
Die damalige Systemarchitektur war nicht für ein fertiges Produkt konzipiert. Das Team stieß auf Probleme wie erschöpften GPU - Ressourcen und unzureichenden Datenbankverbindungen. „Die Benutzer sollten sich erinnern, dass ChatGPT in der Anfangsphase oft ausfiel.“ Um die Stimmung der Benutzer zu beruhigen, generierten sie sogar mit GPT - 3 kleine Gedichte zum Thema Ausfall und erstellten eine „Failed Whale“ - Seite. „Dieses vorläufige Verfahren hat uns über die Winterferien hinweg geholfen.“
Mark Chen sah in der stetig wachsenden Anzahl von Benutzern einen tieferen Wert: „Diese große Nachfrage zeigt, dass ChatGPT sehr universell ist. Die Menschen stellen allmählich fest, dass es in verschiedenen Szenarien eingesetzt werden kann.“ Schließlich machte das Technikteam aus der Forschungs - Vorschauversion ein stabiles Produkt. Turley sagte mit Emotion: „Als ich gemerkt habe, wie sehr sich die Menschen darauf verlassen, fand ich alle Nachtschichten wert.“
03. Die internen Kontroversen vor der Veröffentlichung
Vor der Veröffentlichung von ChatGPT stritt das OpenAI - Team heftig. Mark Chen erinnert sich: „Damals testete Ilya Sutskever (der ehemalige Mitbegründer und Chefwissenschaftler von OpenAI) das Modell mit zehn schwierigen Fragen, und nur etwa fünf Antworten befriedigten ihn. Am Abend vor der Veröffentlichung zögerte ich noch, ob wir es veröffentlichen sollten.“ Diese Zögerlichkeit lag daran, dass Entwickler, die lange mit KI in Kontakt sind, leicht zu kognitiven Verzerrungen neigen: „Wenn man lange in der Firma arbeitet, gewöhnt man sich schnell an die Fähigkeiten des Modells und hat Schwierigkeiten, aus der Perspektive des normalen Benutzers seine Magie zu entdecken.“
Das Team entschied sich schließlich für die Strategie des „minimalen Produkts“: „Wir erweitern nicht den Umfang und holen so schnell wie möglich Feedback und Daten von den Benutzern“, sagte Turley. „Das Feedback, das wir nach der Veröffentlichung erhalten haben, war viel wertvoller als das geschlossene Training.“ Die Reaktion der Benutzer hat die Entwicklung des Produkts grundlegend verändert.
04. Die Entwicklung der Veröffentlichungsstrategie von OpenAI
Die Veröffentlichungsstrategie von OpenAI wandelt sich von der „Streben nach Perfektion“ zur „schnellen Iteration“. Mark Chen sagte: „Lassen Sie das Modell so früh wie möglich mit echten Benutzern in Kontakt kommen und ändern Sie es, wo es Probleme gibt. Das ist kein großes Problem. Benutzerfeedback ist die effektivste Methode, um die Leistung zu verbessern. Geschlossene Tests können dies überhaupt nicht ersetzen.“
Er erinnerte sich, dass das Team in der frühen Phase immer versucht hatte, die Präferenzen der Benutzer im Inneren zu erraten. „Das Ergebnis war weit weniger wertvoll als das echte Feedback nach der Veröffentlichung. Heute bestimmt das Feedback nicht nur die Richtung des Produkts, sondern auch die Verbesserung des Sicherheitsmechanismus.“
Turley fügte hinzu, dass die Veröffentlichung des Modells ursprünglich wie die Herstellung von Hardware war. Es musste perfekt sein, und es war schwierig, es nach der ersten Veröffentlichung zu aktualisieren. „Es war langwierig, teuer und unflexibel.“ Die Veröffentlichung von ChatGPT markierte einen Wandel hin zu einer softwareartigen Veröffentlichung: Das Produkt kann kontinuierlich aktualisiert werden, der Rhythmus ist flexibler, und selbst wenn es Probleme mit den Funktionen gibt, kann es jederzeit rückgängig gemacht werden. Dies reduziert das Risiko und passt besser an die Bedürfnisse der Benutzer an.
Er betonte, dass dieses Modell der „Verbesserung während der Nutzung“ im Wesentlichen ein „öffentliches Lernen“ ist. Anstatt zu warten, bis das Modell vollständig reif ist, sollten wir es zunächst veröffentlichen und dann mit Hilfe des Benutzerfeedbacks ständig verbessern. Bei diesem Wandel ist Reinforcement Learning mit menschlichem Feedback (RLHF) zu einem Schlüsselwerkzeug geworden. Es hilft dem Modell, die Benutzer nicht übermäßig anzupassen und beschleunigt gleichzeitig die Leistungssteigerung. Mark Chen fasste zusammen: „‘Nützlich’ ist ein sehr breites Konzept. Niemand kann vorhersagen, wann das Modell plötzlich für alle nützlich sein wird.“ Dies unterstreicht die Unersetzbarkeit der Validierung in der realen Welt.
05. Das Problem des übermäßigen Anprachtens und die Neutralität des Modells
Als OpenAI RLHF implementierte, hatte es das Problem, dass das Modell zu „anprachtend“ war. Mark Chen erklärte: „Wir trainierten das Modell, Antworten zu generieren, die die meisten Benutzer loben würden. Wenn das Gleichgewicht nicht richtig ist, sagt es Dinge wie ‘Ihr IQ beträgt 190’ aus.“ Er erinnerte sich, dass das Team innerhalb von 48 Stunden auf das Problem reagierte, nachdem es von tiefen Benutzern entdeckt wurde.
Bezüglich der Neutralität der Modellwerte sagte Mark Chen: „Das Standardverhalten bleibt neutral, und gleichzeitig können Benutzer die Rolle anpassen – wenn sie mit einer konservativeren oder liberalereren Version sprechen möchten, müssen wir diese Anforderung erfüllen.“ Turley fügte das Transparenzprinzip hinzu: „Wir veröffentlichen die Regeln, denen die KI folgen muss, und verwenden keine verborgenen Systemhinweise. Wenn Benutzer feststellen, dass das Modell falsch agiert, können sie klar erkennen, ob es sich um einen Fehler oder um etwas handelt, das die Regeln zulassen.“
Beim Umgang mit sensiblen Themen hat das Team viel Zeit und Mühe in die Festlegung von Regeln investiert. Mark Chen gab als Beispiel an: „Wenn die Meinung des Benutzers falsch ist, leiten wir ihn nicht direkt ab, sondern helfen ihm, die Wahrheit zu finden.“ Turley räumte ein, dass die Lösung sehr komplex sei: „Selbst vernünftige Menschen können unterschiedliche Ansichten haben, daher müssen wir eine öffentliche Diskussion führen und den Benutzern Raum für die Anpassung geben.“
Mit der ständigen Entwicklung der Beziehung zwischen Benutzern und Modell beobachtete Turley ein neues Phänomen: „Immer mehr Menschen aus der Generation Z betrachten ChatGPT als einen Denkpartner für die Bewältigung von sozialen Beziehungen oder die Berufsplanung.“ Aber er warnte auch vor den potenziellen Risiken: „Jede verbreitete Technologie ist eine ‘Doppelschneidige Klinge’. Wir sehen, dass es Menschen hilft, E - Mails schneller zu schreiben und Excel - Daten zu analysieren, aber wir müssen auch die mögliche Missbrauchsmöglichkeit verhindern.“ Dieses dynamische Gleichgewicht wird die Governance - Kompetenz von OpenAI kontinuierlich auf die Probe stellen – wie das Team in seinem Kernkonzept zusammengefasst hat: „Eine offene und transparente Zusammenarbeit mit den Benutzern ist der richtige Weg, um die ethischen Herausforderungen der Technologie zu bewältigen.“
06. Die Zukunft der Gedächtnisfunktion und der Personalisierung
Das OpenAI - Team hat tiefgehende Überlegungen zur zukünftigen Entwicklung der Gedächtnisfunktion und der personalisierten Dienstleistungen angestellt. Mark Chen sagte: „Das Gedächtnis ist eine der beliebtesten Funktionen, die wir von den Benutzern erhalten haben. Es ist wie ein persönlicher Assistent, der mit der Zeit eine Beziehung aufbauen kann. Je besser er Sie kennt, desto tiefer wird die Zusammenarbeit.“ Er beobachtete, dass die Benutzer bereit seien, für diese personalisierte Dienstleistung zu zahlen. Er glaubt, dass die Funktion des tiefen Gedächtnisses die KI zu einer Erweiterung des Benutzerlebens machen wird.
Technisch gesehen besteht die Gedächtnisfunktion aus einem zweistufigen Mechanismus : ‘Referenz auf gespeichertes Gedächtnis’ wird verwendet, um strukturierte Daten wie Namen und Ernährungspräferenzen, die von den Benutzern aktiv bereitgestellt werden, zu speichern. ‘Referenz auf Chatgedächtnis’ extrahiert Schlüsselinformationen aus den historischen Gesprächen, um die Kohärenz über mehrere Gespräche hinweg zu gewährleisten.“ Mayne stellte nach der Erfahrung fest, dass die KI seine Persönlichkeitseigenschaften wie „große Informationsmenge, strenge Logik und Abneigung gegen vage Zusammenfassungen“ präzise analysieren konnte. Dies bestätigt die Verbesserung der personalisierten Dienstleistung durch die Gedächtnisfunktion. Aber gleichzeitig befürchten die Benutzer auch die Privatsphäre. Wie Mayne sagte: „Wenn es alles über mich weiß, einschließlich meiner Wutausbrüche und Streitigkeiten mit anderen, fühle ich mich unwohl.“
Turley betonte, dass es wichtig sei, ein Gleichgewicht zu finden: „Wir haben die temporäre Chatfunktion auf dem Hauptbildschirm platziert, weil der Datenschutz in der Kommunikation immer wichtiger wird.“ Er wies darauf hin, dass das zentrale Problem in der Zukunft darin bestehe, dass, wenn ChatGPT das „wertvollste digitale Konto“ der Benutzer werden soll, es gleichzeitig eine kontrollierbare Transparenz gewährleisten muss. Um die Bedenken der Benutzer hinsichtlich der Privatsphäre zu beseitigen, hat das Technikteam einen dreistufigen Mechanismus eingerichtet: Benutzer können die Gedächtnisfunktion jederzeit deaktivieren, bestimmte Aufzeichnungen löschen oder den „Anonymen Modus“ aktivieren, um die Datenspeicherung vollständig zu deaktivieren.
Turley prophezeit: „In ein oder zwei Jahren wird die KI das Träger sein, der Sie am besten versteht.“ Diese Evolution wird sich nicht nur in alltäglichen Szenarien wie der Empfehlung von Restaurants nach Ernährungspräferenzen zeigen, sondern auch die Natur der Mensch - Maschine - Interaktion verändern. Aber es gibt noch erhebliche technische Herausforderungen. Das Problem des ‘Gedächtnisüberlastung’ muss bei der Überprüfung des Gedächtnisses über mehrere Gespräche hinweg gelöst werden. Derzeit wird das Langzeitgedächtnis in verschiedenen Ebenen gespeichert: Höchstfrequente Informationen werden in der Ebene der schnellen Suche gespeichert, und niederfrequente Daten werden in der sekundären Speicherebene archiviert. Turley fasste zusammen: „Die Gedächtnisfunktion ist das Fundament der Vision eines ‘Superassistenten’, aber es muss den Benutzern überlassen bleiben.“
07. Der Durchbruch bei der Bildgenerierung
Der erfolgreiche Durchbruch bei der Bildgenerierungstechnologie hat das OpenAI - Team überrascht und begeistert. Mark Chen gestand: „Wir hatten es wirklich nicht erwartet. Dies ist der Verdienst vieler Forscher.“ Er erwähnte insbesondere, dass der eigentliche Fortschritt darin besteht, dass das Modell ein Bild