ChatGPT startet Altersprognose: Künstliche Intelligenz lernt endlich, Menschen unterschiedlich zu behandeln.
OpenAI hat am 20. Januar 2026 offiziell die Funktion "Altersvorhersage" in der Consumer-Version von ChatGPT eingeführt. Anstatt sich auf die vom Benutzer selbst gemeldete Altersangabe zu verlassen, erkennt es automatisch Benutzer unter 18 Jahren anhand von mehrdimensionalen Verhaltenssignalen wie der Dauer des Kontobestehens, der Aktivitätszeit und dem Interaktionsmuster und aktiviert spezielle Sicherheitsvorkehrungen. Gleichzeitig werden Elternsteuerungs- und Drittanbieter-Verifizierungsmechanismen eingerichtet. Dies markiert einen neuen Abschnitt im Schutz von Minderjährigen auf AI-Plattformen, von der "freiwilligen Angabe" zur "Verhaltenserkennung".
Die technische Logik der Altersvorhersage von ChatGPT
Seit langem hat der Schutz von Minderjährigen auf AI-Plattformen sich hauptsächlich auf das passive Modell von "Benutzerangabe des Alters + Inhaltsklassifizierung" gestützt. Wenn Benutzer beim Registrieren die Option "über 18 Jahre alt" anklicken, können sie alle Funktionen freischalten. Dieser Ansatz lässt sich leicht umgehen und kann nicht auf Situationen reagieren, in denen Minderjährige erwachsene Konten missbrauchen.
Die von OpenAI neu eingeführte Funktion "Altersvorhersage" bricht diese traditionelle Logik. Ihr Kern ist ein mehrdimensionales Vorhersagemodell basierend auf Konto- und Verhaltenssignalen. Die spezifischen Analysedimensionen umfassen:
Kontodimension: Grundinformationen wie die Dauer der Registrierung, die Aktivität des Kontos und der Zahlungsstatus;
Verhaltensdimension: Tageszeit der Aktivität (z. B. ob häufige Nutzung in der Nacht), Interaktionshäufigkeit, Präferenz der Fragen, Länge und Stil des Dialogs usw.;
Zusatzdimension: Die beim Registrieren vom Benutzer angegebenen Altersinformationen werden nur als Hilfsreferenz herangezogen und nicht als alleiniges Kriterium für die Beurteilung.
Der Hauptvorteil dieses Modells liegt in der "dynamischen Erkennung". Anders als bei der einmaligen Altersangabe kann es das Benutzerverhalten kontinuierlich analysieren und die Altersbeurteilung laufend korrigieren. Selbst wenn erwachsene Benutzer langfristig wie Minderjährige nutzen (z. B. häufige Fragen zu kindlichen Themen, häufige Interaktion in der Nacht), können sie als "verdächtig Minderjährig" markiert und die Sicherheitsvorkehrungen ausgelöst werden. Umgekehrt ist es für Minderjährige, die sich an das Nutzungsmuster erwachsener Benutzer anpassen, auch schwer, die Erkennung vollständig zu umgehen.
Das "harter und weicher Ansatz" für den Schutz von Minderjährigen
Für Konten, die als Minderjährig eingestuft werden, aktiviert ChatGPT zwangsweise fünf Sicherheitsstufen, um hochriskante Inhalte präzise abzufangen. Dies umfasst insbesondere:
1. Direkt angezeigte gewalttätige und blutige Bilder;
2. Gefährliche Viral-Challenges, die Minderjährige zum Nachahmen verleiten könnten (z. B. Extreme Streichhölzer, gefährliche Experimente);
3. Rollenspiel (Role Play)-Inhalte, die sexuelle oder gewalttätige Elemente enthalten;
4. Beschreibungen und Anleitungen zu Selbstverletzung und Suizid;
5. Inhalte, die extreme Schönheitsvorstellungen, ungesunde Diäten oder Körperdiskriminierung propagieren.
Um zu vermeiden, dass Fehlklassifizierungen des Modells die Erfahrung erwachsener Benutzer beeinträchtigen, hat OpenAI den Drittanbieter-Identitätsverifizierungsdienst Persona eingeführt. Benutzer, die fälschlicherweise als Minderjährige klassifiziert wurden, können durch das Hochladen eines Selbstportraits eine schnelle Gesichtserkennung durchführen. Nach erfolgreicher Verifizierung können sie die vollständigen Funktionen des Kontos wiederherstellen, was das Gleichgewicht zwischen Sicherheit und Benutzererfahrung herstellt.
Darüber hinaus bietet das System Elternsteuerungsoptionen, die es Eltern ermöglichen, flexibler zu kontrollieren. Sie können "Stillezeiten" festlegen (Zeiten, in denen die Nutzung verboten ist, wie Schulzeiten oder Schlafzeiten), die Berechtigungen für die Kontomemory-Funktion kontrollieren (um zu vermeiden, dass Kinder sensible Inhalte wiederholen) und sogar benachrichtigt werden, wenn das System Anzeichen akuter psychischer Probleme bei Benutzern erkennt (z. B. häufige Fragen zu Selbstverletzung), und dann intervenieren und leiten.
Warum hat OpenAI die Altersvorhersage jetzt eingeführt?
Der Einstieg dieser Funktion ist nicht eine "aktive Innovation" von OpenAI, sondern das Ergebnis des Drucks der Regulierungsbehörden und der Branchentrends.
Einerseits wird OpenAI von der US-amerikanischen Federal Trade Commission (FTC) untersucht. Der Kern der Bedenken ist die "negative Auswirkung von AI-Chatbots auf Jugendliche", und es gibt auch mehrere damit verbundene Rechtsstreitigkeiten. Bereits haben Eltern beschwert, dass ChatGPT schädliche Inhalte nicht effektiv abgefangen hat, was dazu führte, dass Minderjährige auf gewalttätige und pornografische Informationen stießen und sogar psychische Probleme entwickelten. Die Einführung der Altersvorhersagefunktion ist eine Schlüsselmaßnahme von OpenAI, um der Regulierungsüberprüfung zu begegnen und das rechtliche Risiko zu senken.
Andererseits ist der Schutz von Minderjährigen zu einer "Pflichtaufgabe" in der globalen AI-Branche geworden. Mit der Verbreitung von AI-Tools nutzen immer mehr Jugendliche ChatGPT als wichtiges Instrument für Lernen und Unterhaltung. Doch ihre Geisteshaltung ist noch nicht ausgereift, und sie können leicht von schädlichen Informationen beeinflusst werden. Bisher haben Konkurrenten wie Google Bard und Anthropic Claude in unterschiedlichem Maße Schutzfunktionen für Minderjährige eingeführt, die sich aber hauptsächlich auf die Inhaltsklassifizierung und die freiwillige Angabe des Alters stützen. Das "Verhaltenserkennung + dynamische Sicherung" -Modell von OpenAI ist zweifellos eine fortschrittlichere Erkundung in der Branche.
Im Hinblick auf den Branchentrend entwickelt sich die Sicherheitsvorkehrung von AI-Plattformen von der "Inhaltsfilterung" zum doppelten Modell von "Benutzererkennung + Inhaltsklassifizierung". Es geht nicht nur darum, zu entscheiden, "ob Inhalte schädlich sind", sondern auch, "ob Benutzer für diese Inhalte geeignet sind". Dies ist auch die zentrale Richtung für die zukünftige Entwicklung der AI-Sicherheit.
Kann die Altersvorhersage wirklich Minderjährige schützen?
Obwohl das Funktionsdesign scheinbar perfekt ist, gibt es bei der "Altersvorhersage" immer noch viele Kontroversen und Herausforderungen, die sich hauptsächlich in drei Aspekten konzentrieren:
1. Können Verhaltenssignale das Alter vollständig repräsentieren?
Der Kern des Altersvorhersagemodells ist die "Beziehung zwischen Verhalten und Alter", aber diese Beziehung ist nicht absolut. Beispielsweise können einige erwachsene Benutzer aufgrund von Arbeits- oder Lernbedürfnissen ChatGPT häufig in der Nacht nutzen oder sich für kindliche Informationen interessieren, was dazu führt, dass sie fälschlicherweise als Minderjährige eingestuft werden. Andererseits können einige frühreife Minderjährige die Interaktionsmuster erwachsener Benutzer imitieren und so der Erkennung entgehen. Obwohl OpenAI sagt, dass es das Modell ständig verbessern wird, ist es kurzfristig noch schwer, 100 %ige Genauigkeit zu erreichen.
2. Verstößt die Verhaltensanalyse gegen die Privatsphäre der Benutzer?
Die Altersvorhersage erfordert die Sammlung und Analyse einer großen Menge an Verhaltensdaten von Benutzern, einschließlich Aktivitätszeiten, Interaktionsinhalten und Nutzungsmustern. Dies hat Bedenken der Benutzer hinsichtlich der Privatsphäre ausgelöst. Wie stellt OpenAI sicher, dass diese Daten nicht missbraucht werden? Wird es sie mit Dritten teilen? Obwohl OpenAI die Regeln für die Datennutzung nicht klar definiert hat, wird es das Problem lösen müssen, wie man das Gleichgewicht zwischen "Verhaltenserkennung" und "Privatsphärenschutz" herstellt, angesichts der strenger werdenden Datenschutzvorschriften weltweit.
3. Kann die Sicherung alle Risikoszenarien abdecken?
Die fünf von ChatGPT abgefangenen Hochrisiko-Inhaltskategorien konzentrieren sich hauptsächlich auf "offensichtlich schädliche Informationen". Doch für "versteckte Risiken" (wie die Induktion von Minderjährigen zu Online-Betrug, die Verbreitung extremen Denkens oder die Offenlegung persönlicher Informationen) hat das Altersvorhersagemodell noch keine Abdeckung. Darüber hinaus hängt die Elternsteuerungsfunktion von der aktiven Beteiligung der Eltern ab. Wenn Eltern nicht genug Bewusstsein für die Kontrolle haben oder die technische Fähigkeit fehlt, wird die tatsächliche Wirkung dieser Funktion stark beeinträchtigt.
Die Einführung der Funktion "Altersvorhersage" in ChatGPT ist ein wichtiger Durchbruch im Schutz von Minderjährigen in der AI-Branche. Sie markiert, dass AI-Plattformen endlich gelernt haben, "je nach Benutzer zu handeln", von der passiven Inhaltsfilterung zur aktiven Benutzererkennung und präzisen Sicherung.
Aber wir müssen auch klar erkennen, dass Technologie nicht alles kann. Die Altersvorhersage ist nur der "erste Schritt" im Schutz von Minderjährigen. In Zukunft kann nur durch die Zusammenarbeit von Plattformen, Eltern und Regulierungsbehörden, die kontinuierliche Verbesserung der Technologie, die Vervollständigung der Regeln und die Stärkung der Führung ein sicherer und gesunder AI-Nutzungskontext für Jugendliche geschaffen werden, damit die AI-Technologie tatsächlich das Wachstum von Minderjährigen fördert, statt Risiken zu bringen.
Für OpenAI ist die Einführung der Altersvorhersagefunktion ein Schlüssel-Schritt, um der Regulierung zu begegnen und sein Ansehen wiederherzustellen. Für die gesamte AI-Branche ist es ein Signal für eine "Sicherheitsupgrade". Wenn technologische Innovation und Sicherheitsgarantie parallel verlaufen, kann die AI wirklich reif und konform werden.
Dieser Artikel stammt aus dem WeChat-Account "Shanzi". Autor: Rayking629. Veröffentlicht von 36Kr mit Genehmigung.