Als OpenAI kürzlich seinen offiziellen Ansatz zur Altersschätzung bei ChatGPT veröffentlichte, ging es nicht um eine neue technische Spielerei, sondern um ein altes Problem digitaler Plattformen: den Schutz Minderjähriger. Statt Nutzerinnen und Nutzer direkt nach ihrem Alter zu fragen, setzt OpenAI auf ein System, das Wahrscheinlichkeiten berechnet und daraus Sicherheitsentscheidungen ableitet.
Konkret nutzt ChatGPT ein sogenanntes Age-Prediction-Modell. Dieses versucht nicht, das exakte Alter einer Person zu erraten. Es soll vielmehr erkennen, ob ein Account mit hoher Wahrscheinlichkeit zu einer Person unter 18 Jahren gehört. Auf dieser Basis werden Inhalte und Funktionen automatisch angepasst.
Die Altersschätzung stützt sich dabei auf mehrere Signale. Dazu zählen unter anderem, wie lange ein Konto bereits existiert, zu welchen Tageszeiten es typischerweise genutzt wird und welche Nutzungsmuster sich über längere Zeit zeigen. Auch freiwillige Altersangaben können einfließen. Entscheidend ist laut OpenAI jedoch nicht ein einzelnes Merkmal, sondern die Kombination mehrerer Hinweise.
Wird ein Konto als potenziell minderjährig eingestuft, greifen automatisch strengere Sicherheitsregeln. Bestimmte sensible Inhalte werden eingeschränkt oder gar nicht angezeigt. Ziel ist es, Kinder und Jugendliche besser zu schützen, ohne sie permanent mit Altersabfragen oder Ausweiskontrollen zu konfrontieren.
Gleichzeitig betont OpenAI, dass das System bewusst nicht perfekt sein soll. Es handle sich um eine Risikoabschätzung, nicht um eine Identitätsprüfung. Fehler seien möglich und einkalkuliert. Deshalb gibt es für erwachsene Nutzer die Möglichkeit, ihren Status zu korrigieren. Wer als volljährig gilt, kann seinen Zugang über einen externen Identitätsdienst verifizieren lassen und damit wieder den vollen Funktionsumfang freischalten.
Der Ansatz zeigt einen grundsätzlichen Richtungswechsel im Umgang mit Altersfragen im Netz. Statt exakter Daten rücken Wahrscheinlichkeiten in den Vordergrund. Statt Kontrolle über einzelne Personen geht es um systemische Schutzmechanismen. OpenAI sieht darin einen pragmatischen Mittelweg zwischen Jugendschutz, Datenschutz und Nutzerfreiheit.
Ob dieses Modell langfristig überzeugt, wird sich erst zeigen. Klar ist jedoch: Altersschätzung bei KI-Systemen ist weniger eine technische Frage als eine gesellschaftliche. Sie berührt Vertrauen, Verantwortung und die Frage, wie viel implizite Bewertung Nutzerinnen und Nutzer bereit sind zu akzeptieren – auch dann, wenn sie dem eigenen Schutz dienen soll.