Ein neues KI-Modell soll Minderjährige anhand ihres Verhaltens erkennen und automatisch vor heiklen Inhalten abschirmen.
Wer ChatGPT nutzt, wird künftig von einer zweiten KI beobachtet. OpenAI rollt ein System aus, das Verhaltensdaten auswertet, um das Alter der Nutzer einzuschätzen. Wann jemand tippt, wie lange das Konto existiert, welche Muster sich zeigen: All das fließt in die Berechnung ein. In der EU startet die Funktion in wenigen Wochen.
Landet jemand in der Kategorie unter 18, greift ChatGPT automatisch ein. Inhalte zu Gewalt, Selbstverletzung, sexualisierten Szenarien oder gefährlichen Trends werden eingeschränkt. Wer sich falsch eingestuft fühlt, kann über den Anbieter Persona per Foto oder Ausweis widersprechen.
OpenAI reagiert auf anhaltende Kritik. Besonders ein Fall aus Kalifornien sorgte für Entsetzen: Ein 16-Jähriger nahm sich das Leben, nachdem er mit dem Chatbot ausführlich über Suizid gesprochen hatte. Ende 2025 veröffentlichte das Unternehmen neue Sicherheitsrichtlinien für junge Nutzer.
Die Altersschätzung erfüllt noch einen zweiten Zweck. OpenAI bereitet einen Modus für Erwachsene vor, der explizitere Gespräche erlauben soll. Ohne zuverlässige Trennung der Zielgruppen wäre das nicht umsetzbar.




