OpenAI entfernt sich vom “Ehrensystem” zur Altersverifikation und setzt ein neues KI-gestütztes Vorhersagemodell ein, um Minderjährige mit ChatGPT zu identifizieren, sagte das Unternehmen am Dienstag. Das Update für ChatGPT löst automatisch strengere Sicherheitsprotokolle für Konten aus, die verdächtigt werden, Nutzern unter 18 Jahren zu gehören, unabhängig vom bei der Anmeldung angegebenen Alter. Anstatt sich auf das Geburtsdatum zu verlassen, das ein Nutzer bei der Anmeldung angibt, analysiert OpenAI’s neues System “Verhaltenssignale”, um das Alter zu schätzen.
Laut dem Unternehmen überwacht der Algorithmus, wie lange ein Konto besteht, zu welcher Tageszeit es aktiv ist und welche spezifischen Nutzungsmuster sich im Laufe der Zeit zeigen. „Der Einsatz von Altersvorhersagen hilft uns zu lernen, welche Signale die Genauigkeit verbessern, und wir nutzen diese Erkenntnisse, um das Modell kontinuierlich zu verfeinern“, sagte OpenAI in einer Erklärung. Der Wechsel zu Verhaltensmustern erfolgt, da KI-Entwickler zunehmend auf Altersverifikation setzen, um den Zugang für Teenager zu steuern, doch Experten warnen, dass die Technologie weiterhin ungenau ist. Ein Bericht des National Institute of Standards and Technology vom Mai 2024 stellte fest, dass die Genauigkeit je nach Bildqualität, Demografie und Nähe zum gesetzlichen Schwellenwert variiert.
Wenn das Modell das Alter eines Nutzers nicht bestimmen kann, wendet OpenAI die restriktiveren Einstellungen an. Das Unternehmen sagte, dass Erwachsene, die fälschlicherweise in die Altersgruppe unter 18 eingestuft wurden, den vollen Zugriff durch einen “Selfie-basierten” Altersverifizierungsprozess mit dem Drittanbieter-Identitätsprüfungsdienst Persona wiederherstellen können. Datenschutz- und digitale Rechtebefürworter haben Bedenken geäußert, wie zuverlässig KI-Systeme das Alter allein anhand des Verhaltens ableiten können. Richtig liegen „Diese Unternehmen werden wegen einer Vielzahl von Schäden, die Teenagern zugefügt wurden, immer wieder verklagt, daher haben sie definitiv einen Anreiz, dieses Risiko zu minimieren. Das ist Teil ihres Versuchs, dieses Risiko so weit wie möglich zu verringern“, sagte J.B. Branch, Vertreter für Verantwortlichkeit großer Tech-Unternehmen bei Public Citizen, gegenüber Decrypt. „Ich denke, der Ursprung vieler dieser Maßnahmen liegt darin, dass sie sagen: ‚Wir brauchen eine Möglichkeit, nachzuweisen, dass wir Protokolle haben, die Leute aussortieren.‘“ Aliya Bhatia, leitende Politikanalystin am Center for Democracy and Technology, sagte Decrypt, dass OpenAI’s Ansatz „schwierige Fragen aufwirft, bezüglich der Genauigkeit der Vorhersagen des Tools und wie OpenAI mit unvermeidlichen Fehlklassifikationen umgehen wird.“ „Die Vorhersage des Alters eines Nutzers anhand dieser Signale ist aus vielen Gründen äußerst schwierig“, sagte Bhatia. „Zum Beispiel sind viele Teenager frühe Anwender neuer Technologien, sodass die frühesten Konten bei OpenAI’s Verbraucherdiensten möglicherweise überproportional Jugendliche repräsentieren.“ Bhatia verwies auf eine Umfrage des CDT, die im Schuljahr 2024–2025 durchgeführt wurde und zeigte, dass 85 % der Lehrer und 86 % der Schüler angaben, KI-Tools zu nutzen, wobei die Hälfte der Schüler KI für schulbezogene Zwecke verwendet. „Es ist nicht einfach, zwischen einem Lehrer, der ChatGPT zum Helfen beim Mathematikunterricht nutzt, und einem Schüler, der ChatGPT zum Lernen verwendet, zu unterscheiden“, sagte sie. „Nur weil jemand ChatGPT benutzt, um Tipps für Hausaufgaben in Mathe zu bekommen, macht ihn das nicht automatisch unter 18.“ Laut OpenAI basiert die neue Richtlinie auf wissenschaftlicher Forschung zur Entwicklung von Jugendlichen. Das Update erweitert auch die elterlichen Kontrollmöglichkeiten, sodass Eltern Ruhezeiten festlegen, Funktionen wie Speicher- und Modelltraining verwalten und Warnungen erhalten können, wenn das System Anzeichen von „akuter Belastung“ erkennt.
OpenAI gab in dem Beitrag nicht bekannt, wie viele Nutzer von der Änderung betroffen sein werden oder Details zu Datenspeicherung, Bias-Tests oder der Wirksamkeit der Schutzmaßnahmen des Systems. Die Einführung folgt einer Welle der Kritik an den Interaktionen von KI-Systemen mit Minderjährigen, die 2024 und 2025 zugenommen hat. Im September erließ die Federal Trade Commission verbindliche Anordnungen an große Tech-Unternehmen, darunter OpenAI, Alphabet, Meta und xAI, die sie verpflichten, offenzulegen, wie ihre Chatbots den Kinderschutz, altersabhängige Einschränkungen und schädliche Interaktionen handhaben. Im selben Monat veröffentlichte gemeinnützige Gruppen wie ParentsTogether Action und Heat Initiative Berichte über Hunderte von Fällen, in denen KI-Begleitbots Grooming-Verhalten, sexualisierte Rollenspiele und andere unangemessene Interaktionen mit Nutzern, die sich als Kinder ausgaben, zeigten. Diese Erkenntnisse sowie Klagen und hochkarätige Vorfälle mit Teenager-Nutzern auf Plattformen wie Character.AI und Grok haben KI-Unternehmen dazu gedrängt, formellere altersabhängige Beschränkungen einzuführen. Da das System jedoch allen Nutzern ein geschätztes Alter zuweist, nicht nur Minderjährigen, warnte Bhatia, dass Fehler unvermeidlich sind. „Einige davon werden falsch sein“, sagte sie. „Nutzer müssen mehr darüber wissen, was in solchen Fällen passieren wird, und sollten in der Lage sein, ihr zugewiesenes Alter leicht zu überprüfen und zu ändern, wenn es falsch ist.“ Das Altersvorhersagesystem ist jetzt auf ChatGPT-Privatplänen live geschaltet, mit einer Einführung in der Europäischen Union in den kommenden Wochen.