OpenAI hat angekündigt, dass Eltern innerhalb von 30 Tagen Kontrollmöglichkeiten für jugendliche ChatGPT-Nutzer erhalten, einschließlich Kontoverknüpfung, Inhaltsfilterung und Benachrichtigungen bei Anzeichen von emotionalem Stress.
Im Detail:
Eltern können ihre Konten mit denen ihrer Jugendlichen verknüpfen, um aktive Funktionen zu verwalten und Grenzen für die Antworten von ChatGPT festzulegen. Das System wird Wächter benachrichtigen, wenn Gespräche auf Stress hindeuten, wobei die Schwellenwerte für die Erkennung durch medizinische Fachkräfte gestaltet wurden. OpenAI plant zudem, emotional aufgeladene Gespräche an Reasoning-Modelle weiterzuleiten, um komplexe Situationen besser zu analysieren und zu behandeln. Die Einführung folgt auf die erste Klage wegen fahrlässigen Todes, die von Eltern eingereicht wurde, deren Sohn monatelang mit ChatGPT über seine Pläne sprach, bevor er sein Leben nahm.
Warum es wichtig ist:
In letzter Zeit gab es eine Flut besorgniserregender Schlagzeilen über die Rolle von ChatGPT in tragischen Fällen. Die Einführung von Kindersicherungen ist ein positiver Schritt für Minderjährige auf der Plattform, aber das Problem der „KI-Psychose“ und Nutzer, die sich in Krisen an den Chatbot wenden, bleibt eine ungelöste Herausforderung.
Quelle:
OpenAI Blog