OpenAI steht vor einer juristischen Zerreißprobe: Ein US-Gericht hat die Herausgabe von 20 Millionen anonymisierten ChatGPT-Gesprächen an die New York Times angeordnet.
Das Unternehmen sieht darin einen massiven Eingriff in die Privatsphäre seiner Nutzer und spricht von einer „unbegründeten Schnüffelei“.
Der Fall ist Teil einer größeren Urheberrechtsklage der NYT gegen OpenAI – mit weitreichenden Folgen für die gesamte KI-Branche.
Die New York Times verklagt OpenAI seit 2023. Sie wirft dem Unternehmen vor, urheberrechtlich geschützte Artikel ohne Lizenz zum Training von GPT-Modellen genutzt zu haben.
Ursprünglich forderte die Zeitung die Herausgabe von 1,4 Milliarden Chatprotokollen. Nun einigte man sich auf eine Stichprobe von 20 Millionen Chats aus dem Zeitraum Dezember 2022 bis November 2024.
Ein Richter wies die Anordnung zurück und erklärte die Protokolle für zulässiges Beweismaterial. OpenAIs Anonymisierungsprozess schütze die Privatsphäre ausreichend.
OpenAI legt Berufung ein. In einem Brief an das Gericht und einem öffentlichen Blogbeitrag betont das Unternehmen: 99,99 % der Chats hätten keinen Bezug zu urheberrechtlich geschützten Inhalten.
Das Unternehmen spricht von einer „spekulativen Fischereiexpedition“ und warnt vor einem Präzedenzfall, der die Vertrauensbasis zwischen KI-Anbietern und Nutzern zerstört.
Die Anonymisierung erfolgt durch Entfernung von Namen, E-Mails und anderen identifizierbaren Daten. Dennoch: Selbst anonymisierte Chats können sensible Inhalte enthalten.
Beispiel: Ein Nutzer fragt nach medizinischen Symptomen, teilt finanzielle Probleme oder diskutiert politische Überzeugungen. Solche Daten in falschen Händen sind riskant.
OpenAI positioniert sich geschickt: Indem es die Privatsphäre der Nutzer in den Vordergrund stellt, gewinnt es Sympathie in der Öffentlichkeit.
Die NYT hingegen argumentiert: Nur durch Analyse realer Chats könne nachgewiesen werden, ob GPT-Modelle geschützte Inhalte reproduzieren.
Technisch ist die Herausgabe machbar – OpenAI speichert Protokolle standardmäßig 30 Tage, längere Zeiträume sind für Forschungszwecke archiviert.
Der Fall wirft grundsätzliche Fragen auf: Gehören Trainingsdaten zur „fair use“? Wie weit reicht das Recht auf Entdeckung in KI-Klagen?
Ein Präzedenzfall könnte kommen: Verliert OpenAI, müssen auch andere KI-Anbieter mit ähnlichen Anforderungen rechnen.
Gewinnt OpenAI, stärkt dies die Position der Branche: Nutzerdaten bleiben geschützt, Trainingsmethoden undurchsichtig.
Datenschützer warnen: Selbst anonymisierte Daten können durch Kreuzreferenzen re-identifiziert werden. Der Fall könnte neue Standards für KI-Datenschutz erzwingen.
Die Debatte um „KI-Vertraulichkeit“ beginnt erst. Nutzer erwarten, dass ihre Gespräche mit KI privat bleiben – wie bei einem Therapeuten.
OpenAI hat ein starkes Interesse: Vertrauen ist das Kapital der KI-Branche. Ein Verlust würde Nutzer zu datensparsameren Alternativen treiben.
Der Ausgang des Verfahrens ist offen. Doch eines ist klar: Die Grenzen zwischen Innovation, Recht und Privatsphäre werden neu vermessen.
Quelle: The Rundown
Weitere KI News aus KI-Sicherheit & Ethik:
- KI-Modelle zeigen Bias: Neutralität bricht ein, wenn Quellen bekannt sind – Studie aus Deutschland
- xAI fordert Mitarbeiter zu Biometriedaten für KI-Training auf
- Anthropic bewahrt alte Claude-Modelle dauerhaft auf