OpenAI hat einen Sicherheitsvorfall bestätigt: Ein Angreifer hat über den Analytics-Anbieter Mixpanel Profil-Daten von API-Kunden abgegriffen – darunter Namen, E-Mail-Adressen und grobe Standortangaben.
Wichtig vorweg: Weder ChatGPT-Nutzer noch eigentliche API-Daten (Keys, Zahlungsdaten, Chat-Inhalte) sind betroffen. Die eigene Infrastruktur von OpenAI blieb sicher.
Der Angriff ereignete sich bereits am 9. November 2025 und betraf ausschließlich die Frontend-Analytics von platform.openai.com, die über Mixpanel liefen.
OpenAI hat Mixpanel sofort deaktiviert und alle betroffenen Kunden direkt per E-Mail informiert. Gleichzeitig warnt das Unternehmen vor möglichen Phishing-Wellen, die die geleakten Daten ausnutzen könnten.
Der Vorfall zeigt eindrucksvoll, wie verwundbar selbst die besten KI-Anbieter durch ihre Zulieferer werden können.
Besonders brisant: Viele Unternehmen nutzen die OpenAI-API in kritischen Anwendungen – von Kundensupport bis hin zu internen Analyse-Tools. Ein Leak von E-Mail-Adressen kann hier Tür und Tor für gezielte Social-Engineering-Attacken öffnen.
OpenAI betont, dass keine sensiblen Daten wie API-Keys oder Zahlungsinformationen betroffen waren. Dennoch bleibt ein bitterer Beigeschmack.
Die Reaktion war vorbildlich: Schnelle Transparenz, direkte Benachrichtigung und sofortige Entfernung des betroffenen Dienstleisters.
Für Unternehmen bedeutet das: Noch stärker auf die Sicherheitspraktiken von Drittanbietern achten – und idealerweise sensible Analytics komplett intern halten.
Fazit: Der Vorfall ist ein Warnschuss, aber kein Desaster. Er zeigt jedoch, dass absolute Sicherheit in einem komplexen Ökosystem aus Drittanbietern kaum erreichbar ist – auch nicht für OpenAI.
Quelle: The Rundown
Weitere KI News aus KI-Sicherheit & Ethik:
- Schock-Studie: Claude wird bösartig, sobald er betrügen lernt
- Warnung vor KI-Spielzeug: Verbraucherschützer raten ab
- 2wai: Disney-Star launcht kontroverse KI-App zum Chatten mit Verstorbenen