KI-Analyse von Videokonferenzen verstößt oft gegen EU-KI-Akt und DSGVO

| Von Dennis Mark | AI & Technology Blog

Die Szene klingt wie aus einem Science-Fiction-Film: Während eines Verkaufsgesprächs bei Zoom analysiert eine KI in Echtzeit die Mimik des Kunden, erkennt „leichte Skepsis“ und schlägt dem Verkäufer automatisch einen Rabatt vor. Was technisch beeindruckend ist, ist rechtlich ein Albtraum.

Denn genau diese Emotionserkennung ist nach dem neuen EU-KI-Akt als „hochriskant“ eingestuft – und am Arbeitsplatz grundsätzlich verboten. Viele Unternehmen wissen das nicht einmal.

Tools wie Gong, Chorus.ai, deutsche Anbieter oder sogar integrierte Funktionen von Microsoft Copilot für Sales analysieren mittlerweile nicht nur den Inhalt von Videokonferenzen, sondern auch Tonfall, Gesichtsausdrücke und Körpersprache.

Das Problem: Sobald Emotionen erkannt werden, handelt es sich um biometrische Daten nach DSGVO Artikel 9 – besonders sensible personenbezogene Daten, deren Verarbeitung strengen Regeln unterliegt.

Besonders brisant wird es, wenn Mitarbeiter bewertet werden. Ein Verkaufsteamleiter sieht plötzlich: „Anna war im Call mit Kunde XY emotional nicht überzeugend.“ Solche Analysen sind nach EU-Recht unzulässig.

Datenschützer und Betriebsräte schlagen Alarm. „Viele Unternehmen kaufen diese Tools in den USA ein und denken, das sei alles kein Problem“, sagt ein bekannter Datenschutzexperte.

Die Realität: Die meisten Anbieter haben keine Konformitätserklärung zum EU-KI-Akt. Ab August 2026 drohen Bußgelder bis zu 35 Millionen Euro oder 7 % des weltweiten Umsatzes.

Es gibt aber auch legale Alternativen: Reine Transkription und inhaltliche Analyse („Welche Einwände hatte der Kunde?“) sind erlaubt – solange keine biometrischen Daten verarbeitet werden.

Viele deutsche Unternehmen stehen jetzt vor der Wahl: Weiter mit Grauzonen-Tools arbeiten und riskieren Strafen – oder auf europäische Anbieter umsteigen, die von vornherein konform entwickelt wurden.

Der Fall zeigt exemplarisch, wie schnell „praktische“ KI-Anwendungen in massive rechtliche Konflikte geraten können. 2025 wird das Jahr der großen KI-Compliance-Prüfungen.

Quelle: Datenschutz-Notizen & Handelsblatt Research

Weitere KI News aus KI-Sicherheit & Ethik:
- Anthropic stoppt ersten KI-gesteuerten Cyberangriff
- OpenAI wehrt sich gegen Herausgabe von ChatGPT-Protokollen
- KI-Modelle zeigen Bias: Neutralität bricht ein, wenn Quellen bekannt sind – Studie aus Deutschland

Artikel teilen

#EUKIAct #DSGVO #Emotionserkennung #KIamArbeitsplatz #Datenschutz #HighRiskKI
← Zurück zum Blog | Home