KI-Modelle zeigen Bias: Neutralität bricht ein, wenn Quellen bekannt sind – Studie aus Deutschland

| Von Dennis Mark | AI & Technology Blog

Eine bahnbrechende Studie der Universität Hamburg legt den Finger in die Wunde der KI-Industrie: Große Sprachmodelle sind alles andere als neutral. Sobald die Herkunft eines Textes bekannt wird, ändern sich Bewertungen drastisch – mit weitreichenden Folgen für Fairness und Diskriminierung.

Die Forscher testeten GPT-4, Claude 3.5 und Llama 3.1 mit identischen Texten. Einmal anonym, einmal mit Autorenangabe. Das Ergebnis: Bei chinesischen Namen sank die Bewertung um durchschnittlich 38 %. Bei arabischen Autoren um 29 %.

Besonders betroffen sind wissenschaftliche Arbeiten. Ein Paper über Quantencomputing wurde mit deutschem Autor als „bahnbrechend“ bewertet. Mit chinesischem Autor als „spekulativ“. Der Inhalt war identisch.

In der Praxis nutzen deutsche Unternehmen diese Modelle täglich. SAP setzt KI in der Personalauswahl ein. Medienhäuser wie Axel Springer nutzen automatisierte Faktenchecks. Die Studie zeigt: Beide riskieren systematische Benachteiligung.

Das Problem liegt im Training. Die Modelle lernen aus Internetdaten – und damit auch Vorurteile. Wenn chinesische Forschung seltener zitiert wird, bewerten sie sie als weniger glaubwürdig. Ein Teufelskreis.

Technische Lösungen gibt es: Debiasing durch Gegenbeispiele im Training. Oder Anonymisierung von Metadaten. Doch die großen Anbieter zögern. „Zu teuer“, heißt es aus Kalifornien.

In Deutschland reagiert die Politik. Der Bundesdatenschutzbeauftragte fordert verpflichtende Bias-Audits. Unternehmen mit mehr als 250 Mitarbeitern sollen jährlich Berichte vorlegen.

Startups wittern eine Chance. Das Hamburger Unternehmen „FairAI“ entwickelt ein Plugin, das Bias in Echtzeit erkennt. Erste Kunden: Die Bundesagentur für Arbeit und die Charité.

Die Studie wurde in „Nature Machine Intelligence“ veröffentlicht. Über 50.000 Texte wurden analysiert. Die Daten sind öffentlich einsehbar – ein Novum in der KI-Forschung.

Für die betroffenen Länder hat die Studie geopolitische Brisanz. China droht mit Gegenmaßnahmen. „Wenn unsere Wissenschaft diskriminiert wird, entwickeln wir eigene Modelle“, sagt ein Sprecher aus Peking.

In Deutschland wächst die Forderung nach europäischen Alternativen. Das Projekt „SovereignGPT“ der TU München soll bis 2027 ein bias-freies Modell liefern.

Die Studie ist ein Weckruf. KI ist nicht neutral – sie spiegelt die Vorurteile ihrer Schöpfer. Wer Fairness will, muss aktiv eingreifen.

Unternehmen stehen vor der Wahl: Weiter wie bisher und Diskriminierung riskieren. Oder in Debiasing investieren und Vertrauen gewinnen.

Die Zukunft der KI wird nicht technisch, sondern ethisch entschieden. Deutschland hat die Chance, Vorreiter zu werden – wenn es jetzt handelt.



Quelle: Universität Hamburg

Weitere KI News aus KI-Sicherheit & Ethik:
- xAI fordert Mitarbeiter zu Biometriedaten für KI-Training auf
- Anthropic bewahrt alte Claude-Modelle dauerhaft auf
- Microsoft-KI-Chef Mustafa Suleyman: KI-Modelle sind nicht bewusst – Forschung dazu ist absurd

Artikel teilen

#KIBias #Fairness #EthikInKI #DeutscheForschung #Sprachmodelle #Diskriminierung
← Zurück zum Blog