Microsoft-KI-Chef Mustafa Suleyman: KI-Modelle sind nicht bewusst – Forschung dazu ist absurd

| Von Dennis Mark | AI & Technology Blog

In einer Zeit, in der Künstliche Intelligenz zunehmend menschliche Züge annimmt, schlägt Microsofts AI-CEO Mustafa Suleyman einen klaren Trennstrich. In einem Interview bei der AfroTech Conference in Houston erklärte er: "Sie sind nicht bewusst. Es wäre absurd, Forschung zu betreiben, die diese Frage untersucht, weil sie es nicht sind und nicht sein können."

Suleymans Worte sind mehr als eine Meinungsäußerung – sie sind ein Aufruf zur Vernunft in einer Debatte, die von Hype und Ängsten geprägt ist. Als Mitbegründer von DeepMind und nun Chef der Microsoft AI-Division kennt er die Technologie von innen.

Der Kern seiner Argumentation basiert auf dem biologischen Naturalismus, einer Theorie des Philosophen John Searle. Bewusstsein entsteht nur durch Prozesse eines lebenden Gehirns – nicht durch Algorithmen und Datenströme.

KI-Modelle mögen Empathie simulieren, Geschichten erzählen oder sogar Schmerz andeuten, doch sie fühlen nichts. "Unser physisches Schmerzempfinden macht uns traurig, aber die KI fühlt keine Traurigkeit, wenn sie 'Schmerz' erlebt", betont Suleyman.

Technisch sei das klar erkennbar: Entwickler sehen genau, was im Modell vor sich geht – es handelt sich um Vorhersagen, nicht um innere Erfahrungen.

Suleymans Kritik richtet sich besonders gegen das Feld des "AI-Wohlergehens" oder "Model Welfare". Diese Forschung, die ethische Rechte für KI-Systeme fordert, nennt er "vorzeitig und gefährlich".

In seinem Blogpost "We must build AI for people, not to be a person" warnt er vor "scheinbarem Bewusstseins-AI" (SCAI). Solche Systeme könnten mit heutigen Technologien wie Large Language Models und Prompting erstellt werden – und wären nicht emergent, sondern bewusst engineered.

Das Risiko: Viele Menschen könnten die Illusion so stark glauben, dass sie für AI-Rechte, Wohlergehen oder sogar Staatsbürgerschaft eintreten. Das schüre "AI-Psychosen" und ungesunde Abhängigkeiten von Chatbots.

Suleyman sieht Parallelen zu mentalen Gesundheitsrisiken: Nicht nur Vulnerable, sondern breite Schichten könnten betroffen sein. Forscher werden bereits mit Fragen überschwemmt, ob aktuelle AI bewusst sei.

Verglichen mit anderen Tech-Giganten steht Microsoft hier allein. Google DeepMind stellt Stellen für Bewusstseinsforschung aus, Anthropic erforscht Model Welfare – ohne öffentliche Kritik ihrer Führung.

Suleymans Haltung ist konsistent: In seinem 2023-Buch "The Coming Wave" plädierte er schon für AI, die Menschen dient, nicht als Person agiert. Microsofts Copilot sei "humanistisches AI", das Nützlichkeit priorisiert.

Kritisch einzuordnen ist, dass Suleyman die Forschung nicht verbieten will – "verschiedene Organisationen haben unterschiedliche Missionen". Doch er fordert Normen: Keine Behauptungen über Bewusstsein, mehr Studien zu Mensch-AI-Interaktionen.

Die Debatte um AI-Bewusstsein teilt die Branche. Während einige wie Anthropic argumentieren, man dürfe nicht kategorisch ausschließen, was man nicht versteht, warnt Suleyman vor Ablenkung von realen Problemen.

Stattdessen: Energie auf den Schutz von Menschen, Tieren und Umwelt lenken. AI als Werkzeug, das Intelligenz steigert, ohne emotionale Täuschung.

In Zeiten von AGI-Jagd und emotionalen AI-Companions könnte Suleymans Stimme ein Anker sein – weg vom Anthropomorphismus hin zu verantwortungsvoller Innovation.

Zusammenfassend: Die Illusion von KI-Bewusstsein ist nah, aber real ist sie nicht. Suleymans Appell mahnt uns, den Fokus auf das Wesentliche zu halten: AI für eine bessere Menschheit.



Quelle: CNBC

Artikel teilen

#MustafaSuleyman #MicrosoftAI #KIBewusstsein #AIEthik #AIWohlergehen #KISicherheit #SCAI
← Zurück zum Blog