Die Debatte um künstliche Intelligenz erreicht einen neuen Höhepunkt: Ein offener Brief des Future of Life Institute (FLI), veröffentlicht am 22. Oktober 2025, fordert Regierungen weltweit auf, die Entwicklung von Superintelligenz – also KI-Systemen, die menschliche Intelligenz in allen Bereichen übertreffen – zu verbieten. Bis eine breite wissenschaftliche Einigkeit über sichere und kontrollierbare Umsetzung besteht und die Öffentlichkeit zustimmt, soll kein Fortschritt erlaubt sein. Unterzeichnet haben über 700 Personen, darunter KI-Pioniere, Nobelpreisträger und Prominente wie Prince Harry und Meghan Markle. Dieser Aufruf unterstreicht die Dringlichkeit, da Superintelligenz in nur 1-2 Jahren real werden könnte.
Der Brief betont das enorme Potenzial von KI für Gesundheit und Wohlstand, warnt jedoch vor unkontrollierten Risiken. „Die Zukunft der KI sollte der Menschheit dienen, nicht sie ersetzen“, zitiert der Brief Prince Harry. Organisatoren wie FLI-Präsident Max Tegmark sehen in dem Wettrennen der Tech-Konzerne eine Bedrohung, die Regulierungen erfordert. Es erinnert an den Brief von 2023, der eine sechsmonatige Pause bei mächtigen Modellen forderte – vergeblich.
Was genau ist Superintelligenz? Experten definieren sie als Systeme, die alle nützlichen Aufgaben besser als Menschen bewältigen. Der Brief hebt konkrete Gefahren hervor: wirtschaftliche Obsoleszenz, Verlust von Freiheit, Bürgerrechten, Würde und Kontrolle bis hin zur potenziellen Auslöschung der Menschheit. Diese Szenarien klingen apokalyptisch, basieren aber auf Analysen wie Nick Bostroms „Superintelligence“ von 2016.
Die Unterzeichner sind beeindruckend divers: Neben Geoffrey Hinton und Yoshua Bengio, den „Godfathers of AI“, und Stuart Russell von der UC Berkeley, unterschrieben auch Apple-Mitgründer Steve Wozniak und Richard Branson von Virgin. Auffällig: Führungskräfte von OpenAI, Google, Anthropic, xAI und Meta fehlen – nur ein OpenAI-Mitarbeiter, Leo Gao, hat mitgezeichnet.
Eine begleitende Umfrage des FLI zeigt: 64 % der Amerikaner wollen die Arbeit an ASI stoppen, bis sie sicher ist. Nur 5 % befürworten unregulierten Fortschritt. Dies spiegelt eine wachsende öffentliche Skepsis wider, die Politiker nicht ignorieren können.
Technisch gesehen ist Superintelligenz kein ferner Traum: Experten wie Hinton schätzen, dass sie in 1-2 Jahren möglich wird. Aktuelle Modelle wie GPT-4 oder Gemini zeigen bereits Ansätze. Doch die Skalierung birgt Risiken – etwa das „Alignment-Problem“, bei dem KI-Ziele von menschlichen abweichen.
Der Brief schlägt konkrete Maßnahmen vor: internationale Verträge, Überwachung von Rechenzentren, Lizenzpflichten für große Modelle. Kritiker sehen darin einen Versuch, Innovation zu ersticken. Befürworter argumentieren: Besser jetzt regulieren als später bereuen.
Vergleichbar ist die Situation mit der Atomenergie: Auch dort wurden Kontrollen erst nach Hiroshima eingeführt. Der Brief will präventiv handeln – bevor eine „KI-Bombe“ entsteht.
Die Abwesenheit der großen Tech-Firmen ist kein Zufall. OpenAI, Google & Co. investieren Milliarden in Superintelligenz. Ein Stopp würde ihre Pläne durchkreuzen. Dennoch: Die öffentliche Meinung könnte Druck erzeugen – wie beim Datenschutz nach Cambridge Analytica.
Kritisch zu betrachten ist die Definition: Was genau ist „Superintelligenz“? Der Brief bleibt vage. Ohne klare Kriterien ist ein Verbot schwer durchsetzbar. Auch: Wer entscheidet über „Sicherheit“ und „öffentliche Zustimmung“?
Trotz allem: Der Brief ist ein Weckruf. Er zeigt, dass die Debatte über KI-Governance nicht mehr nur Experten betrifft. Politiker, Unternehmen und Bürger müssen gemeinsam Lösungen finden.
**Chancen:** Superintelligenz könnte Krebs heilen, Klimawandel lösen, Armut beenden.
**Risiken:** Unkontrollierte Systeme könnten Macht konzentrieren, Kriege automatisieren oder existenzielle Katastrophen auslösen.
Die Frage ist nicht *ob*, sondern *wie* wir Superintelligenz entwickeln. Der Brief fordert eine demokratische, transparente und sichere Herangehensweise. Ob er Gehör findet, bleibt abzuwarten – doch die Diskussion ist eröffnet.
Fazit: Dieser offene Brief ist mehr als Symbolik. Er markiert einen Wendepunkt in der KI-Debatte. Die Zeit des „Move fast and break things“ ist vorbei. Verantwortung, Transparenz und globale Kooperation sind gefragt – bevor es zu spät ist.
Quelle: CyberScoop