Die KI-Welt bekommt einen neuen Maßstab im Wettbewerb: Anthropic, das Unternehmen hinter Claude, plant laut Insider-Berichten einen massiven Kostenvorteil gegenüber OpenAI – und das betrifft vor allem die Rechenleistung.
Konkret: Für 2025 rechnet Anthropic mit Compute-Kosten von 6 Milliarden US-Dollar. OpenAI hingegen plant 15 Milliarden. Der Abstand wird größer: Bis 2028 erwartet Anthropic 27 Milliarden – OpenAI satte 111 Milliarden.
Das ist kein kleiner Unterschied. Es geht um Milliarden, die über Erfolg oder Misserfolg eines KI-Unternehmens entscheiden können. Und Anthropic scheint hier einen klaren Plan zu haben.
Der entscheidende Vorteil: Hardware-Diversifikation. Während OpenAI stark auf Nvidia setzt, nutzt Anthropic Chips von Amazon, Google und Nvidia – jeweils für spezialisierte Aufgaben optimiert.
Das ist kein Zufall. Anthropic hat enge Partnerschaften mit Amazon (Investition von 4 Milliarden) und Google. Diese liefern nicht nur Kapital, sondern auch Zugang zu eigenen Cloud-Infrastrukturen und Chips.
Ein Beispiel: Amazon trainiert Anthropics Modelle auf seinen Trainium-Chips, Google nutzt TPUs. Das reduziert die Abhängigkeit von Nvidias teuren GPUs – und damit die Kosten.
Gleichzeitig hat Anthropic seine Umsatzprognose angehoben. Das Unternehmen erwartet, ab 2027 cashflow-positiv zu sein und bis 2028 sage und schreibe 70 Milliarden US-Dollar Umsatz zu generieren.
OpenAI hingegen zielt auf 100 Milliarden Umsatz 2028 – wird aber voraussichtlich erst nach 2030 cashflow-positiv. Der Grund: Hohe Investitionen in Produkte wie ChatGPT, Forschung und neue Initiativen wie Atlas.
Anthropic setzt auf einen anderen Ansatz: Effizienz, Enterprise-Fokus und API. Rund 80 % des Umsatzes kommen aus der API – also von Unternehmen, die Claude in ihre Systeme integrieren.
Das ist ein disziplinierter, fast konservativer Weg. Weniger Hype, mehr Substanz. Keine Consumer-Apps mit Millionen Nutzern, dafür stabile, skalierbare Einnahmen aus B2B.
OpenAI hingegen verfolgt eine Breitenstrategie: ChatGPT für alle, Forschung an der Spitze, neue Produkte in Serie. Das kostet – aber es schafft auch Marktdominanz und öffentliche Präsenz.
Die Frage ist: Welche Strategie gewinnt langfristig? Die effiziente, fokussierte – oder die expansive, produktgetriebene?
Ein Blick auf die Zahlen: Anthropics Compute-Kosten steigen von 6 auf 27 Milliarden in drei Jahren – also um den Faktor 4,5. OpenAI von 15 auf 111 Milliarden – Faktor 7,4. Das ist ein klarer Effizienzvorteil.
Hinzu kommt: Anthropic scheint besser zu skalieren. Weniger Abhängigkeit von einem Anbieter, flexiblere Architekturen, gezielte Optimierungen. Das könnte in einer Welt knapper Chips entscheidend sein.
Kritisch betrachtet: Anthropic ist kleiner, weniger bekannt, hat weniger Daten aus Nutzerinteraktionen. OpenAI profitiert vom ChatGPT-Effekt – Millionen Gespräche, die das Modell verbessern.
Zudem: OpenAI hat Microsoft als strategischen Partner mit nahezu unbegrenzten Ressourcen. Das wiegt schwer. Anthropic muss mit Amazon und Google jonglieren – Koordination ist aufwendiger.
Dennoch: Die Kostendisziplin könnte Anthropic langfristig überlegen machen. Wenn KI-Modelle immer teurer werden, gewinnt, wer effizienter trainiert und betreibt.
Und genau hier liegt die eigentliche Bedeutung: Der KI-Wettbewerb wird nicht nur über Modelle entschieden – sondern über Infrastruktur, Effizienz und Geschäftsmodell.
Fazit: Anthropic zeigt, dass es einen zweiten Weg gibt – leiser, disziplinierter, nachhaltiger. Ob er zum Ziel führt, wird die Zeit zeigen. Aber die Zahlen sprechen eine klare Sprache.
Die nächste Phase der KI wird nicht nur von Innovation, sondern von Ökonomie geprägt sein. Und hier hat Anthropic gerade einen starken Zug gemacht.
Quelle: The Information
Weitere KI News aus KI-Unternehmen & Markt:
- McKinsey 2025: KI überall – aber kaum skalierter Erfolg
- Deutsche Bank in der Zwickmühle: Milliarden-Kredite für KI-Rechenzentren
- OpenAI rudert zurück: Keine staatlichen Garantien für KI-Infrastruktur