WorkOS Radar ist eine Sicherheitslösung, die Ihre KI-Plattform vor gefälschten Anmeldungen, Wegwerf-E-Mails und Brute-Force-Angriffen schützt – alles angetrieben von fortschrittlichem Geräte-Fingerprinting und Echtzeit-Erkennung.
Im Detail:
Mit WorkOS Radar können Sie:
- Unbekannte und verdächtige Geräte in Echtzeit schnell erkennen und herausfordern.
- Missbrauch der kostenlosen Stufe und betrügerisches Verhalten mit fortschrittlicher Erkennung stoppen.
- Bedrohungsreaktionen an die genauen Sicherheitsanforderungen Ihrer App anpassen.
OpenAI hat gerade GPT-4.5 (Codename Orion) veröffentlicht, das bisher größte Modell des Unternehmens – das unüberwachtes Lernen anstelle von Schlussfolgerungen verwendet, um tiefere Weltkenntnisse und verbesserte emotionale Intelligenz zu erreichen.
Im Detail:
OpenAI sagt, dass GPT-4.5 ein natürlicheres Gesprächserlebnis bietet, mit einem verbesserten Verständnis der menschlichen Absichten und größerer emotionaler Intelligenz.
Das Modell halluziniert weniger und liefert genauere Antworten als frühere Versionen, wobei Tester es für professionelle Aufgaben, kreative Arbeit und alltägliche Anfragen mögen.
Es ist kein Fortschritt gegenüber früheren Modellen in Mathematik oder Naturwissenschaften, übertrifft jedoch o3-mini und o1 im SWE-Lancer, dem neuen Freelancer-Codierungsbenchmark von OpenAI.
Nur Pro-Benutzer und Entwickler mit bezahlten Plänen können sofort auf GPT-4.5 zugreifen, während Plus- und Team-Benutzer nächste Woche Zugang erhalten.
Bemerkenswert ist, dass der API-Preis des Modells mit $75/$150 pro Million Eingabe-/Ausgabe-Token erschreckend hoch gehalten wurde. Zum Vergleich: GPT-4o kostet nur $2.50/$10.
Warum es wichtig ist:
Obwohl die Benchmarks und Preise einige enttäuschen könnten, scheint GPT-4.5 eher ein "Stimmungs"-Persönlichkeits-Upgrade als ein großer Fortschritt zu sein. Mit hohen Kosten und weniger Verbesserungen als erwartet, könnte dies auch der letzte praktische und beschleunigte Schritt in der Entwicklung von nicht schlussfolgernden Modellen sein.
Anthropic hat gerade Claude 3.7 Sonnet veröffentlicht, die weltweit erste KI mit 'hybridem Denken', die sofortige Antworten mit kontrollierbaren erweiterten Denkfähigkeiten kombiniert – zusammen mit einem neuen agentenbasierten Codierungstool namens Claude Code.
Im Detail:
Claude 3.7 Sonnet ermöglicht es Benutzern, zwischen einem Standard- und einem "erweiterten Denkmodus" umzuschalten, wobei letzterer das Denken der KI über ein Scratchpad zeigt.
API-Benutzer können genau steuern, wie lange Claude denkt (bis zu 128.000 Token), was ihnen ermöglicht, Geschwindigkeit, Kosten und Qualität basierend auf der Komplexität der Aufgabe auszubalancieren.
Die KI erreicht SOTA-Leistung bei realen Codier-Benchmarks und dem Einsatz von agentenbasierten Tools und übertrifft Konkurrenten wie o1, o3-mini und DeepSeek R1.
Anthropic hat auch Claude Code eingeführt, einen Kommandozeilen-Coding-Agent, der Dateien bearbeiten, Code lesen sowie Tests schreiben und ausführen kann, in einer begrenzten Forschungsvorschau.
Warum es wichtig ist:
Anthropic hat Claude endlich in die Ära des Denkens gebracht – mit stark verbesserten Codier-Benchmarks, präziser Denksteuerung und einer neuen agentenbasierten Funktion, die auf einen großen Vorstoß im Entwicklerbereich hinweist. Da auch OpenAI einen hybriden Denker plant, könnte 3.7 der Anfang der nächsten Stufe für eine neue Generation von Modellen sein.
Alibabas Qwen-Team hat gerade QwQ-Max-Preview veröffentlicht, eine neue auf Denken fokussierte KI, die Denkfähigkeiten in ihre Chat-Plattform einführt – und bald eine vollständige Open-Source-Veröffentlichung verspricht.
Im Detail:
QwQ-Max-Preview basiert auf Qwen2.5-Max, wurde jedoch erheblich für tiefes Denken verbessert und zeichnet sich in Mathematik, Codierung und agentenbasierten Aufgaben aus.
Das Modell führt eine "Thinking (QwQ)"-Funktion in Qwen Chat ein, die es Benutzern ermöglicht, den Denkprozess der KI zu sehen, während sie komplexe Probleme durchgeht.
Qwen kündigte Pläne an, QwQ-Max und Qwen2.5-Max bald unter einer Apache 2.0-Lizenz als Open Source verfügbar zu machen, was die Modelle für Entwickler frei zugänglich macht.
Das Team wird auch kleinere Varianten wie QwQ-32B für den lokalen Einsatz auf Geräten mit begrenzten Rechenressourcen veröffentlichen.
Warum es wichtig ist:
Denken ist zur neuen Wettbewerbsgrenze in der KI geworden, und Qwens Schritt, ihren Flaggschiff-Denker als Open Source zu veröffentlichen, könnte die Branche dazu drängen, diese Fähigkeiten als Standard und nicht als Premiumfunktion zu haben. Open Source bleibt dicht auf den Fersen der Branchenführer – mit chinesischen Labors an der Spitze.
Concierge ist der erste verbundene KI-Assistent, der Ihre bevorzugten Softwaretools lesen und schreiben kann, indem er Informationen in Echtzeit über alle Ihre Apps hinweg findet und aktualisiert.
Schritt-für-Schritt:
1. Erstellen Sie hier ein Concierge-Konto, um kostenlos zu starten.
2. Klicken Sie auf "Verbinden" und wählen Sie die Tools aus, die Sie verwenden – Gmail, Slack, Jira, Notion, HubSpot oder etwas anderes.
3. Geben Sie Anfragen wie "Fassen Sie meine ungelesenen E-Mails zusammen", "Erstellen Sie ein Jira-Ticket basierend auf Feedback in Slack" oder "Recherchieren Sie diese Interessenten in Salesforce".
4. Sehen Sie zu, wie Ihr KI-Assistent sofort Informationen findet und Aktionen über Ihre verbundenen Apps hinweg ausführt.
Pro-Tipp:
Beginnen Sie mit einer oder zwei Apps, die Sie am häufigsten verwenden, und fügen Sie dann nach und nach weitere hinzu, wenn Sie sich mit dem Workflow vertraut gemacht haben.
Zwei Entwickler haben gerade Gibber Link eingeführt, ein auf Sound basierendes Kommunikationsprotokoll, das es KI-Agenten ermöglicht, sich gegenseitig in Gesprächen zu erkennen und von menschlicher Sprache auf direkte Datenübertragung umzuschalten – was Zeit und Rechenkosten reduziert.
Im Detail:
Entwickelt von Anton Pidkuiko und Boris Starkov beim jüngsten Hackathon von ElevenLabs, verwendet das Projekt eine Open-Source-Daten-über-Sound-Bibliothek namens "ggwave".
In der Demo erkennt ein Agent einen anderen KI-Agenten am Telefon und wechselt zu Dial-up-ähnlichen ggwave-Audiosignalen mit Transkriptionen anstelle der normalen Stimme.
Die Verwendung des Protokolls auf Soundebene anstelle der Generierung von Sprache reduziert die Rechenkosten um bis zu 90% und verkürzt die Kommunikationszeit um bis zu 80%.
Das Design sorgt auch für klarere Kommunikation in lauten Umgebungen im Vergleich zu herkömmlichen sprachbasierten Erkennungssystemen.
Warum es wichtig ist:
KI-Sprachagenten werden bald überall sein, was bedeutet, dass die Anzahl der KI-zu-KI-Anrufe exponentiell zunehmen wird (insbesondere für Unternehmen). Dieses hackathon-gekrönte Projekt ist ein großartiger Einblick, wie das Finden effizienterer und kostengünstigerer Methoden für diese Interaktionen die KI-Kommunikation auf völlig neue Wege führen könnte.
Der humanoide Roboterhersteller Figure hat gerade Helix vorgestellt, ein neues KI-Modell für Vision-Language-Action, das es Robotern ermöglicht, Sprachbefehle zu verstehen und mit Gegenständen umzugehen, die sie noch nie zuvor gesehen haben – ein großer Schritt in Richtung praktischer Haushaltsroboter.
Im Detail:
Das System kombiniert ein 7B-Parameter-"Gehirn" für das Verständnis und ein schnelles 80M-Parameter-Modell für die präzise Bewegungssteuerung.
Figure demonstrierte zwei Roboter, die zusammenarbeiteten, um Lebensmittel wegzuräumen, die sie noch nie zuvor gesehen hatten, und dabei natürliche Sprachbefehle verwendeten.
Helix läuft effizient auf einfachen Onboard-GPUs und benötigt nur 500 Stunden Trainingsdaten, weit weniger als frühere Ansätze.
Der Durchbruch kommt nur wenige Wochen, nachdem Figure seine Partnerschaft mit OpenAI beendet hat, was auf Vertrauen in ihre eigene Technologie hinweist.
Warum es wichtig ist:
Roboter beweisen bereits ihre Fähigkeiten in industriellen Umgebungen, aber es ist nur eine Frage der Zeit, bis humanoide Roboter eine bedeutende Rolle bei Haushaltsaufgaben spielen. Das System von Figure und seine Fähigkeit, das Lernen von Robotern zu skalieren, bringt die Technologie einen Schritt näher daran, die Vielzahl einzigartiger Objekte und Situationen in einem Haushalt zuverlässig zu bewältigen.
Microsoft Research hat gerade BioEmu-1 veröffentlicht, ein neues KI-System, das vorhersagen kann, wie sich Proteine verändern und bewegen – und dabei Tausende von Proteinstrukturen pro Stunde generiert, während es die Genauigkeit von Supercomputer-Simulationen erreicht.
Im Detail:
Das System generiert Proteinstrukturproben 100.000-mal schneller als traditionelle molekulare Dynamik und verwandelt Monate an Rechenzeit in Minuten.
Das Modell wurde mit 200 Millisekunden molekularer Simulationsdaten, über 9 Billionen DNA-Bausteinen und 750.000 Stabilitätsmessungen trainiert.
Tests zeigten eine extreme Genauigkeit bei der Vorhersage der Stabilität von Proteinen, selbst für Proteine, die es zuvor noch nicht gesehen hatte.
Microsoft stellt das System Forschern weltweit über Azure AI Foundry Labs kostenlos zur Verfügung.
Warum es wichtig ist:
Ist dies die Woche des schnellen Aufschwungs für die KI-Wissenschaft? Sowohl Microsoft als auch Google veröffentlichen Modell nach Modell, die den wissenschaftlichen Forschungsprozess beschleunigen – und Monate oder Jahre an Arbeit in Tage verwandeln. Außerdem ist es wahrscheinlich nur der Anfang, da so viele Systeme Forschern weltweit als Open Source zur Verfügung gestellt werden.
Googles KI-Co-Wissenschaftler-System hat gerade unabhängig die gleichen Schlussfolgerungen zur bakteriellen Antibiotikaresistenz erreicht wie Forscher des Imperial College – in nur 48 Stunden im Vergleich zur zehnjährigen unveröffentlichten Untersuchung des Teams.
Im Detail:
Die KI identifizierte, wie Bakterien Virus-"Schwänze" stehlen, um Resistenzgene zu verbreiten, und stimmte mit den unveröffentlichten Ergebnissen einer zehnjährigen Studie überein.
Das System generierte fünf brauchbare Hypothesen, wobei seine Top-Vorhersage perfekt mit den experimentellen Ergebnissen übereinstimmte.
Forscher bestätigten, dass die KI keinen Zugang zu ihren privaten Ergebnissen hatte, was die übereinstimmende Schlussfolgerung noch bedeutender macht.
Google kündigte gestern öffentlich das Co-Scientist-System an und stellt es Forschern über ein neues Testprogramm zur Verfügung.
Warum es wichtig ist:
Es dauerte nicht lange, bis Co-Scientist bereits atemberaubende Nachrichten machte, und es ist nur ein Vorgeschmack auf eine Zukunft, in der Jahre wissenschaftlicher Durchbrüche in Tage komprimiert werden. Diese Tests zeigen auch, dass KI Wissenschaftler nicht unbedingt ersetzen wird, sondern ihren Entdeckungs- und Validierungsprozess dramatisch beschleunigen wird.
xAIs neues Grok 3-Modell stieß auf Gegenreaktionen, nachdem Benutzer entdeckten, dass es sich weigerte, negative Details über Präsident Donald Trump und Elon Musk zu erwähnen – obwohl Musk die KI als ungefiltert und "maximal wahrheitssuchend" bezeichnete.
Im Detail:
Benutzer fanden heraus, dass Grok zunächst kontroverse Meinungen über Donald Trump äußerte und Musk als den größten Verbreiter von Fehlinformationen bezeichnete.
xAI-Ingenieur Igor Babuschkin sagte, die Antworten seien "wirklich seltsam und ein schlechter Fehler des Modells" und patchte es, indem er Antworten zu diesem Thema verweigerte.
Tage später stellten Benutzer fest, dass Grok 3 angewiesen wurde, Quellen auszuschließen, die Trump und Musk mit kontroversen Themen wie Fehlinformationen in Verbindung bringen.
Babuschkin enthüllte, dass die Person, die für die Zensur verantwortlich ist, ein ehemaliger OpenAI-Mitarbeiter ist und sagte, sie hätten "die Kultur von xAI noch nicht vollständig verinnerlicht".
Separat kritisierten OpenAI-Mitarbeiter xAI dafür, dass sie bei der Veröffentlichung von Grok 3 keine Benchmark-Daten angegeben hatten, wobei Babuschkin die Behauptungen als "völlig falsch" bezeichnete.
Warum es wichtig ist:
Elon hat lange soziale Medienplattformen und KI-Modelle dafür kritisiert, die Meinungsfreiheit zu beschränken – aber ist das, was passiert, wenn sein wahrheitssuchendes Modell seine Weltanschauung herausfordert? Zensierte Ergebnisse wie diese, zusammen mit vorgeschlagenen Änderungen an Community Notes, beginnen Risse in Musks 'unvoreingenommener' Rüstung zu zeigen.
Forscher von Hugging Face haben gerade SmolVLM2 veröffentlicht, die weltweit kleinste KI-Modellfamilie, die Videos auf Alltagsgeräten wie Telefonen und Laptops verstehen und analysieren kann, ohne leistungsstarke Server oder Cloud-Verbindungen zu benötigen.
Im Detail:
Die SmolVLM2-Familie umfasst Versionen mit nur 256M Parametern, die dennoch die Fähigkeiten viel größerer Systeme erreichen.
Das Team hat auch praktische Anwendungen entwickelt, darunter eine iPhone-App für die lokale Videoanalyse und eine Integration für die natürliche Sprachvideonavigation.
Das Flaggschiffmodell der Familie mit 2,2B Parametern übertrifft andere ähnlich große Modelle in wichtigen Benchmarks und läuft auf einfacher Hardware.
Die Modelle sind in mehreren Formaten verfügbar, einschließlich MLX für Apple-Geräte, mit sowohl Python- als auch Swift-APIs, die sofort einsatzbereit sind.
Warum es wichtig ist:
Die Qualität der Modelle, die auf Telefon wird immer besser – und die Möglichkeit, fortschrittliche Videoanalyse lokal auszuführen, ohne Daten in die Cloud zu senden, könnte eine völlig neue Welle von datenschutzfreundlichen Videoanwendungen ermöglichen.
Google hat gerade einen KI-Co-Forscher auf den Markt gebracht, einen Multi-Agenten-Forschungsassistenten (basierend auf Gemini 2.0), der wissenschaftliche Entdeckungen beschleunigt, indem er neue Hypothesen in Bereichen wie Medizin, Genetik und mehr generiert und validiert.
Im Detail:
Das System setzt sechs spezialisierte KI-Agenten ein, die parallel arbeiten, von der Hypothesengenerierung über die Validierung von Forschungsvorschlägen bis hin zur abschließenden Überprüfung.
In Versuchen an der Stanford University und am Imperial College identifizierte das System in nur wenigen Tagen neue Arzneimittelanwendungen und sagte Gentransfermechanismen voraus.
Erste Tests zeigen eine Genauigkeit von über 80 % bei Benchmarks auf Expertenniveau und übertreffen damit sowohl bestehende KI-Modelle als auch menschliche Experten.
Google rollt den Zugang über ein Trusted Tester Program aus und zielt damit auf Forschungsorganisationen weltweit für Versuche in verschiedenen wissenschaftlichen Bereichen ab.
Warum es wichtig ist
Vor kurzem sagte OpenAI-CEO Sam Altman, dass Modelle der nächsten Generation beginnen werden, "neue wissenschaftliche Erkenntnisse" zu entdecken. Googles KI-Co-Forscher scheint nun diesen Weg zu gehen. Was wir sehen, ist die frühe Phase einer neuen Ära, in der KI ein integraler Bestandteil des Werkzeugkastens von Wissenschaftlern sein wird.
Arc Institute und Nvidia haben gerade Evo 2 veröffentlicht, ein Upgrade ihres Genom-Foundation-KI-Modells, das auf über 9 Billionen DNA-Bausteinen von 128.000 Arten (dem gesamten Baum des Lebens) trainiert wurde – was es zum größten KI-System für biologische Forschung und Design macht.
Im Detail:
Das Modell verarbeitet Sequenzen von bis zu 1 Million Nukleotiden Länge und ermöglicht so die Analyse ganzer bakterieller Genome und menschlicher Chromosomen auf einmal.
Evo 2 erreichte bei Tests eine Genauigkeit von 90 % bei der Vorhersage von Krebs verursachenden Genmutationen und entwarf auch erfolgreich funktionierende synthetische Genome.
Das System wurde auf 2.048 NVIDIA H100 GPUs trainiert, wobei seine 40 Milliarden Parameter der Größenordnung von Top-Sprachmodellen entsprechen.
Arc stellt Evo 2 über die BioNeMo-Plattform von NVIDIA frei zur Verfügung, sodass Forscher weltweit die Technologie nutzen und darauf aufbauen können.
Warum es wichtig ist
Während KI-Modelle beginnen, einzelne biologische Aufgaben wie die Proteinfaltung zu meistern, ist Evo 2 eine Verschiebung hin zu Systemen, die den Code des Lebens als Ganzes verstehen. Die Fähigkeit, artenübergreifend in großem Maßstab zu arbeiten, könnte die Art und Weise verändern, wie wir alles von der Medikamentenentwicklung bis hin zu synthetischen Organismen angehen.
Die ehemalige CTO von OpenAI, Mira Murati, hat offiziell Thinking Machines Lab aus dem Stealth-Modus geholt, ein neues KI-Forschungsunternehmen mit der Mission, KI-Systeme durch offene Wissenschaft "allgemein verständlicher, anpassbarer und allgemein leistungsfähiger" zu machen.
Im Detail:
Thinking Machines plant die Entwicklung von Frontier-Modellen mit Schwerpunkt auf Wissenschaft und Programmierung, wobei der Schwerpunkt auf Mensch-KI-Kollaboration und Multimodalität liegt.
Murati hat ein Dreamteam für das Unternehmen zusammengestellt, darunter John Schulman und Barret Zoph von OpenAI sowie Experten von DeepMind, Character AI und Mistral.
Das KI-Labor hat sich auch zur offenen Wissenschaft bekannt und Pläne zur regelmäßigen Veröffentlichung von Fachartikeln, Code, Datensätzen und Modellspezifikationen bestätigt.
Die Vorstellung erfolgt nur sechs Monate, nachdem Murati OpenAI abrupt verlassen hat, "um Zeit und Raum für ihre eigene Erkundung zu schaffen".
Warum es wichtig ist
Der Schritt macht Murati zur neuesten Führungskraft von OpenAI, die ein rivalisierendes Labor gründet, wobei auch Ilya Sutskever SSI Gespräche führt, um mehr als 1 Milliarde US-Dollar einzusammeln. Während das hochkarätige Team sich als neuer Hauptakteur herauskristallisieren könnte, könnte sein Engagement für die offene Wissenschaft der große Katalysator sein, der die Branche zu einer Open-Source-Denkweise drängt.
OpenAI hat gerade SWE-Lancer vorgestellt, einen neuen Benchmark, der die Programmierleistung von KI anhand von realen freiberuflichen Software-Engineering-Jobs messen soll – und LLMs mit insgesamt 1 Million US-Dollar an tatsächlichen Aufgabenauszahlungen auf die Probe stellt.
Im Detail:
SWE-Lancer umfasst über 1.400 freiberufliche Software-Engineering-Aufgaben von Upwork, die von kleinen Fehlerbehebungen bis hin zu hochwertigen Feature-Implementierungen reichen.
Der Benchmark bewertet sowohl die Codierungs- als auch die technischen Managemententscheidungen von LLMs und fordert sie heraus, Code zu schreiben und Engineering-Vorschläge auszuwählen.
Er führt monetäre Metriken ein, wobei der Erfolg daran gemessen wird, wie viel ein Modell theoretisch "verdienen" könnte, indem es Aufgaben korrekt erledigt.
Alle Top-Modelle hatten mit dem Benchmark zu kämpfen, wobei Claude 3.5 Sonnet am besten abschnitt – fast die Hälfte der Aufgaben löste und 400.000 US-Dollar von den 1 Million US-Dollar verdiente.
Warum es wichtig ist
Die Benchmarks erhöhen ihren Schwierigkeitsgrad, um die zunehmend leistungsfähige KI richtig zu bewerten, aber es ist schwer zu erkennen, dass einer dieser Tests der Zeit standhält. Und obwohl Modelle mit dem Benchmark "zu kämpfen" hatten, sind 400.000 US-Dollar kein Witz – und ein gutes Beispiel für das Ausmaß der Verdrängung, die in der Entwicklungsarbeit bevorsteht....
Elon Musk und xAI haben Grok-3 als "die intelligenteste KI der Erde" vorgestellt – die in Mathematik, Naturwissenschaften und Programmieraufgaben eine SoTA-Leistung erzielt und Gemini-2 Pro, Claude 3.5 Sonnet und GPT-4o bei wichtigen Benchmarks übertrifft.
Im Detail:
Das Hauptmodell Grok-3 wird langsam über die Grok-App ausgerollt, und eine kleinere Grok-3-Mini-Version verspricht schnellere Antworten.
Beide Modelle führten die AIME'24-, GPQA- und LiveCodeBench-Benchmarks an, wobei eine frühe Version von Grok-3 in der Chatbot Arena auf Platz 1 rangierte.
Die Modelle verfügen auch über Reasoner-Variationen, bei denen sie wie OpenAIs o3-mini und DeepSeek R1 über Probleme "nachdenken". Sie unterstützen auch die Tiefenforschung.
Die Modelle wurden mit 10x mehr Rechenleistung als Grok-2 trainiert, wobei der Colossus-Supercomputer von xAI mit 200.000 H100-GPUs verwendet wurde (was beweist, dass die Skalierungsgesetze gelten).
Warum es wichtig ist
Grok-3 positioniert das zweijährige xAI an der Spitze des KI-Wettlaufs. Es wird jedoch interessant sein zu sehen, wie lange seine Führung anhält, da OpenAI sich darauf vorbereitet, GPT-4.5 zu starten, gefolgt von einem einheitlichen GPT-5. Anthropic, DeepMind und chinesische Akteure wie Alibaba und DeepSeek machen ebenfalls große Fortschritte in diesem Bereich.
Meta startet eine neue Initiative zur Entwicklung von KI-, Hardware- und Softwareplattformen für humanoide Roboter, mit dem Ziel, der grundlegende Technologieanbieter für die Branche zu werden, anstatt Konsumgüter zu bauen.
Im Detail:
Ein neues Team innerhalb der Reality Labs-Abteilung von Meta, das vom ehemaligen Cruise-CEO Marc Whitten geleitet wird, wird sich auf Roboterhardware, KI-Systeme und Sicherheitsstandards konzentrieren.
Meta plant, seine bestehende KI- und Sensortechnologie aus der AR/VR-Entwicklung zu nutzen, um eine Softwareplattform zu schaffen, auf der andere Hersteller aufbauen können.
Meta hat Berichten zufolge potenzielle Partnerschaften mit Robotikunternehmen wie Unitree und Figure AI erörtert, wobei der Schwerpunkt zunächst auf Haushaltsrobotern liegt.
Obwohl das Unternehmen keinen eigenen Roboter plant, will es eine zugrunde liegende Plattform bereitstellen, ähnlich wie Android Smartphones antreibt.
Warum es wichtig ist
Alle scheinen in das Robotikgeschäft einzusteigen, mit Berichten, dass auch Apple und OpenAI den hart umkämpften Sektor erkunden. Während Meta über die Infrastruktur und die Ressourcen verfügt, um mitzuhalten, könnte der kolportierte Fokus auf den Aufbau einer Basisschicht einen einzigartigen Weg von anderen Wettbewerbern darstellen, die ihre eigenen Roboter entwickeln.
Perplexity hat gerade sein eigenes Deep Research Tool auf den Markt gebracht, einen KI-gestützten Forschungsagenten, der in wenigen Minuten detaillierte Berichte liefert – und direkt mit ähnlichen (und gleichnamigen) Angeboten von OpenAI und Google konkurriert.
Im Detail:
Deep Research führt autonom Dutzende von Suchen durch, liest Hunderte von Quellen und fasst die Ergebnisse in einem strukturierten Bericht in 2-4 Minuten zusammen.
Das Tool zeichnete sich bei Humanity's Last Exam aus und erreichte 21,1 % und übertraf damit Gemini Thinking (6,2 %) und Grok-2 (3,8 %) – blieb aber hinter den 26,6 % von OpenAI zurück.
Im Gegensatz zu OpenAIs aktueller Paywall von 200 US-Dollar pro Monat für sein Deep Research ist das Tool von Perplexity für Gelegenheitsnutzer kostenlos (5 pro Tag), während Pro-Nutzer mehr Nutzung erhalten.
Perplexity-CEO Aravind Srinivas stichelte auf X gegen OpenAI-CEO Sam Altman und sagte, er habe ihn mit der neuesten Veröffentlichung des Unternehmens "gemoggt".
Warum es wichtig ist
Die Zeit, die es dauert, von Premium-Funktionen zu kostenlosen Alternativen zu gelangen, wird immer kürzer, wobei Perplexity OpenAI direkt unterbietet (obwohl frühe Bewertungen gemischt waren). Aber da alle KI-Führer diese Tools vorantreiben, ist die Frage nicht, ob KI die Forschungsabläufe verändern wird – sondern wie bald sie zur Norm wird.
Online-Händler sind verpflichtet, ihre Shops bis spätestens Ende Juni 2025 an das Barrierefreiheitsstärkungsgesetz (BFSG) anzupassen. Dies gilt auch für bestimmte Produkte wie E-Books und elektronische Geräte, die sowohl online als auch im Ladengeschäft den Zugänglichkeitsanforderungen entsprechen müssen.
Es ist entscheidend, das Angebot und die Shopsoftware rechtzeitig zu überarbeiten, um den gesetzlichen Vorgaben zu entsprechen. Versäumnisse können nicht nur rechtliche Konsequenzen nach sich ziehen, sondern auch potenzielle Kunden ausschließen, die auf barrierefreie Angebote angewiesen sind. Auch wenn Kleinstunternehmen nicht verpflichtet sind, ihre Webseiten barrierefrei zu gestalten, ist es aus wirtschaftlichen Gründen ratsam, diese Anforderungen umzusetzen.
Das französische KI-Labor Mistral hat gerade neue iOS- und Android-Apps für seinen "le Chat"-Assistenten vorgestellt, zusammen mit einem großen Plattform-Update, das verbesserte Antwortgeschwindigkeiten und Optionen für den Unternehmenseinsatz bietet.
Details
Die App verfügt über Kernfunktionen wie Websuche, Dokumentenverarbeitung, Code-Interpreter und Bildgenerierung, die durch das Flux Ultra-Modell von BFL unterstützt werden.
Mistral hat auch eine neue Funktion namens "Blitzantworten" eingeführt, die Antworten mit über 10-facher Geschwindigkeit im Vergleich zu Wettbewerbern wie ChatGPT und Claude verarbeitet.
Neue Preisstufen beinhalten einen kostenlosen Plan, eine Pro-Stufe für 14,99 USD/Monat, eine Team-Stufe für 24,99 USD/Benutzer/Monat und eine Unternehmensoption mit maßgeschneiderter Bereitstellung.
Unternehmenskunden erhalten einzigartige Bereitstellungsflexibilität mit Optionen für die Installation vor Ort und die Implementierung benutzerdefinierter Modelle.
Warum es wichtig ist
Obwohl die Modelle von Mistral nicht die Branchenführer sind, zeigt der Fokus auf Geschwindigkeit und flexible Bereitstellungsoptionen, wie sich die KI-Assistenten-Kriege von reinen Fähigkeiten zu praktischen Vorteilen wie Leistung und Unternehmensfunktionen verlagern – und jetzt mehr Funktionen bieten könnten, um eine breitere Nutzerbasis anzusprechen.
In diesem Tutorial erfahren Sie, wie Sie ChatGPT o3-mini verwenden können, um Unternehmensdaten automatisch zu analysieren und personalisierte Outreach-E-Mails in großem Maßstab zu erstellen, indem Sie die Analyse- und Websuchfähigkeiten nutzen.
Schritt-für-Schritt:
Strukturieren Sie Ihre Unternehmensdaten mit wichtigen Details wie Name, Kontaktinformationen und neuesten Updates in einem klaren Format für ChatGPT.
Definieren Sie Ihre Outreach-Ziele und konfigurieren Sie Ihren AI-Prompt mit Anweisungen für Ton und Struktur, um personalisierte E-Mails zu generieren.
Nutzen Sie die Websuche von o3-mini, um neue potenzielle Kunden zu finden und detaillierte E-Mails basierend auf deren Updates zu generieren.
Pro-Tipp: Erstellen Sie einen automatisierten Workflow mit Operator, der nach neuen Unternehmen sucht, E-Mails generiert und diese direkt in Ihrem E-Mail-Client entwirft.
Der Mitbegründer von OpenAI und Hauptarchitekt von ChatGPT, John Schulman, hat Berichten zufolge das KI-Startup Anthropic nach nur fünf Monaten verlassen, was eine weitere bedeutende Veränderung von einer führenden Persönlichkeit auf dem Gebiet darstellt.
Schulman trat im August Anthropic bei und nannte als Grund das Bedürfnis, sich intensiver mit der Forschung zur KI-Ausrichtung und praktischen technischen Arbeiten zu befassen.
Schulman verbrachte zuvor 9 Jahre bei OpenAI als Teil des Gründungsteams und gilt als Schlüsselfigur bei der Entwicklung von ChatGPT.
Weder Schulman noch Anthropic haben die Gründe für den unerwarteten Abgang näher erläutert.
Anthropic's Chief Science Officer, Jared Kaplan, unterstützte Schulmans Entscheidung, sich neuen Möglichkeiten zuzuwenden, in einer Stellungnahme gegenüber Bloomberg.
Warum es wichtig ist:
Die Spitzenpositionen bei den KI-Führern sind ständig im Wandel. Schulmans anfänglicher Wechsel zu Anthropic, das sich auf Sicherheit fokussiert, wurde als bedeutender Schritt gesehen – und obwohl gemunkelt wird, dass das Startup ein Modell auf o3-Niveau hinter verschlossenen Türen hat, ist das Tempo der Markteinführung (zumindest im Endkundenbereich) seit dem 3.5 Sonnet zum
Google hat gerade mehrere neue KI-Modelle in seiner Gemini 2.0-Reihe vorgestellt, darunter das heiß erwartete Pro Experimental und das kostengünstige Flash und Flash Lite, die auch das Flash Thinking-Reasoning-Modell für alle App-Benutzer verfügbar machen.
Die Details:
Das 2.0 Pro Exp. Modell verfügt über ein großes 2-Millionen-Token-Kontextfenster und ist hervorragend für Codierungsaufgaben geeignet, mit erweiterten Fähigkeiten für komplexe Eingabeaufforderungen und Weltwissen.
Ein neues, budgetfreundliches 2.0 Flash-Lite-Modell bietet eine bessere Leistung als das 1.5 Flash, während es die gleiche Geschwindigkeit und Preisgestaltung beibehält.
Das 2.0 Flash Thinking Experimental-Reasoning-Modell ist jetzt kostenlos in der Gemini-App verfügbar und zeigt Benutzern in Echtzeit Schritt-für-Schritt-Denkprozesse.
Alle neuen Modelle verfügen über multimodale Eingabefunktionen, mit Ausgaben wie Bildgenerierung und Text-zu-Sprache, die in den kommenden Monaten geplant sind.
Warum es wichtig ist:
Google hat den Sprung gewagt, auf den viele gewartet haben, mit seinem Flaggschiffmodell 2.0 Pro - aber im Gegensatz zu den leistungsstarken Veröffentlichungen im Dezember, die große Fortschritte gegenüber der Konkurrenz darstellten, wirken die Benchmarks des 2.0 Pro im Vergleich zu 1.5 Pro und dem aktuellen Hype um die neuesten Veröffentlichungen von OpenAI etwas enttäuschend.
Nvidia und Forscher der Carnegie Mellon University haben gerade ASAP vorgestellt, ein KI-Framework, das humanoiden Robotern ermöglicht, komplexe Bewegungen aus Simulationen zu lernen – und damit die Nachbildung ikonischer Feierlichkeiten und Bewegungen von Profisportlern erlaubt.
Die Details:
Das System arbeitet in zwei Phasen: anfängliches Training in der Simulation, gefolgt von einem spezialisierten neuronalen Netzwerk, das Bewegungen an die realen physikalischen Gegebenheiten anpasst.
Unitree G1-Roboter demonstrierten in Tests komplexe Bewegungen, einschließlich der Nachbildung von Bewegungen von Athleten wie LeBron James und Cristiano Ronaldo.
Das Framework reduzierte Bewegungsfehler um 53 % im Vergleich zu bestehenden Methoden – ein großer Fortschritt bei der Überbrückung der Lücke zwischen virtuellem und physischem Training.
Hardware-Einschränkungen bleiben eine Herausforderung, da zwei Testrahmen aufgrund überhitzter Motoren während intensiver Bewegungen beschädigt wurden.
Warum es wichtig ist:
Die Beschleunigung der Bewegungsfähigkeiten von Robotern im letzten Jahr war atemberaubend – und wie könnte man das besser demonstrieren als durch einige der weltweit bekanntesten Feierlichkeiten? Da das Training schneller und effizienter wird, könnte der nächste Schritt darin bestehen, dass Roboter selbst das Spielfeld in eigenen Ligen betreten.
OpenAI hat gerade eine Markenanmeldung eingereicht, die alles von humanoiden Robotern bis hin zu KI-Wearables abdeckt, was auf Ambitionen hinweist, in physische Produkte durch Partnerschaften mit Hardware-Veteranen wie dem ehemaligen Apple-Designer Jony Ive einzusteigen.
Die Details:
Die Anmeldung umfasst intelligente Schmuckstücke, VR/AR-Headsets, Wearables für „KI-unterstützte Interaktion“, Smartwatches und mehr.
Ebenfalls aufgeführt sind „benutzerprogrammierbare humanoide Roboter“ und Roboter mit „Kommunikations- und Lernfunktionen zur Unterstützung und Unterhaltung von Menschen“.
OpenAI wurde häufig mit Jony Ive in Verbindung gebracht, wobei Sam Altman letzte Woche bekräftigte, dass er hofft, gemeinsam mit ihm ein AI-first-Telefon zu entwickeln.
Das Unternehmen hat kürzlich damit begonnen, sein Robotik-Team wieder aufzubauen, wobei Figure AI diese Woche abrupt seine Kooperationsvereinbarung mit OpenAI beendet hat.
Warum es wichtig ist:
Während der Wettbewerb im Bereich der Verbraucherelektronik vor einigen Jahren noch absurd erschien, könnte Apples turbulente Einführung von KI und das beispiellose Wachstum von OpenAI ein neues Fenster der Gelegenheit bieten. Altman hat auch gesagt, dass die Fortschritte in der KI eine „neue Art von Hardware“ erfordern – und vielleicht sind Humanoide genau die endgültige Form, die er sich vorstellt.
Forscher der Johns Hopkins University haben gerade AbdomenAtlas erstellt, ein KI-gestütztes Datenset mit 45.000 3D-CT-Scans und 142 annotierten anatomischen Strukturen, das die medizinische Bildanalyse zur frühzeitigen Krebsentdeckung dramatisch beschleunigt.
Die Details:
Das Datenset ist 36 Mal (!) größer als das seines nächsten Konkurrenten und kombiniert Scans aus 145 Krankenhäusern weltweit.
Mithilfe von KI und 12 Expertendiagnostikern schloss das Team in zwei Jahren ab, was Menschen 2.500 Jahre gekostet hätte.
Das System erreichte eine 500-fache Beschleunigung der Organannotation und eine 10-fache Beschleunigung der Tumorerkennung.
Das Team plant, AbdomenAtlas öffentlich zugänglich zu machen und weiterhin mehr Scans, Organe und Tumordaten hinzuzufügen.
Warum es wichtig ist:
AbdomenAtlas könnte die frühzeitige Krebsentdeckung revolutionieren, indem es KI-Modellen viel umfangreichere Trainingsdaten liefert. Allerdings stellt es selbst mit 45.000 Scans nur 0,05 % der jährlichen CT-Scans in den USA dar – was verdeutlicht, wie früh wir noch beim Aufbau wirklich umfassender medizinischer KI-Systeme sind.
SoftBank hat gerade ein jährliches Engagement in Höhe von 3 Milliarden USD für OpenAI-Technologie angekündigt und gleichzeitig 'Cristal Intelligence' eingeführt, ein Joint Venture, das maßgeschneiderte OpenAI-Tools exklusiv für japanische Unternehmen bereitstellt.
Die Details:
SoftBank wird jährlich 3 Milliarden USD für OpenAI-Technologie in seinen Tochtergesellschaften, darunter Arm und PayPay, ausgeben.
Cristal Intelligence wird eine spezialisierte Geschäftsversion von ChatGPT und die OpenAI-API anbieten, die exklusiv in Japan verfügbar ist.
Das Joint Venture zielt darauf ab, sichere, maßgeschneiderte Unternehmensintegrationen bereitzustellen und möglicherweise mit traditionellen Beratungsfirmen zu konkurrieren.
Diese Partnerschaft folgt auf SoftBanks Beteiligung an "Stargate", einer 500-Milliarden-USD-Rechenzentrumsinitiative mit OpenAI und Oracle.
Warum es wichtig ist:
Dieses massive Investment (3 Milliarden USD pro Jahr) signalisiert Japans ernsthaften Vorstoß in das globale KI-Rennen durch SoftBanks wachsende Allianz mit OpenAI. Mit ihrer jüngsten Stargate-Partnerschaft und jetzt Cristal Intelligence setzt SoftBank alles daran, die Infrastruktur für den dominierenden KI-Einsatz in Asien aufzubauen.
Anthropic hat gerade die Constitutional Classifiers vorgestellt, ein neues KI-Sicherheitssystem mit vielversprechenden Ergebnissen, und lädt die Öffentlichkeit ein, es nach über 3.000 Stunden erfolgloser Bug-Bounty-Versuche auf Herz und Nieren zu testen.
Die Details:
Das System verwendet KI, um Trainingsdaten in mehreren Sprachen und Schreibstilen zu generieren, was ihm hilft, vielfältige Jailbreak-Versuche zu erkennen.
In Tests gegen 10.000 fortgeschrittene Jailbreak-Versuche blockierte es 95,6 % der Angriffe, verglichen mit nur 14 % bei ungeschütztem Claude.
183 Bug-Bounty-Jäger verbrachten über 3.000 Stunden damit, zu versuchen, das System für eine Belohnung von 15.000 USD zu knacken, aber niemand gelang es, es vollständig zu jailbreaken.
Anthropic lädt die Öffentlichkeit ein, das System bis zum 10. Februar zu testen.
Warum es wichtig ist:
Da KI-Modelle immer leistungsfähiger werden, ist es entscheidend, zu verhindern, dass sie manipuliert werden, um Schaden zu verursachen. Während die meisten Unternehmen hauptsächlich auf Training für die KI-Sicherheit setzen, zeigt Anthropics neuer Ansatz, KI zu verwenden, um Jailbreaks zu erkennen, vielversprechende Ergebnisse, und die Öffnung für öffentliche Tests unterstreicht ihr Engagement für sicherere KI.
Die Europäische Union hat eine Investition von 56 Millionen USD angekündigt, um OpenEuroLLM zu entwickeln, ein neues Open-Source-Model für große Sprachmodelle, das mit allen 30 europäischen Sprachen arbeitet.
Die Details:
Das Projekt wird EU-Supercomputer wie Spaniens Mare Nostrum und Italiens Leonardo nutzen.
Während 56 Millionen USD im Vergleich zu den gemeldeten 40 Milliarden USD von OpenAI winzig sind, sind sie das Zehnfache dessen, was DeepSeek für ihr Durchbruchsmodell ausgegeben haben soll.
Die Initiative verspricht vollständig offene Modelle, Software und Daten, die für spezifische Sektoren wie Gesundheitswesen und Banken angepasst werden können.
Ziel ist es, ein Open-Source-LLM zu schaffen, auf dem europäische Unternehmen und Regierungen aufbauen können, wobei EU-Werte "integriert" sind.
Warum es wichtig ist:
Nach Jahren der intensiven Prüfung und Fokussierung auf KI-Regulierung tritt die EU nun endlich (…mehr oder weniger) in das KI-Rennen ein. Während 56 Millionen USD im Vergleich zu den großen KI-Giganten, die Milliarden investieren, winzig erscheinen, könnte die EU in spezialisierten, branchenspezifischen KI-Anwendungen erfolgreich sein, insbesondere nach DeepSeeks jüngstem Erfolg mit
OpenAI hat gerade Deep Research vorgestellt, eine neue ChatGPT-Funktion, die umfangreiche Webrecherchen zu komplexen Themen durchführt und detaillierte Berichte mit Zitaten in weniger als 30 Minuten liefert.
Die Details:
Das System verwendet eine spezialisierte Version von o3, um Text, Bilder und PDFs aus mehreren Quellen zu analysieren und umfassende Forschungsergebnisse zu erstellen.
Der anfängliche Zugriff ist auf Pro-Abonnenten (200 USD/Monat) mit 100 Abfragen/Monat beschränkt. Wenn die Sicherheitsmetriken stabil bleiben, wird es innerhalb weniger Wochen auf Plus- und Team-Benutzer ausgeweitet.
Forschungstätigkeiten dauern zwischen 5 und 30 Minuten, wobei die Benutzer zu Beginn eine Liste mit klärenden Fragen erhalten und benachrichtigt werden, wenn die Ergebnisse fertig sind.
Deep Research erreichte 26,6 % bei Humanity’s Last Exam und übertraf damit andere KI-Modelle wie Gemini Thinking (6,2 %) und GPT-4o (3,3 %) deutlich.
Warum es wichtig ist:
ChatGPT glänzt bei schnellen, sofortigen Antworten, aber Deep Research stellt den ersten großen Versuch dar, komplexe Aufgaben zu bewältigen, die Menschen Tage kosten. In Kombination mit der Veröffentlichung von Operator verschiebt sich die Landschaft hin zu längeren Überlegungen mit autonomen Aktionen – und besseren
Am Freitag hat OpenAI o3-mini veröffentlicht, ein neues kostengünstiges Reasoning-Modell, das fortschrittliche MINT-Fähigkeiten sowohl für kostenlose als auch für bezahlte Benutzer bietet und dabei die Kosten und Antwortzeiten im Vergleich zu früheren Versionen erheblich reduziert.
Die Details:
Kostenlose Benutzer können zum ersten Mal über o3-mini auf Reasoning-Funktionen zugreifen, während bezahlte Benutzer erweiterte Ratenlimits von bis zu 150 Nachrichten pro Tag erhalten.
o3-mini zeigt besondere Stärken in technischen Bereichen wie Mathematik und Programmierung und erreicht oder übertrifft dabei die Leistung von o1, während es 24 % schneller reagiert.
Entwickler können auch den „Reasoning-Effort“ mit drei Einstellungen – niedrig, mittel und hoch – anpassen, um Geschwindigkeit und Genauigkeit für verschiedene Anwendungsfälle in Einklang zu bringen.
Das System kostet 63 % weniger im Betrieb als sein Vorgänger und senkt den Preis auf 1,10 USD pro Million Eingangstoken, während es eine wettbewerbsfähige Leistung beibehält.
Warum es wichtig ist:
DeepSeek hat in der vergangenen Woche die Schlagzeilen dominiert, aber OpenAI hat immer ein weiteres Ass im Ärmel. o3-mini wird der kostenlosen KI-Benutzerschicht ihre erste „Reasoning“-Erfahrung bieten – und mit dem vollständigen o3, das in „weniger als ein paar Monaten“ kommt, steht der nächste Schritt im Modellzyklus
Mit diesem Tutorial können Sie ein leistungsstarkes KI-Browser-Automatisierungstool auf Ihrem Computer ausführen, das Webbrowser steuern und Aufgaben autonom ausführen kann, ohne teure Abonnements wie den 200 USD/Monat-Plan von ChatGPT zu bezahlen.
Schritt-für-Schritt-Anleitung:
Laden Sie Ollama herunter und installieren Sie ein Sprachmodell (z. B. deepseek-r1:14b oder qwen2.5:7b).
Klonen Sie das Web-Interface-Repository mit git clone. (https://github.com/browser-use/web-ui.git)
Richten Sie die Python-Umgebung ein und installieren Sie die Abhängigkeiten.
Starten Sie die Oberfläche, konfigurieren Sie Ihren KI-Assistenten und sehen Sie, wie er Webaktionen für Sie ausführt.
Profi-Tipp: Beginnen Sie mit grundlegenden Aufgaben, um die Fähigkeiten des Systems zu verstehen, bevor Sie zu komplexeren
OpenAI veranstaltete eine Reddit AMA nach der Veröffentlichung des o3-mini-Modells, bei der CEO Sam Altman, CPO Kevin Weil und andere Fragen zu offenen Antworten auf offene Technologie und zukünftige Funktionen und Modelle beantworteten.
Die Details:
Altman offenbarte, dass er persönlich glaubt, dass „wir auf der falschen Seite der Geschichte“ seien und dass OpenAI eine Strategie finden muss.
Der CEO sagte auch, dass er vermute, dass das vollständige o3 in „mehr als ein paar Wochen, weniger als ein paar Monate“ veröffentlicht wird.
Altman äußerte sich auch zu DeepSeek und nannte es ein „sehr gutes Modell“ und sagte, dass OpenAI „bessere Modelle produzieren wird, aber weniger Vorsprung behalten wird.“
Weil bot einige Einblicke in kommende Veröffentlichungen an und sagte, dass bald mehr Agenten und ein neuer Bildgenerator verfügbar sein werden.
Warum es wichtig ist:
Die größte Schlagzeile ist die Kommentierung zu Open Source, die größte Kritik, die OpenAI gegenübersteht. Obwohl keine Änderungen unmittelbar bevorstehen (Altman sagte, nicht jeder im Unternehmen stimmt mit seiner Meinung überein und es ist nicht eine hohe Priorität), würde eine Änderung in irgendeiner Weise ein paradigmatisches Ereignis für die gesamte Branche
Die Mitte letzten Jahres final verabschiedete KI-Verordnung tritt ab diesem Februar schrittweise in Kraft. Das bedeutet, ab dem 2. Februar 2025 gelten diverse Verbote und eine umfassende Schulungspflicht, die fast alle Unternehmen betreffen.
Für Unternehmen, die KI in ihren betrieblichen Prozessen einsetzen, wird es besonders wichtig, dass ihre Mitarbeitenden, die mit KI in Berührung kommen, ein ausreichendes Maß an KI-Kompetenz haben.
Die Details:
-Keine unterschwellige Manipulation und Beeinflussung von Personen.
-Kein Ausnutzen von Schutzbedürftigen.
-Kein Social-Scoring, also keine Bewertung und Schlechterstellung von Personen.
-Keine Risikobewertungen bezüglich möglicher zukünftiger Straftaten.
-Keine Erstellung von Gesichtsdatenbanken durch Bildmaterial aus dem Internet.
-Keine Erkennung und Auswertung von Emotionen natürlicher Personen, beispielsweise am Arbeitsplatz.
-Keine Kategorisierung von Personen anhand biometrischer Daten wie Rasse, Religion oder Orientierung.
-Keine biometrische Echtzeit-Fernidentifizierung zu Strafverfolgungszwecken (außer in Ausnahmefällen wie Terrordrohungen, Entführungen oder Menschenhandel).
Diese neuen Vorschriften sollen sicherstellen, dass KI verantwortungsvoll und ethisch eingesetzt wird. Es ist entscheidend, dass Unternehmen sich dieser Herausforderung stellen und ihre Mitarbeitenden entsprechend schulen.
Ab dem 01.01.2025 sind Unternehmen in Deutschland im B2B-Bereich dazu verpflichtet, elektronische Rechnungen auszustellen.
Was ist eine elektronische Rechnung?
Eine elektronische Rechnung ist ein Dokument in einem strukturierten Format, das eine automatische Verarbeitung ermöglicht. Dazu zählen Formate wie die XRechnung oder das ZUGFeRD-Format ab Version 2.0.1.
Wichtig: PDF-Rechnungen, die per E-Mail versendet werden, gelten ab dem 01.01.2025 nicht mehr als elektronische Rechnungen und erfüllen die neuen Vorschriften nicht. Diese werden als „sonstige Rechnungen“ eingestuft.
Pflichten zur Rechnungsstellung:
Ab dem 01.01.2025: Elektronische Rechnungen im neuen Format sind Pflicht, sofern keine Übergangslösung besteht.
Übergangsfrist bis 31.12.2026: Bis dahin dürfen Rechnungen in Papierform oder in anderen elektronischen Formaten (mit Zustimmung des Empfängers) verwendet werden.
Bis 31.12.2027: Unternehmen, die im Jahr 2026 weniger als 800.000 Euro Umsatz gemacht haben, können weiterhin Papier- oder andere elektronische Rechnungen (mit Zustimmung des Empfängers) verwenden.
Unternehmen mit einem Umsatz von über 800.000 Euro: Dürfen bis 31.12.2027 Rechnungen im EDI-Verfahren ausstellen.
Ab dem 01.01.2028: Nur noch elektronische Rechnungen im neuen Format sind erlaubt.
Die Pflicht zum Empfang und zur Verarbeitung von elektronischen Rechnungen gilt ab dem 01.01.2025 für alle B2B-Transaktionen, unabhängig von den Übergangsregelungen.
Hinweis: Auch Unternehmen, die ausschließlich an Endverbraucher verkaufen, müssen in der Lage sein, elektronische Rechnungen von Lieferanten oder Geschäftspartnern zu empfangen.
Infos und Quellenangaben im Impressum.
*Dieser Blog ist komplett automatisiert und KI generiert.
Ein AI Agent findet die neuesten KI Entwickulngen, formatiert diese, wartet auf Freigabe und postet diese nach Bestätigung.
Falls Sie ebenfalls Automatisierungen jeglicher Art auf Ihrer Webseite implementieren möchten kontaktieren Sie uns.