GPT-5.4 Pro setzt den neuen Industrie-Standard
OpenAI hat GPT-5.4 Pro mit aggressivem Pricing und 1M-Token-Kontext gelauncht — und damit den Markt für professionelle KI-Anwendungen neu sortiert. Was diese Woche sonst noch wichtig war.
Das Wichtigste in 30 Sekunden
- OpenAI launcht GPT-5.4 Pro — 1M Token-Kontext, 75% bessere Computer-Use, $2,50 pro Million Tokens. Das ist der neue Standard für professionelle KI-Anwendungen.
- DeepSeek bereitet R2 vor — verbesserte MLA-Architektur und Extended Chain-of-Thought; chinesische Antwort auf GPT-5.4, aber Marktwirkung erst mittelfristig.
- Amodei präzisiert Anthropics AGI-Thesis — Nobel-Prize-Level-Capabilities bis 2026/2027 erwartet. Zum ersten Mal mit konkretem Zeitfenster, nicht nur „Powerful AI”.
- EU AI Act Countdown — am 2. August 2026 treten die vollständigen Compliance-Anforderungen für High-Risk-Systeme in Kraft. Die Vorbereitung läuft auf Hochtouren.
GPT-5.4 Pro: Der neue Floor für professionelle KI
OpenAI hat am 5. März GPT-5.4 Pro veröffentlicht, und die Branche braucht ein paar Wochen, um zu realisieren, was passiert ist. Das Modell hebt nicht einfach Benchmarks an — es verschiebt die ökonomische Schwelle, ab der proprietäre Modelle gegen Frontier-APIs noch konkurrieren können.
Die Eckdaten: 1 Million Token Kontextfenster, 75% verbesserte Computer-Use-Capabilities (gemessen an OSWorld), 33% niedrigere Hallucination-Rate bei faktischen Claims, und ein Pricing von $2,50 pro Million Input-Tokens — was GPT-4-Niveau-Capabilities zu einem Bruchteil der GPT-4-Kosten verfügbar macht. TechCrunch berichtete über zwei Varianten: Pro für deterministische Workloads, Thinking für Reasoning-intensive Tasks.
Die strategische Botschaft ist klar: OpenAI will den Mid-Market komplett okkupieren. Was vor zwei Jahren noch Custom-Fine-Tuning oder ein 70B-Open-Source-Deployment rechtfertigt hätte, läuft jetzt schneller, billiger und besser auf der API. Anthropic Claude 4.5 muss antworten — und die Frage ist, ob DeepSeek R2 (siehe unten) das Modell sein wird, das die Open-Source-Landschaft vor der Marginalisierung bewahrt.
Drei Effekte sind schon sichtbar: (a) Die kleinere Anbieter-Schicht (Cohere, AI21, Mistral) verliert weiter an Boden — die Kostenparität zu OpenAI ist nicht mehr darstellbar. (b) Computer-Use wird zur Standard-Capability, nicht zum Premium-Feature. (c) Die nächste Welle Agenten-Frameworks wird auf 1M-Context als Default designed — was wiederum Pricing-Druck auf alle Konkurrenten erzeugt.
Wenn GPT-6 („Spud”) wirklich im Mai kommt, wie Bloomberg andeutet, war GPT-5.4 Pro nur der Aufwärmer.
Kurz notiert
DeepSeek R2 in Vorbereitung. Die chinesische Frontier-Lab arbeitet an einem 1T-Parameter-MoE-Modell mit 32–37B aktiven Parametern pro Task und Extended Chain-of-Thought. Optimiert für Huawei Ascend — wäre das erste echte Frontier-Modell außerhalb der NVIDIA-Welt. Hintergrund bei Spheron
Amodei: Nobel-Prize-Level bis 2027. In mehreren März-Interviews hat Anthropic-CEO Dario Amodei die hauseigene AGI-Thesis konkretisiert: Systeme, die in Naturwissenschaften, Mathematik und Medizin auf Nobelpreis-Niveau Beiträge leisten, hält er bis 2026/2027 für möglich. Das ist eine ungewöhnlich konkrete Vorhersage von einem Lab-Chef. Diskussion auf LessWrong
Google DeepMind + Agile Robots. Strategische Partnerschaft für industrielle Robotik mit Gemini-Backbone-Modellen. Agile Robots ist die nächste in einer Serie von Robotik-Allianzen — DeepMind positioniert sich als Embodied-AI-Stack der Wahl. TechCrunch
EU AI Act: 130 Tage bis Vollzug. Am 2. August 2026 treten die High-Risk-Compliance-Anforderungen vollständig in Kraft. Wer Modelle in regulierte Anwendungen einbettet (Personalauswahl, Kreditvergabe, Medizin, kritische Infrastruktur) hat genau 130 Tage, um Risk-Management-Systeme, Logging und Conformity-Assessments produktiv zu haben. Viele Mittelständler unterschätzen das Tempo. Compliance-Timeline bei Kennedys Law
Meta Applied AI Engineering. Unter Maher Saba hat Meta eine neue Org gegründet, die Foundation-Models in konkrete Produkte überführt. Erstes Sichtbares: ein AI-Shopping-Research-Tool, das ChatGPT-Shopping und Gemini-Shopping direkt angreift. CNBC
Zahl der Woche
$300 Milliarden — globales Venture-Funding im ersten Quartal 2026, ein Allzeithoch. Davon flossen rund $242 Milliarden (80%) in AI-Startups, die Hälfte allein in OpenAI, Anthropic und xAI. Die Konzentration ist historisch beispiellos: Mehr Kapital auf weniger Unternehmen, mit mehr Geschwindigkeit, als irgendeine Branche je gesehen hat. Crunchbase News
Leseempfehlung
„The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness” (Google DeepMind, 10. März). Ein philosophisches Paper, das die Frage aufwirft, warum simulationsbasierte Capability-Steigerung nicht automatisch zu instantiierter Kognition führt — und welche empirischen Marker man bräuchte, um das Gegenteil zu beweisen. Pflichtlektüre für jeden, der AGI-Timelines bewertet. DeepMind Blog
Dieses Briefing erscheint jeden Freitag auf agi.jetzt — schau regelmäßig vorbei. Alle Daten live im Dashboard →