Stanford AI Index 2026: China hat aufgeholt, Transparenz kollabiert
Der jährliche AI Index aus Stanford ist die nüchternste Bestandsaufnahme der Branche. Diesjährige Headline: USA noch vorn, aber nur noch um 1,7 Punkte. Plus: Cyber-Modelle bei OpenAI und Anthropic, Metas Rückkehr ins Rennen.
Das Wichtigste in 30 Sekunden
- Stanford AI Index 2026 — China hat den US-Performance-Vorsprung von 9,3 auf 1,7 Punkte reduziert. AI-Adoption: 88% in Organisationen. Transparency Index: von 58 auf 40 gefallen.
- OpenAI launcht GPT-5.4-Cyber an verifizierte Sicherheitsforscher — direkte Antwort auf Anthropics Mythos-Preview eine Woche zuvor.
- Meta veröffentlicht Muse Spark — erstes proprietäres, multimodales Reasoning-Modell aus den Meta Superintelligence Labs. Bruch mit der Open-Source-Linie der Llama-Ära.
- SoftBank organisiert Japan-AI — Konsortium mit NEC, Honda, Sony für ein 1T-Parameter-Foundation-Model bis Ende des Jahrzehnts.
Stanford AI Index: Eine Branche im Sturzflug der eigenen Annahmen
Wenn ein Bericht der Branche die Sprache gibt, dann der Stanford AI Index. Die 2026er Ausgabe (HAI-Übersicht) liest sich an mehreren Stellen als ein Katalog gebrochener Erwartungen — und zwar nicht in die Richtung, die Optimisten sich gewünscht hätten.
Die Headline-Number: Der Performance-Gap zwischen den führenden US- und chinesischen Frontier-Modellen ist auf 1,7 Punkte geschrumpft. Anfang 2024 lag der Abstand noch bei 9,3 Punkten. Das ist nicht graduelle Aufholjagd — das ist Konvergenz in Industrie-Geschwindigkeit. Die Antriebsfaktoren: chinesische Lab-Effizienz (DeepSeek, Qwen, Kimi), strategische US-Talent-Abwanderung (H-1B-Restriktionen treiben chinesische Top-Forscher zurück), und rapide Verbesserung der chinesischen Compute-Infrastruktur trotz Export-Restriktionen.
Zwei weitere Befunde gehen in die gleiche Richtung. Erstens: Generative AI hat in drei Jahren 53% Bevölkerungsadoption erreicht — schneller als PC oder Internet. In Organisationen: 88% nutzen mindestens eine GenAI-Anwendung produktiv. Die Diffusion ist vorbei, jetzt geht es um Tiefe. Zweitens: Der Transparency Index der zehn führenden Labs ist von 58 (2024) auf 40 (2026) gefallen. Mehr Einsatz, weniger Einsicht. IEEE Spectrum hat eine ausführliche Analyse, die die Verbindung dieser Trends sauber herausarbeitet.
Die Vertrauenskrise wird quantifiziert: Nur 31% der US-Bürger vertrauen ihrer Regierung bei AI-Regulierung. In Deutschland liegt die Zahl bei 38%. Die einzigen Länder mit Vertrauen über 50%: Singapur, China und Indien — also dort, wo entweder zentralistische Regierungen oder massiv staatlich geförderte AI-Strategien existieren. Das ist ein Befund, der jede westliche AI-Politik-Diskussion neu rahmen müsste.
Und schließlich der Klima-Befund, den niemand groß diskutiert hat: 72.000 Tonnen CO2-Äquivalent für das Training eines Frontier-Modells wie xAI’s Grok 4. Das ist die Größenordnung der Jahresemissionen einer deutschen Kleinstadt. Pro Modell. Und wir trainieren mehrere pro Quartal.
Wer den Index ernst nimmt, muss seine 12-Monats-Annahmen neu kalibrieren. Die geopolitische Achse hat sich in 24 Monaten um eine Größenordnung verschoben — und zwar in Richtung Parität.
Kurz notiert
OpenAI: GPT-5.4-Cyber. Am 14. April beginnt OpenAI die Verteilung eines spezialisierten Cyber-Modells an Hunderte verifizierte Sicherheitsforscher. Zweck: Schwachstellen finden, damit Organisationen sie patchen können. Das ist die direkte Antwort auf Anthropics Mythos-Preview eine Woche zuvor — die „Cyber-Capability als Forschungsinfrastruktur, nicht als Produkt”-Linie verfestigt sich. Bloomberg
Meta veröffentlicht Muse Spark. Erstes proprietäres Modell aus den Meta Superintelligence Labs (MSL). Multimodal, mit Memory und Tool-Use, integriert in Instagram, Facebook, Threads, WhatsApp. Markiert den Bruch mit der Llama-Ära Open-Source-Strategie — Closed Source ist jetzt offizielle Meta-Linie. Meta AI Blog
SoftBank baut Japan-AI-Konsortium. Masayoshi Son hat NEC, Honda, Sony und weitere Industrie-Champions zusammengeschlossen, um bis Ende des Jahrzehnts ein 1T-Parameter-Foundation-Model auf japanischer Hardware-Basis zu entwickeln. Erste Reaktion: Japan akzeptiert, dass es ohne nationales Foundation-Model strategisch ausgeliefert wäre. Die EU sollte sich Notizen machen.
The New Yorker-Nachbeben. Sam Altman hat öffentlich auf Farrows Recherche reagiert; sein Haus wurde Ziel eines Anschlags. Der Tonfall der Industrie-Diskussion über OpenAI-Governance hat sich diese Woche deutlich verschärft. TechCrunch
Vertrauenskrise messbar. Laut Stanford AI Index sagen 67% der weltweit befragten Erwachsenen, dass AI ihren Job in den nächsten zehn Jahren wesentlich verändern wird. Aber nur 23% glauben, dass ihre Regierung sie dabei adäquat schützt. Diese Schere ist die strukturelle Story der nächsten Jahre. Semafor
Zahl der Woche
1,7 Punkte — der verbliebene Performance-Vorsprung der USA gegenüber China bei Frontier-AI-Benchmarks (Stanford AI Index 2026). Anfang 2024 lag der Abstand bei 9,3 Punkten. Diese Konvergenzgeschwindigkeit hat es in keiner früheren Computer-Technologie-Welle gegeben. Wenn die Trendlinie hält, ist die Parität bis Ende 2026 erreicht — und dann beginnt die eigentliche geopolitische Phase der AI-Rivalität.
Leseempfehlung
„Inside the AI Index: 12 Takeaways from the 2026 Report” (Stanford HAI). Die kompakteste Zusammenfassung der 400-Seiten-Analyse. Besonders die Passagen zu Talent-Migration, Compute-Investitionen und Transparency-Erosion sind dicht — und liefern die empirische Grundlage für fast jede Strategie-Diskussion, die du in den nächsten Monaten führen wirst. hai.stanford.edu
Dieses Briefing erscheint jeden Freitag auf agi.jetzt — schau regelmäßig vorbei. Alle Daten live im Dashboard →