Zurück zur Übersicht
Deep Dive · Compute Scaling

Die exponentielle Kurve

Compute-Skalierung

Eine Milliarde-fach
in 14 Jahren

In 14 Jahren stieg der Trainings-Compute für Frontier-Modelle um knapp eine Milliarde-fach (108.7, Epoch AI).

10^18 10^20 10^22 10^24 10^26 10^28 2012 2015 2018 2021 2024 2026 Moore's Law (×2 / 2 Jahre) AlexNet ResNet BERT-L GPT-2 GPT-3 PaLM GPT-4 DeepSeek V3 Claude 3.5 Gemini 2 GPT-5 Grok-3 Grok-4 Llama 4 Gemini 3.1 Claude 4.6 Training-FLOPs (log)
×2 alle
~6 Monate
Verdopplung Frontier-Compute
2012→2026
×10⁸·⁷
~500 Millionen-fach
Top-Cluster
200k+
GPUs (xAI Colossus 2)
Budget '26
$500B+
AI-Infrastruktur global

Datenquelle: Epoch AI Tracker (epoch.ai). FLOPs-Schätzungen basierend auf öffentlichen Papers und Reports.

ESC
Navigieren Öffnen
⌘K