AGI
Artificial General IntelligenceEine KI, die jede intellektuelle Aufgabe lösen kann, die auch ein Mensch lösen kann. Abgrenzung zu ANI (spezialisiert) und ASI (übermenschlich).
Gruppiert nach Themenfeld — so lernst du die Sprache der Frontier-Debatten.
Eine KI, die jede intellektuelle Aufgabe lösen kann, die auch ein Mensch lösen kann. Abgrenzung zu ANI (spezialisiert) und ASI (übermenschlich).
Wie viele Tokens (≈ Wörter) ein Modell gleichzeitig 'im Kopf' haben kann. GPT-4 hatte 8K/32K (GPT-4 Turbo 128K). Claude Opus/Sonnet 4.6 und GPT-5.4 Pro bei 1M, Llama 4 Scout bei 10M.
Text-Einheiten, mit denen KI rechnet. 1 Token ≈ 0.75 Wörter auf Deutsch. 'Hallo Welt' sind ca. 3 Tokens.
Plötzliche neue Fähigkeiten ab einer bestimmten Modellgröße. GPT-3 konnte plötzlich programmieren, GPT-2 nicht. Warum? Weiß niemand.
Neuronale Netzarchitektur von 2017, Basis aller modernen LLMs. Nutzt 'Attention' um Kontext über lange Sequenzen zu verstehen.
Modell-Architektur mit mehreren spezialisierten Sub-Netzwerken. Nur ein Teil wird pro Anfrage aktiviert — effizienter als monolithische Modelle.
Modell versteht und erzeugt verschiedene Datentypen: Text, Bild, Audio, Video. Gemini 3.1 und GPT-5.4 sind nativ multimodal.
Training-Methode, bei der KI durch menschliche Bewertungen 'gut' vs 'schlecht' lernt. Macht aus einem Basis-Modell einen hilfreichen Assistenten.
Wenn ein trainiertes Modell Antworten generiert. Gegensatz: Training = das Modell lernt. Inferenz = das Modell antwortet.
Ein vortrainiertes Modell auf einem spezifischen Datensatz weitertrainieren. Macht aus einem Generalisten einen Spezialisten.
KI, die autonom Aufgaben ausführt: Tools benutzt, Entscheidungen trifft, mit Umwelt interagiert. Unterschied zu einem Chat-Modell: Agents handeln.
KI kombiniert Sprachmodell mit externer Wissensdatenbank. Statt alles im Modell zu speichern, wird bei Bedarf nachgeschlagen.
Von François Chollet entwickelter Benchmark, der explizit abstraktes, menschenähnliches Reasoning misst. Gilt als härtester AGI-Test.
Maßeinheit für Rechenleistung. Ein GPT-4-Training kostete ~2×10²⁵ FLOPs (Epoch AI) — würde auf einem Laptop Tausende Jahre dauern.
Empirische Regeln: Mehr Daten + mehr Compute + mehr Parameter = bessere KI. Grund, warum Labs Milliarden in größere Modelle investieren.
Forschungsfeld: Wie stelle ich sicher, dass KI das tut, was ich will — und nicht nur das, was ich sage? Kernfrage der AGI-Sicherheit.
KI erfindet überzeugend klingende, aber falsche Informationen. Größtes praktisches Problem heutiger LLMs.
Anthropic-Ansatz: KI wird mit einer 'Verfassung' aus Prinzipien trainiert, die sie zur Selbstkritik nutzt. Claude ist das prominenteste Beispiel.