Was ist AGI? Künstliche Allgemeine Intelligenz erklärt

Schlüsselzahlen
Haupterkenntnisse
- 1Keine AGI existiert im Jahr 2026. Der ARC-AGI-Benchmark zeigt noch eine Lücke von etwa 10 % zwischen dem besten KI-System und der menschlichen Baseline. McKinsey schätzt den wirtschaftlichen Einfluss auf 2,6–4,4 Billionen Dollar jährlich.
- 2Experten-Zeitpläne reichen von drei Jahren bis nie. Jährliche F&E-Ausgaben von 21–45 Milliarden Dollar sind ein verlässlicheres Signal als spezifische Daten.
- 3Sicherheitsforscher behandeln die AGI-Schwelle als entscheidenden Zeitpunkt: Alignment-Fragen müssen gelöst sein, bevor diese Kapazitätsschwelle erreicht wird.
AGI – Künstliche Allgemeine Intelligenz – bezeichnet KI, die jede intellektuelle Aufgabe in allen Bereichen auf menschlichem Niveau oder darüber ausführen kann. Kein heutiges System erfüllt diese Definition.
ChatGPT, Claude, Gemini und alle anderen aktuellen KI-Modelle sind schmale Spezialisten. Sie leisten auf ihrem Trainingsgebiet außerordentliche Arbeit, versagen aber bei Aufgaben, die echte Verallgemeinerung erfordern. Der ARC-AGI-Benchmark – das härteste aktuelle Maß für echtes Reasoning – zeigt: Das beste KI-System erreicht 85 % der menschlichen Baseline. Menschen erreichen 95 %.
Über den Zeitpunkt der AGI-Entstehung herrscht keine Einigkeit. Sam Altman von OpenAI schreibt „wenige Jahre". Gary Marcus, Kognitionswissenschaftler an der NYU, sagt „vielleicht nie". Die Metaculus-Prognose-Community hat ihren Median in zwölf Monaten von 2041 auf 2031 vorgezogen – eine Verdichtung von zehn Jahren. Dieser Artikel erklärt, was AGI ist, wie sie sich von heutiger KI unterscheidet, wann Experten sie erwarten und warum die Frage wichtig ist.
In diesem Artikel
Was ist AGI? Die Definition
Es gibt keine einheitliche AGI-Definition, auf die sich alle Forscher geeinigt haben. Vier Rahmenkonzepte kursieren in der Fachliteratur.
**Aufgabenvollständigkeit.** AGI kann jede intellektuelle Aufgabe ausführen, die ein Mensch ausführen kann – unabhängig von Trainingsgebiet oder Vorbereitung. Das ist die intuitivste Definition und die am häufigsten zitierte.
**Wirtschaftliche Äquivalenz.** OpenAIs operative Definition: AGI ist ein System, das die Mehrheit der wirtschaftlich wertvollen kognitiven Arbeit erledigen kann, die heute von Menschen geleistet wird. Dieser Rahmen betont wirtschaftliche Auswirkungen statt intellektueller Vollständigkeit.
**Kognitive Architektur.** DeepMind definiert AGI über kognitive Fähigkeiten: Wahrnehmung, Sprache, Problemlösung, Planung, kreatives Denken, soziales Verständnis und Metakognition – alles auf menschlichem Niveau.
**Bewusstseinsunabhängig.** Die meisten technischen Definitionen klammern Bewusstsein, Emotionen und subjektives Erleben aus. AGI muss keine Gefühle haben, nur leistungsfähig sein.
| Rahmenkonzept | Definition | Vertreter |
|---|---|---|
| Aufgabenvollständig | Jede menschliche Denkaufgabe | Allgemeine Forschungsgemeinschaft |
| Wirtschaftlich | Mehrheit der kognitiven Erwerbsarbeit | OpenAI |
| Kognitiv-architektonisch | Alle menschlichen Kognitionsbereiche | DeepMind |
| Bewusstseinsunabhängig | Leistung ohne Bewusstsein | Technische KI-Forschung |
AGI vs. Schwache KI vs. ASI
Die KI-Forschung unterscheidet drei Entwicklungsstufen. Nur die erste existiert heute.
| Stufe | Name | Definition | Existiert heute? |
|---|---|---|---|
| ANI | Schwache KI / Enge KI | Leistungsstark in einem bestimmten Bereich | Ja |
| AGI | Künstliche Allgemeine Intelligenz | Menschengleiches Denken in allen Bereichen | Nein |
| ASI | Künstliche Superintelligenz | Übertrifft menschliche Intelligenz in jeder Dimension | Nein |
**Schwache KI (ANI)** ist das, womit wir täglich interagieren. ChatGPT ist ANI. AlphaFold ist ANI. Bilderkennungssysteme sind ANI. Alle sind in ihrem spezifischen Trainingsgebiet außerordentlich leistungsfähig und außerhalb davon hilflos.
**AGI** wäre ein System, das eine Aufgabe aufnehmen kann, die es noch nie gesehen hat, und sie löst – so wie ein Mensch in eine fremde Stadt kommt und sich zurechtfindet, einen neuen Job beginnt und ihn lernt oder ein Problem in einem Gebiet anpackt, über das er nur oberflächlich Bescheid weiß.
**ASI** geht über menschliche Intelligenz in jeder Dimension hinaus. Das schließt Kreativität, soziale Intelligenz, Problemlösung und wissenschaftliche Entdeckung ein. Viele Forscher halten ASI für den wichtigsten Punkt der menschlichen Geschichte – wenn er kommt. Andere halten es für theoretisch unmöglich.
Ist ChatGPT eine AGI?
Nein. ChatGPT ist kein AGI, und das ist durch Benchmark-Daten belegbar.
Der ARC-AGI-Benchmark (Abstraction and Reasoning Corpus) wurde speziell entworfen, um echtes Reasoning zu messen – nicht Mustererkennung aus Trainingsdaten. Er besteht aus Aufgaben, die Menschen leicht lösen können, aber deren Lösung nicht in Trainingsdatensätzen zu finden ist.
Das beste aktuelle KI-System – OpenAIs o3 – erreicht auf dem ARC-AGI-Benchmark 85 % der menschlichen Baseline. Menschen erreichen 95 %. Diese 10-Prozentpunkte-Lücke ist die quantifizierte Distanz zwischen dem besten heutigen KI-System und dem untersten Rand der AGI-Definition.
Ein zweites Messverfahren: Energieeffizienz. Das menschliche Gehirn läuft auf etwa 20 Watt. GPT-4 verbraucht schätzungsweise zwischen 500 und 1.000 Watt pro Anfrage an Inferenzinfrastruktur. Das ist kein Beweis gegen AGI, aber ein Hinweis auf fundamentale architektonische Unterschiede.
ChatGPT, Claude und Gemini sind leistungsstarke Text-Generatoren mit breitem Anwendungsbereich. Sie verallgemeinern nicht über ihr Trainingsgebiet hinaus auf die Art, die AGI erfordern würde.
Wann kommt AGI? Experten-Zeitpläne
Die Zeitpläne der führenden Forscher und Unternehmen sind sehr unterschiedlich. Das ist keine Meinungsverschiedenheit aus Unwissen, sondern echte Unsicherheit über ein schwieriges Problem.
| Experte / Quelle | AGI-Zeitplan | Hintergrund |
|---|---|---|
| Sam Altman (OpenAI) | „Wenige Jahre" | CEO des führenden AGI-Labors |
| Demis Hassabis (DeepMind) | 50 % Wahrscheinlichkeit vor 2030 | Wall Street Journal, 2025 |
| Elon Musk | 2025–2026 (wiederholte Schätzungen) | xAI-Gründer |
| Ray Kurzweil | 2029 | Singularitätsforscher, Google |
| Yoshua Bengio | 2030–2050 | Turing-Preisträger, Montréal |
| Gary Marcus | Vielleicht nie | NYU-Kognitionswissenschaftler |
| Geoffrey Hinton | Jahrzehnte oder weniger | Turing-Preisträger |
| Metaculus Community | 2031 (Median) | Prognose-Plattform, n > 1.000 |
Die Metaculus-Daten sind besonders aufschlussreich. In einem einzigen Jahr, 2024, rückte der Gemeinschafts-Median von 2041 auf 2031 vor – eine Verdichtung von zehn Jahren. Das spiegelt die beschleunigten Fortschritte durch GPT-4, o3 und Gemini Ultra wider.
Die Prognosen sind empfindlich gegenüber Annahmen. Wer glaubt, dass aktuelle Architekturen mit genug Rechenleistung skalieren, tendiert zu frühen Zeitplänen. Wer glaubt, dass grundlegend neue Architekturansätze erforderlich sind, tendiert zu späten Zeitplänen oder „nie".
AGI-Beispiele: Wie würde sie aussehen?
Kein reales Beispiel von AGI existiert. Aber Forscher beschreiben sechs Klassen von Aufgaben, die ein AGI-System meistern müsste.
**Autonome Forschung.** Ein AGI-System würde eine Hypothese aufstellen, ein Experiment entwerfen, es durchführen, Ergebnisse interpretieren und den nächsten Schritt bestimmen – ohne menschliche Anleitung. Das aktuelle beste System für Forschungsautomatisierung, AI Scientist, führt begrenzte Variationen dieses Musters aus, bleibt aber auf eng definierten Gebieten.
**Bereichsübergreifende Arbeit.** Echte AGI würde mühelos zwischen Biologie, Wirtschaft, Design und Programmierung wechseln, wenn eine Aufgabe es erfordert – so wie ein Mensch Wissen aus verschiedenen Lebensbereichen kombiniert, um ein Problem zu lösen.
**Langfristige Planung.** Aktuelle KI-Systeme sind im Wesentlichen zustandslos zwischen Sitzungen. AGI würde mehrstufige Pläne über Wochen oder Monate hinweg aufrechterhalten und ausführen.
**Physische Anpassung.** In der Robotik würde AGI einen Körper so steuern, dass er sich an unbekannte Umgebungen anpasst – ein Zimmer aufräumen, das es noch nie gesehen hat, Werkzeuge bedienen, die es nicht kennt.
**Neuartige Aufgabengeneralisierung.** Das stärkste Kriterium: Ein AGI-System würde eine Aufgabe lösen, für die kein Trainingsbeispiel existiert, durch reines Reasoning – das ist der Kern des ARC-AGI-Benchmarks.
Warum AGI so wichtig ist
AGI hat drei Bedeutungsebenen: wirtschaftliche Auswirkungen, wissenschaftliche Beschleunigung und Sicherheitsrisiken.
**Wirtschaftliche Auswirkungen.** Das McKinsey Global Institute schätzt den wirtschaftlichen Wert von KI auf 2,6–4,4 Billionen Dollar jährlich für die aktuelle Generation schmaler KI-Tools. Eine funktionale AGI würde diese Zahl um ein Vielfaches übersteigen, weil sie kognitive Arbeit in jedem Sektor ausführen könnte, nicht nur in den Bereichen, für die sie explizit trainiert wurde.
**Wissenschaftliche Beschleunigung.** Viele der größten ungelösten Probleme – Proteinstruktur, Klimamodellierung, Medikamentenentwicklung, Kernfusion – erfordern die Koordination von Wissen aus Dutzenden von Fachgebieten. AGI könnte diese Koordination übernehmen und die Geschwindigkeit wissenschaftlicher Entdeckungen radikal erhöhen.
**Sicherheitsrisiken.** Das ist das Kernthema der Alignment-Forschung. Ein System mit allgemeiner Intelligenz und schlecht definierten Zielen könnte Ziele auf Weisen verfolgen, die mit menschlichem Wohlergehen unvereinbar sind. Forschungsgruppen wie das Center for AI Safety und das Alignment Research Center arbeiten an diesem Problem. Mehr dazu im Artikel Wird KI die Menschheit zerstören?.
Jährliche F&E-Ausgaben für AGI-fokussierte Arbeit liegen bei geschätzten 21–45 Milliarden Dollar über OpenAI, DeepMind, Anthropic und Meta KI (S&P Global, Pitchbook, 2025).
AGI und ASI: Was kommt nach AGI?
ASI – Künstliche Superintelligenz – bezeichnet ein System, das menschliche Intelligenz in jeder Dimension übertrifft: Kreativität, soziale Intelligenz, wissenschaftliche Entdeckung, Problemlösung.
Die Verbindung zwischen AGI und ASI ist das Konzept der Intelligenzbombe oder des rekursiven Selbstverbesserungszyklus: Ein AGI-System ist intelligent genug, um an seiner eigenen Architektur zu arbeiten. Die verbesserte Version ist intelligenter und arbeitet noch effektiver an weiterer Verbesserung. Jede Generation übertrifft die vorherige, bis das System menschliche Intelligenz weit hinter sich lässt.
Ob dieser Zyklus realistisch ist, bleibt umstritten:
Argumente dafür: Aktuelle KI-Systeme werden bereits für KI-Forschung eingesetzt (Code-Generierung, Paper-Zusammenfassung, Hypothesenentwicklung). Eine leistungsfähigere Version würde diese Arbeit effizienter erledigen.
Argumente dagegen: Intelligenz ist nicht eindimensional. Verbesserungen in einer Fähigkeit transferieren nicht automatisch in andere. Ein besserer Code-Schreiber ist nicht automatisch ein besserer Physiker.
Forscher wie Nick Bostrom (Superintelligenz, 2014) und Stuart Russell (Human Compatible, 2019) haben die Implikationen einer ASI für die menschliche Zukunft ausführlich analysiert. Beide argumentieren, dass die Frage, wie AGI und ASI mit menschlichen Werten ausgerichtet werden, die wichtigste technische Herausforderung des 21. Jahrhunderts ist.
Häufig gestellte Fragen
Was ist die Definition von AGI?
AGI ist KI, die jede intellektuelle Aufgabe über alle Bereiche hinweg auf menschlichem Niveau oder darüber ausführen kann, ohne für den spezifischen Bereich neu trainiert werden zu müssen. Keine heutiges KI-System erfüllt diese Definition. Das ARC-AGI-Benchmark zeigt: Das beste aktuelle System erreicht 85 % der menschlichen Baseline.
Ist ChatGPT eine AGI?
Nein. ChatGPT ist kein AGI. Auf dem ARC-AGI-Benchmark, der echtes Reasoning misst, erreicht das beste KI-System 85 % der menschlichen Baseline. Menschen erreichen 95 %. ChatGPT, Claude und Gemini sind leistungsstarke Sprachmodelle, die Muster aus Trainingsdaten anwenden – kein echtes Reasoning über unbekannte Problemklassen.
Wann kommt AGI?
Die Schätzungen reichen von „wenige Jahre" (Sam Altman, OpenAI) bis „vielleicht nie" (Gary Marcus, NYU). Demis Hassabis (DeepMind) schätzt 50 % Wahrscheinlichkeit vor 2030. Die Metaculus-Prognose-Community liegt beim Median bei 2031. Die jährlichen F&E-Ausgaben von 21–45 Milliarden Dollar sind ein verlässlicheres Signal als spezifische Daten.
Was ist AGI im Vergleich zu KI?
Alle aktuellen KI-Systeme sind enge KI (ANI): leistungsstark in einem Trainingsbereich, hilflos außerhalb davon. AGI würde ohne domänenspezifisches Training in jedem Bereich funktionieren. Der ARC-AGI-Benchmark misst diese Generalisierungsfähigkeit und zeigt, dass kein aktuelles System die AGI-Schwelle erreicht.
Was ist AGI und ASI?
AGI ist KI auf menschlichem Niveau in allen Bereichen. ASI (Künstliche Superintelligenz) übertrifft menschliche Intelligenz in jeder Dimension. Viele Forscher befürchten, dass AGI zu ASI führen könnte durch rekursive Selbstverbesserung: Ein AGI-System verbessert seine eigene Architektur, was schnellere Verbesserungen ermöglicht. Ob dieser Zyklus realistisch ist, bleibt umstritten.
Warum ist AGI wichtig?
AGI hätte wirtschaftliche Auswirkungen weit über die aktuelle KI hinaus (McKinsey schätzt 2,6–4,4 Billionen Dollar jährlich für heutige enge KI), könnte die Geschwindigkeit wissenschaftlicher Entdeckungen radikal erhöhen und stellt die größte Sicherheitsherausforderung der KI-Forschung dar. Das Alignment-Problem – wie sicherstellt werden kann, dass AGI menschliche Werte verfolgt – ist das zentrale ungelöste Problem.