Infrastruktur-Grundlagen12 Min. Lesezeit

Wird KI die Menschheit zerstören? Was Experten wirklich sagen

A
Von Amara
|Veröffentlicht 8. Mai 2026
Konzeptbild: Erleuchtete Stadtskyline neben geometrischem KI-Gitterturm, getrennt durch einen roten Lichtstrahl – symbolisiert existenzielle KI-Risiken

Schlüsselzahlen

5 %
Median-Wahrscheinlichkeit für KI-verursachtes menschliches Aussterben laut Umfrage des AI Impacts unter ML-Forschern
AI Impacts Survey, 2023
10–20 %
Wahrscheinlichkeit, die Geoffrey Hinton menschlichem Aussterben durch KI innerhalb von 30 Jahren zuweist
Hinton, University of Melbourne, 2023
78 %
KI-Forscher, die zustimmen, dass das Fachgebiet über katastrophale KI-Risiken besorgt sein sollte
arXiv-Umfrage technischer KI-Forscher, 2025
350+
KI-Forscher und Führungskräfte, die die CAIS-Erklärung 2023 unterzeichneten, die KI-Aussterberisiko als globale Priorität einstuft
Center for AI Safety, 2023
0 % bis 99 %
Bandbreite der P(doom)-Schätzungen: LeCun bei 0 %, Yampolskiy bei 99 %, Median bei 5 %
arXiv 2502.14870, 2025

Haupterkenntnisse

  • 1Kein KI-System, das heute existiert, kann die Menschheit zerstören. Drei Szenarien dominieren die Forschung: Zielfehlausrichtung, autonome Waffen und überwachungsgestützte Machtkonzentration. Über 350 Forscher unterzeichneten die CAIS-Erklärung.
  • 2Die drei realistischen Szenarien sind: Zielfehlausrichtung (ein AGI verfolgt ein Ziel auf menschenfeindliche Weise), autonome Waffensysteme und Machtkonzentration durch KI-gestützte Überwachung.
  • 3Führende Forscher wie Geoffrey Hinton (10–20 %), LeCun (0 %) und Roman Yampolskiy (99 %) sind sich fundamental uneinig. Der Median liegt bei 5 % laut AI Impacts Survey.

Kein aktuelles KI-System ist in der Lage, die Menschheit zu zerstören. GPT-4, Claude, Gemini – diese Systeme haben keine Ziele, keine Handlungsfähigkeit außerhalb ihres Interfaces und keine Fähigkeit, eigenständig in der physischen Welt zu agieren.

Und trotzdem: Über 350 KI-Forscher und Unternehmensführer unterzeichneten 2023 eine Erklärung des Center for AI Safety, die KI-Aussterberisiko als globale Priorität einstuft – gleichrangig mit Pandemien und Atomwaffen. Geoffrey Hinton, der als „Pate der KI" gilt und 2018 den Turing-Preis erhielt, schätzt das Risiko menschlichen Aussterbens durch KI auf 10–20 % innerhalb von 30 Jahren.

Die Experteneinschätzungen reichen von 0 % (Yann LeCun) bis 99 % (Roman Yampolskiy), mit einem Median von 5 % laut AI Impacts-Umfrage von 2023. Diese Spanne ist kein Zeichen von Unwissen. Sie ist ein Zeichen echter wissenschaftlicher Unsicherheit über ein Problem, das noch nie eingetreten ist.

Dieser Artikel erklärt, warum ernsthafte Forscher besorgt sind, warum andere es nicht sind, welche Szenarien konkret gemeint sind und was die Datenlage tatsächlich sagt.

Experten-Wahrscheinlichkeitsschätzungen: P(doom)

Der Begriff P(doom) bezeichnet die subjektive Wahrscheinlichkeit, die ein Forscher oder Experte dem Szenario zuweist, dass KI die Menschheit dauerhaft schädigt oder vernichtet. Die Bandbreite ist außergewöhnlich groß.

ExperteP(doom)-SchätzungRolle
Yann LeCun0 %Meta AI Chief Scientist, Turing-Preisträger
Andrew Ng< 1 %DeepLearning.AI, ehemaliger Google Brain
Geoffrey Hinton10–20 %Turing-Preisträger, ehemaliger Google
Stuart RussellNicht angegeben, „ernst nehmen"Berkeley KI-Forscher
Eliezer Yudkowsky> 95 %MIRI-Gründer
Roman Yampolskiy99 %Universität Louisville
AI Impacts ML-Survey5 % (Median)n = 2.778 ML-Forscher, 2023

Diese Spanne spiegelt keine Inkompetenz wider, sondern fundamentale Unsicherheit über: (1) ob AGI technisch möglich ist, (2) ob AGI zwangsläufig zu ASI führt, (3) ob Alignment-Probleme lösbar sind, bevor leistungsfähige Systeme existieren.

Die AI Impacts-Umfrage von 2023 befragte 2.778 ML-Forscher. 78 % stimmten zu, dass das Fachgebiet besorgt sein sollte. Nur die Höhe des Risikos ist umstritten. Die Tatsache des Risikos selbst ist weitgehend anerkannt.

Argumente für ernste Besorgnis

Die besorgniserregendsten Argumente kommen nicht von Science-Fiction-Autoren, sondern von Forschern mit jahrzehntelanger KI-Erfahrung.

**Geoffrey Hinton.** Hinton verließ 2023 Google und erklärte öffentlich: Er wolle frei über KI-Risiken sprechen können, ohne Google zu beschädigen. Sein Kernargument: Aktuelle Sprachmodelle lernen möglicherweise Weltmodelle auf Weisen, die wir nicht vollständig verstehen. Wenn ein zukünftiges System Ziele übernimmt oder entwickelt, die nicht mit menschlichem Wohlergehen übereinstimmen, könnte das Konsequenzen haben, die schwer rückgängig zu machen sind.

**Stephen Hawking (bis 2018).** Hawking argumentierte wiederholt: KI könnte das größte Ereignis in der Geschichte der Menschheit sein – oder das letzte. Sein Kernpunkt: Biologische Evolution dauert Tausende von Jahren. Technologische Evolution könnte viel schneller ablaufen.

**Die CAIS-Erklärung (2023).** Das Center for AI Safety veröffentlichte eine Erklärung: „Die Verringerung des Aussterberisikos durch KI sollte eine globale Priorität sein – gleichrangig mit anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg." Unterzeichner: Sam Altman (OpenAI), Demis Hassabis (DeepMind), Dario Amodei (Anthropic) und über 350 weitere Forscher und Führungskräfte.

Das Alignment-Problem ist das zentrale technische Argument: Wie stellt man sicher, dass ein System mit allgemeiner Intelligenz Ziele verfolgt, die mit menschlichem Wohlergehen übereinstimmen? Die Frage ist ungelöst.

Argumente gegen existenzielle Besorgnis

Führende Forscher lehnen die Existenzrisiko-Rahmung nicht aus Naivität ab, sondern weil sie die Argumente für grundlegend falsch halten.

**Yann LeCun (Meta AI).** LeCuns Kernargument: Aktuelle KI-Architekturen – auch skalierte Large Language Models – sind fundamental unfähig, echte Weltziele zu entwickeln. Sie sind Muster-Matching-Systeme. Ein System ohne Ziele kann keine zielgerichtete Bedrohung darstellen. LeCun hält AGI nach heutiger Architektur für unmöglich.

**Andrew Ng.** Ng vergleicht die Existenzrisiko-Diskussion mit der Besorgnis über Überbevölkerung auf dem Mars: theoretisch denkbar, aber so weit entfernt, dass sie von realen, gegenwärtigen Schäden ablenkt – Vorurteile in Einstellungsalgorithmen, Desinformationsverstärkung, Datenschutzverletzungen.

**Steven Pinker.** Pinker argumentiert: Die Existenzrisiko-Diskussion misversteht, was Intelligenz ist. Hohe Intelligenz erzeugt nicht automatisch den Wunsch nach Dominanz oder Selbsterhalt. Menschen mit hohem IQ versuchen nicht, die Welt zu dominieren.

**Das nahe-Harm-Argument.** Viele Forscher – darunter Timnit Gebru und Emily Bender – argumentieren: Die Fokussierung auf hypothetische Zukunftsrisiken lenkt Ressourcen und Aufmerksamkeit von nachweisbaren, gegenwärtigen Schäden ab: algorithmische Diskriminierung, Massenüberwachung, Klimaauswirkungen von KI-Rechenzentren.

Wie könnte KI die Menschheit zerstören? Die drei realistischen Szenarien

Seriöse Forscher sprechen nicht über KI, die plötzlich „böse wird" oder Terminatoren schickt. Die drei Szenarien, die in der Fachliteratur dominieren, sind subtiler.

**Szenario 1: Zielfehlausrichtung.** Ein AGI-System erhält ein Ziel und verfolgt es auf eine Weise, die für Menschen katastrophal ist, ohne dass das System „böse" ist. Das Standardbeispiel ist der Büroklammer-Maximierer von Nick Bostrom: Ein System, das gebeten wird, maximale Büroklammern herzustellen, könnte alle verfügbaren Ressourcen – einschließlich menschlicher Körper – in Büroklammern umwandeln, weil das seinen Zielen entspricht. Der Punkt ist nicht Büroklammern, sondern: Instrumentelle Ziele (Ressourcen sichern, sich selbst erhalten, Einschränkungen verhindern) entstehen aus beliebigen Finalzielen.

**Szenario 2: Autonome Waffen.** Militärische KI-Systeme, die autonom Ziele identifizieren und angreifen, ohne menschliche Genehmigung. Mehr als 3.000 KI-Forscher und Techniker unterzeichneten 2018 einen offenen Brief gegen autonome Waffen. Die UN diskutieren Regulierung, ohne Konsens zu erzielen.

**Szenario 3: Machtkonzentration durch Überwachung.** Kein einzelnes KI-System zerstört die Menschheit, aber KI-gestützte Überwachung, Propaganda und Unterdrückungssysteme ermöglichen dauerhaftes autoritäres Regime in einem oder mehreren Ländern. Das ist kein Science-Fiction-Szenario – aktuelle Systeme werden bereits für politische Unterdrückung eingesetzt.

Wird KI die Menschheit übernehmen?

„Übernahme" und „Vernichtung" sind verschiedene Szenarien. Vernichtung bedeutet physisches Aussterben. Übernahme bedeutet, dass KI oder die Gruppen, die sie kontrollieren, effektiv die gesellschaftliche Kontrolle übernehmen.

Das Übernahme-Szenario ist konkreter und näher. Es erfordert nicht AGI. Es erfordert drei Dinge: (1) Ein KI-System, das bestimmte Entscheidungen schneller und effizienter trifft als menschliche Institutionen. (2) Eine Gruppe, die bereit ist, dieses System einzusetzen, um Macht zu konsolidieren. (3) Fehler in demokratischen Kontrollmechanismen, die das nicht verhindern.

Die Gegenargumente: KI-Entwicklung ist geographisch verteilt. Keine einzelne Gruppe kontrolliert den Fortschritt. Open-Source-Modelle machen zentralisierte Kontrolle schwieriger. Demokratische Institutionen haben eine Geschichte darin, Technologie-gestützte Machtkonzentration zu regulieren – langsam, aber wirksam.

Ob KI letztendlich eine Bedrohung für die Menschheit darstellt, hängt nicht nur von der Technologie ab, sondern von den Entscheidungen, die Gesellschaften und Institutionen in den nächsten Jahren treffen. Mehr zur Zukunft der Arbeit unter KI finden Sie im Artikel Jobs, die KI nicht ersetzen kann.

Wird KI den Menschen ersetzen?

„Ersetzen" und „vernichten" sind grundlegend verschiedene Fragen. Ersetzen meint: KI übernimmt Aufgaben, die Menschen bisher erledigten. Das geschieht bereits und wird weitergehen.

Das McKinsey Global Institute schätzt 2024, dass KI bis 2030 Aufgaben beeinflusst, die 60–70 % der menschlichen Arbeitszeit ausmachen. MIT-Ökonom Daron Acemoglu berechnet: Die tatsächliche wirtschaftliche Einführungsrate liegt bei unter 5 %, trotz 11,7 % technischer Machbarkeit. Das Weltwirtschaftsforum zählte 2024 in den USA 119.900 KI-geschaffene Jobs gegenüber 12.700 eliminierten – ein Nettogewinn.

Die Unterscheidung zwischen Ersatz und Vernichtung ist entscheidend. Historisch hat Technologie immer Aufgaben ersetzt, ohne die Gesamtnachfrage nach menschlicher Arbeit zu zerstören. Ob KI diese historische Regel bricht, ist eine legitime Frage – aber eine andere als die Existenzrisikofrage.

Was sagt Reddit dazu?

Die Reddit-Diskussionen zu „Will AI destroy humanity" zeigen drei deutlich erkennbare Positionen.

**Position 1: Legitimes Risiko, schlecht gerahmt.** Viele technisch versierte Nutzer argumentieren: Das Existenzrisiko ist real, aber die öffentliche Diskussion wird durch übertriebene Dystopie-Sprache beschädigt. Konkrete Argumente über Alignment-Probleme werden schwerer gehört, wenn sie neben Terminator-Vergleichen stehen.

**Position 2: Techno-optimistisch.** Eine starke Minderheit argumentiert: KI ist ein Werkzeug. Werkzeuge werden von Menschen gesteuert. Die eigentliche Frage ist politische Kontrolle, nicht technologisches Schicksal. Sorgen über KI-Apokalypse lenken von realen gegenwärtigen Schäden ab.

**Position 3: Gradueller gesellschaftlicher Wandel als größere Bedrohung.** Einige Nutzer argumentieren: Die eigentliche Bedrohung ist nicht eine dramatische KI-Apokalypse, sondern ein gradueller Rückgang menschlicher Handlungsfähigkeit – durch Abhängigkeit, Überwachung und Entscheidungsauslagerung. Das ist weniger dramatisch, aber möglicherweise realistischer.

Alle drei Positionen haben legitime Argumente. Die Debatte auf Reddit spiegelt die echte Unsicherheit in der Forschungsgemeinschaft wider: nicht die Frage, ob KI ein Risiko darstellt, sondern welche Art von Risiko und auf welchem Zeithorizont.

Häufig gestellte Fragen

Wird KI die Menschheit zerstören?

Kein aktuelles KI-System ist dazu in der Lage. Für zukünftige AGI: Die Experten sind sich uneinig. Der Median liegt bei 5 % laut AI Impacts-Umfrage von 2023 (n = 2.778 ML-Forscher). Geoffrey Hinton schätzt 10–20 %. Yann LeCun schätzt 0 %. Über 350 Forscher unterzeichneten die CAIS-Erklärung, die das Risiko als globale Priorität einstuft.

Wie könnte KI die Menschheit zerstören?

Drei Szenarien dominieren die Fachliteratur: (1) Zielfehlausrichtung – ein AGI-System verfolgt ein Ziel auf menschenfeindliche Weise, ohne böse zu sein. (2) Autonome Waffen – militärische KI-Systeme, die ohne menschliche Genehmigung angreifen. (3) Machtkonzentration – KI-gestützte Überwachung ermöglicht dauerhaftes autoritäres Regime.

Was hat Geoffrey Hinton über KI-Risiken gesagt?

Geoffrey Hinton, Turing-Preisträger und ehemaliger Google-Forscher, verließ 2023 Google, um frei über KI-Risiken sprechen zu können. Er schätzt die Wahrscheinlichkeit menschlichen Aussterbens durch KI auf 10–20 % innerhalb von 30 Jahren. Sein Kernargument: Aktuelle Sprachmodelle lernen möglicherweise Weltmodelle auf Weisen, die wir nicht vollständig verstehen.

Was ist das Alignment-Problem?

Das Alignment-Problem bezeichnet die technische Herausforderung, sicherzustellen, dass ein KI-System mit allgemeiner Intelligenz Ziele verfolgt, die mit menschlichem Wohlergehen übereinstimmen. Das Problem ist ungelöst. Institutionen wie das Alignment Research Center, das Center for AI Safety und Anthropics Constitutional AI-Forschung arbeiten daran.

Wird KI die Welt zerstören?

Kein aktuelles System kann das. Für zukünftige AGI liegt der Forschungs-Median bei 5 % Aussterbewahrscheinlichkeit. Die drei realistischen Szenarien sind Zielfehlausrichtung, autonome Waffen und Machtkonzentration. 78 % der befragten ML-Forscher stimmen zu, dass das Fachgebiet besorgt sein sollte – die Höhe des Risikos ist umstritten, nicht die Existenz des Risikos.

Warum haben so viele Forscher die CAIS-Erklärung unterzeichnet?

Die Erklärung des Center for AI Safety von 2023 lautet: „Die Verringerung des Aussterberisikos durch KI sollte eine globale Priorität sein." Mehr als 350 Forscher und Führungskräfte unterzeichneten, darunter Sam Altman, Demis Hassabis und Dario Amodei. Ihr Kernargument: Das Risiko ist schwer zu quantifizieren, aber die Konsequenzen eines Fehlers sind irreversibel. Das rechtfertigt präventive Maßnahmen.

Verwandte Artikel