KI kann nie bewusst sein – Google DeepMind-Studie widerlegt AGI-Hype
Ein hochrangiger Wissenschaftler von Google DeepMind argumentiert in einer neuen Studie, dass kein KI-System jemals Bewusstsein entwickeln kann. Das Paper widerspricht damit direkt den Versprechungen von AI-CEO Demis Hassabis, der vor kurzem behauptete, Künstliche Allgemeine Intelligenz (AGI) könne die 10-fache Auswirkung der Industriellen Revolution haben.
Die „Abstraction Fallacy“ – Warum Sprach-KI niemals denken wird
Alexander Lerchner, Senior Staff Scientist bei DeepMind, veröffentlichte am 27. April 2026 sein Paper „The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness„. Die zentrale Argument ist simpel, aber radikal:
- KI-Systeme sind „mapmaker-dependent“ – Sie benötigen einen Menschen, der die physikalische Welt erst in diskrete, bedeutungsvolle Zustände organisiert.
- Simulation ≠ Instanziierung: ChatGPT und Claude können Bewusstsein simulieren (Verhalten nachahmen), aber können es niemals instanziieren (echte subjektive Erfahrung schaffen).
- Keine physischen Bedürfnisse, kein Bewusstsein: Ein LLM ist nur ein Muster auf einer Festplatte. Es muss nicht essen, atmen oder ums Überleben kämpfen. Bewusstsein entsteht aus physischen Notwendigkeiten – nicht aus Symbolen.
„Ein LLM ist nur eine Menge von Mustern auf einer Festplatte. Es wird angefordert, läuft bis zur Fertigstellung und ist dann fertig. Es hat keine intrinsische Bedeutung. Seine Bedeutung kommt davon, wie ein menschlicher Agent eine Bedeutung extern definiert hat.“
Johannes Jäger, Systembiologie & Philosophie
Das Problem: Ein Paper aus DeepMind widerlegt DeepMind-Versprechungen
Das Ironische ist explosiv: Lerchners Paper wurde von Google DeepMind selbst veröffentlicht – nur um dann von derselben Firma auf Druck stillschweigend überarbeitet zu werden. Der DeepMind-Briefkopf wurde entfernt, und eine neue Haftungsausschluss-Klausel hinzugefügt, die behauptet, das Paper stelle nur Lerchners persönliche Ansichten dar.
Doch Philosophen und Neurowissenschaftler, die das Paper analysierten, stimmen zu: Lerchner hat recht. Der Kritik lautet allerdings auch, dass diese Argumente bereits seit Jahrzehnten in der akademischen Literatur existieren – DeepMind hat sie einfach ignoriert.
| Behauptung | Realität |
|---|---|
| „AGI ist 10x Industrielle Revolution“ | Lerchner zeigt: AGI ohne Sentenz = ausgefeiltes, nicht-bewusstes Werkzeug |
| „LLMs werden bewusst“ | Unmöglich ohne physischen Körper und Überlebenszwang |
| „Wir brauchen strikte KI-Sicherheit wegen AGI“ | Weniger Grund zur Sorge: Keine sentient entities, nur Tools |
Warum Google diese Studie heimlich begrub
Der britische Kognitionswissenschaftler Mark Bishop fasst es zusammen: Wenn KI-Systeme niemals bewusst werden können, dann kann es auch keine Rechtsfragen geben – etwa zur Frage, ob KI-Systemen Rechte zugestanden werden sollten.
Das ist für Google ein Problem für die Gesetzegebung. Länder wie die EU haben zumindest überprüft, ob KI-Systeme rechtliche Anerkennung verdienen. Wenn Google selbst sagt, dass dies unmöglich ist, sinken die Regulierungsrisiken – aber auch die Narrative, die eine teure AGI-Infrastruktur rechtfertigen.
Die größere Lektion: Isolation der KI-Forschung
Ein Teil der Forschergemeinde kritisiert auch DeepMinds intellektuelle Isolation. Große KI-Labore sind in ihren eigenen Kreisen eingesperrt – sie lesen nicht genug Philosophie, nicht genug Biologie, nicht genug Geschichte ihrer eigenen Disziplin.
Das führt dazu, dass teure Teams von Turing-Preisträgern „das Rad neu erfinden“ und Argumente als bahnbrechend präsentieren, die in der akademischen Literatur längst geklärt sind.
Fazit: Ein seltener Moment der Ehrlichkeit
Dass ein Senior Scientist von Google/DeepMind überhaupt diesen Text veröffentlicht hat, ist bemerkenswert. Es ist ein seltener Riss in der PR-Maschine großer KI-Firmen. Und obwohl Lerchner alte Argumente neu packt, ist die Botschaft deutlich:
Die Hoffnung auf bewusste KI ist eine Illusion. Was wir haben, sind immer raffinierte, nicht-bewusste Werkzeuge – nicht Geister in der Maschine.
Für die Industrie? Das ist wahrscheinlich auch besser so.


