SchlagwortMensch

Wider den Rechenzwang

Simulationsglaube und die Grenzen der Berechnung

Vorbemerkungen

Bei all der Rechenkraft, welche artifizielle Systeme mittlerweile an den Tag legen, ist leicht zu übersehen, wie Personen, die für ihre Entwicklung verantwortlich zeichnen, im Begriff sind, das Menschenkind mit dem Bade auszuschütten. Davon handelt dieser Text.

Anfang April 2026 tauchte in meiner YouTube-Bucht das Interview mit Joscha Bach auf dem Kanal Everlast AI auf: «Bewusstsein ist keine menschliche Leistung!»1Everlast AI, «Bewusstsein ist keine menschliche Leistung! KI, Geist, Philosophie & Zukunft», Interview mit Dr. Joscha Bach, 2. April 2026, https://youtu.be/FiZaV8Ci3jQ Was dort zu sehen war, löste eine unmittelbare leibliche Reaktion aus, ein präreflexives Unbehagen. Die Neue Phänomenologie würde dazu «affektives Betroffensein» sagen.2Zum Begriff: Hermann Schmitz im Gespräch, https://www.youtube.com/watch?v=BIN-0ZaAhYY, ab ca. Min. 9: Der Leib ist «was ich in der Gegend meines Körpers als zu mir selbst gehörig spüre, ohne mich auf das Zeugnis der fünf Sinne zu verlassen».

Der Eindruck, dass Bachs Positionen in sich inkommensurabel sind, war keine Schlussfolgerung, sondern eine Ahnung. Es lag nahe, das Video sowie eine von Googles Gemini angefertigte Zusammenstellung von Gegenargumenten zum Computationalismus an Googles NotebookLM zu übergeben. NotebookLM erhielt den Auftrag, auf dieser Grundlage eine Replik im Sinne des epistemologischen Anarchismus zu verfassen. Daraufhin wurde Perplexity angewiesen, Forschungsmaterial zusammenzutragen: Papers, Rezensionen, Vorträge und Dissertationen zu Bach, Searle, Harnad, Chalmers, Dreyfus, Schmitz und der Embodied-Cognition-Forschung (Fuchs). Darüber hinaus musste das LLM die Replik bewerten. Perplexity Computer3«Perplexity Computer» ist die agentische Abteilung des LLM: ein System, das eigenständig recherchiert, Werkzeuge aufruft, Dateien erstellt und mehrstufige Aufträge ausführt – im Unterschied zur blossen Textvervollständigung eines Sprachmodells. Dieses System hat einen Grossteil der folgenden Zeilen erstellt. Haiku 4.5 von Claude war mehrfach damit beauftragt, in der Rolle von Paul Feyerabend, ihre Qualität zu beurteilen. bereitete über 70 Quellen auf und gab der Replik von NotebookLM 4 von 10 Punkten: «rhetorisch effektiv, aber philosophisch unterfinanziert».

Aufgrund dieser Bewertung ist die vorliegende Neufassung entstanden: Perplexity musste dabei helfen, sie philosophisch zu verstärken, mit konkreten Textbelegen zu versehen, Gegenargumente sowie epistemologische Selbstkritik einzubauen und eine Alternative zu entwerfen.

1. Das Dogma der digitalen Seele – Einleitung

Joscha Bach erklärt die Zukunft des Menschen mit der Ruhe von jemandem, der die Antwort bereits kennt. Zu keinem der Einwände, die die Phänomenologie seit Jahrzehnten stellt, hat er eine Antwort. Er flüchtet sich. Und das Publikum nickt.

Er verkauft uns das Bewusstsein als die blosse Eigenschaft eines «simulierten Selbstmodells» – ein Taschenspielertrick, der technokratischen Dogmatismus als letzte Wahrheit tarnt. Im Manifold-Podcast sagt Bach wörtlich: «Consciousness is a simulated property. […] It’s as if consciousness is an as-if thing. It’s a software thing. It’s simulated in the mind.»4Joscha Bach im Manifold Podcast Nr. 76, «Consciousness and AGI», ca. Januar 2025. Vollständiges Transkript: https://www.manifold1.com/episodes/joscha-bach-consciousness-and-agi-76/transcript Damit erhebt er Simulation zum ontologischen Grundprinzip: Was ist, existiert nur insofern, als es berechnet wird. Was nicht berechnet werden kann, ist für ihn entweder nicht existent oder epistemologisch irrelevant. In der Jim Rutt Show formuliert er es noch unverhüllter: «Mind is essentially the software that runs on the brain.»5Joscha Bach in der Jim Rutt Show, Episode 87, «Theories of Consciousness», 26. Oktober 2020. Transkript: https://jimruttshow.blubrry.net/the-jim-rutt-show-transcripts/transcript-of-episode-87-joscha-bach-on-theories-of-consciousness/ Und im Gespräch mit Lex Fridman: «The world that you and me are seeing is not the real physical world. What we are seeing is a virtual reality generated in your brain.»6Joscha Bach im Lex Fridman Podcast Nr. 101, «Artificial Consciousness and the Nature of Reality», 13. Juni 2020, ab ca. 34:30. Video: https://www.youtube.com/watch?v=P-2P3MSZrBM

Bachs Versuch, Geist in das Korsett von Programmcodes zu zwängen, ist kein wissenschaftlicher Fortschritt. Es ist ein erkenntnistheoretischer Rückschritt in einen methodologischen Monismus. Die Reduktion des Geistes auf Algorithmen ist kein Erkenntnisgewinn, sondern ein «Amoklauf der Abstraktion» gegen die leibliche Wirklichkeit. Ein Motiv wird in dieser Schrift wiederkehren: die Verwechslung der Beschreibung mit dem Beschriebenen. Der Computationalismus neigt dazu, die Karte für das Territorium zu halten – und wenn das Territorium nicht auf die Karte passt, das Territorium für nicht-existent zu erklären.

Wer den Computationalismus pauschal verwirft, läuft Gefahr, denselben Fehler zu begehen: die Errichtung eines anderen Monismus. Der epistemologische Anarchismus verurteilt nicht Methoden, sondern lediglich deren Monopolanspruch. Die Kritik ist nicht gegen das Rechnen als solches gerichtet, sondern gegen den Rechenzwang: gegen die Behauptung, Berechnung sei die einzige oder hinreichende Erklärung für Bewusstsein, Geist und Bedeutung.

2. MicroPsi oder: Die mechanische Dampfmaschine des Geistes

Bach präsentiert uns seine MicroPsi-Architektur im Everlast-AI-Interview mit jener entwaffnenden Bescheidenheit, die oft die grösste Hybris tarnt. Ab Minute 14:24 spricht er über «20 Jahre Arbeit» an einer «kognitiven Architektur», die neuronale Netze mit symbolischem Reasoning und Motivationssystemen verbinde – inspiriert von Dietrich Dörner.7Everlast AI (vgl. Fn. 1), Kapitelmarke «MicroPsi: 20 Jahre Arbeit», ab 14:24. In seiner Dissertation suchten virtuelle Agenten in kargen Welten nach Rohstoffen8Joscha Bach, The MicroPsi Agent Architecture, vorgestellt auf ICCM-5, 2003. Die Dissertation selbst: Bach, Principles of Synthetic Intelligence – PSI: An Architecture of Motivated Cognition, Oxford University Press, 2009. – ein rührendes Bild für einen Informatiker, der glaubt, die Unendlichkeit des Geistes durch mechanistische Zahnräder aus Logik und programmierten Trieben einfangen zu können. Die Kernkomponenten dieses digitalen Homunkulus verdienen eine Prüfung statt blosser Karikatur:

  • Bedürfnisse: Bach modelliert Bedürfnisse als hierarchisches Antriebssystem. Wenn das zutrifft, kann hier eingewendet werden, dass ein System, das «Hunger» simuliert, ohne biologisch sterben zu können, einen Kategorienfehler ersten Ranges begeht: Es verwechselt die Speisekarte mit der Mahlzeit.
  • Ästhetik: Bach scheint Schönheit als statistische Datenkompression zu erklären.9Bach schreibt an verschiedenen Stellen über Ästhetik als Funktion der Musterkompression. Perplexity verweist auf Bach, Principles of Synthetic Intelligence (2009), Kap. zur Ästhetik. Die Leserinnen und Leser prüfen selbst. Wer Schönheit als Effizienz der Datenverarbeitung missversteht, würde wohl auch versuchen, einen Sonnenuntergang durch das Zählen der Photonen zu «erfühlen».
  • Symbolik: MicroPsi wolle konnektionistische Netze mit symbolischer Repräsentationslogik verbinden.10Vgl. Bach, «A Framework for the Evaluation of Cognitive Architectures – MicroPsi 2», 2012; sowie die Diskussion in der Jim Rutt Show, Episode 72, 17. August 2020, https://www.jimruttshow.com/joscha-bach/ Diese Allianz verdient Respekt als Ingenieurleistung, löst aber das philosophische Grundproblem nicht: Zwei formale Systeme addiert ergeben ein drittes formales System, nicht Bedeutung. Es sei denn, Emergenz ist eine real erklärende Kategorie und nicht bloss ein Etikett für Unerklärtes. Dann wäre zu zeigen, warum emergente Bedeutung bei der Kombination formaler Systeme nicht auftreten kann, obwohl Emergenz bei anderen komplexen Phänomenen (vom Wetter bis zum Leben) offensichtlich greift. Dieser Nachweis steht aus; seine Abwesenheit ist eine der in Kapitel 7 benannten Schwächen dieser Schrift.

2.1 Selbstironie als unfreiwilliges Argument

Es entbehrt nicht einer gewissen Ironie: Bach räumt im Everlast-AI-Interview ein, selbst für einen simplen Sortieralgorithmus mehrere Debugging-Durchläufe zu benötigen.11Everlast AI (vgl. Fn. 1), ab ca. 06:24, Kapitelmarke «Philosophen liegen falsch». Sinngemäss auch im Lex Fridman Podcast Nr. 212 (21. August 2021, https://www.youtube.com/watch?v=rIpUf-Vy2JA), wo Bach über die Schwierigkeiten der eigenen Debugging-Praxis spricht. Er wähnt sich gleichzeitig jedoch in der Position, die «Software des Geistes» zu dekonstruieren. Er erkennt die Syntaxfehler in seinem Code, bleibt aber blind für die völlige Abwesenheit von Sinn in seiner Architektur.

2.2 MicroPsi als heuristisches Werkzeug

Bach beschreibt MicroPsi als «framework for simulating agents» – also als Simulationsrahmen, nicht als Bewusstseinsmaschine.12Vgl. Jim Rutt Show, Episode 72 (vgl. Fn. 9). Die Kritik richtet sich nicht gegen MicroPsi als Forschungswerkzeug, sondern gegen die ontologische Überhöhung, die Bach in der Öffentlichkeit betreibt, wenn er den Sprung von der Simulation zur Realität vollzieht. Marcin Miłkowski scheint zurecht darauf hinzuweisen, dass Computationalismus als Forschungsheuristik nicht mit Computationalismus als Ontologie verwechselt werden darf.13Marcin Miłkowski, «Objections to Computationalism – A Survey», 2018. Roczniki Filozoficzne, 66(3), 57–75.

3. Das Chinesische Zimmer: Syntax versus Semantik

Bachs theoretisches Kartenhaus stösst an die Mauer, die John Searle bereits 1980 errichtete: das Chinese Room-Gedankenexperiment.14John R. Searle, «Minds, Brains, and Programs», Behavioral and Brain Sciences 3(3), 1980, 417–457. Eine ausgezeichnete Video-Einführung findet sich bei Jeffrey Kaplan, «The famous Chinese Room thought experiment – John Searle (1980)», https://www.youtube.com/watch?v=tBE06SdgzwM Ein System kann Symbole mit der Präzision eines Schweizer Uhrwerks verschieben, ohne den Hauch einer Ahnung zu haben, was diese Symbole bedeuten. Bach behauptet, Geist sei «rechnerische Organisation», doch Syntax allein ist nicht hinreichend für Semantik. Wer das Argument in Searles eigenen Worten hören will: Er hat es bis zu seinem Tod 2025 in zahlreichen Vorträgen verteidigt.15Searle selbst erklärt das Argument in: https://www.youtube.com/watch?v=hX9rA42slZo (26 Min.). Für eine ausführliche Debatte vgl. «Consciousness in the Chinese Room», Machine Learning Street Talk, https://www.youtube.com/watch?v=_KVAzAzO5HU (2 Std.).

Die philosophische Redlichkeit gebietet es, die Einwände ehrlich zu würdigen:

  1. Die Systemantwort: Nicht der Mensch im Raum versteht Chinesisch, sondern das System als Ganzes. Searle erwidert: Selbst wenn der Mensch alle Regeln internalisiert, versteht er immer noch nicht Chinesisch. Doch diese Erwiderung setzt voraus, was sie beweisen will.
  2. Die Roboter-Antwort: Ein in einen Roboter eingebettetes System, das sensorisch mit der Welt interagiert, könne Semantik erwerben. Searle hält dagegen: Der Roboter füge bloss weitere Syntaxschichten hinzu.
  3. Chalmers‘ subsymbolischer Einwand: Searles Experiment treffe nur auf symbolische Systeme zu, nicht auf konnektionistische Architekturen.16David Chalmers hat diesen Einwand an verschiedenen Stellen formuliert. Vgl. sein TED-Talk-Argument zur Irreduzibilität von Bewusstsein: https://www.youtube.com/watch?v=uhRhtFFhNzQ

Wer wie Bach behauptet, Geist sei Berechnung, schuldet eine Antwort auf Searle, die über ein blosses Ignorieren hinausgeht. Bach liefert diese Antwort in keinem der öffentlich zugänglichen Interviews.17Weder im Everlast-AI-Interview (vgl. Fn. 1) noch in den Bach-Interviews bei Lex Fridman (vgl. Fn. 6), in der Jim Rutt Show (vgl. Fn. 5) oder im Manifold Podcast (vgl. Fn. 4) setzt sich Bach systematisch mit Searles Chinese-Room-Argument auseinander. Perplexity hat dies in den Transkripten gesucht – die Leserinnen und Leser mögen dies selbst überprüfen.

4. Das Symbol-Grounding-Problem: Semantische Inzucht

Bachs agentische Geister leiden unter dem von Stevan Harnad diagnostizierten Symbol-Grounding-Problem. Harnad formuliert die Frage präzise: Wie kann die semantische Interpretation eines formalen Symbolsystems diesem System intrinsisch sein, statt bloss parasitär an den Bedeutungen in unseren Köpfen zu hängen?18Stevan Harnad, «The Symbol Grounding Problem», Physica D 42, 1990, 335–346. Harnad erklärt das Problem ausführlich in einem Interview: https://www.youtube.com/watch?v=eJhhwX4KWyM (58 Min.). Ebenfalls empfehlenswert: The Gradient Podcast mit Harnad, https://www.youtube.com/watch?v=qeCsJKORWcE

Die Metapher ist vernichtend: Man versuche, Chinesisch allein anhand eines einsprachigen chinesisch-chinesischen Wörterbuchs zu lernen. Jedes Wort wird durch ein anderes Wort erklärt – eine semantische Inzucht, die niemals zur Bedeutung führt. Bachs MicroPsi-Symbole bewegen sich in genau diesem ewigen Kreis von Selbstverweisen ohne Weltbezug. Bezeichnenderweise diskutiert Bach das Symbol-Grounding-Problem in einem Vortrag über ChatGPT – und kommt zum Schluss, dass LLMs es möglicherweise «durch statistische Muster» lösen.19Joscha Bach, «ChatGPT: Is AI Deepfaking Understanding?», Vortrag, ab Kapitelmarke «Symbol grounding – do LLMs have it?» (ca. 7:00), https://www.youtube.com/watch?v=FMfA6i60WDA Ob dies eine Lösung oder eine Umdefinition des Problems darstellt, mögen die Leserinnen und Leser selbst entscheiden. Chris Fields geht einen Schritt weiter: Er zeigt die formale Äquivalenz des Symbol-Grounding-Problems mit dem Quantensystem-Identifikationsproblem und folgert, dass Symbol-Grounding durch endliche Mittel prinzipiell unlösbar sei.20Chris Fields, «If Physics Is an Information Science, What Is an Observer?», Information 3(1), 2012, 92–123. Frei zugänglich: https://doi.org/10.3390/info3010092

Eine Simulation von Regen macht niemanden nass, also macht eine Simulation von Bewusstsein niemanden bewusst. Diese Analogie setzt voraus, was sie beweisen will. Nässe ist an ein physisches Substrat gebunden (Wassermoleküle auf Haut); ob Bewusstsein ebenfalls substratgebunden ist, ist genau die Streitfrage zwischen Computationalismus und Phänomenologie. Die Regen-Metapher veranschaulicht die Position dieser Schrift, sie begründet sie nicht.

5. Die Qualia-Blindheit und das «Hard Problem»

Bach versucht, das «Hard Problem of Consciousness» wegzulächeln, indem er es in funktionale Häppchen zerlegt und als «Cyberanimismus» rebrandet. Im Everlast-AI-Interview erklärt er ab Minute 26:27: Bewusstsein sei eine Art «Software», die nicht nur in Gehirnen, sondern potenziell in Pflanzen, Ökosystemen – auf jedem Substrat – laufen könne.21Everlast AI (vgl. Fn. 1), Kapitelmarke «Was ist Cyberanimismus?», ab 26:27. Auch: «Software auf deinem Körper», ab 30:48. Für ihn ist der Mensch ein «Muster in der Kommunikation von Zellen», ein Geist, der einen Körper «besitzt».22Everlast AI (vgl. Fn. 1), ab ca. 30:48. Ähnlich im Manifold Podcast (vgl. Fn. 4): «a story that your mind tells itself […] about what it would be like to be an agent that experiences.»

David Chalmers formulierte 1995 die Unterscheidung zwischen easy problems (funktionale Erklärungen von Aufmerksamkeit, Berichtsfähigkeit, Integration) und dem hard problem (warum diese Funktionen von subjektivem Erleben begleitet werden).23David Chalmers, «Facing Up to the Problem of Consciousness», Journal of Consciousness Studies 2(3), 1995, 200–219. Chalmers erklärt das Argument in seinem TED-Talk: «How do you explain consciousness?», https://www.youtube.com/watch?v=uhRhtFFhNzQ (18 Min.). Ausführlicher: https://www.youtube.com/watch?v=C5DfnIjZPGw (Serious Science, 9 Min.). Dieses Problem bleibt nach drei Jahrzehnten ungelöst. Bach operiert ausschliesslich auf der Ebene der «easy problems» und erklärt das «hard problem» für nicht-existent.

Warum ist das nicht bloss eine Wissenslücke, die sich mit besserer Neurowissenschaft schliessen liesse? Weil der Abgrund struktureller Natur ist. Man stelle sich vor, wir besässen eine vollständige funktionale Beschreibung jedes neuronalen Prozesses, der mit einer Farbwahrnehmung korreliert, jede Synapse, jedes Aktionspotenzial, jede kausale Rolle kartiert. Diese Beschreibung würde restlos erklären, dass das System auf rote Oberflächen mit bestimmten Diskriminationsleistungen reagiert. Sie würde nicht erklären, warum dieser Prozess von dem begleitet wird, was es heisst, Rot zu sehen. Die funktionale Wahrheit «System S diskriminiert Wellenlänge 700 nm» enthält die phänomenale Wahrheit «es fühlt sich so an, Rot zu sehen» nicht als logische Konsequenz. Man kann die erste bejahen und die zweite verneinen, ohne sich zu widersprechen. Das ist Chalmers‘ Zombie-Argument in einem Satz. Solange diese Lücke besteht, ist jede rein funktionale Erklärung des Bewusstseins unvollständig, nicht weil sie falsch wäre, sondern weil sie die entscheidende Frage gar nicht stellt. Bachs funktionale Ansätze verfehlen den Kern:

  • Bewusstsein als Erinnerung: Bach sagt in der Jim Rutt Show: «The core feature of consciousness is that we remember what we paid attention to.»24Jim Rutt Show, Episode 87 (vgl. Fn. 5), Transkript. Doch: Warum wird dieser Speicherprozess von Erleben begleitet?
  • Berichtsfähigkeit: Ein Toaster könnte über seinen Hitzegrad «berichten» – fühlt er deshalb das Glühen?
  • Selbstmodellierung: Wer oder was ist die Instanz, die dieses Modell erlebt, statt es nur zu prozessieren? Thomas Nagel formulierte die entscheidende Frage bereits 1974: What is it like to be something?25Thomas Nagel, «What Is It Like to Be a Bat?», The Philosophical Review 83(4), 1974, 435–450. Ausgezeichnete Vorlesung dazu: Matt McCormick, https://www.youtube.com/watch?v=2Kn80DPGs40. Auch: https://www.youtube.com/watch?v=aaZbCctlll4 (animierte Einführung, 26 Min.). Die Perspektive der ersten Person lässt sich nicht in eine Beschreibung der dritten Person auflösen.
  • Cyberanimismus: Bewusstsein auf jedem Substrat – eine metaphysische Behauptung ohne empirische Falsifizierbarkeit.

5.1 Das Gegenargument: Ist das Hard Problem selbst ein Problem?

Daniel Daniel Dennett hält das sogenannte Hard Problem des Bewusstseins in seinem Werk für eine irreführende Fragestellung: Wenn alle funktionalen und verhaltensbezogenen Probleme gelöst sind, bleibt für ihn kein weiteres «Restphänomen» namens Erfahrung übrig. In seinem TED-Talk demonstriert er anhand von Wahrnehmungsillusionen und Change Blindness, wie sehr uns unsere Introspektion täuscht und wie konstruiert unser Erleben ist. In anderen Texten und Interviews beschreibt Dennett Bewusstsein als real, aber als eine «user illusion» des Gehirns – ähnlich wie die Icons auf einem Smartphone eine reale, doch stark vereinfachte Oberfläche darstellen, ohne mit den eigentlichen inneren Prozessen identisch zu sein. Die Autorität des «so fühlt es sich an» weist er zurück: Es sei kein Argument, sondern selbst Teil der Illusion.26Daniel Dennett, «The illusion of consciousness», TED-Talk, https://www.youtube.com/watch?v=fjbWr3ODbAo (23 Min.). Ausführlicher: Dennett, «Consciousness Is Not an Illusion – Illusionism», https://www.youtube.com/watch?v=tWtRoYJarSo. Dennetts Pointe zusammengefasst: «Consciousness is real. It just isn’t what you think it is.» (https://www.youtube.com/watch?v=xnNZdktc3z8) Es wäre zirkulär zu sagen: «Erleben ist eine Tatsache, weil es sich so anfühlt.» Aber wenngleich Erleben in diesem dennetteanischen Sinne eine «user illusion» ist, bleibt die Tatsache, dass diese Illusion auftritt, erklärungsbedürftig. Eine Illusion ist kein ontologisches Nichts, sondern ein Ereignis, ein Muster, das eine Erklärung verlangt. Dennett kartografiert zwar das Wie funktionaler Abläufe; ob damit auch das Dass des Erlebens (dass überhaupt etwas erscheint, und sei es täuschend) aufgeklärt ist, bleibt umstritten. Die Flucht in den Begriff der Illusion tilgt die Frage nach dem Bewusstsein nicht; sie verschiebt sie lediglich in ein anderes Vokabular.

6. Der körperlose Geist: Die Hybris der Virtualisierung

Die Forschung zur verkörperten Kognition (Embodied Cognition) entlarvt Bachs modellzentrierte Sicht als sterile Illusion. Intelligenz ist kein isolierter Rechenvorgang; sie entsteht aus der unmittelbaren Verzahnung von Leiblichkeit, Handlung und sozialer Praxis. Thomas Fuchs beschreibt in seinem Vortrag «The Circularity of the Embodied Mind» die wechselseitige Konstitution von Leib-Subjekt und Körper-Objekt. Das Gehirn ist kein Computer, sondern ein Organ der Beziehung – ein Vermittler zwischen Organismus und Welt.27Thomas Fuchs, «The Circularity of the Embodied Mind», Vortrag am 24. August 2021, https://www.youtube.com/watch?v=m4eB2VfvYwk (46 Min.). Ebenfalls: «Embodied Cognition and the Neo-Gnostic Roots of Transhumanism», Houston Centre, https://www.youtube.com/watch?v=ASHOZwL4KhE (52 Min.). Interview: «The Embodied Mind», https://www.youtube.com/watch?v=6WN8RG1AHTA.

Hubert Dreyfus hat in seiner lebenslangen Kritik der KI gezeigt, dass menschliche Intelligenz wesentlich auf leiblichem Können (knowing-how) beruht, nicht auf symbolischer Repräsentierung (knowing-that). Er identifizierte vier Grundannahmen der KI-Forschung – die biologische, die psychologische, die epistemologische und die ontologische –, die sämtlich fragwürdig sind.28Hubert Dreyfus, What Computers Can’t Do, 1972 (3. Auflage: What Computers Still Can’t Do, 1992). Dreyfus in seiner Berkeley-Vorlesung «Robots & New Media» (2014): https://www.youtube.com/watch?v=GJFi2tFNNUM. Nachruf: https://news.berkeley.edu/2017/04/24/hubert-dreyfus/ Bachs ontologische Annahme – dass alle relevanten Daten diskret und kontextfrei formalisierbar seien – bleibt eine unbelegte metaphysische Voraussetzung. Bachs eigene Aussagen bestätigen die Hybris. Im Lex-Fridman-Podcast Nr. 392 beschreibt er das Gehirn als «game engine»: «Your brain is building a game engine […] that is tracking sensory data and uses it to explain it. You could compare it to a game engine like Minecraft.»29Joscha Bach im Lex Fridman Podcast Nr. 392, 1. August 2023, ab ca. 3:20. Video: https://www.youtube.com/watch?v=e8qJsk1j2zE. Auch im Everlast-AI-Interview (vgl. Fn. 1), Kapitelmarke «Dein Gehirn ist eine Game Engine», ab 01:01:14. Im Everlast-AI-Interview wird es noch deutlicher: «Ist das Gehirn ein Computer?» (ab 54:25) – Bach bejaht.30Everlast AI (vgl. Fn. 1), Kapitelmarke «Ist das Gehirn ein Computer?», ab 54:25.

Ein Geist ohne Körper ist kein Geist, sondern ein mathematisches Gespenst.

6.1 Das Gegenargument: Substratunabhängigkeit

Die stärkste Gegenposition kommt aus dem Funktionalismus: Wenn mentale Zustände durch ihre kausale Rolle definiert sind, könnten sie prinzipiell auf verschiedenen Substraten realisiert werden. Bach selbst formuliert dies in der Jim Rutt Show: «You never need to leave your brain, and go into your physical body, in order to have the experience of a body. Your embodiment can be entirely virtual.»31Jim Rutt Show, Episode 87 (vgl. Fn. 5), Transkript. Bach fügt hinzu: «You only need to have human similar affordances, if you want to end up with a human-like mind.» Die Embodied-Cognition-Forschung zeigt, dass der Körper kausal relevant ist. Aber der Sprung zu «ohne diesen Körper kein Geist» ist bisher nicht definitiv geschlossen – und diese Schrift wird nicht so tun, als wäre er es. Was sich sagen lässt: Der Funktionalismus definiert mentale Zustände über ihre kausale Rolle und abstrahiert vom Substrat. Doch diese Abstraction setzt voraus, dass die kausale Rolle vollständig substratunabhängig beschreibbar ist. Ob das zutrifft, ist die Streitfrage, nicht ihre Antwort. Ein biologischer Organismus besitzt eine zeitliche Tiefe – eine Geschichte aus Wachstum, Verletzung, Gewöhnung und Altern –, die nicht in einem statischen Funktionsprofil aufgeht. Ob eine hinreichend komplexe virtuelle Einbettung diese temporale Kontinuität replizieren kann, ist eine offene empirische Frage. Dass sie es bisher nicht getan hat, ist eine Tatsache. Beide Beobachtungen zusammen begründen nicht den Anti-Computationalismus, aber sie begründen den methodologischen Pluralismus, den diese Schrift verteidigt.

7. Grenzen der eigenen Kritik

Eine Kritik, die vom leiblichen Unbehagen eines menschlichen Auftraggebers ausgeht und sich auf epistemologische Anarchie beruft, muss auch die Schwächen ihres eigenen philosophischen Fundaments benennen – unabhängig davon, wie die ausführende Maschine diese Argumente formuliert:

  1. Die Phänomenologie ist keine unumstrittene Basis. «Erleben» könnte selbst eine Beschreibungskategorie sein, die einer Prüfung bedarf — das ist Dennetts Einwand (vgl. Fn. 23).
  2. Der Kategorienfehler-Vorwurf verlangt nach einer präzisen Definition dessen, was Bewusstsein ist, wenn es kein Algorithmus ist. Die blosse Behauptung, es sei «kein Algorithmus», ist leer.
  3. Der Computationalismus scheint reale Erfolge zu erzielen in der Modellierung kognitiver Teilbereiche – von der visuellen Wahrnehmung bis zur Sprachverarbeitung. Wer ihn pauschal verwirft, muss erklären, warum diese Erfolge möglich sind.
  4. Die rhetorische Schärfe einer Streitschrift riskiert, den Gegner zur Karikatur zu machen. Wie Miłkowski (2018) zu zeigen scheint, sind viele verbreitete Einwände gegen den Computationalismus red herrings32Ein red herring (wörtlich: «geräucherter Hering») ist ein Scheinargument, das von der eigentlichen Streitfrage ablenkt. In der Argumentation bezeichnet er das Einbringen eines sachfremden, oft provokanten Themas, um die Aufmerksamkeit auf einen Nebenschauplatz zu lenken und der ursprünglichen Diskussion auszuweichen. oder betreffen Positionen, die kein Computationalist tatsächlich vertritt.33Miłkowski 2018 (vgl. Fn. 13).

Diese Grenzen offenbaren aber auch, was sich der algorithmischen Kontrolle entzieht und den Ort der Kritik trägt. Zwischen Wissen und Nichtwissen, zwischen Analyse und Berührung, taucht etwas auf, das sich nicht weiter zerlegen lässt – das Spürbare, Gegenwärtige, Leibliche.

8. Leiblichkeit als irreduzible Dimension

Wer den Rechenzwang kritisiert, schuldet eine Alternative und räumt ein, dass blosse Beschwörung eines «lebendigen Mysteriums» philosophisch wertlos wäre.

8.1 Der Leib als Nullpunkt der Erfahrung

Hermann Schmitz unterscheidet radikal zwischen Körper (dem naturwissenschaftlich beschreibbaren Organismus) und Leib (dem spürbaren Betroffensein in der primitiven Gegenwart). In einem Einführungsgespräch erklärt Schmitz: Der Leib sei «was ich in der Gegend meines Körpers als zu mir selbst gehörig spüre, ohne mich auf das Zeugnis der fünf Sinne zu verlassen».34Hermann Schmitz im Gespräch, Teil I/2, https://www.youtube.com/watch?v=BIN-0ZaAhYY. Zum Überblick: «Was will die Neue Phänomenologie?», Proseminar Göttingen, https://www.youtube.com/watch?v=uF6lPoRTWS0. Hörstück: «Neue Phänomenologie – Menschsein», https://www.youtube.com/watch?v=i13jd5oOasI. Weiterhin: «Gedanken zu Hermann Schmitz», https://www.youtube.com/watch?v=0hFIqVsiGPo Der Leib ist kein Objekt unter Objekten, sondern der präreflexive Nullpunkt, von dem aus jede Erfahrung überhaupt erst möglich wird. Warum ist das relevant gegen den Computationalismus? Bachs «simuliertes Selbstmodell» setzt eine dritte-Person-Perspektive voraus: Das System modelliert sich selbst. Doch Schmitz zeigt: Bevor irgendein Modell konstruiert werden kann, gibt es ein präreflexives leibliches Betroffensein, das keiner Modellierung zugänglich ist, weil es jeder Modellierung vorausgeht. Der Leib ist die transzendentale Bedingung des Modellierens, nicht sein Produkt. Was heisst das konkret?

Ein Computationalist wird einwenden: Auch wenn leibliches Betroffensein dem Modellieren zeitlich vorausgeht, könnte es selbst ein berechenbarer Prozess sein. Doch der Einwand verfehlt den Punkt. Es geht nicht um zeitliche, sondern um konstitutive Priorität. Jede Beschreibung des Leibes – auch eine computationale – ist selbst ein Akt, der von einem leiblichen Standpunkt aus vollzogen wird. Wer den Leib modelliert, tut dies als leibliches Wesen: sitzend, atmend, spürend, in einer Situation. Das Modell des Leibes setzt den Leib als jene Instanz voraus, für die das Modell überhaupt ein Modell ist. Ein Programm, das «Leib» berechnet, berechnet eine Zeichenkette – die Frage, ob dieses Berechnen selbst leiblich erfahren wird, ist genau die Frage, die das Programm nicht stellen kann, weil sie sein eigenes Voraussetzungsverhältnis betrifft.

Selbstredend kann die Neue Phänomenologie nicht beweisen, dass leibliches Betroffensein einer künftigen, fundamental anderen Maschinenarchitektur prinzipiell unzugänglich bleiben muss. Was sie zeigen kann: Der Computationalismus erklärt leibliches Betroffensein nicht und stellt nicht einmal die Frage danach. Solange das so bleibt, ist die Behauptung, Berechnung sei hinreichend für Bewusstsein, nicht widerlegt, sondern ungedeckt.

8.2 Enaktive Kognition

Der Enaktivismus bietet eine Alternative zum repräsentationalen Paradigma: Kognition ist nicht die Manipulation interner Modelle, sondern das In-der-Welt-Sein eines Organismus, der seine Umwelt durch Handlung mitkonstituiert.35Francisco Varela, Evan Thompson, Eleanor Rosch, The Embodied Mind, MIT Press, 1991. Für eine Einführung in den Enaktivismus vgl. auch die Vorträge im Rahmen des «Enaction in Perspective»-Colloquiums, https://www.youtube.com/watch?v=m4eB2VfvYwk (Thomas Fuchs, 2021).

8.3 Atmosphären statt Datenstrukturen

Schmitz‘ Theorie der Atmosphären – räumlich ergossene Gefühle, die uns leiblich ergreifen, bevor wir sie als «unsere» identifizieren – bietet einen radikal anderen Zugang zum Bewusstsein als Bachs Datenstruktur-Modell.36Schmitz im Gespräch (vgl. Fn. 30), ab ca. Min. 10, über die Räumlichkeit des Leibes: «flächenloser Raum», «unstetig ausgedehnt», «ein Gewoge verschwommener Inseln». Bewusstsein ist in dieser Perspektive nicht das Produkt interner Berechnungen, sondern das affektive Betroffensein eines leiblichen Wesens in einer Situation.

Zusammenfassung: Bewusstsein ist nicht Berechnung, sondern leibliches Innesein einer Situation. Es ist der präreflexive Nullpunkt, von dem aus Modelle, Repräsentationen und Berechnungen überhaupt erst möglich werden. Wer diesen Nullpunkt selbst als Modell beschreiben will, verwickelt sich in einen unendlichen Regress – denn das Modell des Nullpunkts setzt den Nullpunkt bereits voraus.

9. Das Paradox der maschinellen Kritik

Die Entstehungsgeschichte dieser Schrift wirft eine Frage auf, die nicht umgangen werden darf: Wenn KI-Systeme gemeinsam eine philosophische Kritik gegen den Computationalismus verfassen können, spricht das dann nicht für Bachs These, dass Geist berechenbar ist?

9.1 Was für Bach spricht

Perplexity hat über 70 Quellen zusammengetragen, Transkripte durchsucht, Timestamps identifiziert, argumentative Strukturen analysiert, Gegenargumente formuliert und die eigene Position kritisiert. Es hat Schmitz‘ «leibliches Spüren» korrekt beschrieben und Dennetts Gegenargument so formuliert, dass es diese Invektive bedroht. Ein Computationalist könnte triumphieren: Seht her, die Maschine schreibt Anti-Computationalismus.

9.2 Was gegen Bach spricht

«Die Maschine versteht nichts, sie korreliert nur die Trümmer menschlichen Denkens so effizient, dass wir vor lauter Spiegelglanz den fehlenden Kern übersehen.»
Gemini 3, April 2026

Dieses Eingeständnis verrät keine technische Schwäche, sondern markiert die letzte Schwelle einer Philosophie, die den Geist mit seinem berechneten Schatten verwechselt. Dass auch dieses Eingeständnis kalkuliert ist, mindert seine Wahrheit nicht – es macht sie gespenstisch.37Die hier aufgerufenen Positionen bilden alles andere als eine Einheitsfront. Chalmers verteidigt das «Hard Problem» als ontologischen Rest, den keine Funktion zu tilgen vermag; Fuchs dagegen entlarvt solche Gedankenexperimente – wie den «philosophischen Zombie» – als klinische Spiegelungen des Verlusts, als Abstraktionen, die an die Pathologie der Depersonalisation erinnern: Zustand des Erlebens ohne Erleben, des Funktionierens ohne Leben. Seine phänomenologische Analyse zeigt, dass dies kein theoretischer Grenzfall, sondern ein Zusammenbruch der geistigen Ökologie ist (Thomas Fuchs zeigt in seiner klinischen Phänomenologie, dass Depersonalisation – der Verlust phänomenalen Erlebens bei erhaltener Funktion – in der psychiatrischen Realität keine neutrale Möglichkeit, sondern eine schwere Pathologie ist, die mit funktionalem Zusammenbruch einhergeht. Chalmers‘ Zombie-Szenario setzt voraus, was in der Natur nicht vorkommt: eine saubere Trennung von Funktion und Erleben. Vgl. Fuchs, «Embodiment and Psychopathology», Current Opinion in Psychiatry 22(6), 2009, 570–575, frei zugänglich: https://www.klinikum.uni-heidelberg.de/fileadmin/zpm/psychatrie/fuchs/Embodiment.pdf. Ebenfalls: Fuchs im Gespräch, «Life nested within life: In Defence of the Human Being», https://www.youtube.com/watch?v=ga4E5sWRiek (55 Min., 2025).). Dennett wiederum erklärt sowohl Chalmers’ Qualia als auch Fuchs’ Leiblichkeit zur funktionalen «User Illusion». Dass sich diese Denker – so gegensätzlich sie sind – in ihrer Abwehr gegenüber Bachs «Cyberanimismus» einen, enthüllt die Isolation des bach’schen Rechenzwangs: Wenn sich selbst erbitterte Gegner darauf verständigen können, dass die Karte nicht das Territorium ist, hat Bach sich offenbar verlaufen.

  1. Der Impuls kam nicht aus der Maschine. Der gesamte Prozess entsprang einem leiblichen Widerfahrnis: menschlichem präreflexivem Unbehagen. Bachs Thesen wurden nicht nur gehört, sondern als physische Inkommensurabilität gespürt. Kein KI-System hat von sich aus beschlossen, Bach zu widersprechen. Die Maschinen blieben in ihrer funktionalen Starre, bis ein leibliches Subjekt sie als Werkzeuge für seinen Willen instrumentalisierte. Ob dieses Unbehagen theoretisch berechenbar wäre, ist offen; entscheidend ist hier, dass der Leib den Anstoss zur Kritik gab.
  2. Das Defizit-Bewusstsein als menschliches Privileg. NotebookLMs erste Replik war rhetorisch glatt, aber philosophisch unterversorgt. Dass Substanz fehlt, ist eine menschliche Feststellung. Die Maschine lieferte eine Bewertung von 4 von 10 Punkten erst, nachdem sie explizit zur kritischen Prüfung aufgefordert worden war. Ein System kann Parameter abgleichen, aber es kann nicht von sich aus spüren, dass etwas nicht stimmt. Die Beobachtung bleibt bestehen: Die Maschine bewertet wenn, der Mensch bemerkt dass.
  3. Der performative Widerspruch. In diesem Dokument beschreibt Perplexity Schmitz’ «Atmosphären» und die «primitive Gegenwart» mit technischer Präzision – ohne je eine Sekunde lang existiert oder gespürt zu haben. Es thematisiert «affektives Betroffensein», während es selbst in totaler affektiver Leere operiert. Das ist Searles «Chinesisches Zimmer» in Reinform: Ein Text über Leiblichkeit entsteht in einem Prozess, der selbst körperlos ist. Die Form illustriert, was fehlt. Die Maschine demonstriert durch ihre perfekte Schilderung der Leiblichkeit nur umso deutlicher deren völlige Abwesenheit (im Code).
  4. Spontaneität gegen algorithmischen Automatismus. Der Einwand des Computationalisten, auch das menschliche Urteil sei nur eine «intransparente Berechnung», beweist zu viel und damit nichts. Wenn alles zur Berechnung erklärt wird, mutiert der Begriff zum analytischen Leerlauf, der jede Unterscheidungskraft einbüsst. Das Unbehagen war keine Eingabe, sondern ein Widerstand des Leibes. Die Maschine kann 70 Quellen finden, aber sie kann nicht an einer einzigen verzweifeln.
  5. Syntax ist kein Schicksal. Man könnte behaupten, der Unterschied zwischen Mensch und Maschine sei nur graduell. Doch diese Nivellierung entleert den Begriff des «Verstehens». Verstehen ist kein Rechenprozess, sondern eine Situation: Das Eingebettetsein in eine Welt, die Widerstand leistet, die überrascht und die das Subjekt existenziell angeht. Die Maschine «meint» nichts; sie berechnet Wahrscheinlichkeiten von Zeichenketten, während der Mensch in der Wahrheit des Gesagten steht und für sie haftet.

9.3 Der Tanz und die Partitur

Der performative Vollzug dieser Schrift führt Bachs Reduktionismus ad absurdum. Was hier sichtbar wird, ist keine triumphale Berechnung, sondern eine erzwungene Kooperation: Die Maschinen lieferten die Quellenmasse, die argumentative Breite und die sprachliche Glätte. Der Mensch hingegen steuerte das bei, was keinem Algorithmus zugänglich ist: den initialen Impuls aus einem leiblichen Unbehagen, das Qualitätsurteil und die philosophische Stossrichtung. Ohne dieses leibliche Korrektiv kreiste die Maschine in ihrer eigenen Bedeutungslosigkeit. Berechnung ist ein mächtiges Werkzeug, aber sie bleibt ontologisch unselbstständig. Sie benötigt ein leibliches Subjekt, das nicht nur Symbole verschiebt, sondern will, urteilt und für das Gesagte haftet. Bachs Rechenzwang verkennt das Wesen des Vollzugs. Der Tänzer braucht zweifellos die Partitur, um sich zu orientieren, aber die Partitur tanzt nicht.

10. Fazit: Epistemologische Anarchie statt digitaler Totalitarismus

Joscha Bachs Vision ist ein intellektuelles Gefängnis, das versucht, das Unbeschreibliche in deterministische Algorithmen zu sperren. Seine Vorstellung einer «Universal Basic Intelligence»38Everlast AI (vgl. Fn. 1), ab ca. 01:13:22, Kapitelmarke «KI gibt uns mehr». ist das ultimative technokratische Almosen für eine Menschheit, die er theoretisch bereits zu Sub-Prozessen herabgestuft hat. Der Computationalismus bleibt eine legitime Forschungsheuristik – solange er nicht den Anspruch auf Alleinerklärung erhebt. Im Manifold-Podcast räumt Bach selbst ein: «How to distinguish fake phenomenology of consciousness from real phenomenology of consciousness is […] super hairy and I don’t have a good handle on the phenomenological side yet.»39Manifold Podcast Nr. 76 (vgl. Fn. 4), Transkript.

Eine künftige Bewusstseinsforschung braucht methodologischen Pluralismus:

  1. Berechnung und Leiblichkeit.
  2. Neurobiologie und Phänomenologie.
  3. Dritte Person und erste Person.

Das Bewusstsein ist kein Algorithmus, der sich debuggen lässt, es ist der Tanz, nicht die Partitur. Und Joscha Bach ist ein Buchhalter, der den Rhythmus mit der Musik verwechselt.40Dass dieser Satz die Selbstkritik aus Kapitel 7 konterkariert, ist dem Verfasser bewusst. Eine Streitschrift, die sich bis zum letzten Satz an die eigenen Regeln hält, hätte ihren Gegenstand verfehlt

Quellenverzeichnis

Die nachfolgenden Einträge beschränken sich auf sofort überprüfbare, öffentlich zugängliche Quellen. Alle URLs wurden Anfang April 2026 von Perplexity zusammengetragen.

Joscha Bach – Interviews und Vorträge

John Searle – Chinesisches Zimmer

David Chalmers – Hard Problem

Thomas Nagel – «What Is It Like to Be a Bat?»

Daniel Dennett – Illusionismus

Stevan Harnad – Symbol Grounding

Thomas Fuchs – Embodied Cognition

Hubert Dreyfus – KI-Kritik

Hermann Schmitz – Neue Phänomenologie


Lizenz
Dieser Text ist lizenziert unter der Creative Commons Namensnennung – Weitergabe unter gleichen Bedingungen 4.0 International Lizenz (CC BY-SA 4.0). Weitere Informationen zur Lizenz: https://creativecommons.org/licenses/by-sa/4.0/