Das fragt der Philosoph Reinhold Esterbauer angesichts klassischer wie neuerer Versuche, das Menschsein von etwas anderem her zu definieren.
Trotz aller Bedenken gegen Essentialisierungen oder gar speziesistischer Bevorzugung ist die Vergewisserung, was denn der Mensch eigentlich sei, nicht verstummt. Besonders angesichts humanoider Roboter oder Künstlicher Intelligenz (KI) ist die Frage im Trans- oder Posthumanismus wieder aktuell geworden, ob denn der Mensch als Art übertroffen werden könne. Zudem sind besonders KI-Unternehmen daran interessiert, einen Menschen, wenn ihn schon nicht zu überbieten, so doch künstlich herzustellen. Für solche oder ähnliche Vorhaben steht das Problem im Raum, bestimmen zu müssen, was denn der Mensch eigentlich sei. Anderenfalls hätte man keinen Vergleichspunkt dafür, was genau übertroffen oder nachgebaut werden soll.
Die Frage nach dem Menschsein ist nicht verstummt
Um dem Dilemma zu entkommen, den Menschen definieren zu müssen, hat Alan Turing schon 1950 vorgeschlagen, mit einem „imitation game“, das als Turing-Test Berühmtheit erlangte,[1] Menschen direkt mit Maschinen zu konfrontieren, um herauszufinden, ob diese denken können wie Menschen. Wenn nach diesem Experiment die Versuchspersonen, die zugleich mit Menschen und Maschinen kommunizieren, ohne sie sehen zu können, nach einer gewissen Zeit gefragt werden, in welcher Kabine sie denn nun einen Menschen und in welcher eine Maschine vermuten, eine Fehlerquote von mehr als 30% (streng genommen wohl mehr als 50%) aufwiesen, dann sei der getestete Maschinentyp mit einem Menschen gleichzusetzen – so Turing.
Wenn sie ein neues Modell vorstellen, verweisen Hersteller von Robotern seither gewöhnlich darauf, dass das Produkt ihrer Entwicklung den Turing-Text bestanden habe. Mittlerweile gewannen wohl die meisten Nutzer:innen von ChatGPT oder ähnlichen Chatbots ebenfalls den Eindruck, dass es oft kaum mehr möglich sei, im Informationsaustausch genau zwischen ChatGPT und einem Menschen als Gegenüber zu unterscheiden. Dennoch würden sie wohl eher nicht behaupten, dass ein solches Programm deshalb schon ein Mensch sei. Es scheint doch noch etwas zu fehlen, so der Eindruck. Aber was? Danach zu fragen, führt wieder zum Problem der menschlichen Wesenseigenschaften zurück.[2]
Der Turing-Test
Offenbar suchen wir Menschen, wenn wir wissen wollen, wer oder was wir sind, uns von etwas oder jemand anderem her zu bestimmen. Wir setzen uns mit anderem in Bezug und möchten von dort her Aufschluss über uns selbst gewinnen. Oft zitiert wird in diesem Zusammenhang die berühmte Stelle aus Martin Bubers „Ich und Du“: „Der Mensch wird am Du zum Ich.“[3] Allerdings geht es hier um die eigene personale Individualität, die jemand – nach Buber – nur aus dem dialogischen Gegenüber zu anderen Menschen und Gott gewinnen kann. Der vorliegende Zusammenhang verlangt aber nicht nach der Bestimmung der eigenen Identität, die der Frage entspricht, wer jemand denn in seiner Unverwechselbarkeit sei, sondern nach der allgemeineren Frage, was es heißt, ein Mensch zu sein, unabhängig von der jeweiligen Einzigartigkeit einer Person.
Der Mensch als animal rationale
Die wohl bekannteste Definition des Menschen stammt von Aristoteles, der den Menschen als „ζῷον λόγον ἔχον“ bestimmt hat, also als vernunftbegabtes Lebewesen, eine Formel, die in ihrer lateinischen Übersetzung als „animal rationale“ Berühmtheit erlangte.[4] Diese Bestimmung nimmt ihren Ausgangspunkt vom Tier (ζῷον oder animal) und möchte von dort her den Menschen definieren. Dieser Versuch steht vor einer doppelten Schwierigkeit: Zum einen gelingt es dem Menschen nicht, genau zu erkennen, wie es sich anfühlt, ein Tier, etwa eine Fledermaus, zu sein.[5] Er kann Tiere nur analog zu sich selbst erkennen, also immer nur anthropomorph. Auf dieser Basis schließt der Mensch zum anderen dann vom so verstandenen Tier auf sich selbst zurück und fügt ein spezifisches Charakteristikum als Unterscheidungsmerkmal – hier die Vernunft – hinzu. Dieser Umweg bringt eine doppelte Verfälschung mit sich. Zunächst tut man so, als wüsste man, was genau ein Tier ist, und dann unterstellt man, dass man selbst ein besonderes Tier sei.
Ähnliches gilt für die Bestimmung des Menschen mit dem Bezugspunkt KI: Zunächst entwirft man ein anthropomorphes Bild einer Maschine und dann erfolgt der Rückschluss auf sich selbst. Es ist das auf diese Weise verfälschte Roboter-Sein, von dem her im Modus eines Vergleiches auf den Menschen rückgeschlossen wird, um über das eigene Mensch-Sein Klarheit zu gewinnen. Was Gerd Haeffner in Bezug auf die Definition des Menschen als eines besonderen Tieres festgestellt hat, gilt auch für die Bestimmung des Menschen als einer Maschine, nämlich dass sich bei einem solchen Vorgehen ein „Effekt der Verfremdung“[6] einstellt. Das mag auch den oben erwähnten Eindruck vieler erklären, dass ChatGPT ja doch nicht einfach mit menschlichem Denken gleichzusetzen ist.
Das Gefühl der Verfremdung wird man nicht los
Es ist, genau genommen, nicht möglich, eine an der Maschine gewonnene Definition als auch für den Menschen gültig anzunehmen. Denn sie muss aus den angeführten logischen Gründen das Definiendum notwendig verfehlen. Das ist zugleich der Grund dafür, warum es nicht zulässig erscheint, etwa das Leib-Seele-Problem dadurch zu lösen zu versuchen, dass man es als Hardware-Software-Problem reformuliert und die an der Maschine gewonnenen Einsichten auf den Menschen rückspiegelt. Dennoch scheint ein solcher Versuch heute gang und gäbe zu sein. Freilich bleibt das erwähnte Gefühl der Verfremdung bestehen. Um dieses als lästigen Störfaktor aber loszuwerden, wird es meist entweder geleugnet oder einfach übergangen – möglicherweise vor lauter Begeisterung, eine zeitgemäße Definition für den Menschen gefunden zu haben.
Warum nicht bei sich selbst beginnen?
Wenn man sich als Mensch selbst bestimmen möchte, scheint es einem offensichtlich leichter zu fallen, zunächst durch Analogie-Schlüsse Vorstellungen auf sein nichtmenschliches Gegenüber zu projizieren, an dem man anschließend Momente seiner selbst zu entdecken hofft, als unmittelbar bei sich selbst zu beginnen. Auf das Roboter-Modell bezogen, ist zu hinterfragen, warum wir Menschen uns heute selbst oft als Wesen begreifen möchten, die zu einer KI anlog sind. Allein schon die Tatsache, dass wir das tun können, zeigt doch an, dass wir eigentlich keine KI sind. Denn nur weil wir vernünftig, frei und selbstbewusst sind, können wir behaupten, dass wir das alles nicht seien.[7] In solcher Selbst-Infragestellung setzen wir das Bestrittene jedoch voraus, ob wir wollen oder nicht. Deshalb könnte der Versuch, den Menschen zu definieren, beispielsweise an dieser Stelle ansetzen, also beim Menschen selbst, aber nicht anderswo. Die menschliche Selbsterfahrung ernst zu nehmen und als wirklichkeitserschließend gelten zu lassen, könnte dafür ein Anfang sein.
Im Übrigen gelten diese Überlegungen wohl auch für die Ausarbeitung einer theologischen Anthropologie. Auch sie muss sich fragen lassen, von welchen Bezugsgrößen her sie den Menschen zu bestimmen sucht. Es bleibt zu bedenken: Sind theologische Definitionen aus der Rückbesinnung auf das Menschsein selbst gewonnen oder bilden sie Rückübertragungen herangezogener Phantom-Bilder, aus welchen Bereichen auch immer? In diesem Sinn sollte eine theologische Anthropologie keine verkappte Christologie sein.
__________________________________________________________________________________
[1] Turing, Alan M.: Computing Machinery and Intelligence, in: Mind 59/236 (1950) 433–460. DOI: https://doi.org/10.1093/mind/LIX.236.433
[2] Turing wendet in seinem Gedankenexperiment übrigens den Trick an, das ontologische Problem, ob ein Roboter denken könne, erkenntnistheoretisch zu beantworten, indem er fragt, ob Menschen in einer bestimmten Versuchsanordnung Roboter als denkende Wesen erkennen können oder nicht. Vgl. dazu Feige, Daniel M.: Kritik der Digitalisierung. Technik, Rationalität und Kunst, Hamburg: Meiner 2025, 67. Zur Kritik von John Searle und Donald Davidson an Turing siehe ebd., 67–72.
[3] Buber, Martin: Ich und Du. Nachwort von Bernhard Casper, Stuttgart: Reclam 2001 (Universal-Bibliothek 9342), 28.
[4] Die Stelle lautet: „λόγον δὲ μόνον ἄνθρωπος ἔχει τῶν ζῴων·“ (Aristot. pol. A, 2, 1253 a 9f.). Zit. nach: Aristoteles, Opera. Ex recensione Immanuelis Bekkeri edidit Academia Regia Borussica. 2, Berlin: de Gruyter ²1960.
[5] Nagel, Thomas: What Is It Like to Be a Bat?, in: The Philosophical Review 83 (1974) 435–450. DOI: https://doi.org/10.2307/2183914
[6] Haeffner, Gerd: Philosophische Anthropologie, Stuttgart: Kohlhammer 42005 (Grundkurs Philosophie 1), 33.
[7] Vgl. Feige, Daniel M.: „Künstliche Intelligenz“ und Vernunft, in: Journal Phänomenologie 63 (2025) 11–16, 13.
Prof. Dr. Dr. Reinhold Esterbauer ist Leiter des Instituts für Philosophie an der Katholisch-Theologischen Fakultät der Universität Graz.
