Digitale Verheißung und menschliche Projektion. Herausforderungen der KI für Philosophie und Theologie

Fast alle unsere Lebensbereiche werden in den letzten Jahren grundlegend durch Automation und Technik umgestaltet. Tobias Müller erläutert den Unterschied von Mensch und Maschine.

Information, Kommunikation, gesellschaftliche Interaktion, Arbeits- und Produktionsschritte werden immer stärker digitalisiert, und dabei werden die anfallenden Daten durch Technologien verarbeitet, die auf sogenannter Künstlicher Intelligenz (KI) beruhen. Diese erlaubt es, riesige Datenmengen innerhalb kürzester Zeit nach bestimmten Mustern zu durchforsten, die Teil von Lösungen für menschliche Probleme sein können. Viele Expert:innen und Wissenschaftler:innen sehen daher in dieser Entwicklung nicht weniger als  eine grundlegende Revolution unserer menschlichen Existenz. Denn diese technischen Neurungen bieten einerseits ein enormes Potenzial zur Unterstützung menschlicher Lebensvollzüge (beispielsweise in Forschung, Kommunikation und Wirtschaft), enthalten andererseits aber auch für die Gesellschaft substanzielle Risiken und Gefahren für vernünftige Diskursfähigkeit, gesellschaftliche Freiheit und demokratische Prozesse, da KI-Systeme dort auch Überwachung und Manipulation ermöglichen.

Theologisch entsteht die Frage, ob auch Roboter erlösungsbedürftig sind

Es gibt zudem eine Dimension der KI-Technologie, die eine noch subtilere, aber nicht weniger große Herausforderung für unser menschliches Selbst- und Wirklichkeitsverständnis darstellt und dadurch fundamentale philosophisch-theologische Fragen aufwirft.[1] Denn die großen Erfolge der KI-Forschung wecken fast zwangsläufig Assoziationen mit dem menschlichen Geist, die zu Überlegungen führen, ob wir unser Menschen- bzw. Maschinenbild überdenken sollten. Wenn etwa KI-Systeme in bestimmten Bereichen kognitive menschliche Leistungen übertreffen, stellt sich die Frage, ob es sich entweder beim Menschen nur um eine, wenn auch biologische, Input-Output-Maschine handelt, oder ob den KI-Systemen in einem wörtlichen Sinn mentale Fähigkeiten und Qualitäten wie Erleben, Denken, Erkennen, Wollen usw. zugeschrieben werden müssen. Diesen Systemen wären womöglich als Personen Rechte zuzusprechen. Theologisch schließt sich die Frage an, ob auch Roboter erlösungsbedürftig sind bzw. ob sie z. B. auch geeignet sind, religiöse Handlungen durchzuführen. Dass diese Fragen nicht nur der Science-Fiction-Fantasie entsprungen sind, sieht man beispielsweise an dem Segnungsroboter „BlessU-2“, der sich in der evangelischen Kirche von Hessen und Nassau im Einsatz befindet.

Es scheint, als würde nun der Mensch selber zum Schöpfer

Die Erwartungshaltung hinsichtlich der möglichen Leistungen von KI wird vom sogenannten Transhumanismus, der sich zum Ziel gesetzt hat, die menschliche Natur mit Hilfe von (KI)-Technik zu optimieren bzw. zu überwinden, auf die Spitze getrieben. Einflussreiche Vertreter:innen dieser Strömung wie der Google-Manager Ray Kurzweil propagieren in diesem Kontext – sozusagen als Religionsersatz – eine durch Technik hergestellte Form von Erlösung und Auferstehung, bei der der menschliche Geist im „mind uploading“ auf eine Festplatte transferiert werden und dort digitale Unsterblichkeit erlangen könne. Es scheint, als würde nun der Mensch selber zum Schöpfer und könnte sogar die eschatologischen Verheißungen der Religionen mithilfe der Technik verwirklichen.

Selbst wenn man dem transhumanistischen Projekt skeptisch gegenübersteht, lässt sich die Relevanz der oben gestellten Fragen anhand von lebensnäheren Praxisbeispielen verdeutlichen. Ist es in Ordnung, KI-Systemen wie Sophia, die unsere menschlichen Reaktionen schon erstaunlich gut imitieren, einfach den Strom abzustellen? Können wir mit KI-Robotern im wahrsten Sinne des Wortes befreundet sein? Ist es in Ordnung, wenn bald KI-Systeme entwickelt werden, die pflegebedürftige Patient:innen nicht nur physisch betreuen, sondern auch vorgeben, sie würden ihre menschlichen Sorgen und Nöte wirklich verstehen?[2]

Haben KI-Systeme Bewusstsein?

Die Beantwortung solcher Fragen hängt auch davon ab, ob wir es als möglich und vernünftig ansehen, dass KI-Systeme bald nicht nur Bewusstsein und Geist simulieren, sondern wirklich erzeugen. Dann handelte es sich bei diesen Systemen um Personen, die die entsprechenden Eigenschaften, Vermögen und Rechte ohne Zweifel besäßen.

Gibt es stichhaltige Gründe dafür, die Realisierung mentaler Zustände bei gegenwärtigen oder zukünftigen KI-Systemen für gerechtfertigt zu halten? Haben wir wirklich kein Kriterium, um zwischen Simulation und Realität zu unterscheiden? Hilfreich ist hier die Berücksichtigung der Ergebnisse und Argumente einer langen Debatte in der Philosophie des Geistes und der Technikphilosophie, die seit den 1960er Jahren intensiv geführt worden ist. Schon damals wurde diskutiert, ob es sich beim menschlichen Geist um eine Art Computerprogramm handeln könnte. Nur dann könnte man umgekehrt auch Computern Bewusstseinszustände zusprechen. Die dazugehörige metaphysische Hintergrundannahme – der sogenannte Funktionalismus –, die besagt, dass mentale Zustände ausschließlich durch ihre Funktionen („kausale Rollen“) charakterisiert werden können, ja, dass diese mit jenen identisch sein müssen, erwies sich jedoch als viel zu voraussetzungsreich und damit als falsch. Denn Bewusstseinszustände äußern sich weder eindeutig in einem bestimmten Verhalten noch kann man durch das Verhalten auf den jeweiligen mentalen Zustand schließen. Man kann Schmerzverhalten auch simulieren, selbst wenn man keine Schmerzen hat, und umgekehrt muss sich ein mentaler Zustand auch gar nicht in einem bestimmten Verhalten äußern. Es lassen sich hier keine eindeutigen Zuordnungen gewinnen. Es ist mittlerweile in der Debatte allgemein anerkannt, dass die funktionalistische Theorie des Bewusstseins auf falschen Prämissen beruht.

KI kann Datenmuster entdecken, die uns Menschen nicht aufgefallen wären

Nun besteht aber die Grundfunktion eines Computers nach dem berühmten Mathematiker und Informatikpionier Alan Turing genau darin, dass es sich bei ihm um eine Input-Output-Maschine handelt, die anhand einer Rechenvorschrift immer neue Zustände berechnet. Diese erfüllen genau eine Funktion, nämlich nach einem bestimmten Input einen eindeutigen Output zuzuordnen. Der Vorteil von heutigen KI-Systemen besteht technisch nun darin, dass diese Input-Output-Relation anhand einer großen Anzahl von Trainingsdaten plastisch formbar ist. Sie kann so eingestellt werden, dass das System bestimmte Datenmuster auch in zukünftigen Anwendungen „automatisch“ ausfindig machen kann. Dabei entstehen erstaunliche Effekte, denn KI-Systeme können auch Datenmuster entdecken, die uns Menschen vielleicht nicht aufgefallen wären.

KI-Systeme sind Meister im Korrelieren von Daten. Aber alle diese Effekte weisen nicht auf Zauberei oder ein Bewusstsein der Maschine hin, sondern lassen sich genau durch die technischen Mittel erklären, die wir in diese Systeme investieren. Bestimmte Leistungen der KI-Systeme mögen auf Lai:innen fast gespenstisch wirken, für Expert:innen sind sie beruhigend, denn das bedeutet, dass die Maschinen – im besten Fall, wenn also kein technischer Fehler auftritt – genau das machen, wofür sie konstruiert, gebaut, programmiert und trainiert worden sind. Sie verarbeiten abstrakte Zeichenketten und Datenmuster, die für sie selber keine Bedeutung haben. Der Maschine ist es gleichgültig, ob sie Schach spielt oder das Wetter berechnet. Was ihre Berechnungen bedeuten, spielt für die Berechnung gar keine Rolle. Der Bedeutungsbezug wird erst durch die Konstrukteur:innen, Programmierer:innen und Benutzer:innen ins Spiel gebracht. Wir sind es, die den jeweiligen Symbolen jenseits einer Rechenregel eine semantische Bedeutung zumessen. Letztlich stellen KI-Systeme Mechanismen dar, die strikt durch die ihnen vorgegebenen Regeln (zusammen mit den Trainingsdaten) einen Input in einen Output verwandeln. Hier spielen echte Kreativität, echtes Verstehen eines Sachverhalts oder sonstige Dimensionen geistiger Operationen keine Rolle.[3]

Sich selbst kritisch hinterfragen, das fehlt KI-Systemen prinzipiell

Und auch darin unterscheidet sich menschliche Subjektivität von der deterministischen Symbolverarbeitung eines KI-Systems: Während KI-Systeme durch die Datentrainings strikt konditioniert sind (und es ja auch ihrem Zweck gemäß sein sollen), sprechen wir Menschen prinzipiell die Fähigkeit zu, sich zu den erworbenen Dispositionen noch einmal rational verhalten zu können, also letztlich auch noch vorgegebene Regeln und Normen kritisch hinterfragen zu können, eine Fähigkeit, die den KI-Systemen aufgrund der ihnen zugrunde liegenden Technik prinzipiell fehlt.

Diese Einsicht in die prinzipielle Unterschiedenheit des menschlichen Geistes von der maschinellen Verarbeitung entzieht auch den transhumanistischen Erlösungsutopien ihre theoretische Grundlage. Denn die skizzierten Argumente zeigen, dass sich Subjektivität prinzipiell nicht funktionalisieren und somit auch nicht digitalisieren lässt. Damit entpuppt sich auch die Hoffnung auf eine digitale Unsterblichkeit als ein Wunschdenken des säkularisierten Fortschrittglaubens.

KI-Systeme erfüllen ihren Zweck, sind aber keine Personen

Es gibt also keine vernünftigen Gründe anzunehmen, dass KI-Systeme, die menschliche Subjektivität simulieren, über Bewusstsein verfügen oder so etwas wie einen freien Willen besitzen. Sie mögen aus theologischer Perspektive wie natürliche Dinge (z.B. Sterne oder Steine) oder Artefakte (Toaster oder Taschenrechner) in einem allgemeinen Sinn Teil der Schöpfung sein, aber sie besitzen aufgrund ihrer Simulationsfähigkeit keine besondere Erlösungsbedürftigkeit. Sie erfüllen ihren von uns vorgegebenen Zweck dadurch, dass sie nach bestimmten Regeln funktionieren, die im Fall von KI-Systemen im Entdecken von Datenmustern bestehen. Dass wir Menschen die Tendenz haben, in Maschinen Bewusstsein zu projizieren, ist ein seit langem bekanntes und psychologisch gut untersuchtes Phänomen. Aber das alleine bietet keinen vernünftigen Grund zu glauben, KI-Systeme seien Personen. Wenn wir der Mechanisierung des Geistes und der Vermenschlichung von Maschinen keinen Vorschub leisten wollen, dann sollten wir KI-Systeme als das sehen, was sie sind: Von uns konstruierte Maschinen, die wir als Werkzeuge gewinnbringend für die Menschheit einsetzen können, die aber kein mit Bewusstsein begabtes Gegenüber sind und damit den Menschen in sozialen Kontexten auch nicht ersetzen können.

_____

Text: Prof. Dr. Tobias Müller ist Professor für Religionsphilosophie und Fundamentaltheologie an der Universität Rostock.

Bild: Pixabay

[1] Dass es in dieser Debatte durchaus Teilnehmer:innen gibt, die es für wahrscheinlich halten, dass es bald KI-Roboter mit Bewusstsein und religiösen Ambitionen gibt vgl. z. B. Uwe Bork: Religiöse Roboter? Deus pro machina ( https://www.feinschwarz.net/religioese-roboter-deus-pro-machina/ (zuletzt abgerufen am 10.7.2022))

[2] Vgl. für eine kritische Auseinandersetzung und einen guten Überblick über ähnliche Fragen: Stefan Bauberger: Welche KI? Künstliche Intelligenz demokratisch gestalten, München (2020).

[3] Für eine ausführliche Auseinandersetzung, in der die skizzierten Argumente detaillierter entfaltet werden, siehe Tobias Müller, Künstliche Intelligenz und menschliches Selbstverständnis. Zu anthropologischen Herausforderungen der Digitalisierung, Zeitschrift für Theologie und Philosophie (4/2021), S. 341-364.

Print Friendly, PDF & Email