Building Bridges: „Wenn wir über AI reden, ruht Gottes Hand über uns.“ (Angela Merkel)

Darf, wer alles kann, auch alles tun? Mitte Juni fand in der Dresdner Frauenkirche die internationale Konferenz „Morals & Machines“ statt. Judith Klaiber war dabei und zieht für feinschwarz.net eine erste theologische Bilanz.

Die Konferenz „Morals & Machines. Building Bridges – Can AI save Humanity?“ hatte den Anspruch eine Debatte anzustoßen, um „Entscheidungsprozesse für moralische Beurteilungen zu verbessern, herauszufinden, was künstliche Intelligenz mit dem Menschen macht und Regeln aufzustellen, intelligente Maschinen zu managen.“ Doch: Kann AI [Artificial Intelligence] Humanität „retten“ oder gar „konservieren“?
Was unter »Humanität« zu verstehen ist, wer diese für wen wie garantieren würde, und was im Umkehrschluss »Inhumanität« bedeuten würde, wurde nicht ausgeführt. Der Begriff bezeichnet Menschenfreundlichkeit, moralische Bildung oder die menschliche Natur als nichtgöttliche, sterbliche und dem Tier überlegene.

Dass Humanität als Leitbegriff der christlichen Sozialethik und als Chiffre für Menschenwürde und Menschenrechte dient, kam lediglich im juristischen Vortrag des Tages bei Urs Gasser zur Sprache: „Das Beste aus dem heutigen Recht nehmen: Schutz der Menschenrechte und soziale Werte. Was davon wollen wir im digitalen Miteinander?“ So wurde an diesem Tag vermutlich stillschweigend der „pragmatische() Konsens hinsichtlich eines normativen Zieles jenseits biologischer und gesellschaftlicher Faktizität“ für Humanität angenommen (LThK 2009: 328f). Die eigentlich notwendige Fragestellung wäre: Wie könnte ein würdiges Verständnis vom Menschen als Korrektiv und Regulativ diese Diskussion ergänzen und welches Menschenbild lässt sich bei „Morals&Machines“ antreffen?

Was den Menschen im Angesicht von AI auszeichnet, könnten die Merkmale von Transzendenzfähigkeit, Geschenkcharakter, der Preis der Sterblichkeit und die Frage nach Erlösung (als Sehnsucht nach Letztbegründungen) sein. Zumindest für die Frage nach Sterblichkeit wurde ein wichtiger Antwortansatz im Laufe des Tages geliefert: Der Preis als Zweifaches – Gewinn und Gegenleistung – der Sterblichkeit ist nicht nur „ein fundamentaler evolutionärer Prozess“ (Bertolt Meyer), sondern unabdingbar für ein vulnerables, limitiertes und fluid-fragmentarisches Verständnis vom Menschen.[1] Die wahre rocket science für das 21. Jahrhunderts ist also das neu zu entdeckende mysterium humanum.

Die wahre rocket science für das 21. Jahrhunderts ist also das neu zu entdeckende mysterium humanum.

Sebastian Feydt, einer der beiden Pfarrer*innen der Dresdner Frauenkirche, hat zentrale Diskussionslinien aufgeworfen, die leider im Verlauf des Tages nicht weiter vertieft wurden. Feydt sprach zunächst davon, dass das Gebäude der Frauenkirche eine Melange aus Tradition und Make-Over sei, ein Ort für spirituelle und kulturelle Heimat und dass bei dieser Melange das Narrativ von Versöhnung zentral sei. Das Gebäude sei ein Schutzraum für Dekonstruktion und Rekonstruktion, für das Verhältnis von Glaube und Vernunft. Er warf die Frage auf, wie Verantwortlichkeit übernommen werden kann und verwies dabei auf den göttlichen Schöpfungsauftrag, der besagt, dass die Menschheit das Recht und die Pflicht habe, für die Kultivierung von Schöpfung einzutreten. Feydt fragte zweitens nach der Bedeutung von Perfektion und nahm als Korrektiv die von G*tt gewünschte Imperfektion, da G*tt den Menschen gerade als nicht perfekt erschaffen habe: Der Mensch ist nicht programmierbar und nicht vorhersagbar. Feydt wünschte sich, dass die menschliche Imperfektion als „good“ erkannt wird – also als ein Gut, das gerade das „Tohuwabohu“ als den Schöpfungsboden aufzeige. Und drittens fragte er danach, ob wir irgendwann in der Lage sein würden, Glaube für AI zu „bauen“.

Feydt wünschte sich, dass die menschliche Imperfektion als „good“ erkannt wird.

Die Eröffnungs-Keynote von danah boyd unter dem Titel „The social vulnerabilities of artifical intelligence“ lieferte wichtige Erkenntnisse zur Schnittstelle von Daten und Gesellschaft. boyd sprach davon, dass die Programmierer*innen von AI bzw. Social Media Plattformen selbst nicht auf das vorbereitet waren, was sie erschaffen hatten. Denn: „Breaking social infrastructure is much easier than to build them.“ Vor allem machte sie deutlich, dass die vorurteilsbasierten Befangenheiten und Ressentiments nicht von AI Systemen selbst kommen, sondern dass unsere menschliche Voreingenommenheit darin reflektiert sei. Durch große Datenmengen werden Muster sichtbar, die uns selbst wiederum den Spiegel in Bezug auf Diskriminierungsmerkmale vorhalten. AI kreiere „moral crumple zones“, so boyd.

„Breaking social infrastructure is much easier than to build them.“

Dadurch wird der Ruf nach Philosoph*innen und Ethiker*innen derzeit sehr laut, um einen „ethischen Mangel“ bzw. diese „moral crumple zones“ in bestimmten Organisationssystemen und neuen Technologien aufzeigen zu können. „Can artifical intelligence be ethical?“ lautete die Überschrift des zweiten Eröffnungsvortrags, den Peter Singer von der Princeton University hielt. Fraglich blieb, inwiefern AI Systeme als Subjekte gesehen werden können, die uns „vernünftige Entscheidungen“ suggerieren. Die Bedingung der Möglichkeit „ethisch-sein-zu-können“ ist doch gerade (menschliche) Subjektfähigkeit, mit Bewusstsein, Willens- und Handlungsfreiheit – kann das ein binäres System, das im Moment nichts anderes ist als maschinelles Lernen auf Basis von Algorithmen, diese Subjektfähigkeit leisten? Spannend und kritisch zu sehen ist, dass die (präferenz-)utilitaristische Spielart nach Peter Singer während der Konferenz zum Zuge kommt. In ihr wird die Menschenwürde als verhandelbare Größe und als Diskussionsgegenstand gesehen und damit eben nicht normativ/absolut gesetzt. Wer oder was profitiert davon, dass die Würde des Menschen hier eben doch antastbar wird?

Wer oder was profitiert davon, dass die Würde des Menschen hier eben doch antastbar wird?

Ebenfalls kritisch anzumerken ist der völlig unreflektierte und häufig verwendete „Werte“-Begriff. Werte scheinen eine Universalität zu bürgen, die sie jedoch eben nicht garantieren können. Dagegen werden „Werte“ als scheinbar absolute Größen verwendet, deren Begründung und Legitimation nicht näher auszuführen sind. Der »Werte«-Begriff benötigt fundamental die Rückkopplung an die ethische Frage nach einem guten Leben, sie sind nicht von sich selbst aus ethisch gut. So fragte die Bioethikerin Francoise Baylis sinngemäß: „If you invent new technologies, ask yourself: What kind of world do I want to live in? And how could this solution that I am developing contribute to build that world?“ Der Zugang dieser Frage liegt in einem ethischen und wertebildenden Training von Programmierer*innen und AI-Entwickler*innen, die sich die Frage stellen müssen, in welcher Welt – und in Ergänzung: welcher Gesellschaft – sie leben wollen und welchen Beitrag sie mit ihrer Entwicklung dazu leisten können. Damit wird Baylis‘ Forschungsschnittstelle zwischen Politik(en) und praktischen Handlungen tangiert. Dass technologische Entwicklungen alleine nicht ausreichen, um Veränderung hin zum „Bessern“ zu ermöglichen, wurde vom Psychologen Bertold Meyer auf den Punkt gebracht: „Change for the better does not necessarily come with better technology. It needs societal and political movements.“

„Change for the better does not necessarily come with better technology. It needs societal and political movements.“

Ein Lichtblick in Richtung der Frage, was die Natur des Menschen im digitalen Zeitalter sein könnte, war der äußerst ansprechende Vortrag von Christian Mio Loclair. Er erinnerte an den „most important moment of our history: Oops, I exist.“ und dass die letzte Magie, das letzte Geheimnis, das menschliche Wesen sei. Mio Loclair zeichnete drei Kategorien, die für ihn den Menschen ausmachen: Self – Choice – Morals. Das „Self“ das ein Garant für die reflexive Frage sei, wer ich eigentlich bin. „Choice“ als Möglichkeit zu entscheiden und zu wählen. Und „Morals“ als Verweis auf den Kontext, die komplexen Umstände, die Moral zu berücksichtigen hätte. Im Meta-Videobeitrag „Narciss“ wurde auf die reflexive Selbst-Erkenntnis verwiesen (https://vimeo.com/273373088). Das Video zeigt einen „nackten Roboter“, der sich die Frage stellt „Who am I“? Die Zuseher*innen können eine AI dabei beobachten, wie sie ihrem eigenen und einzigen Zweck „sich selbst zu erkennen“ (ihre physische Existenz) versucht zu erfüllen, diesen projiziert und die „Gedankengänge“ dazu verbalisiert. „Erkenne dich selbst 2.0“ oder mit den Worten des Künstlers: „We witness a synthetic model of self-awareness, a fragment of artificial narcissism and a fictional character in its own autobiographic narrations.“ (https://christianmioloclair.com/narciss)

„most important moment of our history: Oops, I exist.“

Die momentan gehypte Debatte rund um „Ethik(en)“ in den verschiedenen digitalen Transformationsprozessen und den technologischen Möglichkeiten lässt zum einen kritisch fragen „Ethik(en) wofür?“ und zum anderen lässt sie die notwendige soziale Dimension vermissen. Diese soziale Dimension würde als absolute Zielkategorie ein Gemeinwohl, aka gutes Leben für alle, bereithalten und als fundamentale Ausgangsbasis ein zukunftsfähiges Menschenbild aufrechterhalten. Das Paradigma, dass der Mensch imperfekt ist und nur die Technik absolute Perfektion bereithalte, ist so alt wie die Industrialisierung selbst und gefährlich.

Die Digitalisierung bietet aber die Möglichkeit dieses Paradigma zu durchbrechen und anders zu gestalten. Wenn nicht, verkommt der Mensch zu einem „liability punch“ (menschlicher Sündenbock) und zu einem „babysitter for machines“ (danah boyd). Dieses würdige Verständnis vom Menschen würde sie/ihn eben nicht nur als non-robotic, als nicht-binär, zeichnen oder gar als Hindernis, weil sie/er „autonom fahrenden Fahrzeugen“ eventuell im Weg stehe, sondern als ein tertium datur. Ein zukunftsfähiges und menschenwürdiges Paradigma, das seit der Aufklärung unsere Haltung revolutioniert hat, lautet: Der Mensch hat eine unantastbare, unverhandelbare und zugleich unverfügbare Würde. Diese gilt es zu achten, zu gewährleisten und zu schützen. Darüber hinaus ist Würde ein primär relationaler Begriff: „Die Erkenntnis, was der Mensch ist, passiert erst in der personalen Begegnung mit dem Anderen.“[2] Dieses Verständnis wird im Angesicht von AI und inmitten von weitgreifenden digitalen Transformationsprozessen als die neue große Erzählung schlechthin benötigt. „Narciss“ hält uns dafür den Spiegel vor.

Videos und Impressionen der Vorträge unter: www.moralsmachines.com

Merkel-Zitat aus dem Beitragstitel aus einem Interview mit Miriam Meckel im Rahmen der Konferenz – nachzuhören unter: https://www.youtube.com/watch?v=y78p4m_loSI&app=desktop

[1] Vgl. Pirker, Viera (2013). fluide und fragil. Identität als Grundoption zeitsensibler Pastoralpsychologie (Zeitzeichen: 31). Ostfildern: Grünewald.

[2] Marschütz, Gerhard (2014): theologisch ethisch nachdenken. Band 1: Grundlagen. Würzburg: Echter, S. 254.


Dr. Judith Klaiber wurde 2018 an der Universität Wien mit der Arbeit zu „Werte:Bildung in Führung“ promoviert und arbeitete bis Mai 2019 als Referentin für Führungskräfte in der Diözese Rottenburg-Stuttgart.

Bild: Rock’n Roll Monkey, www.unsplash.com

 

Ebenfalls von Judith Klaiber:

„Macht. Führung. Sinn?“ oder „Ist Führung ein Scheißjob?“

#OMG!1ELF!!: Oh mein Gott

»Ich bin Judith«: Ein Nachdenkbericht über meinen Vornamen

Vienna Calling: Gedanken zu Falco und Jenseits-Erlebnissen in der morbiden Metropole Österreichs

Print Friendly, PDF & Email