Ethisch sterben lassen – ein moralisches Dilemma
Dieser Gastbeitrag setzt sich mit ethischen Herausforderungen der Digitalisierung auseinander. Er wurde bereits vor der Corona-Krise verfasst, spricht aber Fragen an, die angesichts der dramatischen Ereignisse dieser Tage zu grossen Diskussionen Anlass geben.
«Sterben lernen im Anthropozän» lautet der Titel des 2015 auf Englisch erschienenen Bestsellers von Roy Scranton. Das Anthropozän, also das Zeitalter, in dem der Mensch das Schicksal eines Planeten prägt, wird häufig mit der Frage und der Forderung nach Nachhaltigkeit in Verbindung gebracht, etwa in der Uno-Agenda 2030. Denn wir Menschen als sowohl dominante als auch rapide sich ausbreitende Spezies gefährden die Lebensgrundlage vieler Lebensformen, einschliesslich unserer eigenen.
Wir stecken in einem Dilemma fest zwischen besserem Wissen und gleichzeitiger Fortführung liebgewonnener Gewohnheiten eines auf Ausbeutung angelegten Lebens. Was läge da näher, als sich mit der Frage zu beschäftigen, wie dem Problem effektiv zu Leibe gerückt werden kann?
Auf halber Strecke zu den Dystopien
Mit dieser Frage befasst sich nicht zuletzt eine Reihe von Romanen. Im Rahmen der literarischen Freiheit werden dort dystopische Welten imaginiert, in welchen die Erde durch Depopulation «gerettet» wird, da die menschliche Intelligenz das Dilemma anscheinend selber nicht auflösen kann: Tom Hillenbrands «Hologrammatica», Frank Schätzings «Tyrannei des Schmetterlings» oder Willemijn Dickes «iGod» sind in der Fiktion angesiedelte Beispiele, in denen künstliche Intelligenzen zum Schutz der Menschheit Menschen vernichten. Die Freiheit der Schriftsteller führt zu tollkühnen Science-Fiction-Abenteuern, die das Umsetzungsdilemma der nachhaltigen Entwicklung grausam lösen – um es so infrage zu stellen.
Doch wie weit sind diese Fiktionen noch von der Realität entfernt? Das Wort «Depopulation» zieht schon seit geraumer Zeit in Think-Tanks und Workshops seine Kreise. Wir möchten aufzeigen, dass die Voraussetzungen, auf denen die Schriftsteller ihre Abenteuerromane aufbauen, bereits im Heute angelegt sind. Dreh- und Angelpunkt bilden dabei die aus der praktischen Philosophie stammenden Dilemmas, also jene Situationen, für die es keine erfreuliche oder richtige Lösung gibt, sondern alle Handlungsoptionen ein Problem darstellen. Das bekannteste ist das bei Digitalisierungsthemen immer wieder aus der Mottenkiste geholte moralische Dilemma des sogenannten «Trolley-Problems». Dieser der ethischen Schule des Utilitarismus zuzurechnende Denkansatz fragt danach, wer sterben muss, wenn nicht alle überleben können. Tut man nichts, so sterben mehrere Menschen, die von einem Tram (Trolley) überrollt werden. Stellt man hingegen eine Weiche, sterben weniger Menschen. Aber man tötet. Die heutige Rechtsprechung verbietet, ein Leben gegen ein anderes aufzuwiegen.
Doch in der jüngeren Forschung der Digitalisierungsethik für autonome Fahrzeuge wurde das Thema wieder und wieder diskutiert. Die dahinterstehende Überlegung lautet: Welches Leben ist im Falle eines unvermeidbaren Unfalls mehr wert? Aufgegriffen wurde die Frage in dem höchst kontroversen «Moral Machine Experiment», das am Beispiel des autonomen Fahrens kulturelle Unterschiede bei hypothetischen Tötungsentscheidungen erforscht. Man stelle sich vor, im «echten Leben» entschiede ein digital ermittelter «Personenwert» über Leben und Tod. Man muss da nicht nur an den chinesischen «Social Credit Score» denken. Der auch hier schon zur Anwendung kommende «Customer Lifetime Value» funktioniert im Prinzip ähnlich, indem er das statistisch noch zu verdienende und auszugebende Geld eines Menschen errechnet. Man muss sich fragen: Sind wir mit den Scoring-Ansätzen des Überwachungskapitalismus nicht schon auf halber Strecke zu den Dystopien? Und welche Konsequenzen hätte das für die demokratisch-rechtsstaatliche Grundordnung?
Am Anfang stehen Daten
Mit Big Data verbreitet sich die kommerzielle Verwertungslogik schon in einst besonders geschützten Bereichen. So etwa in der Medizin, wenn Patienten danach «priorisiert» werden, wann und bei wem sich welche Operation oder welches teure «Ersatzteil» noch lohnt. Grundlage für diese in letzter Konsequenz auch über Leben und Tod entscheidenden Computerprogramme sind die Erhebung und die digitale Speicherung von Patientendaten.
Dabei drohen bereits zahlreiche datenschutzrechtliche Prinzipien zu fallen, die bisher dem Schutz der Patienten dienen sollten. Nicht nur wird bei den Patientendossiers das «opt-in»-Prinzip der informationellen Selbstbestimmung infrage gestellt. Es scheint, die elektronischen Patientendossiers sollen sogar verpflichtend und auch für die Forschung von nicht gemeinwohlorientierten Institutionen und Unternehmen verfügbar gemacht werden. Damit wird das bis anhin im Gesundheitssystem so wichtige Prinzip der Menschlichkeit zugunsten ökonomischer Gesichtspunkte in den Hintergrund gedrängt. Wer «schlechte Gene» hat, wäre nicht nur öfter oder schwerer krank – er würde vom Gesundheitssystem auch zunehmend mit seinen Problemen allein gelassen, entgegen dem Solidar- und dem Subsidiaritätsprinzip, welche einst die Grundlage der Krankenversicherungen waren.
Die entscheidende Frage lautet also: Wie sollen oder dürfen autonome Systeme entscheiden, wenn es um Leben und Tod geht? Regina Surber von ICT4Peace warnte daher in dieser Zeitung zu Recht davor, dass autonome Intelligenz auch in Friedenszeiten lebens- und sterbensrelevante Informationen bereithalten und anwenden könnte.
Mit Blick auf das Anthropozän betonen wir deshalb, dass eine gesetzliche Regulierung von Tötungs- oder Sterbeentscheidungen durch autonome Systeme Technologien legitimeren könnte, die Menschen in Krisensituationen, wie sie in einer nichtnachhaltigen Welt entstehen könnten, autonom töten. Wir sehen da die Gefahr einer eklatanten moralischen Entgleisung. Aus unserer Sicht sind solche Technologien unter keinen Umständen zulässig – nicht einmal zur Rettung der Welt. Sie verstossen gegen fundamentalste Rechtsprinzipien. Sie gingen selbst über das Kriegsrecht hinaus, gemäss dem die gezielte Tötung von Zivilbevölkerung nicht legitim ist.
Roboter und Mensch: die Prinzipien
Kritik ist das eine. Doch wie sollte man autonome Intelligenz dann gestalten? Science-Fiction-Fans kennen die vom Physiker Isaac Asimov im Kriegsjahr 1942 bereits aufgestellten Grundprinzipien für den Umgang von Robotern mit Menschen:
1. Ein Roboter darf die Menschheit nicht schädigen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt. 2. Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen, ausser er verstiesse damit gegen das vorige Gesetz. 3. Ein Roboter muss den Befehlen der Menschen gehorchen – es sei denn, solche Befehle stehen im Widerspruch zu den vorhergehenden Gesetzen. 4. Ein Roboter muss seine eigene Existenz schützen, solange sein Handeln nicht den ersten drei Gesetzen widerspricht. – Mit Blick auf das ethische Dilemma des «Trolley-Problems» sollten diesen Regeln noch zwei hinzugefügt werden: 5. Menschen und Roboter müssen alles dafür tun, dass das Auftreten von ethischen Dilemmas minimiert wird. 6. Falls es nicht möglich ist, alle Wünsche gleichzeitig zu erfüllen, falls also trotz aller Bemühungen, Regeln 1 bis 5 zu erfüllen, ethische Dilemmas bzw. Ressourcen- oder Zielkonflikte unvermeidbar sind, dann soll der Fairness halber das Prinzip der Chancengleichheit angewandt werden.
Die erleichternde Gerechtigkeit des Zufalls
Grade die dabei ins Spiel kommende Zufallskomponente, die wir im Religiösen als die «Unergründlichkeit der Wege des Herrn» oder im Versicherungsrecht als «höhere Gewalt» kennen, erschafft eine erleichternde Gerechtigkeit des Zufalls, die sich der utilitaristischen Verwertungslogik des «Trolley-Problems» entzieht. Die Grundbotschaft dabei bleibt: Es kann jeden treffen, im Guten wie im Schlechten. Ganz im Unterschied zu einem monetären oder Scoring-basierten hierarchischen System, wo es einigen egal sein kann, wie es den anderen geht, weil sie die Missstände nicht spüren. Und genau das liefert den lebenswichtigen Anreiz, alle Möglichkeiten auszuschöpfen, das Sterberisiko insgesamt zu minimieren. Noch gibt es viele Optionen zur Verbesserung unseres Systems. Wir sollten sie nutzen.
Es gibt vermutlich keine problematischeren Anwendungen als algorithmenbasierte Entscheidungen über Leben und Tod, egal wie fortschrittlich die dabei eingesetzte Technik ist. Die heute auf dem Wege befindlichen technischen Lösungen berühren den Kerngehalt unserer offenen, demokratischen und rechtsstaatlichen Gesellschaft fundamental, etwa die Menschenwürde, den Schutz der Privatsphäre, den Gleichheitsgrundsatz, die Gewaltenteilung, das Tötungsverbot, um nur einige zu nennen. In der digitalen Gesellschaft der Zukunft droht vieles davon zu Makulatur zu werden. Im Zusammenhang mit der gegenwärtigen Diskussion um den «Klimanotstand», der als Türöffner der Aushebelung der demokratisch legitimierten Rechtsstaatlichkeit fungieren kann, weisen wir daher ausdrücklich darauf hin, dass laut Bundesverfassung auch in Krisensituationen zu gelten hat: «Der Kerngehalt der Grundrechte ist unantastbar.»
Dirk Helbing ist Professor für Computational Social Science an der ETH Zürich und affiliiert an der TU Delft sowie dem Complexity Science Hub Vienna; Peter Seele ist Professor für Wirtschaftsethik an der USI Lugano und Autor von «Künstliche Intelligenz und Maschinisierung des Menschen» (2020).