Rasant entwickelt sich die digitale Technik. Innovationen erfolgen in immer kürzeren Intervallen. Rechenleistung und Komplexität aktueller Computersysteme überfordern unser Vorstellungsvermögen. Wir blicken nicht mehr durch.
Aber wir ahnen, dass sich da etwas anbahnt, was unser Leben von Grund auf verändern wird. Science–Fiction–Filme thematisieren diese Ahnung in einem immer wiederkehrenden Motiv: Menschen setzen zur Durchsetzung ihrer Ziele modernste Computer– oder Robotertechnik ein und verschaffen sich damit einen Vorteil gegenüber ihren Gegnern. Das geht eine ganze Weile gut. Aber ab einem bestimmten Punkt verselbständigt sich die Technik: die Roboter übernehmen und sperren die Menschen in den Kaninchenstall.
Für das, was sich da anbahnt, gibt es einen Begriff: Singularität. Gemeint ist damit ein Punkt, in dem die exponentielle Entwicklung künstlicher Intelligenz kulminiert und umschlägt in eine neue Wirklichkeit, über die keine Prognosen mehr möglich sind. Wir haben schlicht keine Möglichkeit uns vorzustellen, was dann passieren wird.
Wann es soweit sein wird? Schwer zu sagen. 1993 veröffentlichte der Mathematiker Vernor Vinge einen Artikel unter dem Titel ‚Technological Singularity‘. Darin schreibt er, dass wir:
Das wäre also quasi übermorgen.
Ich möchte mich auf keinen Fall über das Szenario der Singularität lustig machen — ich halte das für einen ernst zu nehmenden Gedanken, dass künstliche Intelligenz einen Entwicklungspunkt erreichen wird, an dem sie für uns Menschen weder verstehbar noch weiterhin steuerbar ist. Was mir aber auffällt, ist der religiöse Unterton, mit dem dieses Szenario geschildert wird. Ray Kurzweil, der Forschungsdirektor bei Google, lehnt z. B. den Titel seines Buches „The Singularity is Near“ bewusst an die Sprache der Evangelien an („das Reich Gottes ist nahe herbeigekommen“). Und er tut dies im Sinne eines Heilsversprechens: So geht er davon aus, dass er (Jahrgang 1948) noch erleben wird, wie die Alterungs– und Verfallsprozesse beim Menschen so weit künstlich aufgehalten und ausgeglichen werden können, dass Sterblichkeit nicht mehr das zwangsläufige Schicksal des Menschen ist (um den Preis allerdings, dass dann aus dem Menschen ein Cyborg, d. h. ein Mensch–Maschine–Mischwesen, wird). Aber Ray Kurzweil nutzt auch deshalb religiös geprägte Sprache, um in einem Umfeld, das ganz auf technologische Problemstellungen fokussiert ist, die Möglichkeit zu öffnen, ethische Problemstellungen zu diskutieren.
Meine Sorge ist nicht so sehr, dass das Szenario der Singularität eintreten könnte — Sorgen mache ich mir vielmehr darum, dass die ethischen Probleme bei der Entwicklung künstlicher Intelligenz bis dahin nicht ausreichend durchdacht sein werden. Insofern bin ich Ray Kurzweil dankbar für seinen Versuch, religiöse Sprache in das Nachdenken über die Entwicklung künstlicher Intelligenz einzubringen.
Soweit ich das überblicke, beschränken sich KI–Entwickler in ihren ethischen Reflexionen bisher auf Kant’s kategorischen Imperativ („Handle so, daß die Maxime deines Willens jederzeit zugleich als Prinzip einer allgemeinen Gesetzgebung gelten könne.“) und den ethischen Gedanken des Utilitarismus („Eine Handlung ist moralisch richtig dann, und genau dann, wenn ihre Folgen für das Wohlergehen aller von der Handlung Betroffenen optimal sind.“). Das wird nicht reichen, um mit ethischen Dilemmata umzugehen, also mit Situationen, in denen keine der möglichen Handlung einen moralischen Konflikt befriedigend auflösen kann. Der Umgang mit solchen Situationen erfordert Fähigkeiten, die wir Menschen entwickeln, die aber von einer künstlichen Intelligenz allenfalls simuliert werden können: Empathie, Vertrauen, das Gefühl für die eigene Würde und die Würde des Menschen, mit dem wir uns im Konflikt befinden. Und wir Menschen haben für uns Möglichkeiten entwickelt, mit dem Phänomen umzugehen, dass wir schuldig werden (und zwar nicht nur aufgrund unserer moralischen Unzulänglichkeit, sondern auch weil das Zusammenleben von Menschen nie ohne „Rest“ aufgeht). Das sind Fähigkeiten, die sich nicht algorithmisieren lassen.
Fast wäre ich versucht zu schreiben: „Die künstliche Intelligenz wäre schlecht beraten, uns in den Kaninchenstall zu sperren — sie wird uns weiterhin brauchen!“ Aber dieser Satz würde etwas ganz entscheidendes übersehen: Dass nämlich künstliche Intelligenz kein Subjekt ist — sie ist Zweck und sie ist nicht Selbstzweck. Ich meine, dass der Moment der Singularität erst dann eintreten wird, wenn wir diesen Unterschied vergessen haben werden.
Artikel von Pastor Hans–Christian Beutel, mit Infobox von Lukas Gienapp, erschienen im Gemeindebrief ‘Deutsch–Evangelisch in Finnland’, Nr. 6/2019 am 24. September 2019.