Arbeitskreis Digitale Gesellschaft

SPD Schleswig-Holstein

1. Juni 2019

Buchtipp
Die große Simulation

Foto: dominique verstraeten - CC BY 2.0

 „Filme sind unsere modernen Mythenmaschinen“, erklärt Natalia Weidenfeld in ihrem Vorwort für das Buch Digitaler Humanismus, das sie gemeinsam mit Julian Nida-Rümelin verfasste. Sie (die Filme) seien „nicht nur dramaurgisch so aufgebaut wie klassische Mythen, sondern entwickeln auch eine vergleichbare Prägekraft“[1]. Science-Fiction als Genre und Science-Fiction-Filme im Besonderen sind jedoch mehr als nur eine Illustration der philosophischen Argumente und Kontraargumente. Auch in Deutschland, wo sich Science-Fiction-Literatur bisher eher einer bescheidenen Popularität erfreut, ändert sich das mit steigendem Interesse an den Hollywoodverfilmungen der Scifi-Literatur und an erfolgreichen Blockbustern, von I, Robot über A.I. bis hin zu Blade Runner oder Iron Man. Inzwischen nehmen die „modernen Mythenmaschinen“ viel stärker Einfluss auf uns, als man es ihnen zugestehen möchte.

Primzahl aus einer Soap

Einen direkten wie unterhaltsamen Beweis, wie sehr die Filme, auch wenn sie keine Science-Fiction sind, uns beeinflussen können, erbrachten kürzlich zwei Wissenschaftler, Carl Pomerance vom Dartmouth College in New Hampshire und Christopher Spicer vom Morningside College in Iowa, mit einem Beweis in Mathematical Monthly über die sogenannte „Sheldon-Vermutung“. Bei Sheldon handelt es sich um keinen Geringeren als den Sheldon Copper aus der beliebten Soap-Opera The Big Bang Theory. In einer der Folgen bezeichnete Sheldon die Zahl 73 als die „beste Zahl“ und begründete: „73 ist die 21. Primzahl, ihre Spiegelzahl – die 37 – die 12., und deren Spiegelzahl (die 21) ist das Produkt der Multiplikation von – haltet euch fest: 7 und 3“. Die Mathematiker fragten sich, ob Sheldon eine bisher unbekannte Eigenschaft der Primzahlen entdeckt hat. Nach nun fast zwei Jahren nach der Ausstrahlung der Folge ist der Beweis erbracht: Es gibt keine andere Primzahl, die die gleichen Eigenschaften wie die Sheldon-Zahl aufweist. Quod erat demonstrandum. Dabei handelt es sich bei The Big Bang Theory um eine simple und unterhaltsame Filmserie, fern jeglicher Ansprüche, Science-Fiction zu sein.     

Digitaler Humanismus

In Digitaler Humanismus dienen die SciFi-Verfilmungen zuerst der Illustration und Untermalung philosophischer, soziologischer oder ökonomischer Phänomene, die Digitalisierung, Automatisierung oder Robotisierung mit sich bringen. Digitaler Humanismus , für den beide Autoren plädieren, sei der einzige „plausible Gegenentwurf gegen starke KI-Ideologie und das implizite mechanistische Denken“[2], erklären die Autoren. Damit sei ein solcher Humanismus gemeint, der „die menschliche Autorschaft nicht bezweifelt und nicht gefährdet, sondern diese […] durch den Einsatz digitaler Techniken erweitert“[3]

Es geht dabei um viel mehr, als nur um die Risiken von der Ersetzung der menschlichen Arbeitskraft durch Maschinen – oder eben durch künstliche Intelligenzen: „Eine Digitalisierung ökonomischer Praxis, die am Ende alle menschlichen Entscheider verschwinden ließe, wäre ein Weg in eine inhumane Wirtschaft“[4], postulieren Nida-Rümelin und Weidenfeld. Weniger, weil die Entscheider, wie in den frühen kybernetischen Modellen (an das Lemsche Homöostat oder die Wienersche Regierungsmaschine sei hier erinnert), dadurch einen Teil ihrer Macht und Gewalt über die Entscheidungen verlieren würden, sondern weil menschliche Akteure als Effektoren dieser Entscheidungen „einem anonymen Netz von softwaregesteuerten Entscheidungen ausgeliefert“ wären, „für die es jeweils keinerlei menschliche Verantwortung gäbe“[5].

Mensch als Apparat

Es sei die „menschliche Fähigkeit, Gründe abzuwägen, die Menschen zu autonomen Akteuren macht und ihnen den besonderen Status als Wesen verleiht, die eine Würde haben“[6], schreiben Nida-Rümelin und Weidenfeld, nicht ohne zu erklären, dass es in der Philosophie durchaus umstritten sei, was die Würde des Menschen eigentlich ausmacht. Evangelisten künstlicher Intelligenz schreiben die Fähigkeit, abzuwägen und optimale Entscheidungen zu treffen, den Maschinen zu, die darin, so die Annahme, schneller, besser und objektiver seien als die Menschen. Oft ohne den Algorithmus für diese Entscheidungen oder die Kriterien, nach denen die Entscheidungen getroffen werden sollen, genau erklären zu können.

Jeder Mensch, so der Science-Fiction-Autor und Futurologe Stanislaw Lem, sei ein hervorragendes Beispiel eines Apparats, dessen wir uns bedienen können, ohne seinen Algorithmus zu kennen. Ähnlich halten es Nida-Rümelin und Weidenfeld: „Menschen haben Gründe für das, was sie tun“[7], erklären sie. Im Gegensatz dazu: „Softwaresysteme wollen, fühlen, denken, entscheiden nichts.“[8] Dies sei am Beispiel von autonomen Fahrzeugen erläutert, die darauf programmiert werden, „bestimmte moralische Systeme auf einzelne Situationen anzuwenden“[9]. Dadurch bekämen sie allerdings noch lange nicht den Status von „moralisch Handelnden“ – die Gefahr beim Umgang mit künstlicher Intelligenz sei tatsächlich, dass man Simulation – also die Fähigkeit, menschliches Urteilen nachzuahmen – mit Realisierung verwechselt. Einem selbstfahrenden Auto bewusste Entscheidung oder Wahrnehmung zuzuschreiben, wäre ähnlich, wie einer Navigationssoftware eine Absicht zu unterstellen, wenn sie den Fahrer dazu veranlasst, rechts abzubiegen, wenn sie „Biegen Sie rechts ab“ befiehlt. „Ein autonom fahrendes Auto setzt lediglich Regeln um, die in seiner Software programmiert wurden.“[10] Auch bei dem Einsatz lernender Algorithmen oder künstlicher Intelligenz „werden Menschen die Beispielfälle auswählen und darüber entscheiden, was das Programm ‚lernen‘ soll und wann es genug ‚gelernt‘ hat“[11].

Ängste, Hoffnungen, Obsessionen

Der Mensch, das vergängliche Wesen, bedient sich gerne des Begriffs der Ewigkeit, bemerkte Lem. Es solle übergeschichtliche Kunstwerke geben und moralische Grundsätze, die ewig gelten. Doch die Moral ändert sich. Sie ändert sich langsam, aber sie ändert sich. Technologie hat dabei einen viel stärkeren Einfluss auf unsere moralischen Einstellungen, als wir es allgemein annehmen. Das trifft auch auf die Zukunftstechnologien und die Visionen ihrer Anwendung in den Science-Fiction-Filmen zu. „Dabei haben [die Mythen] durchaus eine sich selbst verstärkende Wirkung. Sie sind nicht nur Ausdruck unserer Ängste, Hoffnungen und Obsessionen, sie fördern diese auch.“[12] Sollten wir uns um das Bild der Zukunftswelt, wie es von der Science-Fiction-Industrie kreiert wird, überhaupt Gedanken machen? Besser wäre es. Denn, um es mit dem belgischen Philosophen Pascal Chabot zu halten: Unsere Visionen der Zukunft befruchten das, was wir jetzt tun – oder nicht tun –, also unsere Kreativität und unsere Ideen von heute.

Julian Nida-Rümelin, Nathalie Weidenfeld (2018): Digitaler Humanismus. Eine Ethik für das Zeitalter der Künstlichen Intelligenz, Piper Verlag, 224 Seiten, 24,00 €

Die Buchbesprechung zu Digitaler Humanismus erscheint in perspektivenDS 1/2019.

Aleksandra Sowa

Leitete zusammen mit dem deutschen Kryptologen Hans Dobbertin das Horst Görtz Institut für Sicherheit in der Informationstechnik. Dozentin, Fachbuchautorin (u.a. "Management der Informationssicherheit", "IT-Revision, IT-Audit und IT-Compliance"). Im Dietz-Verlag erschienen: "Digital Politics - so verändert das Netz die Politik". Hier äußert sie ihre private Meinung. #Foto by Mark Bollhorst (mark-bollhorst.de)

More Posts

Follow Me:
TwitterLinkedInGoogle Plus

Schlagwörter: , , , , , , , , , ,

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert