Arbeitskreis Digitale Gesellschaft

SPD Schleswig-Holstein

13. Mai 2015

IT-Sicherheit
Künstliche Intelligenz: Kontrolle ist gut – Switch Off ist besser

Ein und Aus
Ein und Aus | Foto: włodi - CC BY-SA 2.0

Die Künstliche Intelligenz (KI oder AI – Artificial Intelligence) erobert immer größere Bereiche des menschlichen Lebens und Arbeitens. Und sie hat keinesfalls das Gesicht des sympathischen Lieutenant Commander Data aus der Science-Fiction-Kultserie Star-Trek. Sie ist heute durch automatisierte Handelssysteme für Trading an der Börse, Diagnoseunterstützungssysteme und bald durch die selbstfahrenden Automobile und Kampfroboter vertreten.

Künstliche Intelligenz ist aktuell weit davon entfernt, eine ähnliche Gefahr für die Menschheit darzustellen, wie die Cyborg in der oben genannten Si-Fi-Serie. Gleichwohl die Entscheidungen, welche von ihr getroffen werden, das Leben vieler Menschen beeinflussen können.

„Consider automated trading systems. A bad decision in these systems may be (and has been) a financial disaster for many people. That will also be the case for self-driving cars. Some of their decisions will be critical and possibly affect lives.“

– sagte Jaan Tallinn, Erfinder von Skype, in einem Fachgespräch über KI bei The Wall Street Journal.

Fehlerhafte automatisierte Handelssoftware kann Menschen ruinieren; ein amoklaufender Kampfroboter Städte und Länder ausrotten. Doch die Risiken der KI sind in Wirklichkeit zweidimensional, wie Guruduth S. Banavar, Vice President am IBM Thomas J. Watson Research Center, unterteilt: „the risk of doing it and the risk of not doing it.”

Um der Risiken der KI Herr zu werden, greift man deswegen auf die bewährten Konzepte der Kontrollen. Einerseits möchte der Schöpfer über sein Werk bestimmen und es kontrollieren können, sagt Tallinn:

„It is important to retain some control over the positions of atoms in our universe [and not inadvertently give control over them to an AI].”

Unter anderem sollten die Maschinen in der Zukunft nicht so superintelligent werden, dass sie den Menschen am Einsatz bzw. Betätigung des „Switch-Off“-Knopfes hindern könnten – sollten sie (implizit oder explizit) dazu programmiert werden. Heute sind die meisten KI-Systeme noch mit solchen Ausschaltmöglichkeiten ausgestattet.

Andererseits ermöglicht die Beschaffenheit der KI, die sich auf Cloud-Infrastrukturen, Algorithmen, und Datenbanken stützt, ein fast uneingeschränktes Monitoring und Kontrolle aller Aktivitäten. Auch dieser von Menschen, die die Roboter steuern oder die Entscheidungen treffen. Genau das ist auch die Schwachstelle der KI und macht die Roboter angreifbar für die internen und externen Attacken.

„The data can be protected through strong encryption and its integrity managed through digital signatures. The algorithmic code can be protected using vulnerability scanning and other verification techniques. The infrastructure can be protected through isolation, intrusion protection and so on.”

– empfiehlt Banavar. Francesca Rossi, Informatikprofessorin an der Universität Padua, ergänzt es um Qualitätsprüfungen für die automatisierten Systeme, ähnlich den Anforderungen an die Menschen, die heute mit kritischen Aufgaben betraut werden:

„As we have safety checks that need to be passed by anybody who wants to sell a human-driven car, there will need to be new checks to be passed by self-driving cars. Not only will the code running in such cars need to be carefully verified and validated, but we will also need to check that the decisions will be made according to ethical and moral principles that we would agree on.”

Die Lösung ist keine Hexerei. Auch bei der KI hilft gegen die Risiken der Einsatz traditioneller, dem Stand der Technik entsprechender Sicherheitskontrollen und –maßnahmen, sowie Qualitätskontrollen, wie sie heute schon in der Praxis für Menschen und Programmentwicklung gelten.

Eine Schwierigkeit gibt es dennoch, wie Rossi bemerkt, wenn man Roboter nett, sicher und kompatibel mit der menschlichen Ethik machen möchte:

„This is not an easy task, since even humans are not rationally following their principles most of the time.”

Die Vollversion des Gesprächs “Does Artificial Intelligence Pose a Threat?”, durchgeführt von Ted Greenwald am 10.5.2015 und erschienen beim The Wall Street Yournal findet man hier.

Aleksandra Sowa

Leitete zusammen mit dem deutschen Kryptologen Hans Dobbertin das Horst Görtz Institut für Sicherheit in der Informationstechnik. Dozentin, Fachbuchautorin (u.a. "Management der Informationssicherheit", "IT-Revision, IT-Audit und IT-Compliance"). Im Dietz-Verlag erschienen: "Digital Politics - so verändert das Netz die Politik". Hier äußert sie ihre private Meinung. #Foto by Mark Bollhorst (mark-bollhorst.de)

More Posts

Follow Me:
TwitterLinkedInGoogle Plus

Schlagwörter: , , , , , ,

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert