Arbeitskreis Digitale Gesellschaft

SPD Schleswig-Holstein

7. April 2015

Big Data
Nummerokratie III – Algorithmen contra Datenschutz

Rechenzentrum
Server-Rack | Foto: Dennis van Zuijlekom - CC BY-SA 2.0

Kürzlich haben die Abstimmungen der EU-Mitgliedstaaten im Ministerrat über das Kapitel II der geplanten EU-Datenschutzgrundverordnung begonnen. Mit diesem Kapitel, das allgemeine Bedingungen für die Rechtmäßigkeit der Verarbeitung personenbezogener Daten zum Thema hat, sollten die Kernfragen des europäischen Datenschutzrechts geregelt werden. Der Abstimmung ist ein kleiner Skandal hervorgegangen. 

Circa 11.000 Seiten vertraulicher Dokumente der EU und der deutschen Regierung sickerten bei LobbyPlag durch. Es wurde bekannt, dass das deutsche Innenministerium massiv Einfluss auf die Formulierung der Datenschutzverordnung genommen und Vorschläge unterbreitet hatte, welche zur Aufweichung des Datenschutzes führen würden.

Das Blog LobbyPlag zählte 51 solcher Änderungsvorschläge, die alleine von der deutschen Regierung eingebracht wurden. Damit führt der Innenminister de Maizière (CDU) die Liste der Antidatenschützer unter den europäischen Regierungen an, gefolgt von seinen Kollegen aus Großbritannien und Irland. Die Vorschläge sollen von der deutschen Wirtschaft unterbreitet und vom Innenministerium weitergereicht worden sein, berichtete der Tagesspiegel.

Einige der Vorschläge werden besonders kritisch gesehen, bedeuten sie doch nicht nur Abschwächung des künftigen europäischen Datenschutzes, sondern richten sich auch gegen das aktuell noch in Deutschland geltende Bundesdatenschutzgesetz (BDSG).

Rettet die Big-Data-Geschäftsmodelle!

Zu diesen Vorschlägen zählt unter anderem das Bestreben, den Grundsatz der Zweckbestimmung bzw. der Zweckbindung bei der Erhebung, Verarbeitung und Nutzung personenbezogener Daten aufzuweichen. Der Grundsatz der Zweckbindung wurde neben dem des Gesetzesvorbehalts, der Normenklarheit, Verhältnismäßigkeit sowie verfahrensrechtlicher und organisatorischer Regelungen vom Bundesverfassungsgericht (BVerfG) im Volkszählungsurteil aus dem Jahr 1983 aufgestellt.

Nach der Interpretation der Artikel 1 und 2 des Grundgesetzes durch das BVerfG hat jeder Bürger das Recht, grundsätzlich selbst über die Preisgabe der zu seiner Person gehörenden Informationen zu entscheiden. Da es allerdings im Hinblick auf ein funktionierendes Gemeinwesen nicht immer dem Betroffen überlassen werden kann, ob und welche Daten er über sich preisgeben wird, sollte der Staat seine Rechte und Pflichten gegenüber dem Bürger wahrnehmen dürfen – jedoch ausschließlich unter Beachtung der oben genannten Grundrechte.

Zur Begründung, warum der Grundsatz der Zweckbestimmung aufgeweicht werden sollte, werden die Geschäftsmodelle zu Big Data genannt. Genau genommen, erklärte der deutsche CDU-Abgeordnete im Europaparlament, Axel Voss, in einem Gespräch mit Christiane Schulzki-Haddouti[1], geht es darum „[…] Big-Data-Geschäftsmodelle nicht zu zerstören, die im kommenden Internet der Dinge eine wichtige Rolle spielen werden.“ Als Beispiel nennt er die für Auswertung und Analyse von Big Data gedachten Deep-Learning-Algorithmen, die eigenständig darüber entscheiden sollten, „welchen Zweck die Auswertung verfolgen wird. Ein bestimmter Zweck lässt sich also gar nicht mehr vorab definieren“.

Das ist gewiss übertrieben. Möglicherweise können die Algorithmen besser – und ganz bestimmt schneller – als der Mensch Zusammenhänge und Korrelationen in großen Datenmengen entdecken und auswerten. Doch der Zweck ihrer Arbeit und das Ziel ihrer Suche sollten vorab bestimmt werden. Das erfordert jedenfalls einen anderen Grundsatz: die wissenschaftliche Methode. Die Suche nach Korrelationen und Zusammenhängen sollte Hypothesen folgen, die vorab zu entwickeln sind – und nicht umgekehrt. Sprich: Man sollte wissen und begründen können, warum man einen bestimmten Zusammenhang vermutet. Und diese Hypothese erst mit einer Auswertung der Daten – heute mit dem Big-Data-Mining beispielsweise, wie früher mit den Stichproben, Test- oder Laborergebnissen – bestätigen oder ablehnen.

Die Wissenschaft des Problemelösens

Für den Laien ist das Wichtigste, was er über wissenschaftliche Investigation wissen muss, die Tatsache, dass es sich hier weniger um eine Suche nach den Wahrheiten handelt – als vielmehr um die Suche nach dem Irrtum. Endgültige Antworten gelten nicht unbedingt als wissenschaftlich. Es ist die Suche nach dem „schwachen Punkt“ einer Theorie, das Sich-selbst-infrage-Stellen, das die Wissenschaft und den Fortschritt ausmacht.

Das spiegelt sich in den Methoden wider, mit welchen ein Problem gelöst werden soll. W. I. B. Beveridge beschrieb in seinem Werk The Art of Scientific Investigation [2] eine sequenzielle Methode, mit welcher ein medizinisches oder biologisches Problem gelöst werden kann, und riet unerfahrenen Wissenschaftlern, zuerst mit einfachen Fragen und Problemen zu beginnen:

(a) Relevante Literatur wird kritisch geprüft/gesichtet (Recherche).

(b) Die Felddaten werden gründlich recherchiert und zusammengestellt oder eine vergleichbare Untersuchung der Versuchsobjekte wird durchgeführt und – falls notwendig –um Laboruntersuchungen ergänzt (Datensammlung).

(c) Die gesammelten Informationen werden geordnet und auf Korrelationen untersucht, das Problem wird eingegrenzt und in weiterführende, konkrete Fragen unterteilt (Datenauswertung).

(d) Unter Berücksichtigung möglichst vieler Hypothesen werden Annahmen getroffen und Vermutungen definiert (Hypothesenaufstellung).

(e) Experimente werden durchgeführt, um die wahrscheinlichste Hypothese bezüglich der wesentlichen/wichtigsten Frage zu prüfen (Prüfung von Hypothesen).

Besondere Betonung legt Beveridge auf die Literaturrecherche, die er als kritischen, reflektiven Prozess sieht, der notwendig ist, um die Originalität bei der Vorausschau zu bewahren. „Merely to accumulate information as a sort of capital investment is not sufficient“[3] – so Beveridge.

In den 1980er-Jahren beobachtete Rudolf Flesch, österreichischer Jurist und US-amerikanischer Sprachwissenschaftler, dass die US-Forschung inzwischen mehr auf Sammeln als auf Annahmen basiere. Eine der Konsequenzen davon war, dass in der Atomforschung beispielsweise der größte theoretische Fortschritt entweder in Europa oder von Wissenschaftlern erbracht wurde, die in Übersee studiert haben. Der Direktor der Sheffield School of Science in Yale in den Jahren 1945 bis 1956, Edmund Ware Sinnott, bemängelte einmal, dass die amerikanische Wissenschaft zwar gut in der Anwendung, Entwicklung und Ingenieurwissen sei, nicht aber in der Theorie. „Wir laufen Gefahr, von einer Menge unverdauter Ergebnisse übermannt zu werden“[4], befürchtete er.

Ein Vorteil europäischer Wissenschaft, der sich – falls er noch besteht – eventuell auszahlen könnte, wenn er weiter ausgebaut wird. Es stellt sich tatsächlich die Frage, ob es sinnvoll ist, es den Algorithmen – auch solchen, die als Vorboten künstlicher Intelligenz gefeiert werden[5] – zu überlassen, sich selbst Auswertungszwecke zu geben oder ohne konkrete Zweckbestimmung nach Korrelationen zu suchen, wenn man Big Data doch für wissenschaftlich fundierte Hypothesen und Vermutungen nutzen könnte. Es ist ein ähnlicher Unterschied wie zwischen „Badewanne haben“ und „Badewanne nutzen“. Letzteres geht vermutlich auch, ohne die Rechte auf informationelle Selbstbestimmung oder die Grundsätze des Datenschutzes, wie das der Zweckbindung, aufzuweichen.

Tl;dr

Daten machen uns frei. Daten sind unser mächtigstes Werkzeug. Algorithmen sind gut. Daten verbessern unser Leben. Daten schaffen Erkenntnis. So schrieb es Frank Schmiechen im Essay „Warum uns Daten zu freien Menschen machen“. Dem sollte noch hinzugefügt werden: Daten und Algorithmen respektieren unsere Privatsphäre. Warum? Weil jede Software nur so gut ist wie der Mensch, der sie entwickelt hat.

 

[1] http://www.zeit.de/digital/datenschutz/2015-03/datenschutzverordnung-zweckbindung-datensparsamkeit

[2] Beveridge, W. I. B. 1957. The Art of Scientific Investigation. Norton: New York, https://openlibrary.org/books/OL23279056M/The_art_of_scientific_investigation (Zugriff: 27.03.2015).

[3] Beveridge, W. I. B. 1957. The Art of Scientific Investigation. Norton: New York, S. 12, https://openlibrary.org/books/OL23279056M/The_art_of_scientific_investigation (Zugriff: 27.03.2015).

[4] Flesch, R. 1973. Besser schreiben, sprechen, denken. Düsseldorf: Econ Verlag, S. 240.

[5] http://www.huffingtonpost.de/tim-dettmers/deep-learning-algorithmen-die-wie-menschen-denken_b_5972966.html (Zugriff 27.03.2015).

Aleksandra Sowa

Leitete zusammen mit dem deutschen Kryptologen Hans Dobbertin das Horst Görtz Institut für Sicherheit in der Informationstechnik. Dozentin, Fachbuchautorin (u.a. "Management der Informationssicherheit", "IT-Revision, IT-Audit und IT-Compliance"), kürzlich erschien im Dietz-Verlag "Digital Politics - so verändert das Netz die Politik". Hier äußert sie ihre private Meinung.#Foto by Mark Bollhorst (mark-bollhorst.de)

More Posts

Follow Me:
TwitterLinkedInGoogle Plus

Schlagwörter: , , , , , , , ,

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.