Arbeitskreis Digitale Gesellschaft

SPD Schleswig-Holstein

7. April 2015

Big Data
Nummerokratie III — Algorithmen contra Datenschutz

Rechenzentrum
Server-Rack | Foto: Dennis van Zuijlekom - CC BY-SA 2.0

Kürz­lich haben die Abstim­mun­gen der EU‐​Mitgliedstaaten im Minis­ter­rat über das Kapi­tel II der geplan­ten EU‐​Datenschutzgrundverordnung begon­nen. Mit die­sem Kapi­tel, das all­ge­mei­ne Bedin­gun­gen für die Recht­mä­ßig­keit der Ver­ar­bei­tung per­so­nen­be­zo­ge­ner Daten zum The­ma hat, soll­ten die Kern­fra­gen des euro­päi­schen Daten­schutz­rechts gere­gelt wer­den. Der Abstim­mung ist ein klei­ner Skan­dal her­vor­ge­gan­gen. 

Cir­ca 11.000 Sei­ten ver­trau­li­cher Doku­men­te der EU und der deut­schen Regie­rung sicker­ten bei Lob­by­Plag durch. Es wur­de bekannt, dass das deut­sche Innen­mi­nis­te­ri­um mas­siv Ein­fluss auf die For­mu­lie­rung der Daten­schutz­ver­ord­nung genom­men und Vor­schlä­ge unter­brei­tet hat­te, wel­che zur Auf­wei­chung des Daten­schut­zes füh­ren wür­den.

Das Blog Lob­by­Plag zähl­te 51 sol­cher Ände­rungs­vor­schlä­ge, die allei­ne von der deut­schen Regie­rung ein­ge­bracht wur­den. Damit führt der Innen­mi­nis­ter de Mai­ziè­re (CDU) die Lis­te der Anti­da­ten­schüt­zer unter den euro­päi­schen Regie­run­gen an, gefolgt von sei­nen Kol­le­gen aus Groß­bri­tan­ni­en und Irland. Die Vor­schlä­ge sol­len von der deut­schen Wirt­schaft unter­brei­tet und vom Innen­mi­nis­te­ri­um wei­ter­ge­reicht wor­den sein, berich­te­te der Tages­spie­gel.

Eini­ge der Vor­schlä­ge wer­den beson­ders kri­tisch gese­hen, bedeu­ten sie doch nicht nur Abschwä­chung des künf­ti­gen euro­päi­schen Daten­schut­zes, son­dern rich­ten sich auch gegen das aktu­ell noch in Deutsch­land gel­ten­de Bun­des­da­ten­schutz­ge­setz (BDSG).

Rettet die Big‐​Data‐​Geschäftsmodelle!

Zu die­sen Vor­schlä­gen zählt unter ande­rem das Bestre­ben, den Grund­satz der Zweck­be­stim­mung bzw. der Zweck­bin­dung bei der Erhe­bung, Ver­ar­bei­tung und Nut­zung per­so­nen­be­zo­ge­ner Daten auf­zu­wei­chen. Der Grund­satz der Zweck­bin­dung wur­de neben dem des Geset­zes­vor­be­halts, der Nor­men­klar­heit, Ver­hält­nis­mä­ßig­keit sowie ver­fah­rens­recht­li­cher und orga­ni­sa­to­ri­scher Rege­lun­gen vom Bun­des­ver­fas­sungs­ge­richt (BVerfG) im Volks­zäh­lungs­ur­teil aus dem Jahr 1983 auf­ge­stellt.

Nach der Inter­pre­ta­ti­on der Arti­kel 1 und 2 des Grund­ge­set­zes durch das BVerfG hat jeder Bür­ger das Recht, grund­sätz­lich selbst über die Preis­ga­be der zu sei­ner Per­son gehö­ren­den Infor­ma­tio­nen zu ent­schei­den. Da es aller­dings im Hin­blick auf ein funk­tio­nie­ren­des Gemein­we­sen nicht immer dem Betrof­fen über­las­sen wer­den kann, ob und wel­che Daten er über sich preis­ge­ben wird, soll­te der Staat sei­ne Rech­te und Pflich­ten gegen­über dem Bür­ger wahr­neh­men dür­fen – jedoch aus­schließ­lich unter Beach­tung der oben genann­ten Grund­rech­te.

Zur Begrün­dung, war­um der Grund­satz der Zweck­be­stim­mung auf­ge­weicht wer­den soll­te, wer­den die Geschäfts­mo­del­le zu Big Data genannt. Genau genom­men, erklär­te der deut­sche CDU‐​Abgeordnete im Euro­pa­par­la­ment, Axel Voss, in einem Gespräch mit Chris­tia­ne Schulzki‐​Haddouti[1], geht es dar­um „[…] Big‐​Data‐​Geschäftsmodelle nicht zu zer­stö­ren, die im kom­men­den Inter­net der Din­ge eine wich­ti­ge Rol­le spie­len wer­den.“ Als Bei­spiel nennt er die für Aus­wer­tung und Ana­ly­se von Big Data gedach­ten Deep‐​Learning‐​Algorithmen, die eigen­stän­dig dar­über ent­schei­den soll­ten, „wel­chen Zweck die Aus­wer­tung ver­fol­gen wird. Ein bestimm­ter Zweck lässt sich also gar nicht mehr vor­ab defi­nie­ren“.

Das ist gewiss über­trie­ben. Mög­li­cher­wei­se kön­nen die Algo­rith­men bes­ser – und ganz bestimmt schnel­ler – als der Mensch Zusam­men­hän­ge und Kor­re­la­tio­nen in gro­ßen Daten­men­gen ent­de­cken und aus­wer­ten. Doch der Zweck ihrer Arbeit und das Ziel ihrer Suche soll­ten vor­ab bestimmt wer­den. Das erfor­dert jeden­falls einen ande­ren Grund­satz: die wis­sen­schaft­li­che Metho­de. Die Suche nach Kor­re­la­tio­nen und Zusam­men­hän­gen soll­te Hypo­the­sen fol­gen, die vor­ab zu ent­wi­ckeln sind – und nicht umge­kehrt. Sprich: Man soll­te wis­sen und begrün­den kön­nen, war­um man einen bestimm­ten Zusam­men­hang ver­mu­tet. Und die­se Hypo­the­se erst mit einer Aus­wer­tung der Daten – heu­te mit dem Big‐​Data‐​Mining bei­spiels­wei­se, wie frü­her mit den Stich­pro­ben, Test‐ oder Labor­er­geb­nis­sen – bestä­ti­gen oder ableh­nen.

Die Wis­sen­schaft des Pro­ble­me­lö­sens

Für den Lai­en ist das Wich­tigs­te, was er über wis­sen­schaft­li­che Inves­ti­ga­ti­on wis­sen muss, die Tat­sa­che, dass es sich hier weni­ger um eine Suche nach den Wahr­hei­ten han­delt – als viel­mehr um die Suche nach dem Irr­tum. End­gül­ti­ge Ant­wor­ten gel­ten nicht unbe­dingt als wis­sen­schaft­lich. Es ist die Suche nach dem „schwa­chen Punkt“ einer Theo­rie, das Sich‐​selbst‐​infrage‐​Stellen, das die Wis­sen­schaft und den Fort­schritt aus­macht.

Das spie­gelt sich in den Metho­den wider, mit wel­chen ein Pro­blem gelöst wer­den soll. W. I. B. Beve­r­idge beschrieb in sei­nem Werk The Art of Sci­en­ti­fic Inves­ti­ga­ti­on [2] eine sequen­zi­el­le Metho­de, mit wel­cher ein medi­zi­ni­sches oder bio­lo­gi­sches Pro­blem gelöst wer­den kann, und riet uner­fah­re­nen Wis­sen­schaft­lern, zuerst mit ein­fa­chen Fra­gen und Pro­ble­men zu begin­nen:

(a) Rele­van­te Lite­ra­tur wird kri­tisch geprüft/​gesichtet (Recher­che).

(b) Die Feld­da­ten wer­den gründ­lich recher­chiert und zusam­men­ge­stellt oder eine ver­gleich­ba­re Unter­su­chung der Ver­suchs­ob­jek­te wird durch­ge­führt und – falls not­wen­dig –um Labor­un­ter­su­chun­gen ergänzt (Daten­samm­lung).

© Die gesam­mel­ten Infor­ma­tio­nen wer­den geord­net und auf Kor­re­la­tio­nen unter­sucht, das Pro­blem wird ein­ge­grenzt und in wei­ter­füh­ren­de, kon­kre­te Fra­gen unter­teilt (Daten­aus­wer­tung).

(d) Unter Berück­sich­ti­gung mög­lichst vie­ler Hypo­the­sen wer­den Annah­men getrof­fen und Ver­mu­tun­gen defi­niert (Hypo­the­sen­auf­stel­lung).

(e) Expe­ri­men­te wer­den durch­ge­führt, um die wahr­schein­lichs­te Hypo­the­se bezüg­lich der wesentlichen/​wichtigsten Fra­ge zu prü­fen (Prü­fung von Hypo­the­sen).

Beson­de­re Beto­nung legt Beve­r­idge auf die Lite­ra­tur­re­cher­che, die er als kri­ti­schen, reflek­ti­ven Pro­zess sieht, der not­wen­dig ist, um die Ori­gi­na­li­tät bei der Vor­aus­schau zu bewah­ren. „Merely to accu­mu­la­te infor­ma­ti­on as a sort of capi­tal invest­ment is not suf­fi­ci­ent“[3] – so Beve­r­idge.

In den 1980er‐​Jahren beob­ach­te­te Rudolf Flesch, öster­rei­chi­scher Jurist und US‐​amerikanischer Sprach­wis­sen­schaft­ler, dass die US‐​Forschung inzwi­schen mehr auf Sam­meln als auf Annah­men basie­re. Eine der Kon­se­quen­zen davon war, dass in der Atom­for­schung bei­spiels­wei­se der größ­te theo­re­ti­sche Fort­schritt ent­we­der in Euro­pa oder von Wis­sen­schaft­lern erbracht wur­de, die in Über­see stu­diert haben. Der Direk­tor der Shef­field School of Sci­ence in Yale in den Jah­ren 1945 bis 1956, Edmund Ware Sin­nott, bemän­gel­te ein­mal, dass die ame­ri­ka­ni­sche Wis­sen­schaft zwar gut in der Anwen­dung, Ent­wick­lung und Inge­nieur­wis­sen sei, nicht aber in der Theo­rie. „Wir lau­fen Gefahr, von einer Men­ge unver­dau­ter Ergeb­nis­se über­mannt zu wer­den“[4], befürch­te­te er.

Ein Vor­teil euro­päi­scher Wis­sen­schaft, der sich – falls er noch besteht – even­tu­ell aus­zah­len könn­te, wenn er wei­ter aus­ge­baut wird. Es stellt sich tat­säch­lich die Fra­ge, ob es sinn­voll ist, es den Algo­rith­men – auch sol­chen, die als Vor­bo­ten künst­li­cher Intel­li­genz gefei­ert wer­den[5] – zu über­las­sen, sich selbst Aus­wer­tungs­zwe­cke zu geben oder ohne kon­kre­te Zweck­be­stim­mung nach Kor­re­la­tio­nen zu suchen, wenn man Big Data doch für wis­sen­schaft­lich fun­dier­te Hypo­the­sen und Ver­mu­tun­gen nut­zen könn­te. Es ist ein ähn­li­cher Unter­schied wie zwi­schen „Bade­wan­ne haben“ und „Bade­wan­ne nut­zen“. Letz­te­res geht ver­mut­lich auch, ohne die Rech­te auf infor­ma­tio­nel­le Selbst­be­stim­mung oder die Grund­sät­ze des Daten­schut­zes, wie das der Zweck­bin­dung, auf­zu­wei­chen.

Tl;dr

Daten machen uns frei. Daten sind unser mäch­tigs­tes Werk­zeug. Algo­rith­men sind gut. Daten ver­bes­sern unser Leben. Daten schaf­fen Erkennt­nis. So schrieb es Frank Schmie­chen im Essay „War­um uns Daten zu frei­en Men­schen machen“. Dem soll­te noch hin­zu­ge­fügt wer­den: Daten und Algo­rith­men respek­tie­ren unse­re Pri­vat­sphä­re. War­um? Weil jede Soft­ware nur so gut ist wie der Mensch, der sie ent­wi­ckelt hat.

 

[1] http://www.zeit.de/digital/datenschutz/2015–03/datenschutzverordnung-zweckbindung-datensparsamkeit

[2] Beve­r­idge, W. I. B. 1957. The Art of Sci­en­ti­fic Inves­ti­ga­ti­on. Nor­ton: New York, https://openlibrary.org/books/OL23279056M/The_art_of_scientific_investigation (Zugriff: 27.03.2015).

[3] Beve­r­idge, W. I. B. 1957. The Art of Sci­en­ti­fic Inves­ti­ga­ti­on. Nor­ton: New York, S. 12, https://openlibrary.org/books/OL23279056M/The_art_of_scientific_investigation (Zugriff: 27.03.2015).

[4] Flesch, R. 1973. Bes­ser schrei­ben, spre­chen, den­ken. Düs­sel­dorf: Econ Ver­lag, S. 240.

[5] http://www.huffingtonpost.de/tim-dettmers/deep-learning-algorithmen-die-wie-menschen-denken_b_5972966.html (Zugriff 27.03.2015).

Aleksandra Sowa

Lei­te­te zusam­men mit dem deut­schen Kryp­to­lo­gen Hans Dob­ber­tin das Horst Görtz Insti­tut für Sicher­heit in der Infor­ma­ti­ons­tech­nik. Dozen­tin, Fach­buch­au­torin (u.a. „Manage­ment der Infor­ma­ti­ons­si­cher­heit“, „IT‐​Revision, IT‐​Audit und IT‐​Compliance“), kürz­lich erschien im Dietz‐​Verlag „Digi­tal Poli­tics — so ver­än­dert das Netz die Poli­tik“. Hier äußert sie ihre pri­va­te Mei­nung.#Foto by Mark Boll­horst (mark-bollhorst.de)

More Posts

Fol­low Me:
TwitterLinkedInGoogle Plus

Schlagwörter: , , , , , , , ,

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.