Diffuse Daten

von schneeschmelze

Die Inbetriebnahme des Bundes-Open-Data-Portals GovData hat SWR2 wohl um Anlaß genommen, Markus Beckedahl, Christoph Kappes und Jeanette Hofmann im SWR2 Forum, moderiert von Gábor Paál, über Big Data diskutieren zu lassen. Big Data – Open Data. Das Thema ist derzeit vielfach im Gespräch und eignet sich sehr gut, um zu demonstrieren, wie aktuell mit Datenschutzthemen öffentlich operiert wird.

Es gelingt meist noch recht gut, zu beschreiben, was für „große Datenmengen“ gemeint sind und wie sie entstehen: Bewegungsdaten aus den Handys, „always on“, aus Kreditkarten- oder sonstigen Online-Einkäufen, aus Software, die das Training von Freizeitsportlern dokumentiert, aus sozialen Netzwerken, wo Vernetzungsmuster und Kommunikation ausgewertet werden, aus dem bloßen Surfen im Netz. Im weiteren Verlauf diskutierte man dann aber recht unbeweglich mit verteilten Rollen: Markus Beckedahl als Optimist, der sich vorstellt, man könne mit einem novellierten europäischen Datenschutzrecht einen neuen Standard für die ganze Welt formulieren und die amerikanischen Datenkraken Facebook und Google damit bändigen; kritisch mahnend Jeanette Hofmann, immer wieder Szenarien ausmalend, was alles passieren könnte, wenn … passiert; und Christoph Kappes als Liberaler, der die Entscheidungsfreiheit des Menschen gegenüber der Technik betont.

Mein Herz schlägt mit allen dreien. Mit Beckedahl, weil er eine positive Utopie formuliert und Spielräume für ganz konkrete politische Maßnahmen sieht. Mit Hofmann, weil mir die Kaffeemaschine, die twittert, und eine ganze Autobahn aus Autos, die über Internet miteinander verbunden selbsttätig fahren, unheimlich anmuten. Und mit Kappes, weil das Unheimliche aufgeklärt-nüchtern betrachtet sehr viel weniger konkret sich darstellt, als man zuerst denken mag.

Big Data ist, wie andere digitale Phänomene, die derzeit diskutiert werden, eben ein sehr diffuses Gebilde. Gestern waren es die Algorithmen, heute sind es die Daten, mit denen diese Algorithmen verarbeitet werden, die aufs Tapet kommen. Prognoseverfahren schlagen seit einigen Jahren Produkte oder – in Bibliotheken – Bücher vor, die andere vorher schon bestellt hatten, als sie sich für die gleichen Dinge interessierten wie wir. Aber über die Hintergründe und die Potentiale ist wenig Konkretes bekannt. Das alles ist erstaunlich schwer greifbar. Die großen Unternehmen, die die großen Daten sammeln, lassen sich nicht in die Karten schauen. Und auch über die Verquickung von privaten oder kommerziell gewonnenen Daten mit öffentlichen Daten ist wenig bekannt. Man malt es sich aus: So könnte es sein. Und verfällt in Kulturpessimismus. Und vergißt dabei die noch sehr viel pessimistischere Stimmung, die in den 1980er Jahren angesichts des Big Brother und der Volkszählung bestanden hatte. Weltuntergang durch Big Data? Get real.

Aber auf jeden Fall ein weiteres Kapitel in der Geschichte des Kontrollverlusts des Menschen über seine Technik. Der ewige Zauberlehrling. An der Stelle habe ich zwei Aspekte vermißt. Zum einen wäre es ein konsequenter Schritt, bei riskanten Weiterentwicklungen eine Art Gefährdungshaftung für algorithmisch gesteuerte Systeme mit großen Daten vorzusehen, denn es ist bis auf weiteres, siehe oben, nicht bekannt, wie sie sich verhalten werden und welche Folgen sie zeitigen. Dieser Schritt entspräche im juristischen Bereich der Anpassung an die ebenfalls riskante Technik der mechanischen Maschinen, die man bekanntlich zugelassen hatte, weil man den gesellschaftlichen Nutzen höher bewertet hatte als den damit verbundenen Vorteil im Falle des Verzichts auf die neue Technik. Der Blutzoll der Mechanisierung und Automatisierung wurde durch ein Versicherungsmodell begleitet, das seitdem den Verlust von Leben und Gesundheit mit Geld kollektiv kompensiert. Wie gleicht man den Verlust an Privatsphäre und von Lebenschancen aus, denen andere Möglichkeiten gegenüberstehen, über deren Bewertung man bis auf weiteres ganz offenbar unterschiedlicher Meinung ist? Zum anderen wäre im Zuge der weiteren Entwicklung des Datenschutzrechts zu diskutieren, wie es mit dem alten Grundsatz der Datensparsamkeit steht in einer Welt von Big Data? Ist er obsolet geworden? Kann er überhaupt noch durchgesetzt werden? Sollte er aufgegeben werden, zumindest in Big-Data-Umgebungen und Datenasammel-Arrangements aus Nutzern, Unternehmen und Staat? Und schließlich: Gibt es an einer kritischen Steuerung, die sich Kappes und Beckedahl im einzelnen unterschiedlich vorstellen, überhaupt ein Interesse? Das einzige Interesse scheint zu sein, „daß Geld hereinkommt“, wie Brecht einmal sagte. Die Datenwolke tanzt ums goldene Kalb herum.

Und deshalb bin ich skeptisch, was die Entwicklungsmöglichkeiten angeht. Ich kann mir beim besten Willen nicht vorstellen, daß es politisch gelingen könnte, sich Big Data entgegenzustellen und einen sinnvollen Umgang mit den Risiken dieses technischen Phänomens herbeizuführen. Dazu bräuchte es nämlich eine Politik, die als System eigenständig funktioniert und arbeitet, was angesichts von Gesetzentwürfen, die immer öfter von Lobbyisten geschrieben werden, aber nicht mehr der Fall sein kann. Der Bock ist der Gärtner. Hier wäre anzusetzen, nicht bei den Daten, bitte.

Advertisements