Regulierung der Datenökonomie: Zwischen Theorie, Utopie und Realität.

Modelle und ihre Grenzen in der Anwendbarkeit

Die rasante Dynamik des technologischen Fortschritts führt zu neuen vielfältigen, digitalen Ökosystemen. Disruptive Geschäftsmodelle, weitere Marktakteure und insbesondere die Plattformökonomie erzwingen eine Anpassung der Wirtschaftsordnung und Marktgesetze. Denn Daten sind nun das bedeutendste und begehrteste Gut dieser Ökonomie. Das stellt nahezu alle Akteure vor enorme Herausforderungen. Auch, weil Tech-Giganten wie Google oder Facebook die Märkte dominieren und mit Skandalen zum Datenmissbrauch anführen. Doch wie könnte ein neues Ordnungsprinzip aussehen und gibt es realistische, praktikable Ansätze einer fairen Datenökonomie?

Prof. Dr. Ingrid Schneider ist Expertin für Ethik in der Informationstechnologie an der Uni Hamburg. Ihre Schwerpunkte sind Governance, Technikfolgenabschätzung und demokratische Gestaltung der Digitalisierung. Im Interview mit der Autorin Katrin-Cécile Ziegler spricht sie über Chancen und Grenzen verschiedener Modelle, wie eine Datenökonomie reguliert werden könnte. 


Frau Prof. Dr. Schneider, gründen die Herausforderungen, vor denen wir in der Datenökonomie heute stehen, letztlich darauf, dass unklar ist, wem welche Daten gehören?

„Wir müssen bei dieser Debatte differenzieren. Daten an sich sind gar nicht eigentumsfähig. Daten sind intangible Güter, also nicht aufbrauchbar, beliebig teilbar und nicht rival. Solche Güter gelten nach europäischem Recht als nicht eigentumsfähig. Nur der Datenträger, auf dem sich die Daten befinden, ist eigentumsfähig, weil er ein materielles Gut ist. Und trotzdem nutzen Firmen und Agenturen faktisch die ‚Ownership-Rights‘. Oft entscheiden sie alleine, welche Daten sie wofür auswerten – und seien es auch nur Nutzungsdaten oder Metadaten. 

Die Debatte entzündet sich also an der Frage, wie wir die User, ihre Privatsphäre und ihr Verhalten im digitalen Raum schützen können. Dafür müssen wir wissen, nach welchen Kriterien und Zielen private Daten ausgewertet werden und wem Zugang zu Daten gewährt wird. Um dies zu regulieren, benötigen wir kein Eigentumsrecht, sondern müssen die Zugangs- und Verfügungsrechte betrachten.“

 

Daten an sich sind nicht eigentumsfähig.


…Die DSGVO reicht hier nicht aus?

„Man sagt ja, die Zustimmung zu den AGBs sei die größte Lüge des Internets. Es gibt eine Studie, dass es im Schnitt 244 Stunden benötigen würde, um die AGBs gründlich zu lesen – wer macht das schon?

Dennoch meine ich, dass sich durch die DSGVO etwas verändert hat. Der User hat nun mehr Optionen, seien es Privatsphäre-Einstellungen oder eine Mitbestimmung welche Werbung er sehen möchte. Aber es ist weiterhin die Frage offen, was mit den ganzen Metadaten passiert, meiner IP-Nummer, den vielen Cookies und so weiter. Damit ist jeder identifizierbar. Und auch die Drittverwendungen sind weiterhin intransparent.

Bei Google zum Beispiel heißt es, man würde die Daten nur für Dienste verwenden, die „unbedingt gebraucht werden“ – aber der Nutzer erfährt weder um welche Daten, noch um welche Dienste es sich handelt.“

Welche konzeptionellen, wirtschaftspolitischen Ansätze existieren denn, um eine Datenökonomie zu regeln?

„Als Prototyp gibt es hierzu vier verschiedene Modelle. Das ‚Micro-Bezahlsystem‘ nach Lanier, das ‚Modell der Daten als öffentliches Gut‘ nach Morozov, das Modell der ‚Allmendegüter‘ nach Ostrom und das ‚Treuhandmodell‘ nach Winnickoff. 

Deren Stärken und Schwächen sowie Chancen und Grenzen in der Anwendbarkeit sind sehr unterschiedlich.“

Bei welchem Modell bin ich noch „Herr“ über meine Daten?

„Beim ‚Micro-Bezahlsystem‘ werden private Eigentumsrechte definiert. Die Datenverwendung muss hier vom Eigentümer nicht nur erlaubt, sondern auch für ihn transparent sein. Zudem werden ihm seine Daten mit geringen Beträgen vergütet. Dahinter steht die Idee einer humanistischen Informationsökonomie: Jeder User behält hier also die Entscheidungshoheit über seine Daten und ebenso über deren Freigabe.“

…Klingt nach einem Full-Time-Job. Wäre das für eine Privatperson überhaupt zu managen?

„Nein. Völlig illusorisch. Wenn ich eine Webseite, ein Online-Medium oder Google aufrufe, werden hierbei über 80 Cookies aktiviert – soll ich nun jedes einzelne für mich checken?

Die Gefahr liegt in den finanziellen Anreizen.

Manche meinen, das ließe sich automatisieren. Aber ich halte das für kein geeignetes Modell, weil hierbei eine Scheinautonomie geschaffen würde. Der Datengebende bekommt ja nur Zugang zum Bezahlsystem, wenn er bestimmte Daten freigibt. Zudem handelt es sich auch nur um Mini-Beträge, die er damit erwirtschaftet. Die Gefahr liegt also in der Köderung mit finanziellen Anreizen und der Verlockung immer mehr Daten freizugeben. Das birgt die Gefahr, dass dem Datengebenden die Transparenz darüber fehlt, wie seine Freigabe sein Scoring – also seine Profilerstellung und Zuordnung beeinflusst.“

Fänden Sie, Prof. Dr. Schneider, eine staatliche Kontrolle sinnvoller?

„Das kommt auf die Daten an. Sehen Sie, Morozov setzt sich bei seinem Modell dafür ein, dass Daten verstaatlicht werden. Er bezieht sich vor allem auf den kommunalen Bereich, z.B. von Verkehrsdaten oder Energiedaten. Diese öffentlich erhobenen Daten werden in einen ebenfalls öffentlichen Pool gestellt, auf den alle zugreifen können. Auch private Personen gegen Bezahlung. Von Städten wie Hamburg und Barcelona wird das Modell von Morozov bereits umgesetzt.“

Das erfordert Vertrauen in eine Gemeinde oder einen Staat. Sind diese Daten personalisiert?

„Nein, aggregiert, aber das Problem ist auch hier, dass Personen leicht re-identifiziert werden können. Morozov sieht Daten als ein öffentliches Gut, d.h. als ein Gemeingut für das Gemeinwohl. Das setzt tatsächlich einen Staat voraus, der die Daten auch gemeinwohlfähig macht. Die Gefahr liegt aber in der Überwachung und dem Risiko, dass er diese missbrauchen könnte. Der Einzelne hat kein Mitbestimmungsrecht. Seine Daten sind sozialisiert. Bei Verkehrsdaten ist das vielleicht noch harmlos, aber Gesundheitsdaten sind sensibel.“

Wo könnte die Mitte liegen, zwischen privatem Eigentumsrecht und verstaatlichten Daten?

„Ein Modell zwischen Staat und Markt wäre das Modell der ‚Allmendegüter‘ von Ostrom. Die Daten stellen wie beim Vorgängermodell öffentliche Güter dar. Diese werden jedoch von einer Gemeinschaft bewirtschaftet, die die Regeln auch gemeinsam bestimmt.“

Wie ließe sich in einer globalen, digitalen Welt festlegen, wer zu einer Gemeinschaft zählt?

„Das ist das Problem. Im Internet haben wir ja viele virtuelle Gemeinschaften. Hier ist nicht nur die Abgrenzung schwierig – auch transnational, sondern ebenso die Frage, ob und wie sich eine Gemeinschaft überhaupt einigen könnte. Ich finde das Gemeinschaftsmodell ganz charmant. Leider sind noch zu viele Dinge ungeklärt: Wie Verantwortung delegiert werden könnte und wem die Aufsichtspflicht obliegt, bleibt ebenfalls offen.“

Leider sind noch zu viele Dinge ungeklärt.

Und wie beim ersten Modell müsste der Datengebende auch hier sehr viele Entscheidungen treffen, die ihn eventuell überfordern…

„Ja, auch das wäre schwierig. Hier setzt das vierte Modell mit seinem Lösungsansatz an: das ‚Treuhandmodell‘ von Winnickoff. Die Daten werden privat erhoben und privat bewirtschaftet, aber das Kontrollrecht an eine treuhänderische Instanz abgetreten. Diese prüft, zu welchen Zwecken Daten genutzt werden sollen und ob sie im Sinne der Datengebenden eingesetzt werden. Das entlastet den Einzelnen, um nicht ständig Entscheidungen treffen zu müssen, aber gibt ihm trotzdem die Möglichkeit des Widerrufs. Auch können Präferenzen definiert werden. Ich finde das ein ganz gutes Modell. Das kann sicher weiterentwickelt werden.“ 

Wäre es möglich ein solches Modell zu etablieren und wenn ja, wie beurteilen Sie das besonders im Hinblick auf die herrschende Marktdominanz einiger weniger Firmen?

„Sie meinen, wie man den Googles und Facebooks dieser Welt beikommen könnte? Schwierig. Man könnte diese Firmen zwingen, die Daten freizugeben. Aber dass dies zufallsmäßig und anonymisiert passieren soll, wie es derzeit im Gespräch ist, sehe ich kritisch. Nach dem Zufallsprinzip gäbe es Verzerrungen in den Datensätzen. Anonymisieren klappt auch nicht, weil es immer Möglichkeiten zur Re-Identifizierung von Daten gibt. Wenn man diese Daten nur als aggregierte und nicht als individualisierte Daten zur Verfügung stellen würde, wäre das ja noch in Ordnung. Aber diese Unternehmen beziehen ihre globale Macht ja gerade daraus, dass sie diese Daten für alle möglichen neuen Firmen benutzen, die sie dann innerhalb ihrer Holding aufbauen. Darüber erfahren wir Nutzer rein gar nichts.“

Manchmal ist die Gefahr auch zu abstrakt, um sie erkennen zu können.

Wo sehen Sie derzeit die Verantwortung bei den Usern?

„Natürlich kann ich als User den bequemsten Weg gehen. Oder ich informiere mich eben, was es an Alternativen gibt und nutze sie auch. Ich muss zum Beispiel nicht bei Google mein Emailkonto anlegen, sondern kann auch Posteo nutzen, wo ich nicht getrackt werde und kein Profil erstellt wird. Oder die Messaging-App Threema, die keine Meta-Daten speichert und nicht auf mein Telefonbuch zugreift.

Es gibt solche Alternativen, die zwar auch Daten sammeln, aber mehr im Sinne eines uneigennützigen Interesses. Wichtig ist, sich bewusst zu machen: User sind nicht zwangsläufig passiv, sie können das Vertrauen auch aktiv entziehen.“

Hier stoßen wir aber auch wieder auf das Problem der Netzwerkeffekte, die es gar nicht immer so einfach machen, sich von verbreiteten Angeboten wie z.B. Facebook oder Whatsapp zu lösen?

„Ja, und manchmal ist die Gefahr auch zu abstrakt, um sie erkennen zu können. Aber ich nehme bei jungen Menschen ein wachsendes Bewusstsein dafür wahr.“

Was denken Sie – führt uns die Digitalisierung in der Gesellschaft näher zusammen oder bringt sie uns weiter auseinander?

„Das ist meine größte Sorge, dass sie nicht zu mehr Freiheit und Gleichheit führt, sondern die Kluft vergrößert.  Letztlich weiß niemand genau, wie es sich entwickeln wird. Dass es derzeit mehr Fragen als Antworten gibt, macht aber auch Spaß und ist interessant. Es gerät unheimlich viel in Bewegung, gerade in ethischen Belangen. Zwar ist es auch ein Hype-Thema, aber ich habe den Eindruck, dass sehr wohl auch erkannt wird, dass hier Diskussions- und Regulationsbedarf besteht. Allerdings habe ich auch keine ultimative Lösung.“

Vertrauenswürdigkeit ist wichtig – auch um User zu binden. 

Was ist Ihr Appell und auch Ihr Rat an Unternehmen, um mit der Datenökonomie eigenverantwortlich umzugehen?

„Vertrauenswürdigkeit ist wichtig – auch um User zu binden. Unternehmen müssen darauf achten, wie sie mit Daten umgehen und dass sie ihren Usern eigene Entscheidungsräume einräumen. Unternehmen müssen sich auch bewusst machen, welche Konsequenzen und Diskriminierungsgefahr das „Scoring“ durch Profilbildung, Ranking und Überwachung für ein Individuum hat.

Und Unternehmen sollten in bestimmten Bereichen auch Daten freigeben, um Open-Source-Projekte, Daten-Pools und Daten-Clubs zu bilden. Mit einem ehrlichen Makler in der Mitte. Um weder alles selber zu sammeln, noch alles nur für sich selbst zu beanspruchen. Das würde ich mir wünschen!“

Prof. Dr. Ingrid Schneider
Prof. Dr. Ingrid Schneider ist Professorin für Politikwissenschaft und seit Januar 2017 am Arbeitsbereich „Ethik in der Informationstechnologie“ des FB Informatik der Universität Hamburg. Ihre Schwerpunkte sind Governance, Technikfolgenabschätzung und demokratische Gestaltung der Digitalisierung durch Recht und Politik.
Von 2013 bis 2016 war sie Mitglied einer Expertengruppe der Europäischen Kommission, 2000-2002 Sachverständige in der Enquete-Kommission „Recht und Ethik der modernen Medizin“ des Dt. Bundestages und ist seit 1996 bei Anhörungen des Europäischen Parlaments, des Europäischen Patentamts und nationaler Parlamente.

 

Katrin-Cécile Ziegler (Dipl. Volkswirtin) ist Digital Economist, Journalistin und Speakerin. Die Wirtschaftsexpertin und dreifache Medienpreisträgerin befasst sich seit vielen Jahren mit den Auswirkungen des digitalen Wandels auf Ökonomie und Gesellschaft. Sie zählt zu den Top 1% ihrer Branche im LinkedIn-Index und ist eine der gefragtesten Moderatorinnen für digitale Events. Katrin-Cécile engagiert sich als Mentorin des Steinbeis Innovationszentrum und lebt in Deutschland am Bodensee.

Die Kommentarfunktion ist geschlossen.