Werbung

Big Data

Smarte Worte I: Was die Anhäufung, Monopolisierung und Rekonfiguration immer größerer Mengen von Informationen bedeutet

Bei uns droht die ABOkalypse!

Wir brauchen zahlende Digitalleser/innen.

Unterstütze uns und überlasse die Informationsflanke nicht den Rechten!

Mach mit! Dein freiwilliger, regelmäßiger Beitrag:

Was soll das sein

Wir setzen ab sofort noch stärker auf die Einsicht der Leser*innen, dass linker Journalismus auch im Internet nicht gratis zu haben ist – mit unserer »sanften« nd-Zahlschranke.

Wir blenden einen Banner über jedem Artikel ein, verbunden mit der Aufforderung sich doch an der Finanzierung und Sicherstellung von unabhängigem linkem Journalismus zu beteiligen. Ein geeigneter Weg besonders für nd-Online-User, die kein Abo abschließen möchten, die Existenz des »nd« aber unterstützen wollen.

Sie können den zu zahlenden Betrag und die Laufzeit frei wählen - damit sichern Sie auch weiterhin linken Journalismus.

Aber: Für die Nutzung von ndPlus und E-Paper benötigen Sie ein reguläres Digitalabo.

Der Begriff Big Data umfasst zwei schillernde Worte mit einigen wenig konkreten Bedeutungen. Zunächst ist er nur eine Art Größenangabe: Mit ihm werden Datenmengen bezeichnet, die zu groß oder komplex sind, als dass sie mit herkömmlichen Mitteln der Datenverarbeitung verarbeitet werden könnten. Das kann am Umfang der Daten liegen (sehr große Datensätze), an der Vielfalt der Daten (viele Datenquellen) oder der Geschwindigkeit, mit der sie anfallen oder analysiert werden müssen (Echtzeitdaten).

Mehr noch aber steht Big Data für einen vermeintlich neuen Umgang mit den im Rahmen der Digitalisierung anfallenden Daten und dem Datenbedarf einer digitalen Gesellschaft: Obwohl Rechenkraft in Form von Desktop-Computern, Laptops, Tablets und Handys allgegenwärtig ist, überfordert die schiere Menge neuer Daten und deren Analysebedarf deren Möglichkeiten. Immer neue Messpunkte (zum Beispiel Sensordaten oder auch das Nutzerverhalten im Internet) führen seit einigen Jahren zu einem rasch anschwellenden Datenvolumen.

Einer Schätzung von IBM zufolge werden täglich 2.5 Trillionen Bytes an neuen Daten geschaffen, Tendenz stark steigend. Big Data beschreibt damit auch die (meist zentrale) Organisation und Aufbereitung der Daten mithilfe spezieller Computer und Algorithmen zum Beispiel in Rechenzentren. Letztlich umfasst der Begriff auch die Darstellung der aufbereiteten Daten, deren Speicherung und Verbreitung und sogar selbstverschriebene oder staatlich vorgegebene Richtlinien zu ihrem Umgang, wie zum Beispiel Verordnungen zum Datenschutz.

Dass Big Data in den letzten Jahren zu einem wichtigen Schlagwort wurde, liegt allerdings an einem technologisch-ökonomischem Versprechen der Digitalisierung: Ein Datum ist nur die Information, die es selbst darstellt. Mehrere Daten zusammengefasst ergeben aber neue Informationen: Je mehr Daten aber vorliegen, desto bessere, tiefere Schlüsse kann man aus ihnen ziehen, wenn man die geeigneten statistischen Methoden, ausreichend Rechenkraft und die Infrastruktur der Datenverwaltung besitzt.

Die Daten sind in diesem Bild ein Rohstoff, der mithilfe von Maschinen und Algorithmen zu neuem Wissen veredelt werden kann. Dieses Wissen bedeutet Vorhersagekraft über zukünftige Entwicklungen, dem Aufdecken tieferliegender Strukturen und Zusammenhänge im Datenrauschen und der Optimierung von Abläufen. Eine zentrale statistische Technik ist dabei die Mustererkennung. In einem Datenstrom werden Regelmäßigkeiten identifiziert und mit anderen Regelmäßigkeiten oder auch nur Einzelereignissen korreliert: Wenn X passiert, dann passiert auch Y. Dadurch erhalten Daten einen Wert: Ihre Anhäufung, Monopolisierung und Rekonfiguration schafft erst einen Datenmarkt, einen neuartigen Daten-Kapitalismus. Da mit Big Data der Erkenntnisgewinn automatisiert werden soll, folgt der bloßen Verwaltung übermäßig großer Datenmengen in den letzten Jahren nun die Datensammlung: Weil Speicherplatz billig ist und nur die Verarbeitung von Daten teuer, versuchen Firmen und Staaten nun Daten erst zu horten, um sie später auszuwerten.

Durch Big Data ergeben sich so ganz neue Autonomieprobleme: Für sich genommen unverfängliche Daten entfalten möglicherweise durch Anreicherung mit anderen Daten ein Machtpotenzial, zum Beispiel wenn es um die Vorhersage oder das Verständnis des individuellen Verhaltens geht (siehe auch: Nudging). Andererseits ist das Thema noch so neu und voller Ungewissheiten, dass es noch keine Ansatzpunkte für eine staatliche Regulierung gibt.

Ab wann können Daten Macht entfalten? Wer darf Daten schöpfen und besitzen? Wie verhalten sich Daten und Individuum zueinander? Welche Analysemethoden sollen erlaubt sein? Die größte Herausforderung für Big Data ist damit keine technische oder technologische: Vielmehr muss es darum gehen, ein neues Verständnis von Daten und ihrer etwaigen Macht zu erhalten. (fk)

Zum Weiterlesen:

Die Geschichte von Big Data
Evgeny Morozov: Digital Technologies and the Future of Data Capitalism
Petra Sitte: Big Data und Big Government erfordern einen Paradigmenwechsel

ndPlus

Ein kleiner aber feiner Teil unseres Angebots steht nur Abonnenten in voller Länge zur Verfügung. Mit Ihrem Abo haben Sie Vollzugriff auf sämtliche Artikel seit 1990 und helfen mit, das Online-Angebot des nd mit so vielen frei verfügbaren Artikeln wie möglich finanziell zu sichern.

Testzugang sichern!

9 Ausgaben für nur 9 €

Jetzt nd.DieWoche testen!

9 Samstage die Wochenendzeitung bequem frei Haus.

Hier bestellen