weitere ...

Einmalig 14: „Big Data ist kein Hype mehr“

Was bedeutet der Trend zu immer mehr Daten aus gesellschaftlicher, kultureller und ökonomischer Perspektive? Wir baten zwei vielseitige Denker zur digitalen Debatte: Caroline Drucker, Deutschland-Chefin der E-commerce-Plattform Etsy und viel zitierte Expertin für Netzkultur, chattet mit Thomas Schildhauer, Direktor des Institute of Electronic Business und des von Google finanzierten Alexander von Humboldt Instituts für Internet und Gesellschaft

Erschienen:

  • März 2013

Kunde:

  • Bundesdruckerei

Art Director:

  • Brian O'Connor

Chefredaktion:

  • Markus Albers

Produktion:

  • Rethink GmbH
130424_Anzeige_NEU-1.jpg

[10:43:43 AM]

Einmalig: Wie relevant ist Big Data und für wen? Was verstehen Sie darunter?


[10:44:30 AM]

Caroline Drucker: Big Data ist, wie der Name schon sagt, eine große Menge an Daten, und unglücklicherweise ist es ein wenig ein Buzzword in der Branche, das viele Leute so um sich werfen, ohne wirklich die Vorteile zu verstehen. Es ist einfach, Informationen über alles Mögliche zu sammeln, aber ohne konkrete Ziele, einen Prozess oder ein Produkt zu verbessern, ist es bedeutungslos. Big Data wird erst relevant, wenn Leute innerhalb der Organisation die Daten auch verarbeiten und Bedeutung daraus generieren können.


[10:48:14 AM]

Thomas Schildhauer: Big Data ist ein echter Trend und kein Hype mehr. Ich gebe Caroline Drucker recht, viele Unternehmen sind momentan eher aufgeschreckt, denn es werden einerseits viele Chancen gesehen, aber die wenigsten wissen, wie sie das Thema konkret fassen sollen. Zur Größenordnung: Man geht davon aus, dass pro Nutzer bald täglich eine Menge von Daten generiert wird, die etwa 70 Bücher füllen würde. Stellt Euch mal vor, wie viele Daten gesammelt würden, wenn wir alle mit einer Google- Brille durch die Stadt laufen und alle Bewegungs- und Handlungsdaten gespeichert würden, was dann ja leicht möglich wäre.


[10:49:31 AM]

CD: Aber wie viele dieser Daten sind tatsächlich nützlich? Kontext ist die wichtigste Komponente der Daten – zum Beispiel dürfte es spannend werden zu sehen, wer die Maßstäbe für Reputation und Vertrauensbildung im Netz erfüllen kann.


[10:50:03 AM]

TS: Exakt – es geht in erster Linie darum, für jedes Unternehmen herauszufinden, was von den vielen Daten, die generiert werden, dem Unternehmen helfen kann.


[10:50:12 AM]

Was wären konkrete Beispiele?


[10:50:20 AM]

CD: Wird Klout diejenigen identifizieren können, denen Sie vertrauen sollten und denen Sie nicht vertrauen sollten? Ein gutes Beispiel wäre: Vertraue ich meinem besten Freund? Ja. Würde ich ihm mein Auto leihen? Nein, weil ich ihn gut genug kenne, um zu wissen, dass er ein schlechter Fahrer ist. Wer wird in der Lage sein, die Feinheiten und Nuancen menschlicher Beziehungen online zu verstehen? Davon sind wir noch ziemlich weit entfernt, denke ich.


[10:51:38 AM]

TS: Dell hat ein sogenanntes Social Media Listening Command Center

aufgebaut, in dem sie täglich mehr als 20.000 „Gespräche“ in den sozialen Medien beobachten und auswerten, um festzustellen, ob es Serviceprobleme oder Probleme mit den Produkten von Dell gibt. Hieraus werden konkrete Maßnahmen abgeleitet.


[10:51:52 AM]

CD: Ja, das ist ein sehr gutes Beispiel. Oder Telefonsysteme, die messen, wie verärgert ein Anrufer ist.


[10:52:00 AM]

Wie exakt lässt sich Big Data denn definieren?


[10:52:30 AM]

TS: Wir unterscheiden in der Forschung grundsätzlich drei Kategorien von Big Data: erstens freiwillig bereitgestellte Daten, zum Beispiel Messages in Facebook oder per Twitter. Meist weiß ich dann auch, wer diese Daten einsehen kann. Zweitens beobachtete Daten. So wie in dem Dell-Beispiel gibt es eine Vielzahl von Unternehmen, die mein Verhalten im Netz beobachten. Allen voran die Online-Händler wie Amazon, die daraus konkrete Handlungen für Angebote ableiten. Und schließlich drittens abgeleitete Daten. Hier geht es beispielsweise um Interpretationen aus meinem Strom- verbrauchsverhalten. Es gibt zum Beispiel einen Dienst, der aus meinem Smart Meter – wenn ich denn im Haus eines installiert hätte – ableiten kann, ob ich ferngesehen habe und zu welcher Uhrzeit, um dann im Grunde auch abzuleiten, was für Filme ich sehe. Da kann es dann langsam unangenehm werden, denn das ist ja schon ein tiefer Einblick in meine Privatsphäre.


[10:56:41 AM]

CD: Da stimme ich zu. Interessant ist, wo Kategorie eins den Kategorien zwei und drei widerspricht. Mit anderen Worten: Die Daten, die wir freiwillig teilen, repräsentieren nicht notwendigerweise, wie wir uns tatsächlich verhalten, sondern eher, wie wir uns selbst sehen oder von anderen gesehen werden wollen. Das ist etwa so wie das Problem mit Fokusgruppen. Daher sehen Organisationen einen größeren Nutzen in den Kategorien zwei und drei – es wird so wahrgenommen, als stecke mehr „Wahrheit“ in Bezug auf menschliches oder Verbraucherverhalten dahinter.


[10:58:36 AM]

TS: Die Frage hierbei ist, ob ich als Konsument dann die Möglichkeit habe oder haben werde, einzusehen, welche Daten über mich gesammelt wurden und welche Schlüsse gezogen werden. Ein Beispiel dazu – es ist inzwischen bekannt geworden, dass einige Banken bei Kreditvergaben auf dem Facebook-Profil des Antragstellers nachsehen, ob der Kunde Rap-Musik mag. Und falls ja, mindert es die Chance, einen Kredit zu

bekommen.


[11:00:48 AM]

CD: Aber ist eine Vorliebe für Rap­Musik wirklich ein guter Indikator für ein Ausfallrisiko? Ich bezweifle, dass es Daten gibt, die sich in 100 Prozent der Fälle als korrekt erweisen. Wird Big Data Annahmen ermöglichen, die korrekt sind, und wenn diese aus den Daten abgeleiteten Annahmen korrekt sind, ist es dann okay, sie zu verwenden? Ein Problem ist, dass Sie wahrscheinlich ein Etikett verpasst bekommen, das überhaupt nicht zu Ihnen passt. Die Frage, die sich jeder Einzelne stellen sollte, ist die: Lohnt es sich, den Kompromiss einzugehen, um besseren Service zu erhalten? Ich denke allerdings auch, dass die Leute heutzutage immer besser entscheiden können, was angemessen ist, online zu teilen, und was nicht. Die Teenager von heute verstehen viel besser, was sie teilen können und was besser nicht. Es ist die Generation Y und älter, die sich abmüht, die möglichen Konsequenzen zu verstehen, wenn sie etwas teilen.


[11:03:13 AM]

TS: Ja, die Digital Natives sind sicher schon recht fit im Umgang mit dem Netz, aber ich bezweifle, dass sie sich immer wirklich im Klaren darüber sind, was mit ihren Daten so alles angefangen werden kann. Glauben Sie, dass die Kids, die ein iPhone besitzen, wissen, welche Daten Apple über sie sammelt? Dass alle Eingaben in Siri und alle Bewegungsdaten auf dem großen Plattenspeicher in der texanischen Wüste landen?


[11:03:47 AM]

CD: Digital Natives ja – aber das ist kein neues Verhalten der Unternehmen. Die Tools sind einfach besser geworden.


[11:04:16 AM]

TS: Ja – ich stimme Ihnen zu, die Best Ager und Silver Surfer sind total überfordert mit der Einschätzung von Big Data. Die Frage ist, ob es zu einer Gegenbewegung kommen wird, wenn die Nutzer merken, dass die Unter- nehmen immer bessere Möglichkeiten haben, sie „auszuspähen“. Von Big Data zu Big Brother (im Sinne von Orwell) ist es nicht weit.


[11:06:30 AM]

CD: Schauen Sie sich nur einmal die Debatte über den Einsatz von Drohnen in den USA an. Die Technologie schreitet schneller voran, als wir reagieren können. Wie können Sie einen Algorithmus regulieren, der sich ständig weiterentwickelt?


[11:07:33 AM]

TS: Wir forschen gerade an der Frage der Regulation. Was genau sollten wir der Politik empfehlen? Sollten wir dafür plädieren, dass die Algorithmen, mit denen Big Data ausgewertet werden und mit denen Schlüsse gezogen werden, reguliert werden müssen? Sonst wird unsere Gesellschaft bald von ein paar Nerds aus dem Silicon Valley mitgesteuert – gruselig.


[11:08:50 AM]

Wie schätzen Sie in diesem Zusammenhang das Recht auf Anonymität im Internet versus die Notwendigkeit sicherer Identitäten ein? Anders gesagt: Wo sollten wir anonym bleiben dürfen, wo müssen wir uns im Gegenteil sicher ausweisen können?


[11:09:04 AM]

TS: Wichtig wird künftig sein, dass ich konkret entscheiden kann, wo und wann ich meine Identität sicher angebe. Bei konkreten Kauf- und Bestellvorgängen zum Beispiel. Aber an anderer Stelle kann es sein, dass immer mehr Menschen zu Zweit- oder Scheinidentitäten greifen. Das ist ein kritischer Pfad ...

[11:09:45 AM]

CD: Allerdings sind die Daten, die einen Einkauf sicherer machen, auch genau die Daten, die Ihr Verhalten sichtbar machen. Wie soll man sich entscheiden? Ich bin nicht sicher, dass hier eine perfekte Trennlinie gezogen werden kann.


[11:11:06 AM]

TS: Was, wenn wir ein Big-Data-Trustcenter hätten, an das ich mich wenden kann, wenn ich wissen möchte, was so alles über mich im Netz gesammelt und ausgewertet wird und wurde? Und dann am besten gleich mit der Serviceleistung des digitalen Radiergummis, wenn ich bestimmte Einträge gelöscht haben möchte.


[11:11:12 AM]

CD: Was mich immer wieder an Deutschland wundert, ist, dass die Leute anscheinend kein Problem damit haben, wenn die Schufa ihre Daten sammelt, sehr wohl aber mit der Vorstellung, dass jemand ihr Haus von einer öffentlichen Straße aus fotografiert. Das zeigt doch, dass vielen nicht klar ist, was mit Daten geschieht und was mit ihnen geschehen kann. Es sind eine Menge Emotionen im Spiel, manchmal sehr gerechtfertigt, manchmal völlig unangemessen.


[11:14:02 AM]

TS: Stimmt. Die Menschen vergessen häufig, dass sie beobachtet werden, wenn sie in ihrer „sicheren“ Umgebung zu Hause am Rechner sitzen. Wenn sie aus Spaß an der Sache Videos auf Youtube hochladen oder selbst Teil einer „großen Bewegung“ werden, weil sie Videos wie zum Beispiel eines der meistgesehenen auf Youtube („Charlie bit my finger“) liken.


[11:15:02 AM]

CD: Und nochmal: Ich glaube, das Problem mit dem Wissen, beobachtet zu werden, ist ein Problem der Generation Y und älter. Ich bin auch nicht total besorgt, dass meine Daten gelesen werden, solange das auf eine Weise geschieht, die zu besserem Service oder besseren Ergebnissen führt.


[11:15:17 AM]

Was erwartet uns in Zukunft noch?


[11:15:53 AM]

CD: Ein etwas erschreckendes Beispiel der Augmented Reality ist das neue Programm für die Armee, das Soldaten im Einsatz mit Echtzeitdaten versorgt. Oder die Vorstellung, dass Google die Stimmen und Videoaufnahmen, die über Google Glass gesammelt werden, einer Person mithilfe seiner Gesichtserkennungssoftware und der Realnamen in Google+ zuweisen und diese Zuweisung auf allen seinen Servern über Jahre speichern kann.


[11:16:15 AM]

TS: Die Sammlung von Big Data über Videoüberwachung in der Stadt oder in (öffentlichen) Gebäuden, sei es über fest installierte Anlagen oder über Drohnen, führt uns in ein ganz neues Feld: die Beobachtung (Punkt zwei meiner Big-Data-Kategorien) und die Möglichkeit der Auswertung von Bewegung und Vor-Ort-Geschehen. Das kann manch- mal sicher zum Vorteil eingesetzt werden, zum Beispiel zur Sicherheitsüberwachung auf U-Bahn-Stationen, aber natürlich auch schnell zu Missbrauch führen.


[11:17:00 AM]

CD: Ein wichtiger Schritt vor der Regulierung von Algorithmen ist Open Government Data. Zum Beispiel veröffentlicht die Piratenpartei in Berlin die Daten rund um das Flughafendebakel, um die Gründe für dieses systematische Versagen zu verstehen.


[11:17:24 AM]

TS: Da stimme ich zu. Open Government Data ist ein guter Ansatz, um Vertrauen in der Bevölkerung aufzubauen in die Daten, die Basis sind für Entscheidungsfindungen.


[11:17:26 AM]

CD: Wenn die Regierung transparenter sein kann, dann können Bürger an diesem Beispiel hoffentlich auch die Vor­ und Nachteile von Daten besser verstehen lernen.


[11:20:12 AM]

TS: Je mehr Open Data den Bürgern zur Verfügung gestellt werden, umso mehr müssen wir auch gleichzeitig dafür sorgen, dass sie interpretierbar sind. Alle Daten zum Flughafendebakel in Berlin offenzulegen, macht mir insofern Angst, dass ich mir vorstelle, dass nun alle Bürger, auch die, die sich mit Großprojekten dieser Art noch nie wirklich beschäftigt haben, anfangen, Teilaspekte herauszuziehen und Schlüsse abzuleiten. Das macht das Ganze bestimmt nicht transparenter ...


[11:21:00 AM]

CD: Ja, aber Sie können ein systematisches Versagen nicht mit einigen wenigen Leuten lösen. Sie brauchen ein Netzwerk von vielen Leuten, um Schlussfolgerungen ziehen zu können. Zu behaupten, dass einige wenige Akademiker oder gewählte Regierungsbeamte als Einzige in der Lage seien, eine Entscheidung zu treffen oder eine Meinung zu haben, ist unglaublich problematisch. Ich sehe auch ein großes Problem darin, dass Menschen in ihren eigenen Kommunikationsblasen stecken bleiben – dass Social Media die Leute weniger offen macht statt offener.


[11:22:37 AM]

TS: Die gesellschaftliche Aufgabe wird darin bestehen, Menschen in Bezug auf Generierung und Verwendung all der vielen Daten besser auszubilden. Das bezieht sich zunächst auf Mitarbeiter in Unternehmen, die ihren Job damit vielleicht besser machen können, aber am Ende

auf alle Bürger, damit jeder versteht und einschätzen kann, was mit den selbst generierten Daten so alles angestellt werden kann. Transparenz ÜBER die Transparenz und ein geordneter Umgang damit wird die Herausforderung sein.


[11:22:42 AM]

CD: Die Leute lesen nur die Zeitungen und Meinungen, die sie lesen wollen, und sind nicht offen für Diskussionen und Debatten. Wie können wir eine Kultur der Debatte aufrechterhalten? Und wie können wir sicherstellen, dass Menschen mit einem niedrigeren Bildungsniveau dabei nicht außen vor bleiben?


[11:24:29 AM]

TS: Wir müssen einerseits die Angst nehmen und andererseits klare Regeln im Umgang mit Big Data aufstellen. Das ist dann auch kein nationales Thema (mehr), sondern wir brauchen dafür eine internationale Initiative. Schließlich sind die meisten Datensammler (Facebook, Google, Amazon) auch international aufgestellt.


[11:24:50 AM]

CD: Die Electronic Frontier Foundation ist eine tolle Organisation, die an diesen Fragen arbeitet.


[11:26:56 AM]

TS: Guter Ansatz, aber das reicht noch nicht. Wir brauchen eine internationale Initiative, die an den heute hier diskutierten Punkten arbeitet: Regulation von Algorithmen, Weltgesetzgebung, Ausbildung und Aufklärung der Bürger bei der Generierung von und im Umgang mit Daten und ein Trustcenter, das mir als Individuum hilft, meine Big Data Rights durchzusetzen.


[11:27:41 AM]

Welcher Trend macht Hoffnung auf eine positive Nutzung von

Big Data?


[11:28:38 AM]

CD: Quantified Self (siehe auch unsere Geschichte ab Seite 66) trifft Big Data, um echte Lösungen für Gesundheitsfragen zu finden, unabhängig vom Bruttoinlandsprodukt eines Landes.


[11:30:23 AM]

TS: Quantified Self ist in der Tat ein interessanter Trend. Die Menschen finden großes Interesse daran, Gadgets einzusetzen, mit denen zum Beispiel ihre Vitaldaten gespeichert werden. Gute Sache, wenn diese Daten zunächst nur mir zur Verfügung stehen. Wenn ich entscheiden kann, wann diese Daten zum Beispiel an einen behandelnden Arzt übermittelt werden. Aber ich möchte natürlich nicht, dass sofort meine Krankenkasse diese „Big Data of Myself“ auswerten kann und darf. Hier brauchen wir also ebenfalls neue Leitplanken. Und es muss klar sein, dass der Nutzer die absolute Hoheit über diese Daten behält.


[11:31:55 AM]

CD: Ja, Krankenkassen haben sich da nicht positiv hervorgetan. Aber wenn wir aus einer anderen Perspektive auf die Nutzung dieser Daten in der sich entwickelnden Welt schauen: Für mich ist die interessante Frage, wo wir Daten nutzen können, um massive Gesundheitsprobleme wie zum Beispiel Malaria zu lösen.


[11:32:34 AM]

TS: Sehr spannendes Feld, finde ich auch. Ich muss nun leider weiterforschen. Hat Spaß gemacht, mit Ihnen heute Morgen zu chatten. Hoffe, wir treffen uns auch mal in der Welt außerhalb des digitalen Raums ;-)


[11:32:46 AM]

CD: Sehr gern!