Peter Schaar zum Themenkomplex Herausforderungen im digitalen

Nachgefragt...
Interview mit Herrn Peter Schaar zum Themenkomplex Herausforderungen im
digitalen Zeitalter
22. September 2015
Interview mit Herrn Peter Schaar, ehemaliger Bundesbeauftragter für den Datenschutz und die
Informationsfreiheit (BfDI), jetziger Vorsitzender der Europäischen Akademie für Informationsfreiheit und
Datenschutz (EAID), zu den Themenfeldern Datenschutz, Spähsoftware, Diskriminierung,
Meinungsmonopolisierung und künftige Herausforderungen im digitalen Zeitalter
1. Herr Schaar, personenbezogene Daten werden mehr und mehr zu einem volkswirtschaftlichen Asset, und wir
bewegen uns immer tiefer hinein in eine Datenökonomie. Die Speicherung und Nutzung personenbezogener
Daten von unterschiedlichen Interessengruppen und für unterschiedliche Zwecke nimmt kontinuierlich zu. Das
Resultat: Der Verlust unserer Datenhoheit. Teilen Sie diese Einschätzung?
Die Frage, wer über unsere Daten verfügt, wird angesichts der allgegenwärtigen Datenerhebung und verarbeitung immer bedeutsamer. Entgegen der ersten Vermutung ist die heutige Informationsgesellschaft vor
allem einseitig transparent, wie ein venezianischer Spiegel: Gläsernen Nutzern stehen weitgehend
undurchsichtige, digitale Machtzentren gegenüber. Eine Gesellschaft, in der auf globaler Ebene immer mehr
Daten verfügbar sind, ist nicht gegen kulturelle Verarmung und Unterdrückung gefeit. Für die Zukunft einer
demokratischen Informationsgesellschaft ist es entscheidend, ob es gelingt, den Einsatz der
Informationstechnologie so zu beeinflussen, dass unsere in Jahrhunderten gewachsenen und erkämpften Werte
und Rechte auch unter den sich rasant wandelnden technischen Bedingungen bewahrt werden. Dazu gehören
Datenschutz und Transparenz gleichermaßen. Wie es das Bundesverfassungsgericht bereits in seinem
Volkszählungsurteil 1983 formuliert hat, ist Datenschutz das Recht auf informationelle Selbstbestimmung. Die
verfassungsrechtlich verbürgte freie Entfaltung der Persönlichkeit umfasst – so das Bundesverfassungsgericht –
auch ein Grundrecht eines jeden Menschen, über die Preisgabe und Verwendung seiner persönlichen Daten
grundsätzlich selbst zu bestimmen. Dies gilt heute mehr denn je und die Technik kann durchaus auch dazu
beitragen, dieser Maxime Geltung zu verschaffen. Leider ist festzustellen, dass viele digitale Geschäftsmodelle
und auch staatliche Überwachungsmaßnahmen genau das Gegenteil bewirken und die informationelle
Selbstbestimmung einschränken. Hier ist ein Umdenken dringend erforderlich.
2. Was sind aus Ihrer Sicht die wirtschaftlichen, politischen, aber auch gesellschaftlichen Konsequenzen dieser
Entwicklungen?
Es mag paradox klingen, aber auch die Transparenz kann dazu beitragen, das informationelle
Selbstbestimmungsrecht zu stärken. Zudem kann Transparenz durchaus demokratische Beteiligungs- und
Mitentscheidungsmechanismen stärken. Wir brauchen zwar keine totale Transparenz – dies wäre auch
datenschutzrechtlich bedenklich –, aber sehr viel mehr Durchblick bei Verfahren, Strukturen und
Entscheidungsprozessen. Dabei reicht es nicht aus, Transparenz erst im Nachhinein zu schaffen. Mindestens
genauso wichtig ist die vorsorgliche Schaffung von Klarheit, damit Fehlentwicklungen im staatlichen und
privatwirtschaftlichen Bereich gar nicht erst geschehen. Datenschutzrechtliche Auskunftsansprüche,
Akteneinsichtsrechte nach dem Verwaltungsrecht und Zugangsansprüche zu staatlichen Informationen, die durch
die Informationsfreiheitsgesetze gewährt werden, reichen nicht aus. Vielmehr müssen die
Informationsfreiheitsgesetze zu Transparenzgesetzen weiterentwickelt werden, welche die staatlichen Stellen
dazu verpflichten, sehr viel mehr Informationen von sich aus, also pro-aktiv bekanntzugeben. Wünschenswert ist
dabei, dass nicht nur kopierte Dokumente öffentlich werden, sondern auch die Daten, die bei der
Entscheidungsfindung verwendet wurden (Open Data). Auch in der digitalen Wirtschaft muss sehr viel mehr
Seite 1 von 5
Nachgefragt
Transparenz herrschen, insbesondere im Hinblick auf die bei der Profilbildung und zur Bewertung menschlichen
Verhaltens eingesetzten Verfahren. Sicherlich werden viele Betroffene nicht in der Lage sein, die komplexen
Algorithmen nachzuvollziehen. Mit der Offenlegung werden sie aber für Fachleute, Verbraucher- und
Datenschützer überprüfbar. Die Erfahrungen mit erfolgreichen Open-Source-Projekten – etwa mit dem
Betriebssystem Linux – belegen, dass eine solche Algorithmen-Transparenz sinnvoll und machbar ist und dass
mehr Offenheit sogar zur Verbesserung der Software-Qualität beiträgt, weil Fehler schneller erkannt werden
können. Schließlich brauchen wir Preis- und Kostentransparenz bei digitalen Geschäftsmodellen. Nur wenn wir
wissen, was die Daten Wert sind, die wir preisgeben, können wir uns rational entscheiden, ob und welche Dienste
wir in Anspruch nehmen. Das Internet bietet hierfür eine Vielzahl geeigneter technischer Mittel.
3. Es gibt kritische Stimmen, die behaupten, dass Apple-Nutzer z.B. andere Preise für dieselben Dienste und
Produkte angeboten bekommen als Android-Nutzer, weil eine unterschiedliche Kaufkraft vorausgesetzt wird.
Zudem wird darüber diskutiert, dass Versicherungen aufgrund von Bewegungsprofilen und/oder elektronischen
Gesundheitsdaten künftig unterschiedliche Beiträge erheben oder Versicherungsnehmer sogar ausschließen.
Kritiker bezeichnen diese Preisdifferenzierung bzw. den Ausschluss von gewissen Versicherungsleistungen auf
der Basis unserer (uns nicht bekannten) Datenprofile als Diskriminierung. Sind das Gerüchte oder werden uns
Konsumenten hier tatsächlich auf Basis unserer Endgeräte unterschiedliche Preise angeboten? Welche
Möglichkeiten hat der Konsument, sich vor dieser Art von Diskriminierung zu schützen?
Unabhängig von den hier genannten Beispielen ist es unbestreitbar, dass Unternehmen zunehmend an Modellen
zur Individualisierung und Personalisierung von Angeboten arbeiten und dass dazu auch die Preisdifferenzierung
gehört. Ich erwarte, dass wir es zukünftig nicht allein mit groben Differenzierungsverfahren wie den von Ihnen
genannten zu tun bekommen, sondern mit wesentlich ausgefeilteren Methoden. Bereits heute richtet sich der
individuelle, für einen Kredit zu zahlende Zinssatz bei Banken auch nach Scoring-Modellen, in die eine Vielzahl
von Parametern eingehen. Sowohl beim Handel als auch im Dienstleistungsbereich ist es deshalb von
entscheidender Bedeutung, für mehr Transparenz zu sorgen. Bereits heute hat jedermann das Recht, die ihn
betreffenden personenbezogenen Daten abzufragen. Dagegen ist die Transparenz hinsichtlich der Profilbildung
unterentwickelt. Auch hier brauchen die Bürger und Verbraucher sehr viel mehr Durchblick. Entsprechende
rechtliche Vorgaben halte ich für dringend erforderlich.
4. Die oben genannte Preisdifferenzierung ist nur eine Möglichkeit, wie Unternehmen uns durch das Verwenden
persönlicher Daten im Internet beeinflussen. Im Zuge gelenkter Informationsbeschaffung wird jeder Bürger
zunehmend in der Tendenz seiner Meinung bestätigt. Sobald er z.B. die Suchergebnisse von Google aus seiner
Recherche verwendet, bewirken die zugrundeliegenden Filteralgorithmen eine selektive, personalisierte Auswahl,
sodass der Anbieter/Programmierer der Software exakt bestimmen kann, was der Nutzer zu sehen bekommt und
was nicht. Bei Werbeeinblendungen geht hier vermutlich noch eine geringe Gefahr aus. Besorgniserregend wird
es aber, wenn auf diese Weise auch politisch Einfluss genommen wird. Das gilt nicht nur für Deutschland,
sondern gerade auch für Länder, die auf weniger demokratischen oder rechtsstaatlichen Fundamenten ruhen.
Welche mittel- bis langfristigen Auswirkungen hat Ihrer Meinung nach die Gefahr der Meinungsmonopolisierung
durch den Einsatz selbstlernender Algorithmen, und was müssen wir als Bürger beachten, wenn wir uns im Netz
informieren möchten?
Im Internet sind wir schon vielfach in der „Filter-Bubble“ gefangen. So wissen wir nicht wirklich, wie
Suchmaschinen die Ergebnisse auf eine Anfrage zusammenstellen. Nach der Google-Doktrin ist InternetDemokratie eine Art Maschine, die alle möglichen Informationen bei einem Unternehmen zusammenlaufen lässt,
die dieses nach nicht öffentlich zugänglichen Algorithmen auswertet und verwendet. Wie Unternehmen mit Daten
umgehen, richtet sich letztlich nach deren wirtschaftlichen Interessen. Die Regeln werden einseitig festgelegt, die
Nutzer haben darauf keinen Einfluss, genauso wenig wie auf die Suchergebnisse, die ihnen präsentiert werden.
Wenn ihnen die Regeln nicht passen, bleibt den Nutzern letztlich nur die Möglichkeit, den Dienst nicht mehr in
Anspruch zu nehmen. Dass auch staatliche Stellen hier bewusst eingreifen, um Informationen zu steuern,
belegen Beispiele aus vielen Ländern. Selbst in westlichen Demokratien sind wir davor nicht gefeit, wie die
Berichte über die Stimmungsbeeinflussung durch Facebook belegen, die nach Presseberichten vom USVerteidigungsministerium finanziert worden sind. Gegen solche Manipulationen haben Nutzer mit nur
oberflächlichen Computerkenntnissen kaum eine Chance, sich durch technische Verfahren zu schützen. Umso
Seite 2 von 5
Nachgefragt
wichtiger ist es, mit dem Internet und anderen digitalen Techniken bewusst umzugehen. Das fängt bei der
Auswahl der Dienste an, umfasst die Datenschutzeinstellungen. Besonders bedeutsam ist aber ein kritischer
Umgang mit den Informationen, die das Netz liefert. Insofern ist es immer gut, mehrere Quellen zu nutzen und
sich so ein eigenes Bild von der Realität zu bilden. Das Internet erleichtert solche Strategien sogar.
5. Die oben erwähnten Entwicklungen führen auch dazu, dass sich einige Internet-Unternehmen im Bereich
Datenschutz und Datensicherheit darauf spezialisieren, dass Bürger wieder Kontrolle und Hoheit über ihre
eigenen Daten erlangen sollen. Die Geschäftsmodelle dieser Unternehmen umfassen cloud-basierte Lösungen,
die es uns erlauben, unsere persönlichen Daten sicher zu speichern, um sie nur bestimmten Personen,
Unternehmen oder Interessengruppen selbstbestimmt zugänglich zu machen. Wie schätzen Sie den potenziellen
Erfolg dieser – relativ jungen – Geschäftsmodelle ein, und sollten diese Angebote auch von staatlicher Stelle
angeboten werden? Sehen Sie künftig Chancen, dass Bürger ihre personenbezogenen Daten auch selbst
monetarisieren können, und wie könnte so eine Lösung aussehen?
Der Datenschutz und die Gewährleistung der Sicherheit und Vertraulichkeit von Daten ist von erheblicher
wirtschaftlicher Bedeutung. Der Erfolg entsprechender Geschäftsmodelle hängt von verschiedenen Faktoren ab:
Von der Leistungsfähigkeit und Bedienerfreundlichkeit der entsprechenden Produkte, ihrem Preis und natürlich
vom Bewusstsein der Kunden. So hat sich bei vielen kommerziellen Nutzern in der letzten Zeit die Erkenntnis
durchgesetzt, dass sie sich immensen Risiken aussetzen, wenn sie Datenschutz und IT-Sicherheit ignorieren. Die
Snowden-Veröffentlichungen haben zu erheblichen Umsatzeinbußen bei US-Cloudservices geführt. Letztlich
muss aber auch der rechtliche Rahmen stimmen: So geht es nicht, dass sich Unternehmen, die in Europa gute
Geschäfte machen, anders als die europäische Konkurrenz nicht an EU-Datenschutzrecht halten müssen. Hier
setze ich auf die anstehende Reform des EU-Datenschutzrechts, mit dem nicht zuletzt ein „level playing field“
geschaffen werden soll, indem auch Anbieter aus Drittstaaten die hiesigen Vorgaben beachten müssen. Die
Selbstmonetarisierung der personenbezogenen Daten sehe ich kritisch, denn sie verstärkt letztlich die Masse der
persönlichen Daten, die weggegeben werden. Aus gutem Grund verbietet unser Recht den Organhandel selbst
dann, wenn der Einzelne darin einwilligt. Das Grundrecht auf informationelle Selbstbestimmung sollten wir uns
nicht abkaufen lassen, auch wenn es bei kurzfristiger Betrachtung vorteilhaft erscheinen mag, die eigenen
personenbezogenen Daten zu Geld zu machen.
6. Neben den diversen Internetunternehmen sammeln auch staatliche Behörden unsere persönlichen Daten und
erstellen sogenannte Bewegungsprofile, um Kriminaldelikte besser aufzuklären oder um Terroranschläge
möglichst verhindern zu können. Hierbei wird diskutiert, ob das Verhältnis zwischen „Sicherheit für den Bürger
gewährleisten“ vs. „Kontrolle über den Bürger ausüben“ bereits aus den Fugen geraten ist. Worauf läuft die
Bewegung der Speicherung und Auswertung persönlicher Daten durch staatliche Behörden mittel- bis langfristig
hinaus? Inwiefern ist der Staat überhaupt in der Lage, Schutz zu bieten, wenn er selbst Teil des TrackingSystems ist?
Die Behörden agieren hier wie Trittbrettfahrer. Sie beanspruchen und bekommen vielfach Zugriff auf die Daten,
die bei digitalen Geschäftsmodellen anfallen. Besonders kritisch sehe ich Maßnahmen wie die
Vorratsdatenspeicherung, die Unternehmen quasi zu Hilfssheriffs machen. Immerhin haben wir in Deutschland
mit dem Bundesverfassungsgericht und in Europa mit dem Europäischen Gerichtshof und dem Gerichtshof für
Menschenrechte Instanzen, die der Datensammelwut des Staates Grenzen setzen. Wenn demokratische Staaten
aus durchaus nachvollziehbaren Motiven ihre Bürger immer gläserner machen, gefährden sie damit die
demokratisch-rechtstaatlichen Rechtsgrundlagen. Leider kann ich hier ein Umsteuern der Regierungen noch nicht
erkennen.
7. Lassen Sie uns zum Schluss noch einen Blick in die Zukunft wagen. Wie sieht Ihrer Meinung nach eine sichere
und unbeobachtete, wenn notwendig auch anonyme Kommunikation im digitalen Zeitalter aus, und welche
Voraussetzungen müssen erfüllt sein, damit sich jeder wieder authentisch im Netz bewegen kann?
Ein wichtiger Schritt könnte darin bestehen, dass verschlüsselte Kommunikation zum Standard wird. Ohne
Kryptographie ist die Vertraulichkeit der Internet-Nutzung allenfalls vergleichbar mit derjenigen einer Postkarte.
Die Tatsache, dass jeder Internetnutzer bereits heute seine E-Mails verschlüsseln kann, macht übergreifende
Seite 3 von 5
Nachgefragt
sichere Lösungen nicht entbehrlich. Zum einen geht es nicht bloß um E-Mails und zum anderen fühlen sich die
meisten Nutzer überfordert. Deshalb sind hier die Anbieter gefordert. Wir brauchen verbindliche und
plattformübergreifende Standards. Bei der Identifikation sind Lösungen gefragt, die manipulationssicher sind, die
aber zugleich die anonyme oder pseudonyme Nutzung ermöglichen. Auch hier gibt es interessante Lösungen, die
jedoch nur unzureichend umgesetzt wurden. Hier sehe ich die Datenschutzbehörden in der Pflicht, die –
zumindest in Deutschland bestehenden – rechtlichen Verpflichtungen zur Ermöglichung anonymer und
pseudonymer Inanspruchnahme von Internetdiensten gegenüber den Anbietern durchzusetzen. Ohne
Datenschutz, unbeobachtete Räume zur Diskussion, Information und Meinungsbildung und ohne Transparenz
gesellschaftlicher Entscheidungsprozesse würde die Informationsgesellschaft ein Albtraum. Deshalb ist es aus
demokratietheoretischer Sicht – um dieses zu recht häufig kritisierte Wort zu gebrauchen – alternativlos,
rechtliche und technische Vorkehrungen zu treffen, die gewährleisten, dass die individuellen Freiheiten und
politischen Mitwirkungsmöglichkeiten gestärkt werden. Anonyme Nutzungsmöglichkeiten sind dabei ein wichtiger
Aspekt, reichen aber bei weitem nicht aus.
Peter Schaar
Vorsitzender der Europäischen Akademie für Informationsfreiheit und Datenschutz (EAID),
Bundesbeauftragter für den Datenschutz und die Informationsfreiheit a.D. (2003-2013).
Geboren in Berlin 1954, Diplom-Volkswirt. 1979-1986 verschiedene Funktionen in der öffentlichen
Verwaltung. 1986-2002 zunächst Referatsleiter für technologischen Datenschutz, dann
stellvertretender Hamburgischer Datenschutzbeauftragter. 2002/3 Gründung und Leitung eines
Datenschutzberatungsunternehmens. 2003-2013 Bundesbeauftragter für den Datenschutz und die
Informationsfreiheit. Seit 2007 Lehrbeauftragter an der Universität Hamburg. Zahlreiche Veröffentlichungen,
darunter die Bücher Datenschutz im Internet (2002), Das Ende der Privatsphäre (2007), Total überwacht – Wie
wir in Zukunft unsere Daten schützen (2014), Das digitale Wir – Der Weg in die transparente Gesellschaft (2015).
Auszeichnungen: „Das politische Buch“ Preis der Friedrich-Ebert-Stiftung (2008); „eco Internet AWARD“ (2008),
„Deutscher Datenschutzpreis“ der GDD (2013), „Louis D. Brandeis Privacy Award“ der USPatientenrechteorganisation Patients Privacy Rights (2014).
Blog: http://www.eaid-berlin.de/?cat=8.
Das Interview führten Thomas F. Dapp (+49) 69 910 31752 und Parinaz Khademi.
Zusätzliche Informationen:
Big Data - Die ungezähmte Macht
In unserer Datenindustrie sind wir nicht die Goldgräber, sondern eher Teil der Mine!
Operation Big Data: Herausforderung angenommen
Seite 4 von 5
Nachgefragt
© Copyright 2014. Deutsche Bank AG, Deutsche Bank Research, 60262 Frankfurt am Main, Deutschland. Alle Rechte vorbehalten. Bei Zitaten wird um
Quellenangabe „Deutsche Bank Research“ gebeten.
Die vorstehenden Angaben stellen keine Anlage-, Rechts- oder Steuerberatung dar. Alle Meinungsaussagen geben die aktuelle Einschätzung des Verfassers
wieder, die nicht notwendigerweise der Meinung der Deutsche Bank AG oder ihrer assoziierten Unternehmen entspricht. Alle Meinungen können ohne vorherige
Ankündigung geändert werden. Die Meinungen können von Einschätzungen abweichen, die in anderen von der Deutsche Bank veröffentlichten Dokumenten,
einschließlich Research-Veröffentlichungen, vertreten werden. Die vorstehenden Angaben werden nur zu Informationszwecken und ohne vertragliche oder
sonstige Verpflichtung zur Verfügung gestellt. Für die Richtigkeit, Vollständigkeit oder Angemessenheit der vorstehenden Angaben oder Einschätzungen wird
keine Gewähr übernommen.
In Deutschland wird dieser Bericht von Deutsche Bank AG Frankfurt genehmigt und/oder verbreitet, die über eine Erlaubnis zur Erbringung von Bankgeschäften
und Finanzdienstleistungen verfügt und unter der Aufsicht der Europäischen Zentralbank (EZB) und der Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin)
steht. Im Vereinigten Königreich wird dieser Bericht durch Deutsche Bank AG, Filiale London, Mitglied der London Stock Exchange, genehmigt und/oder verbreitet,
die von der UK Prudential Regulation Authority (PRA) zugelassen wurde und der eingeschränkten Aufsicht der Financial Conduct Authority (FCA) (unter der
Nummer 150018) sowie der PRA unterliegt. In Hongkong wird dieser Bericht durch Deutsche Bank AG, Hong Kong Branch, in Korea durch Deutsche Securities
Korea Co. und in Singapur durch Deutsche Bank AG, Singapore Branch, verbreitet. In Japan wird dieser Bericht durch Deutsche Securities Limited, Tokyo Branch,
genehmigt und/oder verbreitet. In Australien sollten Privatkunden eine Kopie der betreffenden Produktinformation (Product Disclosure Statement oder PDS) zu
jeglichem in diesem Bericht erwähnten Finanzinstrument beziehen und dieses PDS berücksichtigen, bevor sie eine Anlageentscheidung treffen.
Seite 5 von 5