EU Datenschutz

EDRi-gram 16.22 vom 21. November

Deutsche Übersetzung der englischsprachigen Originalbeiträge von Lutz Martiny.

Inhalt

  1. #TeleormanLeaks: Datenschutz vs. Meinungsfreiheit
  2. Griechenland: Klärungsbedarf zu den Auswirkungen von iBorderCtrl auf die Menschenrechte
  3. Der TERR-Ausschuss stimmt über Änderungen an seinen Berichtsentwurf ab
  4. Regulierung terroristischer Inhalte – vorherige Genehmigung für alle Uploads?
  5. Wem vertrauen wir mit dem Gemeinwohl?
  6. ENDitorial: Facebook kann es nie richtig machen.

#TeleormanLeaks: Datenschutz vs. Meinungsfreiheit

Der erste große Datenschutzfall der Allgemeinen Datenschutzverordnung (GDPR) brach Anfang November 2018 in Rumänien im Zusammenhang mit einem Artikel über einen Korruptionsskandal aus, an dem ein Politiker und seine Beziehung zu einem wegen Betrugs untersuchten Unternehmen beteiligt waren.

Die rumänische Datenschutzbehörde (ANSPDCP) stellte eine Reihe von Fragen an die Journalisten, die Informationen über den Skandal veröffentlicht hatten, und fragte nach ihren „Quellen“ und erwähnte eine mögliche Strafe – die größte seit dem Inkrafttreten der GDPR im Mai 2018: bis zu 20.000.000.000 Euro. ANSPDCP behauptet, dass es unabhängig und ohne politische Einmischung handelt und dass seine gesamte Daseinsberechtigung seit seiner Gründung im Jahr 2005 darin besteht, „ein Gleichgewicht zwischen dem Recht auf Schutz personenbezogener Daten, der Meinungsfreiheit und dem Recht auf Information zu gewährleisten“.

#TeleormanLeaks ist der Name der Pressestory, die den Zusammenhang zwischen Tel Drum, einem Straßenbauunternehmen mit Sitz im Kreis Teleorman in Rumänien, (gegen das derzeit wegen Betrugs mit europäischen Geldern ermittelt wird, basierend auf einer Beschwerde des Europäischen Amtes für Betrugsbekämpfung – OLAF), und Liviu Dragnea, dem Präsidenten der Sozialdemokratischen Partei und Präsidenten der Abgeordnetenkammer, aufdeckt. Der erste Teil der Untersuchung wurde am 5. November 2018 vom RISE Project veröffentlicht, einem rumänischen Zentrum für investigativen Journalismus. Ein Facebook-Post wurde ebenfalls veröffentlicht, um die Untersuchung als Teaser zu bewerben.

Am 8. November schickte ANSPDCP eine Mitteilung an das RISE Project, um acht Fragen zu den personenbezogenen Daten zu stellen, die in dem auf Facebook veröffentlichten Material enthalten sind, einschließlich „der Quellen, aus denen die personenbezogenen Daten stammen“. Dies löste internationale Empörung aus, das Organized Crime and Corruption Reporting Project (OCCRP), die Europäische Kommission sowie Dutzende von Journalisten und Medien reagierten heftig.

Einen Tag vor dem Schreiben der Behörde berichteten rumänische Medien, dass einer der wichtigsten an diesem Skandal beteiligten Personen, derzeit der kaufmännische Leiter von Tel Drum und ehemaliger Leiter der Finanzabteilung im selben Unternehmen, ein „Recht auf Vergessenheit“ auf ANSPDCP eingereicht hat. Es ist wichtig zu beachten, dass die Mitteilung des ANSPDCP an das RISE-Projekt anscheinend nicht auf dieser von diesem Mitarbeiter eingereichten Beschwerde beruhte, aber wie die Klarstellungen der Behörde unterstreichen, gaben sie ihr Schreiben auf der Grundlage einer Mitteilung eines Dritten heraus, der nicht direkt von dem Fall betroffen war.

ANSPDCP vertrat die Auffassung, dass es berechtigt sei, sich auf Artikel 57 Absatz 1 Buchstabe f) und 58 Absatz 1 der GDPR zu berufen und Informationen über die Quelle der im Facebook-Post veröffentlichten Informationen anzufordern. In den beiden auf ihrer Website veröffentlichten „Klarstellungen“ erklärt die Behörde jedoch nicht, warum sie der Ansicht ist, dass die Situation nicht unter die Ausnahmeregelungen des Artikels 7 des Gesetzes 190/2018 (das Artikel 85 des GDPR umgesetzt hat) fällt, noch teilt sie ihre Analyse zur Vereinbarkeit der betreffenden Grundrechte.
Im Gesetz Nr. 190/2018 zur Umsetzung der GDPR hat sich Rumänien dafür entschieden, die Ausnahmen von Artikel 85 auf die folgenden alternativen Szenarien zu beschränken, in denen Datenverarbeitungsaktivitäten für journalistische Zwecke durchgeführt werden können (Artikel 7):

  • wenn es sich um personenbezogene Daten handelt, die von der betroffenen Person eindeutig veröffentlicht wurden;
  • wenn die personenbezogenen Daten eng mit der Qualität der betroffenen Person als öffentliche Person verbunden sind;
  • oder wenn die personenbezogenen Daten eng mit dem öffentlichen Charakter der Handlungen, an denen die betroffene Person beteiligt ist, verbunden sind.

Diese nationale Umsetzung der GDPR ist fragwürdig, da sie Ausnahmen von der GDPR nur bei der Datenverarbeitung für journalistische Zwecke nur in einem dieser drei alternativen Szenarien zulässt, die extrem begrenzt sind. Die Verarbeitung personenbezogener Daten für journalistische Zwecke ist in der Regel viel umfangreicher. Die Beschränkung von Ausnahmeregelungen für journalistische Zwecke auf die drei aufgeführten Optionen reicht nicht aus, um die Meinungsfreiheit zu schützen, da sie insbesondere die journalistische Freiheit und die Menschenrechtsrechtsprechung in dieser Hinsicht nicht respektiert. Ein solcher Ansatz wird auch nicht zu einer einheitlichen Anwendung der GDPR auf europäischer Ebene führen.

Aus der Korrespondenz mit dem RISE-Projekt kann davon ausgegangen werden, dass ANSPDCP interpretiert hat, dass es nicht unter Artikel 7 des Gesetzes 190/2018 fällt und dass es dies berücksichtigt hat:

  • entweder wurde der Facebook-Post nicht für journalistische Zwecke geschrieben;
  • oder dass diese Situation nicht unter eine der engen Ausnahmen in Artikel 7 fällt.

Genauer gesagt, vielleicht hatte ANSPDCP nie vor, sich mit der journalistischen Tätigkeit zu befassen, aber sie waren eher daran interessiert, ob es einen zugrundeliegenden Missbrauch personenbezogener Daten gegeben hatte, und suchten herauszufinden, wer die personenbezogenen Daten, die sich jetzt in den Händen des Journalisten befinden, nicht ausreichend geschützt hat. Dass die Datenschutzbehörde versucht hat, die Ausnahme in Artikel 7 nicht anzuwenden, ist an sich schon fragwürdig. Selbst wenn sie Artikel 7 angewandt hätten, bedeuten die oben dargelegten Mängel dieser Ausnahme jedoch, dass nicht gewährleistet ist, dass die Meinungsfreiheit und die journalistischen Quellen angemessen geschützt worden wären.

ApTI hat zusammen mit Privacy International, EDRi und 15 anderen Nichtregierungsorganisationen für digitale Rechte ein Schreiben an den Europäischen Datenschutzrat mit ANSPDCP und der Europäischen Kommission in Kopie geschickt und gefordert, dass die GDPR nicht missbraucht wird, um die Medienfreiheit in Rumänien zu gefährden.

Auf nationaler Ebene hat ApTI zusammen mit anderen 11 lokalen Menschenrechts- und Medienorganisationen in einem offenen Brief an ANSPDCP appelliert, GDPR-Fälle, die die Meinungsfreiheit gefährden könnten, sorgfältig zu analysieren, und gefordert, dass ein dringender und transparenter Mechanismus für die Bewertung von Beschwerden im Zusammenhang mit Datenverarbeitungsvorgängen für journalistische Zwecke eingerichtet wird.

Dieser Fall zeigt, dass es unerlässlich ist, dass die Datenschutzbehörden auf die Vereinbarkeit der Grundrechte hinarbeiten. Das Datenschutzrecht sollte zum Schutz der Rechte und nicht als Instrument zur Unterdrückung oder Einschüchterung von Journalisten und der Berichterstattung im öffentlichen Interesse eingesetzt werden.

(Beitrag von Valentina Pavel, Mozilla Fellow und EDRi-Mitglied ApTI, Rumänien)

Griechenland: Klärungsbedarf zu den Auswirkungen von iBorderCtrl auf die Menschenrechte

Am 5. November 2018 reichte der EDRi-Beobachter Homo Digitalis eine Petition an das griechische Parlament über die Pilotumsetzung des iBorderCtrl-Projekts an der griechischen Grenze ein. Der zuständige Minister hat 25 Tage Zeit, um darauf zu antworten.

Das iBorderCtrl (Intelligent Portable Control System) ist ein Projekt, das eine schnellere und gründlichere Grenzkontrolle für Drittstaatsangehörige ermöglicht, die die Landgrenzen von EU-Mitgliedstaaten überschreiten. Es umfasst Soft- und Hardware-Technologien, die von tragbaren Lesegeräten und Scannern im Zusammenhang mit biometrischer Verifizierung, automatisierter Täuschungserkennung, Dokumentenauthentifizierung und Risikobewertung reichen. Das Projekt wurde im Rahmen des Forschungs- und Innovationsprogramms Horizon 2020 der Europäischen Union gefördert (EU-Beitrag: 4 501 877 Euro, Projektnummer: 700626).

Als Pilotprojekt an der ungarischen, griechischen und lettischen Grenze ist iBorderCtrl kein zugelassenes Strafverfolgungssystem und arbeitet auf freiwilliger Basis. Es besteht aus einem zweistufigen Verfahren. Die erste Phase ist ein Pre-Screening-Schritt, bei dem Reisende Bilder ihres Reisepasses, ihres Visums und ihres Geldnachweises auf eine Online-Plattform hochladen und von einem computeranimierten Grenzschutzbeamten über eine Webcam interviewt werden. Basierend auf den Gesten der Reisenden behauptet das System, Täuschung erkennen und herausfinden zu können, ob die Befragten lügen oder nicht. Die zweite Stufe findet an der eigentlichen Grenze statt. Dort durchlaufen Reisende, die in der Pre-Screening-Phase als risikoarm eingestuft wurden, eine kurze Neubewertung ihrer Informationen, während Personen, die als risikoreich eingestuft werden, einer detaillierteren Überprüfung unterzogen werden.

Der Homo Digitalis ist beunruhigt über die Einführung solcher Systeme der künstlichen Intelligenz (KI) in verschiedenen Bereichen unseres Lebens, auch auf freiwilliger Basis. In der Europäischen Union genießen die Menschen ein hohes Maß an Menschenrechtsschutz auf der Grundlage der Bestimmungen der EU-Verträge und der Charta der Grundrechte der Europäischen Union. Es ist unwahrscheinlich, dass ein KI-System zuverlässig und fehlerfrei Täuschungen basierend auf Gesichtsausdrücken erkennen kann. Wenn zudem die technischen Berichte und die mit diesem System einhergehenden rechtlichen/ethischen Bewertungen vertraulich behandelt werden, gibt es noch mehr Grund zum Zweifel.

Die von Homo Digitalis eingereichte Petition unterstreicht die mangelnde Transparenz bei der Implementierung der Technologie und drückt Misstrauen gegenüber den wahren Fähigkeiten des im Rahmen des iBorderCtrl-Projekts verwendeten KI-Systems aus. Darüber hinaus wird in der Petition betont, dass ein hohes Risiko der Diskriminierung natürlicher Personen auf der Grundlage besonderer Kategorien personenbezogener Daten besteht. Daher fordert die Petition den Minister auf, zu erklären, ob vor der Einführung dieses Pilotsystems an den griechischen Grenzen eine Folgenabschätzung für den Datenschutz und eine Konsultation mit der griechischen Datenschutzbehörde (DPA) stattgefunden hat. Er bittet auch um Klarstellung, warum die technischen Berichte und die das Projekt begleitenden rechtlichen und ethischen Bewertungen vertraulich behandelt werden, obwohl der iBorderCtrl kein zugelassenes Analysesystem ist.

(Beitrag von Eleftherios Chelioudakis, EDRi-Beobachter Homo Digitalis, Griechenland)

Der TERR-Ausschuss stimmt über Änderungen an seinen Berichtsentwurf ab

Der im Juni 2018 veröffentlichte Berichtsentwurf über die eher geheimnisvolle Arbeit des Sonderausschusses Terrorismus (TERR) des Europäischen Parlaments gab, wie bereits im EDRi-Gramm berichtet, Anlass zu großen Bedenken. Am 13. November 2018 stimmten die Mitglieder des TERR-Ausschusses über die Änderungen am Entwurf ab.

Wenn sie angenommen worden wären, hätten einige der vorgeschlagenen Änderungsanträge den Text verbessern können, und wir würden heute eine andere Geschichte erzählen. Leider scheint es nicht möglich, den Bericht zu verbessern. Trotz seines nicht verbindlichen Charakters schafft der Text gefährliche Präzedenzfälle und respektiert nicht einmal das Mandat des Ausschusses, „die Auswirkungen der EU-Vorschriften zur Terrorismusbekämpfung und ihrer Umsetzung auf die Grundrechte zu bewerten“. Stattdessen werden aktuelle Initiativen im Zusammenhang mit der Terrorismusbekämpfung dargestellt und Vorschläge zur weiteren Erosion der Grundrechte online und offline in der Europäischen Union empfohlen. Der Bericht wird in Kürze zur Abstimmung im Plenum im Europäischen Parlament vorgelegt. Seine Chancen, signifikant geändert oder abgelehnt zu werden, sind jedoch nicht groß.

Grundrechte verdienen mehr als eine Präambel.

Der Berichtsentwurf enthielt ursprünglich einen Abschnitt über die Grundrechte, der sich als sehr problematisch erwies. So wurde beispielsweise behauptet, dass das Recht auf Sicherheit wichtiger sei als das Recht auf Privatsphäre – dass wir unsere Grundrechte im Austausch für Sicherheit irgendwie aufgeben sollten. Er war auch eng auf die Rechte einer begrenzten Gruppe von Menschen ausgerichtet. Leider waren die Verweise auf die Grundrechte so knapp, dass die Ausschussmitglieder beschlossen haben, dem Bericht eine Präambel hinzuzufügen, um vage Überlegungen zur Achtung der Grundrechte und -freiheiten anzustellen, anstatt unsere Grundrechte in den Text einzubeziehen. So fordert der Bericht beispielsweise die Angleichung der europäischen Politik zur Terrorismusbekämpfung an die Charta der Grundrechte der Europäischen Union und schlägt Maßnahmen vor, die im Widerspruch zu diesem Grundsatz stehen.
Akzeptierte Änderungen stellen lediglich eine „Einkaufsliste“ der individuellen Rechte dar. Keine der Grundrechtsbestimmungen des Berichts ist mit konkreten Vorschlägen zur Beendigung von Verletzungen der Grundrechte oder zur besseren Durchsetzung und Achtung dieser Rechte untermauert. So verpasste der Ausschuss beispielsweise die Gelegenheit, sich für Folgenabschätzungen zu engagieren, die sich auf die Menschenrechte konzentrieren, oder für die systematische Konsultation von Organisationen, die sich auf bürgerliche Freiheiten und Grundfreiheiten konzentrieren, einschließlich der Zivilgesellschaft und der Datenschutzbehörden (DPAs). Die Kompensation repressiver und freiheitsbeschränkender Maßnahmen mit oberflächlichen Grundrechtsbezügen (z.B. die Entfernung von mehr Inhalten im Internet „aber ohne Gefährdung der Meinungsfreiheit“ oder das Gleichgewicht zwischen der Interoperabilität und den „Grundrechten der betroffenen Personen“) ist bestenfalls völlig unzureichend und schlimmstenfalls falsch. Die Grundrechte verdienen einen stärkeren Schutz.

TERR-Ausschuss, der Ja-Sager der Kommission

Es ist leicht zu erkennen, dass der Bericht die Rhetorik und die legislative Tätigkeit der Europäischen Kommission lobt. Was den institutionellen Rahmen betrifft, so wird in dem Text die Beibehaltung eines Kommissars für die Sicherheitsunion gefordert. Er ignoriert die Tatsache, dass diese Funktion zu mehrfachen Überschneidungen und Reibungen mit den Ressorts anderer Kommissare geführt hat und den Schwerpunkt vieler Gesetzgebungsakte (wie des Entwurfs einer Terrorismusverordnung) auf eine reine Strafverfolgungsperspektive verlagert hat, wodurch sie sich von der Berücksichtigung der Grundrechte und der Anforderungen der Bürgerrechte entfernt hat.

Ein weiteres Beispiel ist, dass der Bericht die rasche Annahme der Vorschläge der Kommission für den grenzüberschreitenden Zugang zu elektronischen Beweismitteln fordert, und zwar trotz vieler Bedenken, die wiederholt von mehreren Beteiligten, darunter dem Europäischen Datenschutzrat, geäußert wurden, und trotz der Tatsache, dass die demokratische Kontrolle dieses Instruments im Parlament kaum begonnen hat.

Schlimmer noch, es verschärft die ersten Bestimmungen über die Verschlüsselung, indem es die Entwicklung eines Zentrums für die Entschlüsselung, einschließlich der Entschlüsselungswerkzeuge und des Fachwissens innerhalb von Europol, fordert, um auf Daten zuzugreifen, die im Rahmen von Strafermittlungen gewonnen wurden. Die Schwächung der Verschlüsselung zur angeblichen Unterstützung von Strafverfolgungsbehörden schafft tatsächlich Schwachstellen und erhöht die Sicherheitsrisiken.

Gibt es etwas in dem Entwurf, das man positiv bewerten könnte?

Glücklicherweise kann man auch ein paar positive Elemente ausgraben. So empfiehlt der Text beispielsweise, die Terrorismusbekämpfung als Zuständigkeitsbereich des Ausschusses für bürgerliche Freiheiten, Justiz und Inneres des Europäischen Parlaments (LIBE) zu belassen. Darüber hinaus plädiert der Ausschuss für die Integration von Medien- und Informationskompetenz in die nationalen Bildungssysteme, um zu lehren, wie man das Internet verantwortungsvoll nutzt. In dem Text, der sich mit dem Recht auf Privatsphäre befasst, werden die Kommission und der Europäische Datenschutzbeauftragte (EDSB) aufgefordert, innovative Lösungen für den Schutz der Privatsphäre durch Design (privacy by design) weiterzuentwickeln.

Insgesamt sendet der Bericht jedoch ein sehr schlechtes Zeichen an die Bürger, dass – auch in einem unverbindlichen Bericht – die Aufgabe der Freiheit im Gegenzug für die Sicherheit (auch wenn eine vollkommene Sicherheit möglich war) ein Geschäft ist, das es wert ist, abgeschlossen zu werden.

Die endgültige Fassung wird voraussichtlich in den kommenden Monaten zur Abstimmung im Plenum des Europäischen Parlaments vorgelegt.

(Beitrag von Chloé Berthélémy, EDRi intern)

Regulierung terroristischer Inhalte – vorherige Genehmigung für alle Uploads?

Der Vorschlag der Europäischen Kommission für eine Verordnung über terroristische Inhalte im Internet ist ein komplexes und vielschichtiges Instrument. Auf der Grundlage einer „Folgenabschätzung“, die keine aussagekräftige Begründung für die Maßnahmen liefert, schlägt sie vor:

Verpflichtung zur Löschung von Inhalten aufgrund von Löschbegehren innerhalb einer Stunde

Ein willkürliches System von Verweisen von willkürlich bestimmten potenziell gefährlichen (aber nicht illegalen) Inhalten an Internet Service Provider. Die Entfernung dieser Inhalte wird vom Anbieter auf der Grundlage seiner Nutzungsbedingungen und nicht nach dem Gesetz entschieden.

Unklare, willkürliche „proaktive“ Maßnahmen, die einer unklaren Teilmenge von Dienstanbietern auferlegt werden soll, um nicht spezifizierte Inhalte zu entfernen.

Tief in diesem chaotischen, standardmäßigen Rechtstext sind jedoch erläuternde Anmerkungen („Erwägungsgründe“) vergraben, die über das hinausgehen, was in allen Leitmaßnahmen des Vorschlags ausdrücklich vorgesehen ist:

In Erwägung 18 wird die Vorstellung eingeführt, dass „zuverlässige technische Instrumente“ (mit anderen Worten: Software für künstliche Intelligenz) von Dienstleistern genutzt werden können, um „neue terroristische Inhalte zu identifizieren“.

In Erwägung 19 heißt es weiter, dass eine „Entscheidung, solche spezifischen proaktiven Maßnahmen aufzuerlegen, grundsätzlich nicht zur Auferlegung einer allgemeinen Überwachungspflicht führen sollte“. „Im Prinzip“ bedeutet, dass es nicht sollte, aber es kann. In diesem Zusammenhang ist dies die einzige Möglichkeit, diese Worte zu interpretieren. Darüber hinaus gibt dieser Erwägungsgrund der nationalen „zuständigen Behörde“ die Möglichkeit, den Dienstleistern den Einsatz technischer Maßnahmen aufzuzwingen.

In dem Text wird ferner erklärt, dass die Mitgliedstaaten unter nicht näher bezeichneten Umständen von ihrer Verpflichtung (gemäß der E-Commerce-Richtlinie) abweichen können, den Internetdienstanbietern keine allgemeine Überwachungsverpflichtung aufzuerlegen. Dabei sollte sie „eine angemessene Begründung liefern“ (was das ist, wird nicht erläutert).

Was bedeutet das? Das bedeutet, dass der Vorschlag den europäischen Mitgliedstaaten ausdrücklich erklärt, dass sie die Möglichkeit haben, nicht „nur“ die Überwachung aller Uploads zu verlangen, um bekannte terroristische Inhalte herauszufiltern, sondern die Verwendung von Algorithmen zur Überprüfung aller Inhalte zu verlangen, während diese hochgeladen werden. Die Erlaubnis für den Upload wird algorithmisch verweigert oder erteilt. Im Falle einer Verweigerung der Genehmigung durch die beteiligten Algorithmen können personenbezogene Daten gespeichert und an die Strafverfolgungsbehörden weitergegeben werden.

Der Vorschlag ist schlecht ausgearbeitet, es fehlen Beweise, um die darin enthaltenen extremen Maßnahmen zu rechtfertigen. Nach den Angaben der Folgenabschätzung ist unklar, wie solche Maßnahmen, auch theoretisch, das anstehende Problem angehen oder lösen würden. Was klar ist, ist, dass es zu mehr Macht für große Technologieunternehmen führen wird, Informationen online ohne Rechenschaftspflicht zu scannen und zu löschen. Wird das Europäische Parlament in der Lage sein, dies zu korrigieren? Die Zeit – und unsere gewählten Vertreter – werden es zeigen.

(Beitrag von Joe McNamee, EDRi)

Wem vertrauen wir mit dem Gemeinwohl?

Wissentlich und unwissentlich überlassen wir die Betreuung der Gesellschaft zunehmend den Technologieunternehmen. Diese Entwicklung wird sich für uns nachteilig auswirken.

Auf der Suche nach der Gentrifizierung

Gentrifizierung ist ein Prozess, in dem ein Nachbarschaftsviertel immer mehr wohlhabende Bewohner anzieht und die weniger wohlhabenden Menschen allmählich verdrängt. Der niederländische Designer Sjoerd ter Borg, der unter anderem mit der Radboud University Nijmegen zusammenarbeitet, untersucht, ob wir diesen urbanen Prozess mit Hilfe von Technologien aus großen Mengen visueller Informationen erkennen können.

Eines der ersten Projekte, das aus dieser Forschung hervorgeht, nutzt Google Street View Archive. Auf der Suche nach Hinweisen auf eine Gentrifizierung in Seoul, Südkorea, stieß Ter Borg auf den Sonnenschirm. Straßenverkäufer verwenden diese Regenschirme, um sich im Schatten hervorzuheben. Strandschirme dominieren seit langem die Straßen von Seoul, aber sie verschwinden aus gentrifizierten Stadtteilen. Da Google in regelmäßigen Abständen Straßen fotografiert und Street View die Möglichkeit hat, „in die Vergangenheit zu gehen“, ist eine perfekte Visualisierung dieses Phänomens möglich. So konnte Ter Borg den faszinierenden Film Beach Umbrella kreieren, der sich mit dringenden Fragen des Zugangs zu und der Nutzung von Daten beschäftigt.

Daten über die Gegenwart bedeuten Kontrolle über die Zukunft.

Ob Sie nun virtuell durch die Straßen von Seoul spazieren gehen oder die Gärten eines Dorfes in Yorkshire besuchen möchten: Für die besten Ergebnisse müssen Sie zu einem US-Unternehmen gehen. Natürlich gibt es auch andere Initiativen, wie das Datenportal Amsterdam City Data der Stadt Amsterdam, das Daten sammelt, verbindet und zur Verfügung stellt. Der Umfang, in dem dies geschieht, ist jedoch unvergleichlich. Die Archive von Google Street View sind unvergleichlich. Darüber hinaus ergänzt Google die von seinen Street View-Fahrzeugen gesammelten Daten um beispielsweise Satellitenbilder. Die lokalen Behörden stellen dem Unternehmen Informationen über die Gestaltung des öffentlichen Raums zur Verfügung; die Unternehmen des öffentlichen Verkehrs liefern Fahrpläne und Echtzeitinformationen über Störungen. Die Mobiltelefone, die wir alle mit uns herumtragen, sind nützliche Sensoren für Google.

Und das Ergebnis? Wenn Google in die Immobilienentwicklung einsteigen würde, hätte es einen Vorsprung. Wenn sie sich um den Amsterdamer ÖPNV bewerben würde, könnte das Unternehmen dies zweifellos effizienter machen als die städtische Verkehrsgesellschaft. Dank des Zugriffs von Google auf riesige Datenmengen und der unbegrenzten Möglichkeit, komplexe Analysen durchzuführen, kann das Unternehmen fundiertere Annahmen über zukünftige Entwicklungen treffen. Und das ist das Schlimmste: Als logische Folge unseres blinden Vertrauens in große Datenmengen wird die Zukunft von den Parteien mit den meisten Daten und der größten verfügbaren Rechenleistung geprägt sein.

Zunehmend befinden sich öffentliche Daten in privaten Händen.

Mehr und mehr sind diese mächtigen Parteien private Unternehmen. Es ist ein beunruhigender Gedanke, dass Google mehr Daten über die Stadtentwicklung Amsterdams hat als die Stadt selbst. Nicht nur, dass es für andere Unternehmen immer schwieriger wird, mit Google zu konkurrieren, auch der öffentliche Sektor bleibt zurück. Wir bewegen uns in Richtung einer Situation, in der sich immer mehr unserer öffentlichen Daten in Privatbesitz befinden und zu kommerziellen Bedingungen an uns zurückvermietet werden.

Eine unhaltbare Situation, wenn Sie feststellen, dass Google die Entscheidung trifft, welche Daten erhoben werden und welcher Teil davon an wen und unter welchen Bedingungen weitergegeben werden soll. Sollte Google mit der Richtung, in die ein bestimmtes Forschungsprojekt geht, oder mit den Produkten und Dienstleistungen, die auf der Grundlage „seiner“ Daten erstellt werden, unzufrieden sein, kann es den Zugriff auf diese Daten einfach unterbinden. Wenn sich herausstellt, dass die Interessen von Google im Widerspruch zu den Interessen der Bürger stehen, haben wir keine demokratischen Mittel, um sie zur Rechenschaft zu ziehen oder Pläne zu beeinflussen, wie wir es mit der lokalen Regierung tun würden. Wenn wir nicht aufpassen, werden die gemeinsamen Mittel zur Kultivierung des Gemeinwohls immer knapper werden.

Die Zukunft ist näher, als man denkt.

Glaubst du, das sind Probleme der fernen Zukunft? Denke noch einmal nach. In Kanada wird derzeit heftig über die Entwicklung von Toronto diskutiert, wo Googles Schwesterunternehmen Sidewalk Labs eine „intelligente Nachbarschaft“ entwickelt.

Alles, was seit Jahren falsch läuft, wo auch immer Google eingreift, geht auch in Toronto schief. Die Datenschutzexperten lassen das Projekt einer nach dem anderen desillusioniert zurück; die Bewohner haben kein Mitspracherecht bei dem, was passiert, noch können sie sich abmelden, sobald es erledigt ist; alle für das Projekt generierten Daten scheinen in den Besitz von Sidewalk Labs zu gelangen, was die Hegemonie der Google-Familie noch weiter verstärkt.

Das Versprechen der Daten macht uns blind für ihre Mängel.

Ein kleiner Exkurs. Während seines Aufenthaltes in Seoul wählte Ter Borg den Sonnenschirm als Symbol für einen nicht-zentrierten Straßenblick. Ein leicht erkennbares Objekt, das auch außerhalb der südkoreanischen Hauptstadt die Fantasie der Menschen anspricht. Allerdings vereinfacht es natürlich einen komplexen und mehrstufigen Prozess stark. Die gesammelten Daten und die daraus abgeleiteten Daten können sich der Realität annähern, sind aber keine Realität. Im Rahmen von Ter Borgs Projekt ist das kein Problem, im Rahmen von Entscheidungen über städtische Probleme und Entwicklungen schon. Vertrauen wir wirklich darauf, dass die Googles der Welt unsere Zukunft auf der Grundlage einer Illusion gestalten?

Was sind die Folgen für unsere Gesellschaft?

Mehr Daten oder „so viele Daten wie Google“ zu haben, ist nicht die Lösung. Was wir brauchen, ist eine bessere Vorstellung von der Datenerhebung und -nutzung – zu welchem Zweck, unter welchen Bedingungen, von wem, von welchen Daten – und von der Besonderheit der öffentlichen Daten. Wenn wir glauben, dass es öffentliche Angelegenheiten gibt, bei denen die Interessen der Gesellschaft die kommerziellen Interessen überwiegen, dann müssen wir auch diese Daten im Zusammenhang mit diesen öffentlichen Angelegenheiten schützen.

(Beitrag von Evelyn Austin, EDRi-Mitglied Bits of Freedom)

ENDitorial: Facebook kann es nie richtig machen.

Im Jahr 2017 veröffentlichte jemand Live-Material auf Facebook über einen von ihm begangenen Mord. Die Plattform entscheidet, ob Sie dieses schockierende Material sehen können oder nicht – eine unglaublich knifflige Entscheidung. Und nicht wirklich die Art von Entscheidung, für die wir wollen, dass Facebook überhaupt verantwortlich ist.

Ich habe die viel diskutierten Aufnahmen des Mordes nicht wirklich gesehen – und ich habe wirklich nicht das Bedürfnis, sie zu sehen. Das Material wird zweifellos schockierend sein, und es zu sehen, würde mich zweifellos sehr unwohl fühlen lassen. Wenn ich die Augen schließe, fällt es mir leider nicht schwer, das Bild von Michael Brown zu beschwören, nachdem er gerade erst erschossen wurde. Oder die Aufnahmen von der Enthauptung des Journalisten James Foley. Der Gedanke daran reicht aus, um mich krank zu machen.

Sollten diese Art von Bildern leicht verfügbar sein? Ich kann mir sicherlich keine einfache Antwort auf diese Frage vorstellen. Ich würde sogar argumentieren, dass diejenigen, die behaupten, die Antwort zu kennen, viele der feineren Nuancen übersehen. Die Bilder werden natürlich der hinterbliebenen Familie und Freunden erhebliche Schmerzen bereiten. Jedes Mal, wenn man irgendwo auftaucht, müssen sie das alles immer wieder durchgehen. Man möchte auch nicht, dass Menschen versehentlich auf unangemessene Bilder stoßen: Nicht alle sind gleichermaßen betroffen, aber die Bilder sind trotzdem unangemessen. Niemand bleibt gleichgültig.

Allerdings muss ich dennoch zugeben, dass visuelle Elemente manchmal unerlässlich sind, um ein ernsthaftes Problem zu vermitteln. Vor einiger Zeit habe ich einem Journalisten einige Informationen angeboten, die wir beide für berichtenswert hielten, und wir waren uns auch einig, dass es wichtig war, die Leute darauf aufmerksam zu machen. Trotzdem waren es seine Worte: „Du hast einen schlagenden Beweis, aber wo ist die Leiche?“. Mir war damals nicht klar, dass dies manchmal sehr wörtlich genommen werden muss. Manchmal können die Fotos oder Aufnahmen eines schrecklichen Ereignisses als Katalysator für Veränderungen wirken.

Ohne ikonische Bilder wie das von Michael Browns Körper hätte die Diskriminierung durch die Polizei in den Vereinigten Staaten vielleicht nicht viel Aufmerksamkeit erregt. Und wir hätten wahrscheinlich nie Berichte über die unzähligen Massendemonstrationen gesehen, die sich daraus ergaben. Die Tatsache, dass wir den Vietnamkrieg nicht vergessen, hat etwas mit einem einzigen zukunftsträchtigen Foto zu tun. Hätten wir diese Bilder nie gesehen, hätten sie nie eine so nachhaltige Wirkung erzielen können, und die schrecklichen Ereignisse, die sie verursacht haben, wären heute nicht so frisch in unserem kollektiven Gedächtnis.

Ich habe keinen Zweifel daran, dass diese Bilder manchmal zugänglich sein müssen – die Frage ist, wann. Wann ist es erlaubt, etwas zu posten? Sollen Bilder sofort oder für eine Weile nicht weitergegeben werden? Mit oder ohne Kontext, verschwommen oder in hoher Auflösung? Und vielleicht am wichtigsten: Wer darf entscheiden? Im Moment liegt eine unglaubliche Menge an Macht bei Facebook. Das Unternehmen steuert die Verfügbarkeit von Nachrichten für eine große Gruppe von Nutzern. Diese Macht bringt eine immense Verantwortung mit sich. Ich möchte nicht an die Stelle von Facebook treten, da Facebook es nie richtig machen kann. Unter diesen zwei Milliarden Nutzern wird es immer jemanden geben, der aus legitimen Gründen Anstoß erregen wird.

Aber da liegt zumindest für mich ein Teil des Problems – und vielleicht auch ein Teil der Lösung. Facebook entscheidet für seine Nutzer, was sie zu sehen bekommen oder nicht. Viele der Fragen, die um die Richtlinien von Facebook herum schweben, würden die Menschen weniger beschäftigen, wenn Facebook nicht wichtige Entscheidungen im Namen seiner Nutzer trifft und stattdessen die Nutzer selbst die Kontrolle haben. Das Problem wäre weniger beunruhigend, wenn die Benutzer tatsächlich eine Wahl hätten.

Eine Möglichkeit, dies zu ermöglichen, besteht darin, zu einem System zurückzukehren, bei dem Sie zwischen einer Vielzahl von Anbietern ähnlicher Dienste wählen können. Nicht ein Facebook, sondern Dutzende von Facebook, jedes mit seinem eigenen Profil. Vergleichen Sie es mit den Zeitungen der Vergangenheit. Einige Leute waren mit einem Abonnement der New York Times zufrieden, während andere sich bei The Sun mehr zu Hause fühlten. Und wenn die Redakteure einer Zeitung bestimmte Bilder auf ihrer Titelseite veröffentlichen würden, würden die Redakteure einer anderen Zeitung eine andere Wahl treffen. Als Leser können Sie wählen, was Sie abonniert haben.

Aber auch ohne grundlegende Veränderungen in der Art und Weise, wie das Internet aufgebaut ist, könnten die Nutzer mehr Mitspracherecht haben – zum Beispiel, wenn sie mehr tun können, um ihre Flut an eingehenden Nachrichten zu bewältigen. Werde bestimmte Themen los oder bevorzuge Nachrichten mit einem anderen Ton. Oder priorisieren Sie Nachrichten aus einer bestimmten Quelle, wenn sie die einzigen sind, die über etwas schreiben. Die Benutzer müssen möglicherweise nicht einmal alle diese Entscheidungen selbst treffen, wenn sie sich stattdessen auf vertrauenswürdige Kuratoren verlassen können, die eine Auswahl für sie treffen. Und auch wenn das ganz einfach klingt, ist es das wirklich nicht. Diese eine Schnittstelle muss die gleichen zwei Milliarden Benutzer aufnehmen und sollte keine neuen Probleme verursachen – wie die Einführung einer Filterblase.

Also, was sollen wir gegen dieses schockierende Mord-Filmmaterial unternehmen, ich weiß es wirklich nicht. Auf diese Frage gibt es keine einfache und eindeutige Antwort. Aber eines ist ganz klar: Es ist keine gute Idee, diese Art von Entscheidungen einem großen Technologieunternehmen zu überlassen, das zu viel Macht besitzt und nicht unbedingt unsere Interessen teilt. Ein Ausweg wäre, den Nutzern mehr Auswahl und damit mehr Kontrolle über das, was sie online sehen, zu geben.

(Beitrag von Rejo Zenger, EDRi-Mitglied Bits of Freedom, Niederlande; Übersetzung aus dem Niederländischen von Marleen Masselink)

0 Kommentare zu “EDRi-gram 16.22 vom 21. November

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.