EU Datenschutz

EDRi-gram 17.1 vom 16. Januar 2019

Deutsche Übersetzung der englischsprachigen Originalbeiträge von Lutz Martiny.

  1. EU-Mitgliedstaaten, die bereit sind, die illegale Vorratsdatenspeicherung beizubehalten.
  2. Wir dürfen in Europa auf Facebook nicht mehr über Sex sprechen
  3. Der Generalanwalt stellt zwei Schlussanträge zum „Recht auf Vergessenheit“
  4. Urheberrechtswoche 2019: Urheberrecht als Instrument der Zensur
  5. Bits of Freedom gibt den Gewinner des Datenschutzpreises bekannt
  6. Digitale Rechte als Sicherheitsziel: Missbrauch und Vertrauensverlust
  7. Agenda

EU-Mitgliedstaaten, die bereit sind, die illegale Vorratsdatenspeicherung beizubehalten.

Von IT-Pol

Mit seinen Urteilen vom April 2014 (Digital Rights Ireland) und Dezember 2016 (Tele2) entschied der Gerichtshof der Europäischen Union (CJEU), dass die unterschiedslose Vorratsdatenspeicherung nach EU-Recht rechtswidrig ist. Anstatt ihre Gesetze zur illegalen Vorratsdatenspeicherung aufzuheben, haben die EU-Mitgliedstaaten stattdessen eine Taktik angenommen, bei der das oberste Gericht der Europäischen Union unter dem Vorwand eines „gemeinsamen Reflexionsprozesses“ mit einer Expertenarbeitsgruppe zur Vorratsdatenspeicherung im Rahmen der Arbeitsgruppe für Informationsaustausch und Datenschutz (DAPIX) ignoriert wird.

Auf der Tagung des Rates für Justiz und Inneres (JI) vom 6. bis 7. Dezember 2018 wurde der Stand der Arbeiten der Expertenarbeitsgruppe zur Datenspeicherung erörtert. Das für die Tagung ausgearbeitete Ratsdokument 14319/18 stellt fest, dass der gemeinsame Reflexionsprozess keine greifbaren Ergebnisse im Hinblick auf die Einhaltung des Tele2-Urteils erbracht hat, was den Ersatz der allgemeinen und unterschiedslosen (pauschalen) Vorratsdatenspeicherung durch eine gezielte Datenspeicherung erfordern würde. Die Mitgliedstaaten scheinen mit ihren derzeitigen und illegalen Vorratsdatenspeicherungssystemen zufrieden zu sein und wollen keine Änderungen vornehmen. Ein wiederkehrendes Element des Ratsdokuments ist die mangelnde Bereitschaft der Mitgliedstaaten, das Tele2-Urteil zu akzeptieren, durch eine sehr selektive Auslegung des Urteils.

Die Expertenarbeitsgruppe hat sich mit dem Konzept der „eingeschränkten Vorratsdatenspeicherung“ beschäftigt, das zuvor im EDRi-Gram analysiert wurde. Die wichtigste Neuerung besteht darin, dass die Mitgliedstaaten die zu speichernden Datenkategorien auf das unbedingt Notwendige beschränken sollen. Am Kreis der betroffenen Personen ist keine Einschränkung vorgesehen, d.h. es werden Daten der gesamten Bevölkerung wie bei den derzeitigen Vorratsdatenspeicherungsgesetzen gespeichert. Daher kann eine eingeschränkte Vorratsdatenspeicherung unmöglich dem Tele2-Urteil entsprechen. Doch selbst die symbolische Geste der Einschränkung der Datenkategorien findet unter den Mitgliedstaaten keine Unterstützung. Sie behaupten, dass die Datenkategorien, die für Strafverfolgungszwecke nicht notwendig sind, bereits ausgeschlossen seien. Unter dieser Prämisse behaupten die Mitgliedstaaten sogar, dass es „keine allgemeine und willkürliche Vorratsdatenspeicherung im Sinne des Tele2-Urteils gibt“, was recht bemerkenswert ist, da der EuGH im Tele2-Urteil genau das Gegenteil festgestellt hat.

Der Vorschlag für eine erneuerbare Anordnung der Vorratsdatenspeicherung (RRW renewable retention warrant) ist ein weiterer Versuch der Mitgliedstaaten, das Tele2-Urteil zu umgehen. Während die Anordnung nur einen einzigen Anbieter von elektronischen Kommunikationsdiensten für eine bestimmte Gültigkeitsdauer abdeckt, wird von allen Anbietern erwartet, dass Anordnungen für sie erlassen werden, die immer wieder erneuert werden, da das RRW für Strafverfolgungszwecke unwirksam wäre, wenn nicht alle Anbieter abgedeckt wären. In der Praxis wird sich das RRW damit nicht von den derzeitigen pauschalen Vorratsdatenspeicherungssystemen unterscheiden. Mit Ausnahme eines Mitgliedstaats, der ein ähnliches System anwendet (zweifellos das Vereinigte Königreich), gibt es keine Unterstützung für das RRW, da das System zu komplex und ineffizient wäre und Änderungen der nationalen Strafprozessrechtsvorschriften erfordern würde.

Nach zwei Jahren des „Nachdenkens“ über das Tele2-Urteil haben die Mitgliedstaaten und ihre Expertenarbeitsgruppe keine einzige realistische Alternative zu den derzeitigen pauschalen Vorratsdatenspeicherungssystemen gefunden, die der EuGH nach EU-Recht für illegal befunden hat. Das Dokument des Rates beschreibt keinen einzigen Vorschlag, der das Vorratsdatenspeicherungssystem tatsächlich zum Gegenstand hätte und die von der Maßnahme betroffenen Personen einschränken würde, obwohl dies vom EuGH in Randnummer 110 des Tele2-Urteils ausdrücklich verlangt wird.

Der zweite Teil des Ratsdokuments 14319/18 befasst sich mit dem Zugang zu den gespeicherten Daten. Nach dem Tele2-Urteil muss der Zugang zu den gespeicherten Daten auf Ermittlungen im Zusammenhang mit schwerer Kriminalität beschränkt sein und von einem Gericht oder einer unabhängigen Verwaltungsbehörde überprüft werden. In der Regel sind nur Daten von Personen zugänglich, die im Verdacht stehen, an einer Straftat beteiligt oder in eine Straftat verwickelt zu sein.

Wieder einmal zögern die Mitgliedstaaten, die vom EuGH auferlegten Beschränkungen zu akzeptieren. Da es weder EU-Recht noch EuGH-Leitlinien gibt, die „schwere Kriminalität“ definieren, bleibt diese Aufgabe den Mitgliedstaaten überlassen. Einige Mitgliedstaaten haben eine sehr weit gefasste Definition, sogar bis hin zur Einbeziehung von Straftaten, die aufgrund ihrer niedrigen Höchststrafe nicht als schwer angesehen werden können, die aber dennoch von der Öffentlichkeit als schwer empfunden werden. In dem Dokument des Rates wird auch darauf hingewiesen, dass strafrechtliche Ermittlungen in Fällen der Cyberkriminalität ohne Zugang zu gespeicherten Daten oft „sich als sinnlos erweisen würden, weil digitale Beweise nicht verfügbar wären“. Wenn die Vorratsdatenspeicherung von Metadaten der elektronischen Kommunikation jedoch eine besonders schwerwiegende Beeinträchtigung der Grundrechte darstellt, wie der EuGH festgestellt hat (Tele2 Ziffer 100), muss der Zugang zu den gespeicherten Daten strengen Regeln unterliegen und wird nicht immer den Strafverfolgungsbehörden zur Verfügung stehen. Da immer mehr Aktivitäten mit dem Internet zusammenhängen, würde eine vollständige Einbeziehung online begangener Straftaten die Datenschutzbestimmungen auf der Zugangsebene fast jeder Bedeutung berauben.

Das Dokument des Rates stellt fest, dass die gerichtlichen Überprüfungsregelungen der meisten Mitgliedstaaten mit den vom EuGH festgelegten Voraussetzungen im Wege einer vorherigen Überprüfung durch ein Gericht, eine unabhängige Verwaltungsbehörde oder die Staatsanwaltschaft übereinstimmten. Indem die Mitgliedstaaten jedoch stillschweigend die Staatsanwaltschaft, die keine unabhängige Justizbehörde ist, in die Liste aufnehmen, übertreiben sie irreführend ihre angebliche Einhaltung des Tele2-Urteils hinsichtlich des Erfordernisses einer unabhängigen Überprüfung von Zugangsanträgen.

Schließlich zögern die Mitgliedstaaten sehr, den Zugang zu den gespeicherten Daten auf Personen zu beschränken, die verdächtig oder beschuldigt sind, wie vom EuGH gefordert, außer in Sonderfällen, die den Terrorismus betreffen (Randnr. 119 des Tele2-Urteils). Der Hauptgrund dafür ist, dass „nicht gegen bestimmte Personen, sondern (zumindest am Anfang) gegen unbekannte Täter ein Verfahren eingeleitet wird“. Dies deutet darauf hin, dass die Strafverfolgungsbehörden routinemäßig die Vorratsdatenspeicherung nutzen, um mögliche Verdächtige einer Straftat zu finden, z.B. durch Funkzellenabfragen, bei denen Informationen über alle Personen eingeholt werden, die in einem bestimmten Gebiet anwesend sind. Solche Data-Mining-Untersuchungen betreffen eine große Anzahl von Personen, von denen einige allein wegen ihrer Anwesenheit in einem bestimmten Gebiet (Standortdaten) verdächtig werden können. Das Tele2-Urteil erlaubt ausnahmsweise nur in besonderen Fällen, in denen Terrorismus vorliegt, einen breiten Zugang zu den gespeicherten Daten, aber die Mitgliedstaaten wollen die Ausnahme zur allgemeinen Regel machen, indem sie nur eine Verbindung zu strafrechtlichen Ermittlungen verlangen, wenn auf die gespeicherten Daten zugegriffen wird.

Auf der Tagung des JI-Rates im Dezember kamen die Minister überein, „die Arbeit auf Expertenebene fortzusetzen, um Wege zur Entwicklung eines Konzepts der Vorratsdatenspeicherung in der EU zu sondieren“. Genau das tut die Expertenarbeitsgruppe jedoch seit zwei Jahren, ohne einen einzigen Vorschlag zur Datenspeicherung vorzulegen, der den Anforderungen des Tele2-Urteils entspricht.

Damit gerät die Situation der europäischen Vorratsdatenspeicherung in eine Sackgasse. Die Mitgliedstaaten weigern sich, auch nur an Alternativen zu ihren derzeitigen Systemen der pauschalen Vorratsdatenspeicherung zu denken, aber sie können keine pauschale Vorratsdatenspeicherung haben, zumindest nicht legal, weil der EuGH entschieden hat, dass sie nach EU-Recht illegal ist. Die Europäische Kommission ist die „Hüterin der Verträge“, scheint aber nicht bereit zu sein, Vertragsverletzungsverfahren gegen Mitgliedstaaten einzuleiten, auch wenn sie die Entwicklung „beobachtet„. Die Klage auf nationaler Ebene gegen Vorratsdatenspeicherungsgesetze ist natürlich ein möglicher Ausweg aus der Pattsituation. In einigen Mitgliedstaaten werden derzeit Rechtsstreitigkeiten geführt, und in der Vergangenheit waren sie in einer Reihe von Mitgliedstaaten erfolgreich.

Die Mitgliedstaaten ignorieren nicht nur das Tele2-Urteil, sie kämpfen jedoch für ihre pauschalen Vorratsdatenspeicherungssysteme auch auf anderen Ebenen. Eine Möglichkeit besteht darin, dass die künftige ePrivacy-Verordnung ein „günstigeres“ Umfeld für die Vorratsdatenspeicherung bietet als die aktuelle ePrivacy-Richtlinie – etwas, woran der Rat aktiv arbeitet. Dies könnte den Mitgliedstaaten einen „Neuanfang“ bei der Vorratsdatenspeicherung ermöglichen, da der EuGH die nationalen Gesetze zur Vorratsdatenspeicherung anhand der neuen ePrivacy-Verordnung bewerten müsste, die aber immer noch im Lichte der (unveränderten) Charta der Grundrechte auszulegen wäre. Es besteht auch die Gefahr, dass der EuGH seine Haltung zur Vorratsdatenspeicherung in einigen der neuen beim Gerichtshof anhängigen Rechtssachen (C-623/17 aus dem Vereinigten Königreich, C-520/18 aus Belgien und C-511/18 und C-512/18 aus Frankreich) ändern könnte. Die erste Frage in C-520/18 ist der ersten Frage im Fall Tele2 sehr ähnlich, nämlich ob Artikel 15 Absatz 1 der Datenschutzrichtlinie für den elektronischen Geschäftsverkehr, gelesen im Lichte der Charta der Grundrechte, einer allgemeinen Verpflichtung zur Speicherung von Verkehrsdaten für Anbieter elektronischer Kommunikationsdienste entgegensteht. Die Mitgliedstaaten würden dies zweifellos als Gelegenheit sehen, die Fälle Digital Rights Ireland und Tele2 vor dem EuGH „erneut zu verhandeln“.

(Beitrag von Jesper Lund, Mitglied der EDRi)

Wir dürfen in Europa auf Facebook nicht mehr über Sex sprechen.

von Bits of Freedom

Irgendwann Ende 2018 hat Facebook stillschweigend „Sexuelle Aufforderung“ zu seiner Liste der „Anstößigen Inhalte“ hinzugefügt. Ohne seine Benutzer zu benachrichtigen. Das ist, gelinde gesagt, ziemlich bemerkenswert, denn für viele Menschen ist Sex bei weitem nicht ein vernachlässigbarer Teil des Lebens.

Das Unternehmen schreibt, dass es eine Grenze zieht, „wenn Inhalte den sexuellen Kontakt zwischen Erwachsenen erleichtern, fördern oder koordinieren“. Eine Auswahl dessen, was nicht erlaubt ist (übersetzt aus den niederländisch-sprachigen Community Standards):

„Inhalt, der eine implizite Einladung zum Geschlechtsverkehr beinhaltet, die als Benennung einer sexuellen Handlung und anderer suggestiver Elemente beschrieben werden kann, einschließlich (aber nicht beschränkt auf):

  • vage suggestive Aussagen wie: „Ich freue mich auf einen schönen Abend“.
  • sexueller Sprachgebrauch [….]
  • Inhalte (selbst erstellt, digital oder vorhanden), die möglicherweise explizite sexuelle Handlungen oder eine suggestiv positionierte Person/Suggestivpositionierung darstellen.
  • Inhalte, in denen andere von Erwachsenen begangene Handlungen angefordert oder angeboten werden, wie z.B.:
    • kommerzielle Pornographie
    • Partner, die Fetische oder sexuelle Interessen teilen“.

Es ist unklar, was die Ursache für diese Veränderung ist. Die offensichtlichste Erklärung sind neue Gesetze, die Anfang letzten Jahres in den Vereinigten Staaten in Kraft getreten sind. Der „Fight Online Sex Trafficking Act“ und der „Stop Enabling Sex Traffickers Act“ (FOSTA/SESTA) machen Unternehmen für Sexarbeitsanzeigen auf ihrer Plattform verantwortlich. Craigslist hat unter anderem seine „Personals“ offline genommen und Reddit hat ein paar sexuell arbeitsbezogene Subreddits blockiert. Die neue Richtlinie von Facebook kann auch als eine Antwort auf diese Gesetzgebung angesehen werden. Die breite Formulierung der Kriterien für das, was nicht erlaubt ist, ist eine Vorsichtsmaßnahme. Facebook hat beschlossen, übervorsichtig zu sein und sich als „Überzensor“ lieber zu irren, anstatt die Folgen des Hostings illegaler Inhalte zu riskieren.

Facebook prahlt damit, Menschen zu verbinden, aber in Wirklichkeit verhindert das Unternehmen zunehmend unsere Kommunikation. Es steht außer Frage, dass solche vage formulierten Regeln in Kombination mit automatisierten Inhaltsfiltern zu einer willkürlicheren Zensur führen. Aber was dieser Vorfall mehr als alles andere veranschaulicht, ist, dass Facebook durch das Ausmaß, in dem es tätig ist, sich dafür entscheidet, die Kosten seiner Größe, nämlich willkürliche Zensur und verminderte Meinungsfreiheit, auf die europäischen Nutzer abzuwälzt. Es ist unvorstellbar, dass neue Gesetze in den USA bedeuten sollen, dass in vielen europäischen Ländern, wenn nicht sogar in allen, ein zustimmender Erwachsener nicht mehr einen anderen zustimmenden Erwachsenen fragen darf, ob er Sex haben will, in diesem Zusammenhang mit anderen Menschen über gemeinsame Fetische oder Fantasien in Kontakt zu treten oder Informationen über Safer Sex auszutauschen.

Dies betrifft alle europäischen Bürger und ist besonders problematisch bei Menschen, die sich nicht mit der traditionellen, heteronormativen Perspektive des Geschlechts identifizieren und sich für Alternativen an das Internet wenden. Darüber hinaus sind Sexarbeiter/innen überproportional betroffen. Sexarbeiterinnen und Sexarbeiter nutzen oft Online-Plattformen zur Kundenansprache und zum Austausch von Tipps und Informationen. Proud, eine Interessengruppe für niederländische Sexarbeiter, sprach sich 2018 gegen die neue Gesetzgebung aus, weil sie die Sexarbeit (weiter) marginalisieren würde. Die neue Richtlinie von Facebook zeigt, dass diese Befürchtungen nicht unbegründet waren.

Die europäischen Länder arbeiten wie alle anderen hart daran, ihre Werte zu wahren. Viele dieser Länder finden es wichtig, dass man offen über Sex und Sexualität sprechen kann. In den Niederlanden werden erhebliche Anstrengungen unternommen, um die Rechte der Sexarbeiter/innen zu schützen und zu verbessern. Die Richtlinie von Facebook vereitelt diese Bemühungen. Es ist inakzeptabel, dass wir uns in einer Situation befinden, in der Rechtsvorschriften aus einem anderen Land so große Auswirkungen auf unsere Gesellschaften haben. Ist der Profit von Facebook für Europa so wichtig, dass wir bereit sind, uns von den Rechten und Freiheiten zu trennen, für die wir so hart gekämpft haben?

(Beitrag von Evelyn Austin, EDRi-Mitglied Bits of Freedom, Niederlande; Übersetzung von Winnie van Nunen)

Der Generalanwalt stellt zwei Schlussanträge zum „Recht auf Vergessen“

von Yannic Blaschke

Am 10. Januar 2019 hat Generalanwalt (AG) Maciej Szpunar dem Gerichtshof der Europäischen Union (EuGH) zwei Schlussanträge vorgelegt, die weitreichende Auswirkungen auf das „Recht auf Vergessen“ haben könnten, das es dem Einzelnen ermöglichen soll, ein eigenständiges Leben ohne Stigmatisierung aufgrund seiner bisherigen Handlungen zu führen.

Eine geografische Grenze für das „Recht auf Vergessen“.

In seiner ersten Stellungnahme, Fall Google v CNIL (C-507/17), empfiehlt AG Szpunar dem CJEU, den Anwendungsbereich der Verpflichtungen zur Entfernung von Suchmaschineneinträgen auf das Gebiet der EU einzuschränken. Der vorliegende Fall wurde nach einem Streitfall zwischen dem Suchmaschinenbetreiber Google und der französischen Datenschutzbehörde CNIL an den EuGH verwiesen. Die CNIL hatte Google eine Geldstrafe von 100 000 Euro auferlegt, nachdem sich das Unternehmen geweigert hatte, Webseiten, die eine natürliche Person betreffen, aus allen in seiner Suchmaschine aufgeführten Domains (und nicht nur aus Domains der EU-Mitgliedstaaten) zu entfernen.

In seiner Stellungnahme stellte AG Szpunar fest, dass das „Recht auf Vergessen“ gegen andere Grundrechte wie das Recht auf Datenschutz und das Recht auf Privatsphäre sowie das berechtigte öffentliche Interesse am Zugang zu den gesuchten Informationen abgewogen werden muss. Die AG stellte fest, dass die EU-Behörden, wenn eine weltweite Referenzierung zulässig wäre, nicht in der Lage sein würden, ein Recht auf Information zu definieren und festzulegen, zumal das öffentliche Interesse am Zugang zu Informationen je nach geografischer Lage von einem Drittstaat zum anderen unterschiedlich sein wird. Es besteht daher die Gefahr, dass Personen in Drittstaaten am Zugang zu Informationen gehindert werden und Drittstaaten wiederum Personen in den EU-Mitgliedstaaten am Zugang zu Informationen hindern. Die AG hat jedoch die prinzipielle Möglichkeit des Bestehens von Fällen, in denen eine weltweite Referenzierung gerechtfertigt wäre, nicht ausgeschlossen. Er empfahl dem EuGH, zu entscheiden, dass Suchmaschinenanbieter nach Erhalt eines Antrags auf Entsprechung nicht verpflichtet sein sollten, solche Maßnahmen in allen aufgeführten Domains durchzuführen. Dennoch sollten sie verpflichtet sein, alle möglichen Maßnahmen, einschließlich Geo-Blocking, zu ergreifen, um eine wirksame Referenzierung für alle in der EU befindlichen IP-Adressen durchzusetzen, unabhängig von der verwendeten Domain.

Suchmaschinenbetreiber bei der Verarbeitung sensibler Daten

Die zweite Stellungnahme des AG, Rechtssache G.C. u.a. gegen CNIL (C-136/17), bezog sich auf Verpflichtungen von Suchmaschinenanbietern in Bezug auf sensible Datenkategorien. Nach einem Streitfall zwischen der französischen Datenschutzbehörde CNIL und dem Suchmaschinenbetreiber Google argumentiert Szpunar, dass die Verbote und Beschränkungen für spezielle Datenkategorien (gemäß der früheren Datenschutzrichtlinie 95/46 EG) nicht für den Betreiber einer Suchmaschine gelten können, als hätte er selbst sensible Daten auf den betreffenden Webseiten platziert. Da die Tätigkeit einer Suchmaschine logischerweise erst dann stattfindet, wenn (sensible) Daten online gestellt worden sind, können diese Verbote und Beschränkungen seiner Meinung nach auf eine Suchmaschine nur aufgrund dieser Verweise und damit durch anschließende Überprüfung angewendet werden, wenn der Betreffende einen Antrag auf Entsprechung stellt. Szpunar stellte jedoch fest, dass Suchmaschinenanbieter bei der Bezugnahme auf Quellen, die sensible Daten speichern, verpflichtet sind, auf De-Referenzierungsanfragen zu reagieren, nachdem sie das Recht auf Achtung des Privatlebens und das Recht auf Schutz der Daten sorgfältig mit dem Recht der Öffentlichkeit auf Zugang zu den betreffenden Informationen und dem Recht auf freie Meinungsäußerung der Person, die die Informationen zur Verfügung gestellt hat, abgewogen haben.

Die Schlussanträge der Generalanwälte sind nicht rechtsverbindlich, beeinflussen aber oft das endgültige Urteil des EuGH erheblich. Die Urteile in beiden Vorabentscheidungen werden zu einem späteren Zeitpunkt gefällt.

(Beitrag von Yannic Blaschke, EDRi intern)

Urheberrechtswoche 2019: Urheberrecht als Instrument der Zensur

von Yannic Blaschke

Die Copyright Week der EDRi-Mitgliedsorganisation Electronic Frontier Foundation läuft vom 14. bis 20. Januar 2019 wieder. Wir nehmen an der Aktionswoche mit einer Reihe von Blogposts teil.

Urheberrecht als Instrument der Zensur

Das Urheberrecht kann, wenn es menschenrechtskonform umgesetzt wird, nützlich sein, um zum Wohlstand der Kunstschaffenden beizutragen, damit sie weiterhin an Kunst und Wissenschaft in unseren Gesellschaften teilnehmen können. Um kulturelle Innovationen und gesellschaftliche Debatten zu ermöglichen, ist es ein etablierter Grundsatz, dass die Neuanpassung und Neuverwendung von urheberrechtlich geschütztem Material in Fällen von sogenannten „Ausnahmen“ wie fairem Kommentar, Berichterstattung, Lehre, Kritik, Satire und Parodie erlaubt sein sollte. Leider gibt es zu viele Möglichkeiten, diese Ausnahmen in Europa umzusetzen, und es ist für den Durchschnittsbürger und die meisten Unternehmen unmöglich zu entschlüsseln, welche Verwendung wo erlaubt ist.

Es kommt immer wieder zu Konflikten zwischen denen, die restriktivere Regeln zum Schutz urheberrechtlich geschützter Werke anstreben, und denen, die befürchten, dass solche Regeln die Meinungsfreiheit der Bürger und insbesondere ihr Recht auf Zugang zur Kultur einschränken würden. Da die Beurteilung, welche Art von Nutzungen erlaubt sind, oft einen sorgfältigen, kontextsensitiven Balanceakt erfordert, muss jede Gesetzgebung, die darauf abzielt, die Rechte der Urheberrechteinhaber durchzusetzen, über solide und umfassende Bestimmungen darüber verfügen, wie dieses Gleichgewicht gefunden und umgesetzt werden kann. Das zu stark in Richtung Restriktionen kippende Übergewicht führt möglicherweise zu einer Zensur – die dann missbraucht werden kann, um beispielsweise politische Gegner zum Schweigen zu bringen oder zu versuchen, den Zugang zu öffentlichen Dokumenten zu verweigern.

Diese immer wiederkehrende Spannung zwischen den Grundrechten auf Schutz des geistigen Eigentums auf der einen Seite und der Meinungs- und Informationsfreiheit auf der anderen Seite wird exponentiell verschärft, wenn es nicht mehr darauf ankommt, dass die menschliche Justiz einen Verstoßvorwurf überprüft, sondern auf technologische Lösungen, die alles, was einem in der Datenbank des Algorithmus gespeicherten Muster entspricht, vorbeugend herausfiltern. Die EU hat eine äußerst umstrittene Haltung bei der Durchsetzung des Urheberrechts durch solche automatisierten Mittel („Upload-Filter“) eingenommen. Die Gefahren, die der Einsatz dieser Technologie für die Meinungsfreiheit mit sich bringt, wurden von Organisationen der Zivilgesellschaft, Bibliotheken, Hochschulen, Unternehmen und Verbraucherschutz immer wieder hervorgehoben. Selbst der Sonderberichterstatter der Vereinten Nationen für das Recht auf freie Meinungsäußerung, David Kaye, hat auf ernste Bedenken hinsichtlich der Bestimmungen von Artikel 13 der geplanten Urheberrechtsrichtlinie hingewiesen. Das Problem ist: Wenn Algorithmen offensichtlich nicht in der Lage sind, ziemlich einfache Ausnahmen von einer bestimmten Richtlinie zu erkennen (z. B. wenn man die Tumblr-Löschung seiner eigenen Beispiele akzeptabler Nacktheit betrachtet), wie können wir dann erwarten, dass sie die Feinheiten von Parodie und Satire erkennen?

Das Urheberrecht neigt zur Zensur, wenn es 1) keine notwendigen Ausnahmen und Beschränkungen vorsieht, 2) die Beweislast für eine Verletzung umkehrt und 3) direkte oder indirekte Maßnahmen der präventiven Beseitigung schafft. Die EU-Urheberrechtsrichtlinie erfüllt leider bisher die beiden letztgenannten Kriterien, und die laufenden Triloge zwischen dem Europäischen Parlament und dem Rat der EU wecken keine große Hoffnung, dass diese Mängel rechtzeitig behoben werden. Derzeit bietet sie ein weiteres Beispiel dafür, wie der Kampf um eine gerechte Vergütung von Künstlern im digitalen Zeitalter riesengroße Auswirkungen auf die gesamte Internetgesellschaft haben kann. Die kommende Urheberrechtszensur könnte weniger böswillig sein als frühere Beispiele wie das Fehlverhalten des ecuadorianischen Präsidenten Correa, aber „zufällige“ oder „kollaterale“ Arten von (automatisierten) Überblockierungen werden sich dennoch als schädliche Zensurwerkzeuge erweisen.

Die politischen Entscheidungsträger weltweit sollten die fahrlässige EU-Urheberrechtsdebatte als Ausgangspunkt nehmen, um flexible Ansätze für das Urheberrecht zu sondieren, die die Grundrechte und -freiheiten der Bürger schützen, und die gefährlichen Trends hin zu einem blinden Vertrauen in Technologie und präventive Durchsetzung ablehnen.

(Beitrag von Yannic Blaschke, EDRi intern)

Kirsten Fiedler auf der Konferenz „Das ist Netzpolitik!“ 2017 [CC BY-SA 4.0], via Wikimedia Commons

Bits of Freedom gibt den Gewinner des Datenschutzpreises bekannt

von Bits of Freedom

Die Holländischen Big Brother Awards finden am 22. Januar 2019 in Amsterdam, Niederlande, statt.

Die diesjährige Gewinnerin des Felipe Rodriguez Award ist Kirsten Fiedler, Geschäftsführerin von European Digital Rights. Mit dieser Auszeichnung würdigt eine niederländische Digital Rights Organisation, das EDRi-Mitglied Bits of Freedom, Menschen und Organisationen, die einen bemerkenswerten Beitrag zu unserem Recht auf Privatsphäre im digitalen Zeitalter geleistet haben. Zu den bisherigen Gewinnern gehören Kaschmir Hill, Open Whisper Systems, Max Schrems und Edward Snowden. Die Preisverleihung findet am 22. Januar 2019 statt.

Kirsten Fiedler ist Geschäftsführerin von European Digital Rights (EDRi), einem Dachverband von Digital Rights Groups, der sich auf EU-Ebene für den Schutz der Privatsphäre, der Sicherheit und der Meinungsfreiheit im Internet einsetzt. Dank Fiedlers Beitrag hat sich EDRi in den letzten acht Jahren zu einer hoch angesehenen Organisation mit neun Teammitgliedern und 39 Mitgliedsorganisationen entwickelt.

Zunehmend werden die Rechte und Einschränkungen der europäischen Internetanwender auf EU Ebene verhandelt und beschlossen. Deshalb ist es wichtig, dass es in Brüssel eine starke Organisation gibt, die sich für unsere Menschenrechte einsetzt. Dank Fiedler ist EDRi zu dieser Organisation geworden. Die Einwohner aller Mitgliedstaaten profitieren von ihrer täglichen Arbeit.

– Hans de Zwart, Executive Director of Bits of Freedom.

Kirsten Fiedler wird die Auszeichnung am Dienstag, den 22. Januar 2019, im Rahmen einer Feier in Amsterdam entgegennehmen. Neben dem Felipe Rodriguez Award wird Bits of Freedom den Publikumspreis und den Expertenpreis an die größten Datenschutzverletzer des
Jahres 2018 vergeben. Tickets können über www.bigbrotherawards.nl bezogen werden.

Was andere über Fiedler’s Nominierung sagen:

„Wir haben lange genug im Internet gelebt, um nicht mehr von „neuer Technologie“ zu sprechen. Dennoch stehen wir vor neuen Problemen, die nicht mit alten Erzählungen und korrupten politischen Kompromissen gelöst werden können. EDRi, das in den letzten Jahren von Kirsten mit geleitet wurde, steht an vorderster Front bei allen wichtigen politischen Kämpfen in Brüssel, treibt neue Erzählungen voran und schlägt Lösungen vor, die tatsächlich funktionieren können.“

– Katarzyna Szymielewicz, Panoptykon Foundation

„EDRi ist die erste Verteidigungslinie für digitale Rechte in Europa und darüber hinaus. Die Entscheidungen der europäischen Politiker haben Auswirkungen auf den Einzelnen in der ganzen Welt, und deshalb ist es wichtig, dass wir eine starke Organisation wie EDRi haben, die sich für den Schutz unserer Rechte online einsetzt. Seit 2011 ist Kirstens Beitrag zu diesen Bemühungen unerlässlich.“

– Jillian York, Electronic Frontier Foundation (EFF)

„Kirsten ist die einzige Person, die jemals für EDRi gearbeitet hat, die sich nicht für den Job beworben hat. Ihre Leidenschaft und ihr Drang, für unsere Menschenrechte zu kämpfen, waren so deutlich, dass ich sie bat – bei Null Arbeitsplatzsicherheit und mittelmäßiger Bezahlung -, ihren sicheren Arbeitsplatz zu verlassen und für EDRi zu arbeiten. Von diesem Tag an war sie direkt oder indirekt der Schlüssel zu allen Erfolgen von EDRi.“

– Joe McNamee, former Executive Director of European Digital Rights (EDRi)

Digitale Rechte als Sicherheitsziel: Missbrauch und Vertrauensverlust

von Yannic Blaschke

Verletzungen der Menschenrechte im Internet können eine echte Bedrohung für unsere Gesellschaften darstellen, von der Sicherheit von Wahlen bis zur gesellschaftlichen Polarisierung. In dieser Reihe von Blogposts erklären wir, wie und warum digitale Rechte als Sicherheitsziel behandelt werden müssen. In diesem dritten und letzten Blogbeitrag diskutieren wir, wie Verstöße gegen digitale Rechte Verstöße gegen die Rechtsstaatlichkeit in den EU-Mitgliedstaaten verschärfen und das ohnehin schon fragile Projekt der EU, einschließlich der europäischen Sicherheitsaspekte, gefährden können.

In unserem vorherigen Blogbeitrag haben wir dargelegt, wie ein unbegründetes Vertrauen in Algorithmen zu unbeabsichtigter Zensur und neuen Angriffsvektoren für böswillige Akteure führen kann. Die Upload-Filter, die in den laufenden Diskussionen um die Urheberrechtsrichtlinie und die Verordnung über terroristische Inhalte enthalten sind, haben jedoch auch ein großes Potenzial für Missbrauch durch Behörden.

Es gibt eine Reihe von Beispielen dafür, wie staatliche Behörden das Urheberrecht für Angriffe auf die Meinungsfreiheit und das Recht auf Information missbrauchen: Abschreckende Beispiele sind zum Beispiel Ecuador, wo Kritiker von Präsident Correa mit Urheberrechtsabmahnungen überschwemmt wurden, und der jüngste Versuch der Bundesregierung, Zitate aus einem internen Militärbericht zu verhindern, indem sie ihn als urheberrechtlich geschütztes Material beansprucht. Im Zusammenhang mit den Rechtsvorschriften zur Terrorismusbekämpfung sieht die Situation noch gravierender aus; der Menschenrechtskommissar des Europarats hat kürzlich kritisiert, dass „der Missbrauch von Anti-Terror-Gesetzen zu einer der am weitesten verbreiteten Bedrohungen für die Meinungsfreiheit, einschließlich der Medienfreiheit, in Europa geworden ist“. Gesetze, die zu dieser alarmierenden Einschätzung geführt haben, sind zum Beispiel das spanische „Knebelgesetz„, das von internationalen Menschenrechtsorganisationen heftig kritisiert wurde, oder die französischen Anti-Terror-Gesetze. Die gefährliche Logik der Verfolgung von Straftaten, die vage als „Verherrlichung von Terrorismus“ formuliert sind, hat zu zahlreichen Verurteilungen von Bürgern auf der Grundlage von Willkür oder aufgrund von umstrittenen, aber zweifellos nicht terroristischen Meinungen und Ideen geführt.

Was wird passieren, wenn solche Streitigkeiten über legitime Ausdrucksformen nicht mehr vor Gericht kommen, sondern Filtertechnologien verhindern, dass sie überhaupt erst in der öffentlichen Debatte auftauchen? Was wäre, wenn die EU-Regierungen anfangen würden, die ihnen übertragenen Befugnisse zur Zensur von politischen Journalisten, Menschenrechtsverteidigern, Gegnern oder Ideen, die ihnen nicht gefallen, zu missbrauchen, indem sie beispielsweise Oppositionsparteien oder Aktivisten als Terroristen bezeichnen? Was würde ein solcher Missbrauch bedeuten, wenn das Vertrauen der Mitgliedstaaten in die Fähigkeit der anderen Mitgliedstaaten zur Wahrung der Rechtsstaatlichkeit schwindet?

Im Zusammenhang mit Terrorismus hat die Europäische Kommission vorgeschlagen, dass die Strafverfolgungsbehörden befugt sein sollen, von Plattformen die Einführung automatisierter Filtertechnologien zu verlangen, wenn sie die eigenen „proaktiven“ Maßnahmen der Inhaltsmoderation der Unternehmen für nicht umfassend genug halten. Darüber hinaus soll es den Behörden möglich sein, Internetunternehmen auf bestimmte Inhalte zur „freiwilligen Prüfung“ hinzuweisen, wobei die Wahrscheinlichkeit hoch ist, dass diese Inhalte aus Angst der Hosting-Provider, für auf ihren Servern gespeicherte Inhalte haftbar gemacht werden zu können, gelöscht werden. Solche vagen und unpräzisen Maßnahmen untergraben nicht nur den Rechtsstaat und die Meinungsfreiheit, sondern werden auch missbraucht. Wenn nationale Behörden, die für eine öffentliche Einmischung in die digitalen Bürgerrechte bekannt sind, die von der EU bereitgestellten zusätzlichen Unterdrückungsinstrumente in der gleichen unverhältnismäßigen Weise wie ihre nationalen Maßnahmen nutzen, wird es nicht lange dauern, bis die Gerichte in anderen Mitgliedstaaten beginnen, die Frage zu stellen, inwieweit die Behörden in ihrer Gerichtsbarkeit noch mit ihren missbräuchlichen Kollegen zusammenarbeiten können. Dies ist in anderen Zusammenhängen bereits geschehen: z.B. die Entscheidung des EuGH, dass Auslieferungen an Polen nicht ausgeführt werden müssen. In Kombination mit sehr unterschiedlichen Interpretationen dessen, was eine Straftat gegen die Öffentlichkeit darstellt (z.B. der Fall des spanischen Rappers Valtonyc), können und werden Fälle, in denen die neu geschaffenen Instrumente eingesetzt werden, um Stimmen zu zensieren, die in einem Mitgliedstaat als illegal angesehen werden, in anderen Mitgliedstaaten aber als völlig legal gelten, den Zusammenhalt und die Integrität des gemeinsamen Raums der Freiheit, der Sicherheit und des Rechts weiter spalten. EU-weite öffentliche Sicherheit kann nur durch Vertrauen zwischen den europäischen Justizbehörden und der Strafverfolgung darauf erreicht werden, dass bei gemeinsamen grenzüberschreitenden Aktionen die Grundrechte in allen Mitgliedstaaten geachtet werden. Die Übertragung neuer Zensurbefugnisse an alle Behörden der EU-Mitgliedstaaten wird nur das Gegenteil von diesem Vertrauen bewirken – und damit Schaden anrichten, nicht unsere Sicherheit verbessern.

Trotz einiger wichtiger Fortschritte bei den digitalen Freiheiten, wie der Annahme der Datenschutzgrundverordnung GDPR, sind wir noch weit davon entfernt, zu erkennen, dass digitale Rechte nicht nur grundlegende Bürgerrechte sind, sondern auch eine Voraussetzung für die Sicherheit und die Vielfalt unserer Gesellschaften. Wenn wir wollen, dass Desinformationen nicht länger durch die öffentliche Debatte toben, sollten wir nicht zulassen, dass Einzelpersonen gezwungen sind, automatisch Tracking-Cookies zu erlauben, um den Verlagen und der Werbeindustrie durch Tracking ein gewisses Einkommen zu verschaffen. Wenn wir die Schwachstellen unserer öffentlichen Diskussionsforen im Internet schließen wollen, können wir keine neuen Tore für Desinformationsangriffe auf Online-Plattformen öffnen. Wenn wir den neuen Autoritarismus verhindern wollen, können wir ihm nicht mehr Instrumente der Zensur durch das Urheberrecht und eine stille Erosion der bürgerlichen Freiheiten im Zuge der Terrorismusbekämpfung geben.

Die digitalen Rechte der EU-Bürger dienen in erster Linie, aber nicht nur dem Wohle des Einzelnen, sondern sie müssen auch als Grundlage der Sicherheit unserer demokratischen Systeme und des gesellschaftlichen Zusammenhalts innerhalb und zwischen den Ländern der Europäischen Union angesehen werden. Um unsere Gesellschaften offen, frei und sicher zu halten, müssen wir die Rechte des Einzelnen in den Mittelpunkt unserer Internetpolitik stellen.

(Beitrag von Yannic Blaschke, EDRi intern)

Agenda

  • 29.01.2019 Privacy Camp 2019 – Platforms, Politics, Participation
    Brüssel
  • 30.01.2019 CPDP2019: Data Protection and Democracy
    Brüssel
  • 03.02.2019 Bulgarische Big Brother Awards
    Sofia, Bulgarien
  • 01.04.2019 Internet Freedom Festival 2019
    Valencia, Spanien
  • 06.05.2019 re:publica 19 – tl;dr #rp19
    Berlin

0 Kommentare zu “EDRi-gram 17.1 vom 16. Januar 2019

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.