EDRi-gram

EDRi-gram 17.7, 10. April 2019

  1. Filter sind drin
  2. Regulierung terroristischer Inhalte: Erfolgreiche „Schadenskontrolle“ durch das LIBE-Komitee
  3. Öffentliche Kampagnen zu digitalen Rechten: Zuordnung der Bedürfnisse
  4. UK: Strategie gegen Online-Schädigungen muss Grundrechte integrieren

Filter sind drin

Von Diego Naranjo

Am 26. März 2019 verabschiedete das Europäische Parlament (EP) die neue Urheberrechtsrichtlinie. Die Musikindustrie und die Verwertungsgesellschaften feierten es als Sieg für Autoren und Schöpfer, obwohl die tatsächlichen Autoren (zusammen mit anderen Gruppen der Zivilgesellschaft) von dem Ergebnis enttäuscht waren.

Artikel 17 der Richtlinie (im vorherigen Textentwurf als Artikel 13 bezeichnet) beinhaltet eine Änderung der Zuständigkeit der Plattformen, die zur Implementierung von Upload-Filtern auf einer Vielzahl von Internetplattformen führen wird. In der Tat stellt Artikel 17 eine Bedrohung für unser Grundrecht auf freie Meinungsäußerung dar.

Wir haben uns sehr bemüht, die Legalisierung des ersten EU-Internetfilters zu stoppen. Lies unten eine Zusammenfassung der Ereignisse.

Es begann alles im Jahr 2002.

EDRi ist seit Beginn der Existenz unseres Netzwerks an Urheberrechtsdebatten beteiligt. Wir haben eine positive Agenda zur Lösung der Hauptprobleme innerhalb des bestehenden Rahmens gefördert und eine Urheberrechtsreform unterstützt, die eine Aufforderung an Autoren und Künstler beinhaltet, eine angemessene Vergütung für ihre Arbeit zu erhalten. Wir haben Handbücher, eine Reihe von Blogposts veröffentlicht, auf öffentliche Konsultationen reagiert, in zahlreichen öffentlichen Veranstaltungen gesprochen und uns mit allen wichtigen politischen Entscheidungsträgern in Brüssel und auf nationaler Ebene getroffen. Wir haben an verschiedenen gemeinsamen Aktionen teilgenommen und waren an der Gründung und Entwicklung von SaveYourInternet.eu zusammen mit dem Copyright for Creativity (C4C) beteiligt.

Bürgerengagement vs. Branchenlobby

Während der Debatten war die Beteiligung von Einzelpersonen und zivilgesellschaftlichen Gruppen entscheidend, um die massiven Lobbyarbeit der Industrie auszugleichen. Im Juli 2018 lehnte das Europäische Parlament dank des Drucks von Tausenden von Menschen, die ihre Mitglieder des Europäischen Parlaments (MdEPs) anriefen, das Mandat ab, mit einem fehlerhaften Vorschlag fortzufahren. Das gab uns die Hoffnung, dass die Stimme der Bürger gehört werden kann, wenn wir laut genug schreien.
Während der Aktionswoche zum Urheberrecht im März 2019, vor der Endabstimmung über die Richtlinie im Europäischen Parlament, schaffte es ein Team von 17 Personen aus ganz Europa bis nach Brüssel und Straßburg. Sie alle haben ihr Studium oder ihren Job für ein paar Tage unterbrochen, um ihre gewählten Vertreter zu treffen und einen letzten Anstoß zu geben, Upload-Filter aus der Urheberrechtsrichtlinie zu streichen. Wir waren beeindruckt von ihrem Engagement und ihrer gründlichen Kenntnis der Folgen, die Artikel 13 im Internet haben könnte. Mehr, Hunderttausende von Menschen gingen in Europa auf die Straße, um gegen Upload-Filter zu protestieren.
Die jüngsten Maßnahmen aller Gegner von Internetfiltern waren nicht umsonst. Mit der Abstimmung über die Richtlinie am 26. März haben 55 Abgeordnete, die zuvor im September 2018 Artikel 17 (früher Artikel 13) unterstützt haben, ihren Standpunkt geändert und waren bereit, ihn aus dem endgültigen Text der Richtlinie zu streichen. Die Streichung hätte durch einen von mehreren Abgeordneten vorgeschlagenen Änderungsantrag erfolgen können. Damit dieser Änderungsantrag angenommen und Artikel 17 gestrichen werden konnte, fand in der Plenarsitzung im März 2019 eine Abstimmung darüber statt, ob der Text zuerst für Änderungen geöffnet werden sollte.

Die Abstimmung: Blaue Pille oder rote Pille?

Am 26. März wurde die Möglichkeit einer Diskussion über die Änderungsanträge zur Streichung der Artikel 11 und 13 (15 und 17 im endgültigen Text) mit einer Differenz von fünf Stimmen abgelehnt. Dreizehn Abgeordnete behaupteten, sie hätten die Debatte eröffnen wollen, um beide Artikel zu streichen, waren aber verwirrt über die vorherige Änderung der Abstimmungsreihenfolge und die offensichtliche Unklarheit, mit der diese Verfahrensabstimmung eingeführt wurde, und stimmten nicht mit „Ja“. Die Abstimmung wurde nur in den Aufzeichnungen korrigiert, hat aber keinen Einfluss auf die tatsächlichen Ergebnisse der Abstimmung. Nach diesem „Fehler“, der es den Abgeordneten unmöglich machte, über die Streichung von Artikel 13/17 abzustimmen, wurde der Text der Richtlinie (einschließlich Artikel 13/17) mit 338 Ja-Stimmen, 283 Nein-Stimmen, 36 Enthaltungen und 93 nicht an der Sitzung teilnehmenden Abgeordneten angenommen.
Obwohl einige politische Entscheidungsträger wiederholt erklärten, dass die Richtlinie nicht zu Upload-Filtern führen wird, stellte sich heraus, dass es sich um Filter handelte. Am Tag nach der Verabschiedung der Richtlinie beeilte sich Frankreich, zu erklären, dass es sicherstellen wird, dass die „Technologien zur Inhaltserkennung“ ein Schlüsselaspekt der künftigen Gesetze zur Umsetzung der Richtlinie sein werden.
Mit der Annahme von Artikel 17 als Teil des Textes der Urheberrechtsrichtlinie schafft die Europäische Union einen schrecklichen Präzedenzfall für den Rest der Welt und fördert die Umsetzung von Uploadfiltern. Zunächst unter dem Vorwand der Urheberrechtsverletzung werden Filter bereits auch im Rahmen von Online- „terroristischen Inhalten“ diskutiert.

Nächste Schritte: EU-Rat und Umsetzung

Die endgültige Abstimmung im Rat der Europäischen Union, in dem die EU-Mitgliedstaaten vertreten sind, ist für den 15. April vorgesehen. Dies ist traditionell eine reine Verfahrensabstimmung – schließlich hat der Rat bereits vor der Endabstimmung des Europäischen Parlaments dem Text zugestimmt, über den sie abstimmen werden. Dies ist jedoch technisch gesehen die letzte Chance, die Upload-Filter loszuwerden. Wenn die Mitgliedstaaten, die sich derzeit gegen die „Zensurmaschine“ wehren (Finnland, Luxemburg, Polen, die Niederlande, Italien und vielleicht Schweden), auf der Seite ihrer Bürger bleiben, wäre der einzige Lichtblick, dass ein Land, das etwa 9,5 % der Bevölkerung der gesamten EU ausmacht, den Text ablehnt. Von diesen Ländern (Deutschland, Frankreich, Spanien) ist der einzige realistische Kandidat Deutschland. Wird die Bundesregierung den Koalitionsvertrag einhalten, der ihnen die Implementierung von Uploadfiltern verbietet? Werden sich andere EU-Länder unter Berücksichtigung der bevorstehenden Wahlen zum Europäischen Parlament (und einiger nationaler Wahlen) für die Bürger einsetzen? Das werden wir bald herausfinden.
Im Falle, dass die Urheberrechtsrichtlinie in Kraft tritt, werden Bürgerrechtsgruppen in der nationalen Umsetzungsphase Upload-Filter ablehnen. Zu den geplanten Maßnahmen gehören mögliche Klagen vor dem Gerichtshof der Europäischen Union (CJEU).

Lesen Sie mehr dazu:

(Beitrag von Diego Naranjo, EDRi)

[Update Datenschutzpiraten: am 15. April hat der Rat der Europäischen Union die Urheberrechtsreform angenommen, mit der Zustimmung Deutschlands]

 

Regulierung terroristischer Inhalte: Erfolgreiche „Schadenskontrolle“ durch das LIBE-Komitee

Von Chloé Berthélémy

Heute, am 8. April 2019, hat der Ausschuss für bürgerliche Freiheiten, Justiz und Inneres des Europäischen Parlaments (LIBE) seinen Bericht über den Vorschlag für eine Verordnung zur Vermeidung terroristischer Inhalte im Internet angenommen.

Der von der Europäischen Kommission im September 2018 veröffentlichte Vorschlag wurde im Rat der Mitgliedstaaten sehr begrüßt, der einige Monate später rasch eine politische Einigung erzielte. Stärkere Vorbehalte wurden jedoch in den verschiedenen Ausschüssen, die für den Vorgang im Europäischen Parlament zuständig sind, geäußert, was zu wesentlichen Änderungen am ursprünglichen Vorschlag der Kommission führte.

Die kritischsten Punkte für den Schutz der Grundrechte im Zusammenhang mit dem Verordnungsvorschlag wurden vom LIBE-Ausschuss in seinem Bericht berücksichtigt:

  • Die Definitionen von „terroristischen Inhalten“ und „Hosting-Service-Providern“ werden präzisiert und mit den bereits vorhandenen Verordnungen zur Terrorismusbekämpfung in Einklang gebracht. Ausnahmen gelten für Bildungs-, Journalistik- oder Forschungsmaterial, und LIBE hat den Anwendungsbereich der Verordnung auf Hosting-Dienstanbieter beschränkt, die Inhalte auf der Anwendungsebene der Öffentlichkeit zugänglich machen, ohne Infrastrukturanbieter sowie Cloud- und Messaging-Dienste.
  • Änderungen des ersten Rechtsakts, der Rückführungsanordnungen, sehen vor, dass eine einzige gerichtliche oder funktional unabhängige zuständige Verwaltungsbehörde gegründet werden sollte. Leider wurde der einstündige Zeitrahmen für die Beantwortung von Löschaufträgen, der für kleinere Dienstleister mit begrenzten Kapazitäten einfach nicht möglich ist, von LIBE nicht geändert, trotz des eklatanten Mangels an Nachweisen für die Notwendigkeit dieser Frist.
  • Die Möglichkeit für die nationalen Behörden, Inhalte auf der Grundlage ihrer Allgemeinen Geschäftsbedingungen zur Löschung an Dienstleister zu verweisen, wird nun aus dem Text gestrichen. Dies ist ein großer Fortschritt, denn dieses Instrument würde zu einer verstärkten Online-Recherchearbeit von Plattformen und einer Umgehung der mit Löschanordnungen verbundenen rechtlichen Garantien führen, um gegen Inhalte vorzugehen, die nicht illegal sind.
  • Der LIBE-Ausschuss hat auch die Verpflichtung zur Proaktivität gestrichen, die den Einsatz automatisierter Tools wie Upload-Filter beinhaltet. Das Parlament bekräftigt eindeutig das Verbot, Plattformen zu verpflichten, die benutzergenerierten Inhalte, die sie auf ihren Diensten hosten, generell zu überwachen (Artikel 15 der E-Commerce-Richtlinie).
  • Schließlich werden die Grundsätze der Rechtsstaatlichkeit und des Schutzes der Grundrechte durch zusätzliche Transparenzanforderungen der zuständigen Behörden und strengere Rechtsbehelfe sowohl für Hosting-Provider als auch für Inhalteanbieter untermauert.

Insgesamt begrüßt EDRi, dass die Kritik der beiden Ausschüsse des Europäischen Parlaments für Binnenmarkt und Verbraucherschutz sowie für Kultur und Bildung, der drei Sonderberichterstatter der Vereinten Nationen sowie einer großen Zahl von Gruppen der Zivilgesellschaft vom LIBE-Ausschuss gehört wurde.

Nächste Schritte

Nach den Wahlen zum Europäischen Parlament im Mai 2019 und der Einsetzung einer neuen EU-Kommission wird der Text Gegenstand mehrerer Trilogverhandlungen zwischen Parlament, Rat und Kommission sein. Diese Klausurtagungen zielen darauf ab, einen Mittelweg zwischen den unterschiedlichen Positionen der drei Verhandlungsführer zu finden. Da der Standpunkt des Rates nicht viel vom Vorschlag der Kommission abgewichen ist, besteht die erhebliche Gefahr, dass die vom Parlament durchgeführte „Schadensbegrenzung“ in der nächsten Phase des politischen Entscheidungsprozesses teilweise wieder rückgängig gemacht wird.

(Beitrag von Chloé Berthélémy, EDRi)

 

Öffentliche Kampagnen zu digitalen Rechten: Zuordnung der Bedürfnisse

Von Claire Fernandez

Im Februar 2019 fand in Berlin das Strategietreffen des Digital Freedom Fund (DFF) statt. Das Treffen war die perfekte Gelegenheit für Experten, Aktivisten und Prozessanwälte aus der breiten Digital- und Menschenrechtsbewegung, um Möglichkeiten der Zusammenarbeit und die Gemeinsamkeiten zu erkunden.

Die Gruppe diskutierte verschiedene Methoden und Wege für den sozialen Wandel in unserem Bereich, wie z.B. Interessenvertretung (Advocacy) und Gerichtsverfahren (Litigation). Als interessante Option erwies sich die öffentliche Kampagne – viele Organisationen wollen eine massive Mobilisierung erreichen, während nur wenige die Instrumente und Mittel entwickelt haben, die zur Erreichung dieses Ziels erforderlich sind. Eine der Gruppendiskussionen konzentrierte sich daher auf die Ermittlung des Bedarfs für europaweite Kampagnen zu digitalen Rechten.

Erstens müssen wir unsere Art und Weise, Kampagnen durchzuführen, definieren, die sich von anderen Bewegungen unterscheiden können. Eine wertorientierte Kampagnenmethode sollte sich mit Fragen wie: Wer finanziert uns? Nehmen wir Geld von den großen Technologieunternehmen und wenn ja, zu welchen Konditionen und in welcher Höhe? Mit wem arbeiten wir zusammen: einer großen, freundlichen Zivilgesellschaft und Industriekoalition oder einer eingeschränkten Kerngruppe von Experten für digitale Rechte? Bezahlen wir für Werbekampagnen auf Social Media oder setzen wir auf datenschutzfreundliche Mobilisierungstechniken? Es wurde vereinbart, dass die Klarheit darüber, wie wir kandidieren und was unsere gemeinsame Botschaft ist, entscheidende Elemente für den Erfolg einer Kampagne sind. Außerdem sollte ein Risikomanagementsystem eingerichtet werden, um Kritik und Angriffe zu vermeiden.

Zweitens ist eine korrekte Feldzuordnung wichtig. Vor und nach der Kampagne sind Meinungsumfragen und Fokusgruppen nützlich. Zu oft neigen wir dazu, mit unseren eigenen Plänen fortzufahren, ohne die betroffenen Gruppen zu konsultieren, wie z.B. diejenigen, die von Hassreden im Internet, Kindesmissbrauch und so weiter betroffen sind.
Drittens wurde der Personal- und Ressourcenbedarf nicht überraschend als Priorität eingestuft. Dazu gehören professionelle Kampagnenleiter, Supportmitarbeiter, Grafiker, Projektmanager und Koordinatoren, Kommunikationsberater und eine zentrale Anlaufstelle für eine europaweite Kampagne.

Schließlich müssen wir Kampagnen-Tools entwickeln und gemeinsam nutzen, die Visuals, Software, Websites, Videos, Prominente und Medienkontakte umfassen. Die Teilnehmer wiesen auch auf die Notwendigkeit einer sicheren Kommunikationsinfrastruktur hin, um Instrumente auszutauschen und Maßnahmen zu koordinieren.

Bei EDRi schwingen all die oben genannten Punkte mit, wenn wir uns auf den Weg machen, unsere Kampagnenkapazität aufzubauen und mehrere paneuropäische Kampagnen zu leiten. So hat beispielsweise eine der aktuellen Kampagnen, an denen wir beteiligt waren – die SaveYourInternet.eu-Kampagne zur Urheberrechtsrichtlinie der Europäischen Union – gezeigt, wie wichtig es ist, diese Bedürfnisse zu erfüllen. Während dieser speziellen Kampagne sind Menschenrechtsaktivisten mit beispiellosen Vorwürfen konfrontiert worden, von Google und ähnlichen Akteuren bezahlt zu werden und gegen den Grundsatz einer gerechten Vergütung für Künstler zu verstoßen. Trotz Desinformationswellen, Ablenkungsmanövern und unseren kleinen Ressourcen war die breite Mobilisierung der Öffentlichkeit gegen problematische Teile der Richtlinie wie Upload-Filter wirklich beeindruckend. Wir haben mehr als fünf Millionen Petitionen unterschrieben, über 170 000 Demonstranten in ganz Europa, Dutzende von Aktivisten, die Mitglieder des Europäischen Parlaments treffen, und beeindruckende Engagement-Raten in den sozialen Medien erlebt. Das Europäische Parlament hat für die gesamte Urheberrechtsrichtlinie einschließlich umstrittener Artikel gestimmt, die nur mit einem sehr knappen Vorsprung gewonnen wurde, was die Auswirkungen der Kampagne zeigt.

Das EDRi-Netzwerk und die breitere Bewegung müssen Lehren aus der Urheberrechtskampagne ziehen und unsere Kampagnenkapazitäten richtig aufbauen. EDRi hat diesen Prozess während seiner Generalversammlung vom 7. bis 8. April in London eingeleitet. Der DFF-Strategie-Workshop in Berlin hat uns viel Denkanstoß für diesen Prozess gegeben.

Dieser Artikel wurde erstmals vom Digital Freedom Fund (DFF) veröffentlicht

(Beitrag von Claire Fernandez, EDRi)

 

UK: Strategie gegen Online-Schädigungen muss Grundrechte integrieren

Von der Open Rights Group

Nach monatelangen Wartezeiten und Spekulationen hat das britische Ministerium für Digital, Kultur, Medien und Sport (DCMS) endlich sein Weißbuch über Online-Schädigungen (Online-Harms) veröffentlicht, das nun als gemeinsame Publikation mit dem Innenministerium erscheint. Der Vorschlag für die erwartete Sorgfaltspflicht liegt vor, aber die inhaltlichen Details darüber, was dies tatsächlich bedeutet, bleiben spärlich: Es wäre vielleicht genauer, dieses Papier als „nebulös“ zu beschreiben.

DCMS hat sich im vergangenen Jahr zunehmend auf die Idee fixiert, Social Media Plattformen eine Sorgfaltspflicht aufzuerlegen, indem es dies als eine flexible und entpolitisierende Möglichkeit sieht, Kinder und Jugendliche den Gefahren gegenüber bestimmten Online-Inhalten auszusetzen und Facebook insbesondere für die hässlichere und dunklere Seite seines nutzergenerierten Materials verantwortlich zu machen.

DCMS spricht viel über den „Schaden“, den Social Media verursacht, aber seine Vorschläge erklären nicht, wie Schaden auf das Recht der freien Meinungsäußerung vermieden werden kann.

Positiv ist zu vermerken, dass die freie Meinungsäußerung online als ein Kernwert aufgeführt wird, der von der Regulierungsbehörde geschützt und behandelt werden muss. Trotz der offensichtlichen Bedeutung dieses Wertes werden die Mechanismen zur Gewährleistung dieses Schutzes und die anstehenden Probleme jedoch überhaupt nicht im Detail untersucht.

Online-Plattformen verhalten sich in vielen Fällen bereits so, als hätten sie eine Sorgfaltspflicht gegenüber ihren Nutzern. Obwohl die Wirksamkeit solcher Maßnahmen in der Praxis diskutiert werden kann, sind die Allgemeinen Geschäftsbedingungen, die aktive Moderation von Beiträgen und die algorithmische Entscheidung, welche Inhalte verschoben oder heruntergestuft werden, darauf ausgerichtet, illegale Aktivitäten zu beseitigen und offene und einladende gemeinsame Räume zu schaffen. DCMS hat in dem Weißbuch nicht dargelegt, was seine vorgeschlagene Pflicht bedeuten würde. Wenn es eng gezogen wird, so dass es nur dann greift, wenn es klare Anzeichen für einen realen, greifbaren Schaden und einen Grund zum Eingreifen gibt, wird sich nicht viel ändern. Wenn es jedoch weit gefasst ist und zu viel Inhalt zusammenfasst, wird es als Rechtfertigung für eine weit verbreitete Internet-Zensur dienen.

Wenn Plattformen benötigt werden, um zu verhindern, dass potenziell schädliche Inhalte veröffentlicht werden, ist dies ein Anreiz für eine weit verbreitete vorherige Zurückhaltung. Plattformen können nicht immer im Voraus den tatsächlichen Schaden erkennen, den Online-Inhalte verursachen können, noch können sie genau vorhersagen, was Menschen sagen oder tun werden, wenn sie auf ihrer Plattform sind. Die einzige Möglichkeit, eine Haftung zu vermeiden, besteht darin, weitreichende Upload-Filter einzuführen. Die skalierte Umsetzung setzt auf automatisierte Entscheidungsfindung und Algorithmen, was zu noch größeren Einschränkungen führt, da Maschinen nicht in der Lage sind, nuancierte Unterscheidungen vorzunehmen oder Parodien oder Sarkasmen zu erkennen.

Die Politik von DCMS wird durch gesellschaftlich positive Absichten untermauert, aber in ihrem Bestreben, das Internet „sicher“ zu machen, scheint die Regierung nicht zu erkennen, dass ihre Vorschläge letztlich nicht die Social Media Unternehmen regulieren, sondern die Social Media Nutzer. Die Sorgfaltspflicht zielt angeblich darauf ab, Kinder vor Gefahren und Schäden zu schützen, aber sie wird in der Praxis auch Erwachsene treffen, die Gesellschaft in Watte wickeln und eine ganze Reihe von Rechten einschränken.

Obwohl das System eine gesetzliche Grundlage haben wird, hängt seine Ausgestaltung von den von der Regulierungsbehörde ausgearbeiteten Verhaltenskodizes ab. Dies macht es schwierig zu beurteilen, wie sich der Sorgfaltsrahmen letztendlich entwickeln wird.
Die Sorgfaltspflicht scheint sich weitgehend darauf zu beziehen, ob systemische Interventionen das allgemeine „Risiko“ reduzieren. Aber muss das Risiko immer für eine identifizierbare Person bestehen, oder kann es breiter sein – für identifizierbare gefährdete Gruppen? Für die Gesellschaft als Ganzes? Welche Nachweise für Schäden sind erforderlich, bevor Plattformen eingreifen können? Das sind alles Fragen, die derzeit noch unbeantwortet bleiben.

Der Ansatz von DCMS scheint zu sein, dass es Aufgabe der Regulierungsbehörde sein wird, diese Fragen zu beantworten. Aber während ein vernünftiger Regulator einen minimalistischen Blick darauf werfen könnte, inwieweit kommerzielle Entscheidungen, die von Plattformen getroffen werden, beeinträchtigt werden sollten, ist es ein gefährlicher Grundsatz, wenn die Regierung sich davon distanziert, die volle Verantwortung für die Feinabstimmung dieses vorgeschlagenen Systems zu übernehmen. Es bedarf Gespräche darüber, wie man das Internet aus der Öffentlichkeit und in demokratischen Foren heraus überwachen kann. Sie ermöglicht es der Regierung, sich dafür zu entscheiden, keinen transparenten, gerichtlich überprüfbaren Rechtsrahmen zu schaffen. Und es ermöglicht DCMS, das Papier in eine zutiefst problematische politische Idee zu lenken, ohne sich mit der praktischen Realität auseinanderzusetzen, wie sich dieses System auf die freie Meinungsäußerung der britischen Bürger auswirken wird, sowohl in naher Zukunft als auch für die kommenden Jahre.

Wie die Regierung in diesem Fall beschließt, Gesetze zu erlassen und zu regulieren, wird zu einer globalen Norm führen.

Die britische Regierung ist eindeutig bestrebt, internationale Bemühungen zur Regulierung von Online-Inhalten zu leiten. Sie weiß, dass, wenn das Ergebnis der Sorgfaltspflicht ist, die Funktionsweise von Social Media Plattformen zu ändern, die weltweit gelten werden. Aber um ein weltweit führendes Unternehmen zu sein, muss DCMS aufhören, die Politik auf isolierte Themen und Anekdoten zu stützen, und sich in einem breiteren Gespräch damit befassen, wie wir als Gesellschaft das Internet aussehen lassen wollen. Andernfalls werden sowohl repressive als auch demokratische Regierungen das aus diesem Prozess hervorgegangene Politik- und Regulierungsmodell wahrscheinlich als Blaupause für eine breitere Internet-Zensur nutzen.

Der Anfang März 2019 veröffentlichte Bericht des britischen Oberhauses über die Zukunft des Internets enthält zehn Grundsätze, die seiner Meinung nach die digitale Politikgestaltung unterstützen sollten, einschließlich der Bedeutung des Schutzes der freien Meinungsäußerung. Die mit diesem Weißbuch eingeleitete Konsultation bietet eine positive Gelegenheit, in Industrie, Zivilgesellschaft, Wissenschaft und Regierung gemeinsam darüber nachzudenken, wie die negativen Aspekte der sozialen Medien angegangen und die Risiken gemildert werden können. Wenn die Regierung mit diesem Prozess ihre Unterstützung für das Grundrecht auf freie Meinungsäußerung bekräftigen würde – und zwar in einer Weise, die über die bloße Meinungsäußerung hinausgeht -, würde dies auch weltweit nachklingen, insbesondere in einer Zeit, in der die Presse und die journalistische Freiheit angegriffen werden.

Das Weißbuch drückt den klaren Wunsch der Technologieunternehmen aus, „Design in Safety“ zu entwickeln. Da der Konsultationsprozess nun beginnt, fordert das EDRi-Mitglied Open Rights Group (ORG) DCMS auf, „Design in Grundrechten“ zu entwickeln. Die Meinungsfreiheit selbst ist ein Rahmen, der nicht leichtfertig aufgegeben werden sollte. ORG begrüßt die Möglichkeit, sich weiter mit DCMS zu diesem Thema zu befassen: Bevor sich politische Ideen durchsetzen, sollte die Regierung gründlich prüfen, ob diese wirklich zu Ergebnissen führen, die für alle gut sind.

(Beitrag von Jim Killock und Amy Shepherd, EDRi-Mitglied Open Rights Group, Großbritannien)

 

Deutsche Übersetzung der englischsprachigen Originalbeiträge von EDRi von Lutz Martiny

0 Kommentare zu “EDRi-gram 17.7, 10. April 2019

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.