- Griechenland: Das neue Datenschutzgesetz wirft Fragen auf
- Twitter verbietet politische Werbung – die Spitze des Eisbergs
- Portugiesische ISPs ignorieren die Empfehlungen der Telekom-Regulierungsbehörde
- Dänische Datenspeicherung: Nach schwerer Krise wieder normalisiert
- Warum Technologie nicht „nur ein Werkzeug“ ist
- Hassrede online: Lektionen zum Schutz der freien Meinungsäußerung
Griechenland: Das neue Datenschutzgesetz wirft Fragen auf
Von Homo Digitalis
Am 29. August 2019 trat das lang erwartete neue griechische Datenschutzgesetz in Kraft. Das Gesetz (4624/2019) setzt sowohl die Bestimmungen der EU-Richtlinie zur Rechtsdurchsetzung (LED, 2016/680) als auch die Europäische Datenschutzgrundverordnung (DSGVO) auf nationaler Ebene um. Seit den ersten Tagen nach der Verabschiedung des Gesetzes wurde jedoch viel Kritik an der mangelnden Übereinstimmung seiner Bestimmungen mit der DSGVO geäußert.
Das griechische Datenschutzgesetz wurde im Anschluss an die Entscheidung der Kommission vom Juli 2019, Griechenland vor dem Gerichtshof der Europäischen Union (EuGH) zu verklagen, weil es die LED nicht rechtzeitig umgesetzt hat, erlassen. So haben die nationalen Behörden schnell gehandelt, um ein neues Datenschutzgesetz zu verabschieden. Leider wurde der Prozess überstürzt durchgeführt. Infolgedessen weist das neue Datenschutzgesetz erhebliche Mängel auf und enthält Artikel, die die Bestimmungen der LED oder sogar der DSGVO in Frage stellen.
Im September 2019 richtete der griechische EDRi-Beobachter Homo Digitalis zusammen mit einer griechischen Verbraucherschutzorganisation EKPIZO ein gemeinsames Ersuchen an die griechische Datenschutzbehörde (DPA), eine Stellungnahme zur Konformität des griechischen Rechts mit den Bestimmungen der LED und der DSGVO abzugeben. Die DPA hat Anfang Oktober 2019 in einer Pressemitteilung angekündigt, dass sie zu gegebener Zeit eine Stellungnahme abgeben wird. Darüber hinaus hat Homo Digitalis am 24. Oktober 2019 eine neue Beschwerde bei der Europäischen Kommission über die Bestimmungen des griechischen Datenschutzgesetzes eingereicht, die das EU-Datenschutzsystem in Frage stellen.
Um sich einen umfassenden Überblick über das griechische Recht zu verschaffen, wandte sich Homo Digitalis an eine der prominentesten Datenschutzexperten Griechenlands, Professor Lilian Mitrou, die freundlicherweise ihre Ansichten über die positiven und negativen Aspekte des neuen Datenschutzgesetzes teilte.
Professor Mitrou erklärt, dass der griechische Gesetzgeber die Verarbeitung sensibler Daten (genetische Daten, biometrische Daten oder Daten zur Gesundheit) weiter eingeschränkt hat. So ist nach Artikel 23 des neuen griechischen Gesetzes die Verarbeitung genetischer Daten für Kranken- und Lebensversicherungen ausdrücklich verboten. „In dieser Hinsicht schließt das griechische Gesetz durch das Verbot der Verwendung genetischer Erkenntnisse im Versicherungsbereich das Risiko aus, dass Ergebnisse der genetischen Diagnose zur Diskriminierung von Menschen verwendet werden“, sagt sie.
Ein starker Kritikpunkt betrifft jedoch die Bestimmungen über die Zweckbindung. Das griechische Gesetz sieht sehr weitreichende und vage Ausnahmen vom Grundsatz der Zweckbindung vor, der die weitere Verwendung von Daten für inkompatible Zwecke verbietet. „So dürfen beispielsweise private Unternehmen auf Anfrage einer öffentlichen Einrichtung personenbezogene Daten verarbeiten, um Bedrohungen der nationalen oder öffentlichen Sicherheit zu verhindern. Auch im Hinblick auf die Einschränkungen der Rechte der betroffenen Personen werden ernsthafte Bedenken geäußert“, betont Professor Mitrou.
Sie erinnert daran, dass der griechische Gesetzgeber „die in Artikel 23 der DSGVO zulässigen Beschränkungen zur Einschränkung des Rechts auf Information, des Rechts auf Zugang und des Rechts auf Berichtigung und Löschung umfassend genutzt hat“. Diese Beschränkungen wurden jedoch erlassen, ohne die in Artikel 23 Absatz 2 DSGVO vorgesehenen Garantien vollständig zu erfüllen. Darüber hinaus enthält das griechische Gesetz Bestimmungen, die es dem für die Datenverarbeitung Verantwortlichen ermöglichen, Daten auf Verlangen der betroffenen Person nicht zu löschen, falls der für die Datenverarbeitung Verantwortliche Grund zu der Annahme hat, dass eine Löschung die berechtigten Interessen der betroffenen Person beeinträchtigen würde. Somit ist der für die Datenverarbeitung Verantwortliche nach dem griechischen Gesetzgeber berechtigt, den Willen der betroffenen Person zu ersetzen.
„Das griechische Gesetz hat die DSGVO nicht als Standard-Grenze eingehalten und (missbräuchliche) Öffnungsklauseln und den Ermessensspielraum der Mitgliedstaaten genutzt, um das Datenschutzniveau nicht zu verbessern, sondern zu senken“, schließt Professor Mitrou.
Das Datenschutzgesetz 4624/2019 (nur auf Griechisch 29.08.2019)
Offizielle Anfrage an die griechische Datenschutzbehörde zur Abgabe eines Rechtsgutachtens zum Gesetz 4624/2019 (20.09.2019)
Homo Digitalis über eine Seminarbesprechung zum Gesetz 4624/2019 (24.09.2019)
Beschwerde von Homo Digitalis bei der Europäischen Kommission gegen das neue Datenschutzgesetz 4624/2019 (PDF, 24.10.2019)
Beitrag von Eleftherios Chelioudakis, EDRi-Beobachter Homo Digitalis, Griechenland
Twitter verbietet politische Werbung – die Spitze des Eisbergs
Von Chloé Berthélémy
Twitter scheint die Lehren aus den US-Wahlen 2019 gezogen zu haben. Nach der Enthüllung des Cambridge Analytica-Skandals wurde der Zusammenhang zwischen dem Einsatz von Social Media gezielter politischer Werbung und dem Wahlverhalten bestimmter Personengruppen immer wieder neu untersucht und erläutert. Wir verstehen jetzt, wie Social Media Plattformen wie Facebook und Twitter eine entscheidende Rolle bei unseren Wahlen und anderen demokratischen Prozessen spielen und wie irreführende Informationen, die sich schneller und weiter verbreiten als wahre Geschichten auf diesen Plattformen, die Wähler bemerkenswert manipulieren können.
Als Facebook-CEO Marc Zuckerberg von der Repräsentantin Alexandria Ocasio-Cortez in einer Anhörung des Ausschusses für Finanzdienstleistungen des US-Hauses am 23. Oktober gegrillt wurde, gab er zu, dass, wenn die Republikaner für die Verbreitung einer Lüge über ihre Dienste bezahlen würden, dies wahrscheinlich nicht verboten wäre. Politische Werbung wird keiner Sachverhaltsprüfung unterzogen, die theoretisch zur Ablehnung oder Blockierung dieser beworbenen Inhalte führen könnte. Nach Zuckerbergs Vision hilft eine offene öffentliche Debatte, wenn ein Politiker lügt, diese Lügen aufzudecken, und die Wähler machen den Politiker verantwortlich, indem sie seine Ideen ablehnen. Der Grundsatz der Redefreiheit weicht von genau dieser Vorstellung ab, dass alle Aussagen diskutiert werden sollten, und die schlechten würden natürlich beiseite geschoben. Das einzige Problem ist, dass weder Facebook noch Twitter eine Infrastruktur für eine so offene öffentliche Debatte bieten.
Diese Unternehmen zeigen Inhalte nicht neutral und universell für alle. Was man sieht, spiegelt wider, was ihre persönlichen Daten über ihr Leben, ihre Vorlieben und Gewohnheiten preisgeben. Die Informationen werden selektiv und eng definiert an jeden Benutzer gesendet, in Übereinstimmung mit dem, was die Algorithmen über die vergangenen Online-Aktivitäten dieser Person ergeben haben. Daher erfassen so genannte „Filterblasen“, kombiniert mit der menschlichen Neigung zur Bestätigungsverzerrung, Personen in begrenzten Informationsumgebungen. Diese verhindern, dass sich Menschen auf der Grundlage vielfältiger Informationsquellen eine Meinung bilden – ein Grundprinzip der offenen öffentlichen Debatte.
Einige Parteien in dieser Diskussion möchten offiziell den Status kritischer Infrastrukturen anerkennen, den dominante Social Media in unseren Gesellschaften haben, und betrachten ihre Plattformen als den neuen Ort, an dem die Öffentlichkeit stattfindet. Dies würde bedeuten, dass die bestehenden Gesetze über Fernsehsender und Radiosender, die sie verpflichten, bestimmte Arten von Inhalten zu übertragen und andere auszuschließen, auf Social Media-Plattformen angewendet werden. In Anbetracht der Menge an Inhalten, die jede Minute auf jeder dieser Plattformen veröffentlicht werden, wäre der Rückgriff auf automatische Filtermaßnahmen unvermeidlich. Dies würde auch ihre Macht über die Sprache und Gedanken der Menschen festigen.
Das Verbot politischer Werbung ist ein positiver Schritt zur Verringerung des Schadens, der durch die Verstärkung falscher Informationen verursacht wird. Allerdings fehlt bei dieser Maßnahme noch der Punkt: Das wichtigste Problem ist das Micro-Targeting. Das Verbot politischer Werbung wird das Micro-Targeting wahrscheinlich nicht aufhalten, da dies das Geschäftsmodell aller großen Social-Media-Unternehmen, einschließlich Twitter, ist.
Der erste Schritt des Micro-Targeting ist das Profiling. Das Profiling besteht darin, so viele Daten wie möglich über jeden Benutzer zu sammeln, um Verhaltenstracking-Profile zu erstellen – es wurde nachgewiesen, dass Facebook diese Sammlung auch auf diejenigen erweitert hat, die ihre Plattform nicht nutzen. Das Profiling wird ermöglicht, indem der Benutzer auf der Plattform gefangen gehalten wird und so viel Aufmerksamkeit und „Engagement“ wie möglich erregt wird. Die „Aufmerksamkeitsökonomie“ basiert auf Inhalten, die uns das Scrollen, Kommentieren und Klicken erleichtern. Welcher Inhalt den Job macht, wird anhand unserer Tracking-Profile vorhergesagt. Normalerweise sind es beleidigende, schockierende und polarisierende Inhalte. Aus diesem Grund ist der politische Inhalt einer der effektivsten bei der Gewinnmaximierung. Es besteht keine Notwendigkeit, dass es bezahlt wird.
Twitter-CEO Jack Dorsey bekräftigt zu Recht, dass es sich hierbei nicht um ein Problem der Meinungsfreiheit handelt, sondern um eine Querschnittsfrage, auf die kein Grundrecht besteht. Im Gegenteil, das Recht auf Datenschutz und Privatsphäre sind Menschenrechte, und es ist höchste Zeit für die Europäische Union, sie gegen schädliche Profilierungsverfahren zu begründen. Ein Schritt in diese Richtung wäre die Annahme einer starken ePrivacy-Verordnung. Diese Rechtsvorschrift würde die Garantien der Allgemeinen Datenschutzverordnung (GDPR) verstärken. Es würde sicherstellen, dass die Privatsphäre durch standardmäßiges Design gewährleistet ist. Schließlich würde es das perverse Modell des Online-Tracking angehen.
Richtig und falsch: ePrivacy jetzt! (9.10.2019)
Offener Brief an die EU-Mitgliedstaaten: Jetzt ePrivacy bereitstellen! (10.10.2019)
Zivilgesellschaft fordert Rat auf, ePrivacy jetzt zu verabschieden (5.12.2018)
EU-Wahlen – Schutz unserer Daten zum Schutz vor Manipulationen (08.05.2019)
Beitrag von Chloé Berthélémy, EDRi
Portugiesische ISPs ignorieren die Empfehlungen der Telekom-Regulierungsbehörde
Von D3 Defesa dos Direitos Digitais
Im Jahr 2018 forderte die portugiesische Telekom-Regulierungsbehörde ANACOM die drei großen portugiesischen Mobilfunk-Internetdienstanbieter (ISPs) auf, Angebote zu ändern, die gegen die EU-Netzneutralitätsregeln verstoßen. Die Regulierungsbehörde empfahl unter anderem, dass ISPs ihre Allgemeinen Geschäftsbedingungen veröffentlichen und das Datenvolumen ihrer mobilen Datenpakete erhöhen, um sie näher an ihr Nulltarifangebot heranzuführen. In Portugal sind die durchschnittlichen mobilen Datenmengen klein, gehören aber zu den teuersten in Europa. Der im Juni 2019 veröffentlichte Neutralitätsbericht von ANACOM zeigt, wie die ISPs auf die Intervention der Regulierungsbehörde reagiert haben.
Die Betreiber haben zwar der Entscheidung von ANACOM über die differenzierte Behandlung des Verkehrs nach Ausschöpfung der allgemeinen Datenobergrenze entsprochen, aber das war alles, was sie erreicht haben. Was die Zunahme des Datenvolumens betrifft, so haben alle drei großen Betreiber die Forderung von ANACOM einfach ignoriert. Keiner von ihnen änderte seine Angebote. Einer der Betreiber behauptete stattdessen, dass „die aktuelle Obergrenze an die Nachfrage angepasst ist“.
Dann hatte ANACOM die ISPs gebeten, die Bedingungen zu veröffentlichen, unter denen andere Unternehmen und ihre Anwendungen in die Null-Rating-Pakete aufgenommen werden können. Das Ergebnis: Auch diese Empfehlung wurde von allen Betreibern ignoriert.
Überraschenderweise war die Reaktion der Regulierungsbehörde bestenfalls lauwarm. Anstatt die ISPs scharf zu kritisieren, weil sie ihren Empfehlungen nicht nachgekommen sind, erklärte sie, dass sie „alle Angelegenheiten, die diese Empfehlungen betreffen, weiterhin überwachen werden“, und dass dies mit „weiteren Analysen im Rahmen der Netzneutralität [….]“ fortgesetzt wird.
Der portugiesische EDRi-Beobachter D3 Defesa dos Direitos Digitais bedauert den Mangel an Willen und Mut seitens der ANACOM, den schädlichen Praktiken der ISP ein Ende zu setzen. Die Nullbewertung schadet den Verbrauchern und dem freien Wettbewerb, indem sie die Wettbewerbsbedingungen zugunsten einiger weniger ausgewählter, dominanter Anwendungen verschiebt, und stellt eine Bedrohung für ein freies und neutrales Internet dar. Indem ANACOM nicht gegen Preisdiskriminierungspraktiken zwischen Anwendungen vorgeht und seine Maßnahmen auf die technische Diskriminierung des Verkehrs beschränkt, zeigt es keine Absicht, auf das zugrundeliegende Problem der Nulltarifangebote einzugehen.
Das Ergebnis ist, dass in Portugal die mobilen Datenmengen im Durchschnitt gering sind und die Preise zu den höchsten in Europa gehören. Die Nutzer leiden unter einem überkonzentrierten Markt – drei große ISPs teilen sich 98% des Marktes. In diesem Umfeld können es sich die führenden Unternehmen leisten, die öffentlichen Empfehlungen der Regulierungsbehörde ohne praktische Konsequenzen zu ignorieren. Der Gesetzgeber hat die seit 2015 EU-rechtlich vorgeschriebenen Bußgelder für Nettoneutralitätsverletzungen nicht eingeführt.
Dieser Artikel ist eine Anpassung eines Artikels, der hier zu finden ist
D3 Defesa dos Direitos Digitais
Portugiesische ISPs haben 40 Tage Zeit, um die EU-Nettoneutralitätsregeln einzuhalten (07.03.1018).
Zivilgesellschaft fordert portugiesische Telekom-Regulierungsbehörde auf, die Netzneutralität zu wahren (23.04.2018)
Beitrag von Eduardo Santos, EDRi-Beobachter D3 Defesa dos Direitos Digitais, Portugal
Dänische Datenspeicherung: Nach schwerer Krise wieder normalisiert
Von IT-Pol
Die dänische Polizei und das Justizministerium betrachten den Zugang zu Daten der elektronischen Kommunikation als ein entscheidendes Instrument zur Ermittlung und Verfolgung von Straftaten. In Dänemark bestehen trotz der Urteile des Gerichtshofs der Europäischen Union (EuGH) in den Jahren 2014 und 2016, die die allgemeine und wahllose Datenspeicherung nach EU-Recht für rechtswidrig erklärten, noch immer rechtliche Anforderungen an die pauschale Datenspeicherung, die ursprünglich die EU-Richtlinie zur Datenspeicherung umgesetzt haben.
Im März 2017, nach dem Tele2-Urteil, teilte der dänische Justizminister dem Parlament mit, dass es notwendig sei, das dänische Datenschutzgesetz zu ändern. Bei der illegalen Datenspeicherung scheint die politische Bereitschaft zur Wahrung der Rechtsstaatlichkeit jedoch gering zu sein – jedes Jahr wird die Revision von der dänischen Regierung mit Zustimmung des Parlaments unter Berufung auf verschiedene formelle Ausreden verschoben. Derzeit hofft die dänische Regierung offiziell, dass der EuGH die Rechtsprechung des Tele2-Urteils in den neuen Fällen der Datenspeicherung aus Belgien, Frankreich und dem Vereinigten Königreich, die voraussichtlich im Mai 2020 entschieden werden, ändern wird. Diese jüngste Verschiebung, die am 1. Oktober 2019 angekündigt wurde, erregte in den Medien kaum Aufmerksamkeit.
Seit dem 17. Juni 2019, als der Öffentlichkeit bekannt wurde, dass fehlerhafte Daten der elektronischen Kommunikation seit 2012 bei bis zu 10000 polizeilichen Ermittlungen und Strafverfahren als Beweismittel verwendet wurden, ist die Datenspeicherung jedoch aus anderen Gründen fast ständig in den Nachrichten. Die Auswirkungen des Falles, der von den Medien schnell als „Telekommunikationsdatenskandal“ bezeichnet wurde, zeigen, dass die dänische Polizei seit fast zehn Jahren schwerwiegende Mängel bei der Datenverwaltung aufweist. Dies ist natürlich sehr beunruhigend für das Funktionieren des Strafrechtssystems und das Recht auf ein faires Verfahren, aber auch ziemlich überraschend angesichts der konsequenten offiziellen Position der dänischen Polizei, dass der Zugang zu Telekommunikationsdaten ein entscheidendes Instrument zur Untersuchung von Straftaten ist. Das Missverhältnis zwischen den öffentlichen Behauptungen über den Zugang zu Telekommunikationsdaten, die entscheidend sind, und der Aufmerksamkeit, die der ordnungsgemäßen Datenverwaltung gewidmet wird, könnte kaum größer sein.
Nach den ersten Berichten vom Juni 2019 wurden die fehlerhaften Daten durch ein IT-System verursacht, mit dem die dänische Polizei Telekommunikationsdaten verschiedener Mobilfunkanbieter in ein gemeinsames Format konvertiert. Anscheinend hat das IT-System manchmal Teile der von Mobilfunkanbietern empfangenen Daten verworfen. Im Sommer 2019 wurde eine neue Fehlerquelle identifiziert. In einigen Fällen hatte das Datenkonvertierungssystem die Geolokalisierungsposition von Mobilfunkmasten um bis zu 200 Meter verändert.
Auf der Grundlage der neuen Informationen über unfreiwillige Manipulationen von Beweismitteln beschloss der Direktor der Staatsanwaltschaft am 18. August 2019, die Verwendung von Telekommunikationsdaten als Beweismittel in Strafverfahren und Untersuchungshaftfällen vorübergehend für zwei Monate zu verbieten. Etwas unbedeutend ist, dass die Polizei die potenziell fehlerhaften Daten noch für Ermittlungszwecke verwenden könnte. Da Telekommunikationsdaten in Dänemark häufig in Strafverfahren verwendet werden, z.B. als Beweis dafür, dass sich eine angeklagte Person in der Nähe des Tatortes befand, führte das zweimonatige Moratorium dazu, dass eine Reihe von Strafverfahren verschoben wurde. Darüber hinaus wurden etwa 30 Personen aus der Untersuchungshaft entlassen, was auch außerhalb Dänemarks für Aufmerksamkeit in den Medien sorgte.
Ende August 2019 beauftragte die dänische Nationalpolizei das Beratungsunternehmen Deloitte mit einer externen Untersuchung des Umgangs mit Telekommunikationsdaten und mit Empfehlungen zur Verbesserung der Datenmanagement-Praktiken. Der Bericht von Deloitte wurde am 3. Oktober 2019 zusammen mit Aussagen der dänischen Nationalpolizei, des Direktors der Staatsanwaltschaft und des Justizministeriums veröffentlicht.
Der erste Teil des Berichts identifiziert die wichtigsten technischen und organisatorischen Ursachen für die fehlerhaften Daten. Das IT-System, das für die Konvertierung von Telekommunikationsdaten in ein gemeinsames Format verwendet wurde, enthielt einen Timer, der die konvertierten Daten manchmal an den Polizeifahnder übermittelte, bevor der Konvertierungsauftrag abgeschlossen war. Dies erklärt, zumindest auf technischer Ebene, warum Teile der von Mobilfunkanbietern empfangenen Daten manchmal verworfen wurden. Der Timerfehler betraf hauptsächlich große Datensätze, wie z.B. mobile Tower-Dumps (Informationen über alle mobilen Geräte in einem bestimmten geografischen Gebiet und Zeitraum) und den Zugriff auf historische Standortdaten für einzelne Teilnehmer.
Die Fehler in den Geolokalisierungsinformationen für Mobilfunkmasten, die das Moratorium vom August ausgelöst haben, sind auf Fehler bei der Umrechnung von geographischen Koordinaten zurückzuführen. Mobilfunkanbieter in Dänemark verwenden zwei verschiedene Systeme für geographische Koordinaten, und die Polizei verwendet intern ein drittes System. Während eines kurzen Zeitraums im Jahr 2016 wurde der Umwandlungsalgorithmus zweimal auf einige mobile Turmdaten angewendet, die die Geolokalisierungspositionen um einige hundert Meter verschoben haben.
Auf den ersten Blick sollten diese Fehler im IT-System relativ einfach zu beheben sein, aber der Deloitte-Bericht zeigt auch grundlegendere Mängel in den polizeilichen Praktiken im Umgang mit Telekommunikationsdaten auf. Kurz gesagt, der Bericht beschreibt die IT-Systeme und die zugehörige IT-Infrastruktur als komplex, veraltet und schwer zu warten. Das IT-System zur Konvertierung von Telekommunikationsdaten wurde intern von der Polizei entwickelt und von einem einzigen Mitarbeiter betreut. Vor Dezember 2018 gab es keine administrativen Praktiken für die Qualitätskontrolle des Datenkonvertierungssystems, nicht einmal einfache Kontrollen, um sicherzustellen, dass der gesamte von Mobilfunkanbietern empfangene Datensatz ordnungsgemäß konvertiert wurde.
Die einzige praktikable Lösung für die dänische Polizei besteht nach der Bewertung im Bericht darin, eine völlig neue Infrastruktur für den Umgang mit Telekommunikationsdaten zu entwickeln. Deloitte empfiehlt, dass die neue Infrastruktur auf Standardsoftwareelementen basieren sollte, die weltweit akzeptiert werden, und nicht auf intern entwickelten Systemen, die nicht verifizierbar sind. Konkret schlagen die Berichte vor, POL-INTEL, ein großes Datenpolicing-System von Palantir Technologies, für die neue IT-Infrastruktur einzusetzen. Kurzfristig werden einige Investitionen in die bestehende Infrastruktur erforderlich sein, um die Stabilität der bestehenden IT-Systeme zu verbessern und das Risiko der Entstehung neuer Datenfehler zu verringern. Schließlich empfiehlt der Bericht eine systematische unabhängige Qualitätskontrolle und Datenvalidierung durch einen externen Anbieter. Die dänische Nationalpolizei hat alle Empfehlungen des Berichts akzeptiert.
Deloitte veröffentlichte auch eine kurze Informationsschrift über die Verwendung von Telekommunikationsdaten in Strafsachen. Die Briefing Note, die sich an Polizeibeamte, Staatsanwälte, Verteidiger und Richter richtet, erläutert die grundlegenden Anwendungsfälle von Telekommunikationsdaten bei polizeilichen Ermittlungen sowie Informationen darüber, wie die Daten in Mobilfunknetzen erzeugt werden. Es werden auch die möglichen Unsicherheiten und Einschränkungen der Telekommunikationsdaten erwähnt. So wird beispielsweise darauf hingewiesen, dass sich mobile Geräte nicht unbedingt mit dem nächstgelegenen mobilen Turm verbinden, so dass nicht einfach davon ausgegangen werden kann, dass sich der Benutzer des Geräts in der Nähe des mobilen Turms mit einer Genauigkeit von fast „GPS-Niveau“ befindet. Damit wird eine häufige Kritik an der Polizei und der Staatsanwaltschaft wegen überhöhter Genauigkeit der mobilen Standortdaten angesprochen – ein Thema, das von der Zeitung „Information“ in einer Reihe von Artikeln im Jahr 2015 ausführlich behandelt wurde. Interessanterweise wird in der Briefing Note auch die Möglichkeit erwähnt, Telefonnummern zu fälschen, so dass der eingehende Anruf oder die SMS aus einer anderen Quelle stammen kann als die vom Mobilfunkanbieter im Rahmen seiner Datenspeicherungspflicht registrierte Telefonnummer.
Am 16. Oktober 2019 beschloss der Direktor der Staatsanwaltschaft, das Moratorium für die Nutzung von Telekommunikationsdaten nicht zu verlängern. Zusammen mit dieser Entscheidung erließ der Direktor neue und spezifischere Anweisungen für Staatsanwälte bezüglich der Nutzung von Telekommunikationsdaten. Die Deloitte-Briefing Note sollte Teil des Strafverfahrens sein (und an den Strafverteidiger verteilt werden), und die Ermittler der Polizei sind verpflichtet, den Staatsanwälten einen Qualitätskontrollbericht mit einer Bewertung möglicher Fehlerquellen und Unsicherheiten bei der Interpretation der in dem Fall verwendeten Telekommunikationsdaten vorzulegen. Die Dokumentation von Telekommunikationsdaten sollte, soweit möglich, auf den von den Mobilfunkanbietern erhaltenen Rohdaten und nicht auf den konvertierten Daten basieren.
Für die Strafverfolgung markiert die Entscheidung vom 16. Oktober das Ende der Krise bei der Datenspeicherung, die vier Monate zuvor in der Öffentlichkeit ausgebrochen ist. Allerdings wurden nur die unmittelbar bevorstehenden Probleme auf technischer Ebene wirklich angegangen, und einige der zugrundeliegenden Ursachen der Krise tauchen immer noch unter der Oberfläche auf, wie beispielsweise die äußerst unzureichende IT-Infrastruktur, die von der dänischen Polizei für den Umgang mit Telekommunikationsdaten genutzt wird. Der Justizminister hat weitere Initiativen angekündigt, darunter Investitionen in neue IT-Systeme, organisatorische Änderungen zur Verbesserung der Konzentration auf das Datenmanagement, eine verbesserte Ausbildung der Polizeiermittler in der ordnungsgemäßen Nutzung und Interpretation von Telekommunikationsdaten und die Schaffung einer neuen unabhängigen Aufsichtsbehörde für die von der Polizei eingesetzten Methoden der technischen Untersuchung.
Dänemark: Unser Datenschutzgesetz ist illegal, aber wir behalten es vorerst (08.03.2017).
The Guardian: Dänemark entlässt 32 Häftlinge wegen Mängeln bei Telefon-Geolokalisierungsbeweisen (12.09.2019)
Antwort des Justizministers auf die Berichte über Telekommunikationsdaten (nur auf Dänisch, 03.10.2019)
Können Daten von Mobilfunkmasten als Beweismittel verwendet werden? Blogbeitrag des Journalisten über Telekommunikationsdaten für die Zeitung Information (26.09.2015)
Beitrag von Jesper Lund, EDRi-Mitglied IT-pol, Dänemark
Warum Technologie nicht „nur ein Werkzeug“ ist
Von Ella Jakubowska
Während des gesamten Oktobers 2019 erhielten die Digital Rights Watchers neue Berichte, die vor den Auswirkungen der Künstlichen Intelligenz (KI) und anderer digitaler Technologien auf die Menschenrecht warnten. Von Philip Alstons Warnung, dass Großbritannien Gefahr läuft, „zombieartig in eine digitale Wohlfahrtsdystopie zu stolpern“, bis hin zu David Kayes Kritik an der Missachtung der Menschenrechte im Internet durch Internetunternehmen und Staaten, verlangt die Zivilgesellschaft zunehmend mehr Einblick in die Auswirkungen der Technologie auf die Gesellschaft. Auch Personen, die nicht an „digitalen Rechten“ arbeiten, werden sich zunehmend der exponentiell zunehmenden Macht und Kontrolle von Technologieriesen wie Facebook und Google bewusst.
Während jeder Bürger (ob positiv oder negativ) vom Aufkommen der Technologie für alltägliche Dienste betroffen ist und bleiben wird, werden die Risiken für einige der Gruppen, die bereits systematisch diskriminiert werden, deutlicher. Nehmen wir diese Frau, die automatisch vom Betreten ihres Fitnessstudios ausgeschlossen wurde, weil das System nicht erkannte, dass sie sowohl eine Ärztin als auch eine Frau sein könnte; oder diesen Beweis, dass Farbige eine schlechtere medizinische Behandlung erhalten, wenn Entscheidungen durch Algorithmen getroffen werden. Ganz zu schweigen von den ökologischen und menschlichen Auswirkungen des Abbaus von Edelmetallen für Smartphones (der sich überproportional auf den globalen Süden auswirkt) und den unglaublich hohen Emissionen, die durch die Training und Anwendung eines einzigen Algorithmus verursacht werden. Die Liste geht leider immer weiter.
Die Vorstellung, dass Menschen voreingenommen sind, ist kaum eine Überraschung. Die meisten von uns machen „implizite Assoziationen“, unbewusste Annahmen und Stereotypen über die Dinge und Menschen, die wir in der Welt sehen. Nach Ansicht einiger Wissenschaftler gibt es dafür evolutionäre Gründe, die es unseren Vorfahren zu ermöglicht haben, zwischen Freunden und Feinden zu unterscheiden. Diese Verzerrungen werden jedoch problematisch, wenn sie zu einer unfairen oder diskriminierenden Behandlung führen – bestimmte Gruppen werden genauer beobachtet, häufiger zensiert oder härter bestraft. Im Zusammenhang mit den Menschenrechten im Online-Umfeld ist dies von Bedeutung, da jeder ein Recht auf gleichberechtigten Zugang zur Privatsphäre, zur freien Meinungsäußerung und zur Justiz hat.
Staaten sind die Akteure, die für die Achtung und den Schutz der Menschenrechte ihrer Bürger verantwortlich sind. In der Vergangenheit und in den meisten Fällen würden Vertreter eines Staates (z.B. Sozialarbeiter, Richter, Polizisten und Bewährungshelfer) Entscheidungen treffen, die sich auf die Rechte seiner Bürger auswirken: die Berechnung der Höhe der Leistungen, die eine Person erhält, die Entscheidung über die Dauer einer Freiheitsstrafe oder eine Vorhersage über die Wahrscheinlichkeit einer Rückfälligkeit. Diese Entscheidungen werden zunehmend durch Algorithmen getroffen.
Viele wohlmeinende Menschen sind in die Falle gegangen, zu denken, dass die Technologie mit ihren strukturierten Einsen und Nullen die chaotische Verzerrung der Menschen beseitigt und es uns ermöglicht, bessere und gerechtere Entscheidungen zu treffen. Doch Technologie wird von Menschen gemacht, und wir bauen unbewusst unsere Weltsicht in die Technologie ein, die wir produzieren. Dies kodiert und verstärkt die zugrunde liegenden Verzerrungen, während es nach außen hin den Eindruck erweckt, „neutral“ zu sein. Selbst die Daten, die zum Trainieren von Algorithmen oder zum Treffen von Entscheidungen verwendet werden, spiegeln eine bestimmte Sozialgeschichte wider. Und wenn diese Geschichte rassistisch, sexistisch oder ablehnend ist? Sie haben es erraten: Diese frühere Diskriminierung wird sich weiterhin auf die Entscheidungen auswirken, die heute getroffen werden.
Die Entscheidungen von Sozialarbeitern, Polizisten und Richtern sind natürlich oft schwierig, unvollkommen und auch anfällig für menschliche Vorurteile. Aber sie werden von staatlichen Vertretern mit einem Bewusstsein für den sozialen Kontext ihrer Entscheidung und vor allem der Fähigkeit gemacht, von dem betroffenen Bürger in Frage gestellt zu werden – und verworfen, wenn eine zuständige Behörde das Gefühl hat, dass sie falsch beurteilt wurde. Der Mensch hat jedoch die Möglichkeit, aus Fehlern zu lernen, damit er sie in Zukunft nicht wiederholt. Maschinen, die diese Entscheidungen treffen, „lernen“ nicht in der gleichen Weise wie Menschen: Sie „lernen“ zwar, mit dern Menge der ihnen zur Verfügung stehenden Daten genauer zu werden, aber ihnen fehlt das „Selbstbewusstsein“ zu wissen, dass es zu Diskriminierung führt. Zu allem Überfluss sind viele Algorithmen, die für den öffentlichen Dienst verwendet werden, derzeit durch Gesetze zum Schutz des geistigen Eigentums geschützt. Das bedeutet, dass die Bürger keinen Weg haben, um die Entscheidungen, die ein Algorithmus über sie getroffen hat, in Frage zu stellen. Jüngste Fälle wie Loomis v. Wisconsin, in denen ein Bürger eine nach dem COMPAS-Algorithmus der USA festgesetzte Gefängnisstrafe anfechten musste, haben sich beunruhigend für die Aufrechterhaltung des urheberrechtlich geschützten Schutzes des Algorithmus ausgesprochen und sich geweigert, offenzulegen, wie die Entscheidung über die Verurteilung getroffen wurde.
Technologie ist nicht nur ein Werkzeug, sondern ein soziales Produkt. Sie ist nicht von Natur aus gut oder schlecht, aber sie ist eingebettet in die Ansichten und Vorurteile seiner Macher. Sie verwendet fehlerhafte Daten, um Annahmen darüber zu treffen, wer du bist, was sich auf die Welt auswirken kann, die du siehst. Ein weiteres Beispiel dafür ist die Verwendung von hoch personalisierten Anzeigen in der EU, die unser Grundrecht auf Privatsphäre verletzen können. Die Technologie kann – zumindest vorerst – keine fairen Entscheidungen treffen, die ein Urteil oder eine Bewertung der menschlichen Eigenschaften erfordern. Wenn es um die Gewährung oder Verweigerung des Zugangs zu Dienstleistungen und Rechten geht, ist dies umso wichtiger. Menschen können sich ihrer Vorurteile bewusst sein, darauf hinarbeiten, sie zu mildern und sie herauszufordern, wenn sie sie in anderen sehen. Für jeden, der Algorithmen entwickelt, kauft oder verwendet, müssen aktive Maßnahmen darüber, wie sich die Technologie auf soziale Gerechtigkeit und Menschenrechte auswirkt, im Mittelpunkt von Design und Nutzung stehen.
Hassrede online: Lehren zum Schutz der freien Meinungsäußerung (29.10.2019)
Millionen von Schwarzen, die von rassistischen Vorurteilen in Algorithmen für das Gesundheitswesen betroffen sind (24.10.2019)
Digitale Dystopie: Wie Algorithmen die Armen bestrafen (14.10.2019)
Beitrag von Ella Jakubowska, EDRi
Hassrede online: Lektionen zum Schutz der freien Meinungsäußerung
Von Ella Jakubowska
Am 21. Oktober veröffentlichte David Kaye – UN-Sonderberichterstatter für die Förderung und den Schutz des Rechts auf Meinungsfreiheit und freie Meinungsäußerung – die ersten Ergebnisse seines sechsten Berichts über Informations- und Kommunikationstechnologien. Dazu gehören konkrete Vorschläge für Internetunternehmen und Staaten, deren gegenwärtige Bemühungen zur Kontrolle der Hassrede im Internet gegen die Grundprinzipien der Menschenrechte verstoßen. Die EU-Kommission sollte die Empfehlungen von Kaye bei der Schaffung neuer Regeln für das Internet und – vor allem – bei der Ausarbeitung des Digital Services Act (DSA) berücksichtigen.
Der „Bericht des Sonderberichterstatters an die Generalversammlung über Online-Hassreden“ (docx) stützt sich auf internationale Rechtsinstrumente zu zivilen, politischen und Nichtdiskriminierungsrechten, um zu zeigen, dass die Menschenrechtsnormen bereits einen soliden Rahmen für die Bekämpfung von Hassreden im Internet bieten. Der Bericht bietet eine scharfe Kritik an Plattform-Geschäftsmodellen, die, unterstützt von den Staaten, von der Verbreitung „hasserfüllter Inhalte“ profitieren und gleichzeitig die freie Meinungsäußerung verletzen, indem sie mutwillig rechtlich zulässige Inhalte löschen. Stattdessen bietet Kaye eine Blaupause für die Bekämpfung von Hassreden in einer Weise, die die Bürger befähigt, die Online-Freiheit schützt und die Beweislast auf die Staaten und nicht auf die Nutzer überträgt. Obwohl der Bericht einen allgemeinen Ansatz umreißt, sollte die Europäische Kommission die Empfehlungen von Kaye bei der Entwicklung des vorgeschlagenen Digital Services Act (DSA) und anderer damit zusammenhängender Rechtsvorschriften und nicht-juristischer Initiativen berücksichtigen, um sicherzustellen, dass die Regulierung der Hassrede nicht versehentlich die digitalen Rechte der Bürger verletzt.
Entfernung schädlicher Inhalte: Nach internationalem Recht gibt es einen besseren Weg
Sexismus, Rassismus und andere Formen der Hassrede (die Kaye als „Aufforderung zur Diskriminierung, Feindseligkeit oder Gewalt“ definiert) im Online-Umfeld sind zu Recht Bereiche, die die Aufmerksamkeit für die globale digitale Politik und die Gesetzgeber erfordern. Der Bericht erinnert jedoch daran, dass die Einschränkung der Meinungsfreiheit im Internet durch die Streichung von Inhalten nicht nur eine ineffektive Lösung ist, sondern tatsächlich eine Vielzahl von Rechten und Freiheiten gefährdet, die für das Funktionieren demokratischer Gesellschaften von entscheidender Bedeutung sind. Die Meinungsfreiheit ist, wie Kaye sagt, „grundlegend für den Genuss aller Menschenrechte“. Wenn sie eingeschränkt wird, kann sie den repressiven Staaten die Möglichkeit geben, ihre Bürger systematisch zu unterdrücken. Kaye nennt das Beispiel der Blasphemie-Gesetze: Die Gotteslästerung muss geschützt werden, auch wenn sie beleidigend ist – sonst kann sie dazu dienen, Bürger zu bestrafen und zum Schweigen zu bringen, die einer bestimmten Religion nicht entsprechen. Und andere, wie der Journalist Glenn Greenwald, haben bereits in der Vergangenheit darauf hingewiesen, wie die Gesetzgebung zur „Hassrede“ in der EU genutzt wird, um linke Standpunkte zu unterdrücken.
Grundregeln zur Einschränkung der Meinungsfreiheit im Internet
Der Bericht macht deutlich, dass die Beschränkungen der Online-Rede „außergewöhnlich sein müssen, unter engen Bedingungen und strenger Aufsicht“, mit der Beweislast „für die Behörde, die die Rede einschränkt, um die Einschränkung zu rechtfertigen“. Jede Einschränkung unterliegt somit drei menschenrechtlich geregelten Kriterien:
Erstens unter den Legalitätskriterien nutzt Kaye die Menschenrechtsgesetzgebung, um zu zeigen, dass jede Regulierung der Hassrede online (wie auch offline) wirklich rechtswidrig sein muss, nicht nur beleidigend oder schädlich. Sie muss so geregelt werden, dass Regierungen oder privaten Akteuren kein „übermäßiges Ermessen“ eingeräumt wird und unabhängige Beschwerdemöglichkeiten für betroffene Personen bestehen. Umgekehrt gibt die derzeitige Situation den Internetunternehmen de facto Regulierungsbefugnis, indem sie ihnen erlauben (und sogar Druck ausüben), als Schiedsrichter für das zu fungieren, was die freie Meinungsäußerung darstellt und was nicht. Zusammen mit fehleranfälligen automatisierten Filtern und kurzen Stillstandszeiten, bieten sie Anreize für eine übermäßige Entfernung von Inhalten. Dies ist die Krise der freien Meinungsäußerung in vollem Lauf.
Zweitens zur Frage der Legitimität: Der Bericht beschreibt die Anforderung, dass Gesetze und Richtlinien für Online-Hassreden genauso behandelt werden müssen wie jede andere Rede. Das bedeutet, dass die Meinungsfreiheit nur für berechtigte Interessen eingeschränkt und nicht für „illegitime Zwecke“ wie die Unterdrückung der Kritik an Staaten eingeschränkt wird. Mögliche illegale Unterdrückung wird durch zu weit gefasste Definitionen von Hassreden ermöglicht, die als Fang für Inhalte dienen können, die Staaten als beleidigend empfinden, obwohl sie legal sind. Das Fehlen strenger Definitionen im Bereich der Terrorismusbekämpfung hat sich bereits stark auf die Meinungsfreiheit beispielsweise in Spanien ausgewirkt. Es wurde nachgewiesen, dass die „Nationale Sicherheit“ missbräuchlich geltend gemacht wird (PDF), um Maßnahmen zu rechtfertigen, die in die Menschenrechte eingreifen, und sie diente als Vorwand, um vage und willkürliche Einschränkungen vorzunehmen.
Schließlich werden Notwendigkeit und Verhältnismäßigkeit durch die derzeitigen Moderationspraktiken verletzt, darunter „fast sofortige Takedown“-Vorschriften und automatische Filter, die ungeschickt rechtliche Inhalte zensieren und zu Kollateralschäden in einem Krieg gegen Hassreden werden. Dies verletzt die Rechte auf ein ordnungsgemäßes Verfahren und Rechtsbehelfe und belastet die Nutzer unnötig mit der Rechtfertigung von Inhalten. Besorgniserregend fährt Kaye fort, dass „solche Filter historisch unterrepräsentierte Gemeinschaften unverhältnismäßig schädigen“.
Ein rationaler Ansatz zur Bekämpfung von Hassreden im Internet
Der Bericht bietet eine breite Palette von Lösungen, um Hassreden zu bekämpfen und gleichzeitig die Löschung von Inhalten oder die Abschaltung des Internets zu vermeiden. Angelehnt an Menschenrechtsdokumente, einschließlich der so genannten „Ruggie Principles“ (die UN-Leitprinzipien für Wirtschaft und Menschenrechte von 2011), betont der Bericht, dass Internetunternehmen ein höheres Maß an Sorgfaltspflicht im Bereich der Menschenrechte anwenden müssen. Dazu gehören transparente Überprüfungsverfahren, Folgenabschätzungen zu den Menschenrechten, klare Berufungswege und menschliche, nicht algorithmische Entscheidungen. Entscheidend ist, dass Kaye Internetplattformen auffordert, „schädliche Inhalte zu de-monetisieren“, um den Geschäftsmodellen entgegenzuwirken, die von viralen, provokativen und schädlichen Inhalten profitieren. Er betont, dass die größten Internetunternehmen die Kosten für die Entwicklung von Lösungen tragen und diese mit kleineren Unternehmen teilen müssen, um den fairen Wettbewerb zu gewährleisten.
Der Bericht macht auch klar, dass die Staaten mehr Verantwortung übernehmen müssen, indem sie in Zusammenarbeit mit der Öffentlichkeit daran arbeiten, klare Gesetze und Normen für Internetunternehmen, Bildungsmaßnahmen und Rechtsbehelfe (sowohl gerichtlich als auch außergerichtlich) im Einklang mit den internationalen Menschenrechtsnormen zu schaffen. Insbesondere müssen sie bei der Entwicklung von Vermittlerhaftung darauf achten, dass Internetunternehmen nicht gezwungen sind, rechtliche Inhalte zu löschen.
Der Bericht enthält aussagekräftige Erkenntnisse für die künftige DSA und andere damit zusammenhängende politische Initiativen. Beim Schutz der grundlegenden Menschenrechte müssen wir die (vor allem automatisierte) Löschung von Inhalten begrenzen und Maßnahmen vermeiden, die Internetunternehmen de facto zu Regulierungsbehörden machen: Sie sind keine Menschenrechtsentscheider – und wir würden auch nicht wollen, dass sie es sind. Wir müssen den Bürgern die Beweislast abnehmen und transparente Wege der Rechtsbehelfe schaffen. Schließlich dürfen wir nicht vergessen, dass die Menschenrechtsregeln der Offline-Welt genauso stark online gelten.
Bericht des Sonderberichterstatters über die Förderung und den Schutz der Meinungs- und Meinungsfreiheit, A/74/486 (Erweiterter unbearbeiteter Bericht)
E-Commerce-Review: Die Büchse der Pandora öffnen? (20.06.2019)
In Europa werden Hassredengesetze häufig verwendet, um linke Standpunkte zu unterdrücken und zu bestrafen (29.08.2017).
EU-Urheberrechtsdialoge: Das nächste Schlachtfeld, um Upload-Filter zu verhindern (18.10.2019)
CCBE-Empfehlungen zum Schutz der Grundrechte im Rahmen der „nationalen Sicherheit“ (PDF, 2019)
Beitrag von Ella Jakubowska, EDRi
Deutsche Übersetzung der englischsprachigen Originalbeiträge von EDRi von Lutz Martiny
0 Kommentare zu “EDRi-gram 17.19, 6. November 2019”