EDRi-gram

EDRi-gram 18.1, 15. Januar 2020

  1. Dein Gesicht wird bemerkt: Drei gängige Anwendungen der Gesichtserkennung
  2. Serbien: Beschwerden gegen Facebook und Google eingereicht
  3. EGMR fordert Erklärungen zur Überwachung durch den polnischen Geheimdienst
  4. Copyright-Stakeholder-Dialoge: Filter können keinen Kontext verstehen
  5. Unsere Neujahrswünsche für die Europäischen Kommissare
  6. #EthicalWebDev – Leitfaden für ethische Website-Entwicklung und -Pflege
  7. NCC-Bericht: Die Online-Werbebranche ist außer Kontrolle geraten
  8. Amazons „Recognition“ zeigt ihr wahres Gesicht

 

Dein Gesicht wird bemerkt: Drei gängige Anwendungen der Gesichtserkennung

Von Ella Jakubowska

Nicht alle Anwendungen der Gesichtserkennung sind gleich geschaffen. Wie wir im ersten und zweiten Teil dieser Serie untersucht haben, stellen unterschiedliche Anwendungen der Gesichtserkennung unterschiedliche, aber ebenso komplexe Herausforderungen dar. Hier durchforsten wir den Hype, um drei immer häufiger auftretende Anwendungen der Gesichtserkennung zu analysieren: das Verschlagworten von Bildern auf Facebook, automatisierte Grenzkontrollschleusen und die polizeiliche Überwachung.

Die Chancen stehen gut, dass Ihr Gesicht von einem Gesichtserkennungssystem erfasst wurde, wenn nicht heute, so doch zumindest im letzten Monat. Es ist beunruhigend einfach, durch automatische Passschleusen an einem Flughafen zu schlendern, beschäftigt mit dem Gedanken, Ihre Lieben zu sehen, anstatt sich über mögliche Bedrohungen Ihrer Privatsphäre Gedanken zu machen. Und Sie können ganz einfach durch einen öffentlichen Raum oder ein Geschäft gehen, ohne sich bewusst zu sein, dass Sie beobachtet werden, geschweige denn, dass Ihr Gesichtsausdruck dazu benutzt werden könnte, Sie als Kriminellen zu bezeichnen. Social-Media-Plattformen verwenden zunehmend Gesichtserkennung, und Regierungen auf der ganzen Welt haben sie in der Öffentlichkeit eingeführt. Was bedeutet das für unsere Menschenrechte? Und ist es zu spät, etwas dagegen zu unternehmen?

Erstens: What the F…ace? – Die richtigen Fragen zur Gesichtserkennung stellen!

Da der Einsatz der Verfahren zur Gesichtserkennung rasant zunimmt, kann man spüren, dass es mehr Fragen als Antworten gibt. Das muss nicht unbedingt etwas Schlechtes sein: Die richtigen Fragen zu stellen, kann Sie in die Lage versetzen, die Anwendungen, die Ihre Rechte verletzen, in Frage zu stellen, bevor weiterer Schaden angerichtet wird.

Ein guter Ausgangspunkt ist es, die Auswirkungen auf die Grundrechte wie Privatsphäre, Datenschutz, Nichtdiskriminierung und Freiheiten sowie die Einhaltung internationaler Standards in Bezug auf Notwendigkeit, Rechtsmittel und Verhältnismäßigkeit zu prüfen. Vertrauen Sie den Besitzern von Gesichtserkennungssystemen (oder auch anderen Arten der biometrischen Erkennung und Überwachung), ob öffentlich oder privat, dass sie Ihre Daten sicher aufbewahren und nur für bestimmte, legitime und gerechtfertigte Zwecke verwenden? Liefern sie über den vagen Begriff der „öffentlichen Sicherheit“ hinaus einen ausreichenden Nachweis der Wirksamkeit?

Darüber hinaus ist es wichtig, gesellschaftliche Fragen zu stellen, wie: Fühlen Sie sich durch die ständige Beobachtung und Analyse sicherer oder nur verängstigt? Wird die biometrische Überwachung Ihr Leben und Ihre Gesellschaft wesentlich verbessern, oder gibt es weniger invasive Wege, um die gleichen Ziele zu erreichen?

Die biometrische Überwachung im unkontrollierten Einsatz

Wie in der zweiten Ausgabe dieser Serie untersucht wurde, haben sich viele öffentliche Gesichtserkennungssysteme als rechtsverletzend erwiesen und wurden von den Datenschutzbehörden als illegal eingestuft. Selbst zustimmungsbasierte, optionale Anwendungen sind möglicherweise nicht so unproblematisch, wie sie zunächst erscheinen. Dies ist unsere leichte Anfangsfrage, um die Potenziale und Risiken einiger immer häufiger eingesetzter Gesichtsverifikations- und Identifizierungssysteme zu durchdenken – wir werden beim nächsten Mal die Klassifikation und andere biometrische Verfahren in Betracht ziehen.

Haben wir etwas vergessen? Tweeten Sie uns Ihre Ideen @edri mit Hashtag #FacialRecognition.

Automatisches Tagging von Bildern auf Facebook

Facebook verwendet die Gesichtserkennung, um Benutzer in Bildern zu markieren, sowie andere „breiter angelegte“ Verwendungen. Unter dem Druck der Öffentlichkeit haben sie im September 2019 ein Opt-in gemacht – aber das gilt nur für neue, nicht bestehende Nutzer.

Potenziale:

  • Zeitersparnis gegenüber manuellem Tagging
  • Warnt Sie, wenn jemand ohne Ihr Wissen ein Bild von Ihnen hochgeladen hat

Risiken:

  • Das weltgrößte Ad-tech-Unternehmen kann Sie auf Fotos oder Videos im Internet finden – für immer
  • Facebook scannt, analysiert und kategorisiert automatisch jedes hochgeladene Foto.
  • Sie werden automatisch in Fotos markiert, die Sie vielleicht vermeiden möchten
  • Fehler speziell für Menschen mit sehr heller oder sehr dunkler Haut

Beweise:

  • Facebook hat Algorithmen anhand von Instagram-Fotos trainiert und sie dann verkauft.
  • Facebook-Tagging ist zu 98% genau – aber bei 2,4 Milliarden Nutzern bedeuten diese 2% Hunderte Millionen Fehler, besonders bei Menschen mit dunkler Hautfarbe.

Unheimlich und es grenzt an dystopisches, besonders da das Feature für einige Benutzer standardmäßig eingeschaltet ist (hier ist, wie man es ausschaltet: https://www.cnet.com/news/neons-ceo-explains-artificial-humans-to-me-and-im-more-confused-than-ever/). Wir überlassen Ihnen die Entscheidung, ob die Potentiale die Risiken überwiegen.

Automatisierte Grenzkontrolle (ePassport Gates)

Automatisierte Grenzkontrollsysteme (ABC-Systeme), manchmal auch als e-Gates oder e-Passport Gates bezeichnet, sind Selbstbedienungssysteme, die Reisende anhand ihrer Ausweisdokumente authentifizieren – eine Art der Verifizierung.

Potenziale:

  • Vorgeschlagen als Lösung für Staus bei zunehmendem Flugverkehr
  • Passt Sie an Ihren Pass und nicht an eine zentrale Datenbank an – so werden Ihre Daten theoretisch nicht gespeichert

Risiken:

  • Längere Warteschlangen für diejenigen, die es nicht nutzen können oder wollen
  • Fehlende Beweise, dass es insgesamt Zeit spart
  • Für ältere Fahrgäste schwierig zu bedienen
  • Kann Probleme bei der Einwanderung oder bei der Besteuerung verursachen
  • Normalisiert die Gesichtserkennung
  • Überproportional fehleranfällig für Farbige, was zu ungerechtfertigten Verhören führt
  • Unterstützt staatliche Sparmaßnahmen

Beweise:

  • Die Statistiken variieren stark, aber glaubwürdige Quellen deuten darauf hin, dass der durchschnittliche Grenzschutz 10 Sekunden braucht, um einen Reisenden zu bearbeiten, schneller als die besten Tore, die 10-15 Sekunden brauchen.
  • Beginn der Nutzung in Verbindung mit anderen Daten zur Vorhersage des Verhaltens
  • Hoher Bedarf an menschlichen Eingriffen aufgrund von Benutzer- oder Systemfehlern
  • Verlängerte Verzögerungen für die 5% der Menschen, die fälschlicherweise abgelehnt wurden
  • Beweise für die fälschliche Kriminalisierung Unschuldiger
  • Beweise für die fälschliche Annahme von Personen mit falschem Reisepass

Der Nachweis der Wirksamkeit kann widersprüchlich sein, aber die Auswirkungen – insbesondere auf bereits marginalisierte Gruppen – und die Fähigkeit, Gesichtsdaten mit anderen Daten zu kombinieren, um zusätzliche Informationen über Reisende zu erhalten, bergen ein großes Missbrauchspotenzial. Wir vermuten, dass Offline-Lösungen wie die Finanzierung von mehr Grenzbeamten und Investitionen in das Warteschlangenmanagement ebenso effizient und weniger invasiv sein könnten.

Polizeiliche Überwachung

Manchmal auch als Gesichtsüberwachung bezeichnet, verwenden die Polizeikräfte in ganz Europa – oft in Verbindung mit privaten Unternehmen – Überwachungskameras, um eine Live-Identifikation in öffentlichen Räumen durchzuführen.

Potenziale:

  • Erleichtert die Analyse von Videoaufnahmen bei Ermittlungen

Risiken:

  • Die Polizei verfügt über eine Datenbank von Gesichtern und kann jede Person, die jemals gescannt wurde, verfolgen.
  • Ersetzt Investitionen in die Einstellung und Ausbildung der Polizei
  • Kann von der Nutzung öffentlicher Räume abschrecken – insbesondere bei Personen, die unter einer unverhältnismäßigen Zielgruppenansprache leiden.
  • Kühleffekt auf die Rede- und Versammlungsfreiheit, ein wichtiger Teil der demokratischen Partizipation
  • Kann auch auf pseudo-wissenschaftliche Emotionen „Anerkennung“ setzen
  • Rechtliche Konsequenzen für falsch identifizierte Personen
  • Keine Möglichkeit zum Opt-out

Beweise:

  • Die britische Polizei sagt, dass die Gesichtserkennung hilft, Budgetkürzungen auszugleichen.
  • Die Wirksamkeit der Überwachung ist kaum zu beweisen
  • Nachweis des Strafverfolgungsmissbrauchs beim Zugang zu Daten
  • Automatisiert bestehende polizeiliche Vorurteile und rassistische Profilerstellung
  • Macht legitime anonyme Proteste unmöglich
  • Untergräbt das Recht auf Privatsphäre und macht uns weniger frei

Eine erhöhte öffentliche Sicherheit könnte durch Maßnahmen zur Bekämpfung von Problemen wie Ungleichheit oder unsozialem Verhalten oder generell durch Investitionen in polizeiliche Fähigkeiten statt in Überwachungstechnologie erreicht werden.

Der Realität ins Auge sehen: Auf dem Weg zu einer Massenüberwachungsgesellschaft?

Ohne Intervention ist die Gesichtserkennung auf dem Weg zur Allwissenheit. In diesem Artikel haben wir nur an der Oberfläche gekratzt. Diese Beispiele zeigen jedoch einige der verschiedenen Akteure auf, die Ihre Gesichtsdaten sammeln und analysieren möchten, was sie daraus gewinnen und wie sie sie (ab)nutzen können. Sie haben auch gezeigt, dass der Nutzen der Gesichtsüberwachung häufig eher auf Kosteneinsparungen als auf den Nutzen für die Nutzer zurückzuführen ist.

Wir haben es schon einmal gesagt: Technik ist nicht neutral. Sie reflektiert und verstärkt die Vorurteile und Weltanschauungen ihrer Hersteller. Die Risiken werden verstärkt, wenn die Systeme schnell eingesetzt werden, ohne das Gesamtbild oder den schlüpfrigen Hang zum Autoritarismus zu berücksichtigen. Die Beweggründe für jede Nutzung müssen vor dem Einsatz geprüft und ordnungsgemäß bewertet werden. Es ist unser Recht als Bürger, dies zu fordern.

Ihr Gesicht hat eine Bedeutung, die über Ihr Aussehen hinausgeht – es ist ein Markenzeichen Ihrer einzigartigen Identität und Individualität. Aber mit der produktiven Gesichtserkennung wird Ihr Gesicht zu einer Sammlung von Datenpunkten, die gegen Sie eingesetzt werden können und Ihre Fähigkeit, Ihr Leben in Sicherheit und mit Privatsphäre zu leben, beeinträchtigen. Da Unternehmen von den Algorithmen profitieren, die verdeckt mit Fotos von Benutzern erstellt werden, werden Gesichter buchstäblich zur Ware gemacht und gehandelt. Dies hat schwerwiegende Auswirkungen auf unsere Privatsphäre, Würde und körperliche Integrität.

Weitere Informationen:

Das Einmaleins der Gesichtserkennung und der Grundrechte (04.12.2019)

Die vielen Gesichter der Gesichtserkennung in der EU (18.12.2019)

Datengesteuerte Polizeiarbeit: Die Verankerung diskriminierender Polizeimethoden in Europa (PDF, 05.11.2019)

Gesichtserkennungstechnologie: Grundrechtliche Erwägungen im Zusammenhang mit der Strafverfolgung (PDF, 27.11.2019)

Was der „digitale Sozialstaat“ für die Menschenrechte wirklich bedeutet (08.01.2020)

Resist Gesichtserkennung

Beitrag von Ella Jakubowska

 

 

Serbien: Beschwerden gegen Facebook und Google eingereicht

Von der SHARE Foundation

Das EDRi-Mitglied SHARE Foundation hat beim Kommissar für Informationen von öffentlicher Bedeutung und den Schutz personenbezogener Daten Serbiens Beschwerden gegen Facebook und Google wegen der Nichteinhaltung der Verpflichtung zur Ernennung von Vertretern in Serbien in Datenschutzfragen eingereicht. Im Mai 2019, noch vor Beginn der Anwendung des neuen serbischen Gesetzes zum Schutz personenbezogener Daten, hat die SHARE Foundation Briefe an 20 internationale Unternehmen geschickt und sie aufgefordert, Vertreter in Serbien zu ernennen, die den neuen gesetzlichen Verpflichtungen entsprechen.

Die Ernennung von Vertretern dieser Unternehmen ist keine Formalität – sie ist für die Ausübung der gesetzlich vorgeschriebenen Rechte der serbischen Bürger unerlässlich. Unter den derzeitigen Umständen betrachten Unternehmen wie Google und Facebook Serbien, wie viele andere Entwicklungsländer, als ein Gebiet für die unregulierte Nutzung privater Daten der Bürger, obwohl Serbien seine Vorschriften durch die Verabschiedung des neuen Gesetzes über den Schutz personenbezogener Daten an den digitalen EU-Binnenmarkt angepasst hat. Diese Unternehmen erkennen nämlich Serbien als relevanten Markt an, bieten den Bürgern der Republik Serbien ihre Dienstleistungen an und überwachen ihre Aktivitäten. Im Rahmen ihrer Geschäftstätigkeit verarbeiten diese Unternehmen eine große Menge an Daten serbischer Bürger und erzielen enorme Gewinne. Auf der anderen Seite garantiert das neue Gesetz den Bürgern zahlreiche Rechte in Bezug auf diese Datenverarbeitung, aber im Moment scheint es, dass die Ausübung dieser Rechte auf viele Schwierigkeiten stoßen würde.

Unter anderem bieten diese Unternehmen keine klaren Anlaufstellen, an die sich die Bürger wenden können – sie haben meist Antragsformulare in einer Fremdsprache zur Verfügung. Die Erfahrung hat gezeigt, dass solche Formulare nicht ausreichend sind, nicht nur weil sie fortgeschrittene Fremdsprachenkenntnisse der serbischen Bürger voraussetzen, sondern auch weil diese Art der Kommunikation meist von Programmen durchgeführt wird, die generische automatische Antworten senden.

Obwohl die vom Kommissar möglicherweise verhängten Geldstrafen nach dem nationalen Gesetz über den Schutz personenbezogener Daten, in diesem Fall 100 000 serbische Dinar (ca. 940 USD oder 850 EUR), keine größeren Auswirkungen auf die Budgets dieser gigantischen Unternehmen hätten, würde nach Ansicht von SHARE gezeigt, dass die zuständigen Behörden der Republik Serbien die Absicht haben, ihre Bürger zu schützen, und darauf hinweisen, dass diese Unternehmen nicht im Einklang mit den nationalen Vorschriften arbeiten.

Weitere Informationen:

Stiftung SHARE

Facebook und Google aufgefordert, Vertreter in Serbien zu ernennen (05.06.2019)

Wird Serbien seinen Datenschutzrahmen an das GDPR anpassen? (24.04.2019)

Beitrag des EDRi-Mitglieds SHARE Foundation, Serbien

 

 

EGMR fordert Erklärungen zur Überwachung durch den polnischen Geheimdienst

Von der Panoptykon Foundation

Der Europäische Gerichtshof für Menschenrechte (EGMR) hat die polnische Regierung aufgefordert, eine Erklärung zur Überwachung durch ihre Geheimdienste abzugeben. Dies ist das Ergebnis von Klagen, die Ende 2017 und Anfang 2018 von Aktivisten des EDRi-Mitglieds Panoptykon Foundation und der Helsinki Foundation for Human Rights sowie von Rechtsanwalt Mikołaj Pietrzak beim Straßburger Gericht eingereicht wurden. Der Anwalt weist darauf hin, dass die unkontrollierte Überwachung durch die polnische Regierung nicht nur seine Privatsphäre, sondern vor allem die Rechte und Freiheiten seiner Mandanten verletzt. Aktivisten fügen hinzu, dass sie als aktive Bürger besonders gefährdet sind, von der Regierung überwacht zu werden.

Panoptykon kritisiert seit Jahren die mangelnde Kontrolle der staatlichen Überwachung. Ohne entsprechende Kontrollen bestehen Bedenken und Zweifel, welche Geheimdienste ihre weitreichenden Befugnisse ohne angemessene Einschränkungen nutzen können. Es gibt jedoch keine Möglichkeit, zu überprüfen, in welchem Umfang diese Befugnisse genutzt werden, da das Gesetz keinen Zugang zu Informationen darüber vorsieht, ob eine Person überwacht wurde – auch wenn die Überwachung beendet ist und die Person nicht angeklagt wurde. Deshalb sind wir als Bürger schutzlos und können unsere Rechte nicht schützen.

Der EGMR entschied, dass die Beschwerden den formalen Anforderungen entsprechen und übermittelte den Fall an die polnische Regierung, die die Frage beantworten muss, ob ihre Handlungen unsere Privatsphäre (Artikel 8 der Europäischen Menschenrechtskonvention) und das Recht auf einen wirksamen Rechtsbehelf (Artikel 13 der Konvention) verletzt haben.

Es geht nicht nur um das Recht auf Privatsphäre. Wie Rechtsanwalt Mikołaj Pietrzak erklärt, ist die Grundlage des Anwalt-Mandanten-Verhältnisses Vertrauen, das nur unter der Bedingung der Vertraulichkeit bestehen kann. Anwälte sind verpflichtet, das Anwaltsgeheimnis zu schützen, insbesondere wenn es um die Verteidigung in Strafsachen geht. Die geltenden Gesetze machen dies unmöglich. Das verletzt die Rechte und Freiheiten ihrer Mandanten, insbesondere ihr Recht auf Verteidigung.

Das polnische Verfassungsgericht wies darauf hin, dass das Gesetz bereits im Juli 2014 hätte geändert werden müssen. Das so genannte Überwachungsgesetz und das Gesetz zur Terrorismusbekämpfung, die 2016 verabschiedet wurden, erweiterten jedoch nur die Befugnisse der Nachrichtendienste, ohne dass Kontrollmechanismen eingeführt wurden. Im Vergleich zu anderen EU-Ländern, in denen eine unabhängige Kontrolle der Tätigkeit der Nachrichtendienste für niemanden überraschend ist, sticht Polen in negativer Weise hervor. Auf diese Unregelmäßigkeiten hat u.a. die Venedig-Kommission in einer Stellungnahme vom Juni 2016 hingewiesen. Die Verpflichtung, die betroffene Person über die Tatsache zu informieren, dass die Nachrichtendienste auf ihre Telekommunikationsdaten zugegriffen haben, ergibt sich aus mehreren Urteilen des EGMR (z.B. Szabo und Vissy gegen Ungarn, Saravia gegen Deutschland oder Sacharow gegen Russland) und des Gerichtshofs der Europäischen Union (CJEU) (z.B. Tele2 Sverige).

Die Beschwerdeführer werden von Rechtsanwalt Małgorzata Mączka-Pacholak vertreten.

Weitere Informationen:

Stiftung Panoptykon

Keine Kontrolle über die Überwachung durch die polnischen Geheimdienste. EMRK fordert Erklärungen von der Regierung (18.12.2019)

Beitrag des EDRi-Mitglieds Panoptykon Stiftung, Polen

 

 

Copyright-Stakeholder-Dialoge: Filter können keinen Kontext verstehen

Von Laureline Lemoine

Am 16. Dezember 2019 hielt die Europäische Kommission die vierte Sitzung der Stakeholder-Dialoge gemäß Artikel 17 der Urheberrechtsrichtlinie ab. Während der „ersten Phase“ konzentrierten sich die Treffen auf die Praktiken in verschiedenen Branchen wie Musik, Spiele, Software, audiovisuelle Medien und Verlagswesen. Dieses Treffen war das letzte der von der Kommission als „zweite Phase“ bezeichneten Sitzungen, bei denen es um technische Präsentationen über Content-Management-Technologien und bestehende Lizenzierungspraktiken ging.

Während dieser vierten Sitzung wurden Präsentationen von Plattformen (Facebook, Seznam, Wattpad), Anbietern von Content-Management-Tools (Audible Magic, Ardito, Fifthfreedom, Smart protection), Rechteinhabern (Europäischer Verband der Verwertungsgesellschaften von Autoren und Komponisten – GESAC, Universal Music Publishing, Bundesliga) sowie von der Verbrauchergruppe BEUC und der Lumen-Datenbank gehalten.

Sagen Sie es noch einmal lauter für die Leute in der letzten Reihe: Filter können keinen Kontext verstehen

Nach der Präsentation der Content-ID von Youtube während des dritten Treffens wiederholte die Präsentation des Rechtemanagement-Tools von Facebook, was die Zivilgesellschaft während der gesamten Dauer der Urheberrechtsdebatten wiederholt hat: Filterwerkzeuge können keinen Kontext verstehen. Technologien zur Inhaltserkennung sind nur in der Lage, Dateien abzugleichen und können keine Urheberrechtsausnahmen wie Karikaturen oder Parodien erkennen.

Dieses Argument wurde der Europäischen Kommission nun sowohl von Organisationen der Zivilgesellschaft als auch von Anbietern von Inhaltserkennungstechnologien klar und wiederholt dargelegt. Wir erwarten daher, dass die Leitlinien der Kommission dies berücksichtigen und empfehlen, dass Filter nicht dazu verwendet werden sollten, hochgeladene Inhalte automatisch zu blockieren oder zu entfernen.

Mangelndes Vertrauen

Da die Meetings in der Regel dazu beitragen, alte Gräben zwischen den Stakeholdern wieder aufzubrechen, werden auch neue Trennungen aufgezeigt. Das Rights Management Tool von Facebook wies darauf hin, dass eines der größten Probleme des Unternehmens der missbräuchliche Einsatz des Tools durch die Rechteinhaber ist, die Rechte auf Arbeiten einfordern, die ihnen nicht gehören. Infolgedessen erhalten nicht alle Rechteinhaber Zugang zu den gleichen Tools. Einige Tools, wie z.B. automatisierte Aktionen, sind begrenzt oder reserviert für das, was der Anbieter als „vertrauenswürdige Rechteinhaber“ bezeichnet.

Auf der anderen Seite haben Rechteinhaber wie GESAC kritisiert, wie sie von den großen Plattformen wie YouTube behandelt werden. Insbesondere haben sie die Kategorisierung durch die Inhaltserkennungs-Tools hervorgehoben, die zu Umsatzeinbußen führen kann. In der Tat haben die Rechteinhaber manchmal keine andere Wahl, als die von den großen Plattformen mit ihren eigenen undurchsichtigen Regeln erstellten und kontrollierten Tools zu verwenden, und betonten daher die Notwendigkeit der Transparenz und Genauigkeit der Informationen über die Art und Weise, wie Plattformen wie YouTube mit Inhalten arbeiten, deren Rechte sie besitzen.

Transparenz ist der Schlüssel

Um die Verwaltungspraxis urheberrechtlich geschützter Inhalte zu verstehen, sind quantitative Informationen von entscheidender Bedeutung. Angesichts der Frage der Filter gaben die Anbieter von Inhaltserkennungssxstemen an, dass sie sich auf Rechtsmittelmechanismen und menschliches Urteilsvermögen verlassen. Als man sie jedoch um sachliche Informationen über das Funktionieren ihrer Praktiken bat, lagen weder Zahlen noch Prozentzahlen vor. Es ist daher unmöglich, die Notwendigkeit, Verhältnismäßigkeit oder Effizienz des Einsatzes von automatisierten Inhaltserkennungsinstrumenten zu verstehen.

Gemäß Artikel 17 Absatz 10 der Urheberrechtsrichtlinie, der die Grundlage für den laufenden Dialog zwischen den Interessengruppen bildet, „haben die Nutzerorganisationen Zugang zu angemessenen Informationen der Anbieter von Online-Inhaltsaustauschdiensten über das Funktionieren ihrer Praktiken im Hinblick auf Absatz 4“.

Nach vier Sitzungen und immer noch ohne entsprechende Informationen der Unternehmen beschlossen die am Dialog teilnehmenden Organisationen der Zivilgesellschaft, ein Auskunftsersuchen an die Europäische Kommission zu richten. Wir hoffen, dass die Kommission in der Lage sein wird, solche sachlichen Informationen von Plattformen zu sammeln, damit der laufende Dialog zu einem evidenzbasierten Ergebnis führen kann.

Als Teil dieser Transparenzerfordernisse unterzeichnete EDRi auch einen offenen Brief, in dem die Kommission aufgefordert wird, die Entwürfe der Leitlinien, die sie am Ende des Dialogs erstellen wird, mitzuteilen. In dem Schreiben haben wir darum gebeten, dass die Leitlinien auch für eine Konsultation der Teilnehmer der Stakeholder-Dialoge und der breiteren Öffentlichkeit geöffnet werden sollten, um Rückmeldungen darüber einzuholen, ob das Dokument weiter verbessert werden kann, um die Einhaltung der Charta der Grundrechte der EU zu gewährleisten.

Wie geht es weiter?

Das nächste Treffen im Rahmen des Dialogs mit den Interessengruppen findet am 16. Januar statt und eröffnet die „dritte Phase“ der Konsultation, in deren Mittelpunkt die praktische Umsetzung von Artikel 17 stehen wird. Die Kommission hat die Tagesordnung bereits verschickt, und die Themen am 16. Januar sind Genehmigungen, Mitteilungen und Klärung des Begriffs „best efforts“ , während die folgende Sitzung am 10. Februar die Schutz- und Rechtsbehelfsmechanismen behandeln wird.

Weitere Informationen:

EU-Urheberrechtsdialoge: Das nächste Schlachtfeld zur Verhinderung von Upload-Filtern (18.10.2019)

NROs fordern die Gewährleistung der Grundrechte bei der Umsetzung des Urheberrechts (20.05.2019)

Das Urheberrecht: Offener Brief mit der Forderung nach Transparenz bei der Umsetzung von Richtlinien (15.01.2020)

Beitrag von Laureline Lemoine, EDRi

 

 

Unsere Neujahrswünsche für die Europäischen Kommissare

Von Laureline Lemoine

EDRi wünscht allen Lesern ein frohes neues Jahr 2020!

Im Jahr 2019 hatten wir eine Reihe von Siegen in mehreren Bereichen. Das Europäische Parlament fügte der vorgeschlagenen Verordnung über terroristische Online-Inhalte (TCO) die notwendigen Schutzmaßnahmen hinzu, um die Grundrechte vor allzu umfassenden und unverhältnismäßigen Zensurmaßnahmen zu schützen. Der Gerichtshof der Europäischen Union (CJEU) entschied, dass eine klare und positive Zustimmung zum Setzen von Cookies auf unseren Geräten erforderlich ist. Die Mitgliedstaaten haben zunehmend Bußgelder nach der Allgemeinen Datenschutzverordnung (GDPR) verhängt. Auch Google wurde wegen des Missbrauchs von Online-Anzeigenpraktiken bestraft, und es wurden neue Sicherheitsstandards für Internet of Things (IoT)-Geräte der Verbraucher eingeführt.

2019 war jedoch auch das Jahr, in dem sich einige Regierungen gegen die Verschlüsselung positionierten und damit begannen, die Gesichtserkennung in öffentlichen Räumen zu normalisieren, ohne angemessene Schutzmaßnahmen, öffentliche Debatten oder eine Bewertung der Grundrechte vorzunehmen (Frankreich, Schweden, Großbritannien). Obligatorische Upload-Filter wurden auf EU-Ebene genehmigt, und Datenverletzungen und Datenschutzskandale machten häufig Schlagzeilen.

Für 2020 müssen wir sicherstellen, dass die EU Politiken vorantreibt, die zu einem menschenzentrierten Internet führen, statt zu Datenverwertungsmodellen, die die Ungleichheiten vertiefen und einen Überwachungskapitalismus ermöglichen. Wir richten unsere Wünsche an die neuen EU-Kommissare, damit sie uns helfen können, unsere Rechte und Freiheiten online zu verteidigen.

Im Jahr 2020 wünschen wir uns von Präsidentin Ursula von der Leyen:

  • Mit der Umsetzung einer menschenzentrierten Vision für das Internet zu beginnen, um den Schutz der Grundrechte online (und offline) zu gewährleisten;
  • hohe Standards für Privatsphäre, Sicherheit und ethische Standards für die neue Generation von Technologien zu definieren, die zur globalen Norm werden;
  • Gewährleistung der Stärkung der Entscheidungsfindung in der EU durch Gewährleistung der Transparenz im Rat;
  • Gewährleistung, dass alle künftigen Maßnahmen im Bereich der künstlichen Intelligenz (KI) dazu führen, dass KI-Systeme in Europa auf den Grundsätzen der Legalität, Robustheit, Ethik und der Menschenrechte beruhen und die geltenden Datenschutz- und Datensicherheitsgesetze nicht umgangen, sondern gestärkt werden;
  • sicherzustellen, dass der bevorstehende Vorschlag für ein Gesetz über digitale Dienste (DSA) (zur Reform der derzeitigen Richtlinie über den elektronischen Geschäftsverkehr) Rechtssicherheit schafft und Schutzmaßnahmen einführt, die es den Nutzern ermöglichen, ihre Rechte und Freiheiten zu genießen.

Im Jahr 2020 wünschen wir uns, dass Margrethe Vestager als Exekutiv-Vizepräsidentin für ein Europa fit für das digitale Zeitalter:

  • Klarheit über Schutzmaßnahmen, rote Linien und Durchsetzungsmechanismen schafft, um sicherzustellen, dass die in der EU entwickelten und eingesetzten automatisierten Entscheidungsfindungssysteme – und die KI im weiteren Sinne – die Grundrechte respektieren;
  • die Grundrechte und die gesellschaftlichen Auswirkungen von Gesichtserkennungs- und anderen biometrischen Erkennungssystemen bewertet und Kriterien zur Bewertung oder Festlegung von Bereichen oder Anwendungsfällen vorschlägt, in denen keine KI-gestützten Technologien entwickelt werden sollten;
  • die ausbeuterischer Geschäftsmodelle und ihrer Verletzung des Schutzes personenbezogener Daten durch das Gesetz über digitale Dienste und weitere notwendige legislative oder nichtlegislative Initiativen bekämpft;
  • Gleichstellung und Bekämpfung von Diskriminierung bei der Entwicklung und Nutzung von Technologie fördert;
  • für die Gewährleistung und Förderung der Achtung der Grundrechte durch die Wettbewerbspolitik sorgt, indem Missbräuche durch marktbeherrschende Plattformen untersucht und die Zusammenarbeit mit den Datenschutzbehörden geprüft werden.

Für 2020 wünschen wir uns, dass der für den Binnenmarkt zuständige Kommissar Thierry Breton:

  • die Reform des Datenschutzes im Bereich der elektronischen Kommunikation durch Gespräche mit dem EU-Rat und den Mitgliedstaaten in Gang setzt;
  • ein nachhaltiges, menschenzentriertes und rechteförderndes Gesetz für digitale Dienste entwickelt;
  • den Schutz der Privatsphäre durch Design und Standard in aktuellen und zukünftigen technologiebezogenen Vorschlägen gewährleistet;
  • digitalen Souveränität durch Gewährleistung der Entwicklung der notwendigen freien und offenen Hard- und Software erreicht;
  • gewährleistet, dass die im Rahmen des EU-Konzepts zur künstlichen Intelligenz entwickelte Datenstrategie die Grundrechte respektiert.

Im Jahr 2020 wünschen wir uns von der Vizepräsidentin und Kommissarin für Werte und Transparenz Věra Jourová:

  • Transparenz in den Trilog-Verhandlungen zu gewährleisten;
  • sich mit den Schäden auseinanderzusetzen, die durch Hassreden, politische Desinformation und den Missbrauch von Internet-Kontrollen durch autoritäre Staaten verursacht werden;
  • die Risiken gezielter politischer Werbung und der Online-Tracking-Branche zu analysieren;
  • die Meinungsfreiheit im Internet zu schützen und zu fördern.

Für 2020 wünschen wir uns von der Innenkommissarin Ylva Johansson:

  • sicherzustellen, dass keine illegale Massenüberwachung eingesetzt wird, z.B. bei künftigen Versuchen, die Datenspeicherung in den Mitgliedstaaten einzuführen; alle PNR-Rahmenwerke im Lichte der Rechtsprechung des CJEU zu überprüfen;
  • den „e-Beweis“-Vorschlag und seine Notwendigkeit neu zu bewerten oder sinnvolle Menschenrechtsgarantien aufzunehmen;
  • die Gewährleistung, dass die vom Europäischen Parlament angenommenen und von Menschenrechtsgruppen befürworteten Schutzmaßnahmen Teil der endgültigen TCO-Verordnung sind.

Im Jahr 2020 wünschen wir uns, dass Justizkommissar Didier Reynders:

  • Die vollständige Durchsetzung der GDPR in den Mitgliedstaaten sicherstellt, indem er dafür sorgt, dass die Datenschutzbehörden über die notwendigen Mittel, Ressourcen und Unabhängigkeit verfügen, um unsere Rechte zu schützen;
    den europäischen Ansatz für den Datenschutz als globales Modell fördert;
  • einen Beitrag zur Gesetzgebung über AI, um sicherzustellen, dass die Grundrechte und insbesondere die Gleichheit aller Menschen umfassend geschützt werden, indem Vorschriften erlassen werden, die die durch Diskriminierung verursachten Schäden mindern.

Das neue Jahr ist eine Zeit des Nachdenkens über das vergangene Jahr und des Versprechens, es im nächsten Jahr besser zu machen. Suchen Sie nach den Vorsätzen für das neue Jahr? Sie können mehr tun, um online sicher zu bleiben, oder für EDRi spenden, damit wir auch 2020 und darüber hinaus Ihre digitalen Menschenrechte und Freiheiten verteidigen können.

Weitere Informationen:

CJEU zu Cookies: ‚Zustimmen oder nachverfolgt werden‘ ist keine Option (01.10.2019)

Licht am Ende des Cybertunnels: Neuer IoT-Verbraucherstandard (27.02.2019)

Die Gefahren von High-Tech-Profiling, mit großen Daten (07.08.2014)

Die Kandidaten der EU-Kommissare sprachen: Stand der Dinge bei den digitalen Rechten (23.10.2019)

Ein humanzentriertes digitales Manifest für Europa

Grenzüberschreitender Zugang zu Daten für die Strafverfolgung: Dokumenten-Pool (12.04.2019)

Beitrag von Laureline Lemoine, EDRi

 

 

#EthicalWebDev – Leitfaden für ethische Website-Entwicklung und -Pflege

Von Guillermo Peris

Wir haben endlich unseren neuen Leitfaden für ethische Website-Entwicklung und -Pflege veröffentlicht, Ethical Web Dev! Er richtet sich an Webentwickler und -betreuer, die ein ausgeprägtes Verständnis für technische Konzepte haben, um sie dabei zu unterstützen, das Web zu seinen Wurzeln zurückzubringen – ein dezentrales Werkzeug, das die Grundrechte, die Demokratie und die Meinungsfreiheit verbessern kann.

Das Ziel des Projekts, das vor mehr als einem Jahr begann, war es, Entwicklern eine Anleitung zu geben, wie sie sich von infizierten, datenleckenden, unethischen und unsicheren Praktiken Dritter wegbewegen können. Wir hoffen, dass dieser Leitfaden ein nützliches Werkzeug für das Feld sein wird, und uns helfen wird, den Weg zu dem Web, das wir wollen, zu gehen.
Titelseite des Leitfaden für ethische Website-Entwicklung
Laden Sie den Leitfaden (pdf) hier herunter: https://edri.org/files/ethical_web_dev_web.pdf

Eine Website ist fast wie ein Lebewesen. Meistens ist die Basisseite selbst nicht statisch und neben den eigenen dynamischen Eigenschaften ist auch ihre Umgebung einem ständigen Wandel unterworfen, was wiederum zu noch mehr Veränderungen führt. Auch die Besucher einer Website können sehr unterschiedlich sein. Die von ihnen verwendeten Technologien und ihr Fachwissen können sehr unterschiedlich sein. Viele Websites selbst sind auch auf eine Vielzahl von externen Dienstleistungen und Ressourcen angewiesen. Auch diese entwickeln sich ständig weiter.

Da Website-Entwickler gleichzeitig mit den steigenden Erwartungen der Nutzer und den begrenzten Ressourcen, die die meisten Unternehmen für die Entwicklung von Websites aufwenden, zurechtkommen müssen, gibt es eine wachsende Tendenz, mehr externe Dienste und Ressourcen zu nutzen. Zum Beispiel ist es für Webentwickler immer üblicher geworden, „freie“ Ressourcen wie Schriftarten und Skripte zu nehmen und sie auf den von ihnen entworfenen Websites zu verwenden. Während diese für den Entwickler „kostenlos“ sind, können sie für die Benutzer und die Organisationen, die die Website bereitstellen, unerwünschte Nebenwirkungen haben. Beispielsweise können einige Ressourcen und Dienste, insbesondere diejenigen, die von bestimmten datenintensiven Internetunternehmen bereitgestellt werden, die Privatsphäre der Nutzer untergraben. Andere können negative Auswirkungen auf die Sicherheit haben. In beiden Fällen kann der Ruf des Website-Eigentümers leiden, oder es kann sogar zu rechtlichen Anfechtungen kommen. Dies verdient Aufmerksamkeit. Es gibt jedoch ein allgemeines mangelndes Bewusstsein für dieses Problem, und diese Praktiken sind bereits recht weit verbreitet. Der Zweck dieses neuen Leitfadens ist es, die Probleme zu klären und, wenn möglich, einige brauchbare Lösungen zu finden.

Der Leitfaden ist das Ergebnis einer umfangreichen gemeinsamen Arbeit, mit Beiträgen von Experten des EDRi-Netzwerkes (Anders Jensen-Urstad, Walter van Holst, Maddalena Falzoni, Hanno „Rince“ Wagner, Piksel), externen Beiträgen (Gordon Lennox, Achim Klabunde, Laura Kalbag, Aral Balkan) und der entscheidenden Hilfe von Sid Rao, Public Interest Technologist und Ex-Ford-Mozilla Fellow bei EDRi. Besonderer Dank geht an Joe McNamee, der die ursprüngliche Idee für diese Broschüre hatte und den Prozess zu einem erfolgreichen Abschluss gebracht hat, und Guillermo Peris für die Koordination des Projekts.

Das Handbuch wird unter einer Creative Commons 4.0 Lizenz vertrieben.

Download: Ethical Web Dev – Leitfaden für ethische Website-Entwicklung und -Pflege

 

 

NCC-Bericht: Die Online-Werbebranche ist außer Kontrolle geraten

Von Laureline Lemoine

Heute, am 14. Januar 2020, prangert der Norwegische Verbraucherrat (NCC), eine auf dem Gebiet der digitalen Rechte tätige Verbrauchergruppe, in ihrem Bericht „Außer Kontrolle“ aktuelle Praktiken der Adtech-Industrie an, darunter systematische Verletzungen der Privatsphäre und ungesetzliches Verhaltensprofiling.

Der Bericht konzentriert sich auf die Analyse des Datenverkehrs von zehn populären Apps wie Dating oder Period Tracker Apps. Er zeigt schockierend auf, wie eine große Anzahl von meist unbekannten Dritten sensible und persönliche Daten ohne das Wissen des Einzelnen erhalten. Insgesamt wurde festgestellt, dass die zehn analysierten Apps Nutzerdaten an mindestens 135 verschiedene Dritte, die an Werbung oder Verhaltensprofiling beteiligt sind, übermitteln. Diese Dritten verwenden die erhobenen Daten zur Erstellung von aufwendigen Verbraucherprofilen. Diese Profile können wiederum zur Personalisierung und zielgerichteten Ausrichtung der Werbung, aber auch als Instrument zur Diskriminierung, Manipulation und Ausbeutung eingesetzt werden. Tatsächlich können aus der GPS-Ortung, persönlichen Attributen und verschiedenen App-Aktivitäten auf Attribute wie religiöse Überzeugungen oder sexuelle Orientierung geschlossen werden. Schlimmer noch, es wurde festgestellt, dass einige Dating-Apps sensible Daten über Sexualität, Drogenkonsum und politische Ansichten austauschen.

Große Tech-Unternehmen spielen in diesem System in der Regel eine Schlüsselrolle. Mit der Android Advertising ID ermöglicht Google den Unternehmen, Konsumenten über verschiedene Dienste hinweg zu verfolgen, und diese Daten werden oft in Kombination mit der GPS-Position und der IP-Adresse übertragen. Facebook ist in den meisten der analysierten Apps eingebettet, während die Adtech-Tochter von Twitter als Vermittler für den Großteil des Datenaustauschs genutzt wurde.

Die Ergebnisse der technischen Tests zeigen auch die Komplexität und die Praktiken der meist außerhalb des öffentlichen Bewusstseins operierenden Adtech-Industrie. Die Folge ist, dass die Verbraucher machtlos werden und keine sinnvolle Möglichkeit haben, sich gegen die Auswirkungen des Profiling zu wehren oder sich davor zu schützen.

Der Bericht liefert notwendige und nützliche Hintergrundinformationen über die verschiedenen Technologien und Unternehmenstypen, die an den Prozessen hinter Online-Anzeigen beteiligt sind. Er bietet auch einen Überblick über laufende Maßnahmen der Zivilgesellschaft und der Regulierungsbehörden gegen unrechtmäßige Praktiken, als weiteren Beleg dafür, dass die Praktiken vieler Akteure der Branche rechtlich fragwürdig sind.

In der Europäischen Union ist die Erhebung und Verarbeitung personenbezogener Daten durch die Allgemeine Datenschutzverordnung (GDPR) geregelt. Die GDPR gibt den Menschen eine größere Kontrolle über ihre personenbezogenen Daten und schränkt ein, wie und unter welchen Umständen personenbezogene Daten erhoben und verwendet werden dürfen.

Laut NCC scheint den Apps oder Dritten nach der GDPR eine rechtliche Grundlage für die Verarbeitung der personenbezogenen Daten, die sie beobachtet wurden, zu fehlen. Es scheint, dass diese Unternehmen weder nachweisen können, dass sie eine gültige gesetzliche Einwilligung haben, noch dass sie ein legitimes Interesse haben, das das Grundrecht des Verbrauchers auf Privatsphäre außer Kraft setzt. Der Bericht kommt daher zu dem Schluss, dass „das System in seiner derzeitigen Form auf der umfassenden und systematischen illegalen Erhebung und Nutzung personenbezogener Daten beruht“.

Der Bericht geht weiter und erklärt, dass „die umfassende Überwachung, die viele dieser Unternehmen betreiben, nicht nur das Recht auf Privatsphäre untergräbt, sondern auch eine systemische Bedrohung für Grundrechte wie die Meinungs- und Redefreiheit, die Gedankenfreiheit und das Recht auf Gleichheit und Nichtdiskriminierung darstellt“, und beschreibt die direkten und indirekten Schäden wie Manipulation, Diskriminierung, abschreckende Wirkung und die Verbreitung irreführender Informationen als Nebenprodukte des Adtech-Systems.

Neben der Durchsetzung der GDPR befürwortet der Bericht die Verabschiedung einer starken ePrivacy-Verordnung als Ergänzung zur GDPR, um den Schutz der Verbraucher vor Online-Tracking und Profiling zu gewährleisten.

Dieser Bericht hebt viele der Themen hervor, die EDRi mit einer starken ePrivacy-Verordnung bekämpfen will. Die gesammelten Erkenntnisse zeigen einmal mehr, dass die Privatsphäre und die Vertraulichkeit der Online-Kommunikation dringend geschützt werden müssen. Eine der Hauptaufgaben von Kommissar Breton in den ersten Monaten seiner Amtszeit als Binnenmarktkommissar sollte darin bestehen, mit den EU-Mitgliedstaaten in Verbindung zu treten, um dieses Problem anzugehen und die Reform des Datenschutzes in der elektronischen Kommunikation so bald wie möglich zu verwirklichen.

Weitere Informationen:

Außer Kontrolle – Wie die Verbraucher von der Adtech-Industrie ausgebeutet werden – und was wir tun, damit es aufhört

 

 

Amazons „Recognition“ zeigt ihr wahres Gesicht

Von Bits of Freedom

Das EDRi-Mitglied Bits of Freedom hat die Probleme im Zusammenhang mit dem Einsatz der Gesichtserkennung durch die Polizei im öffentlichen Raum untersucht. Im Rahmen dieser Untersuchung wollten sie diese Technologie selbst auf den Prüfstand stellen. Wie funktioniert die Gesichtserkennungstechnologie wirklich?

Digitaler Tourismus

Auf dem Dam-Platz, im Zentrum von Amsterdam, finden Sie eine Kamera. Es ist keine gewöhnliche Überwachungskamera: Diese Kamera überträgt Bilder vom Dam Platz, 24 Stunden am Tag, 7 Tage die Woche, in extrem hoher Qualität auf YouTube. Die Kamera kann von einer Seite des Platzes direkt auf die andere Seite zoomen. Wie uns auf der Website des Anbieters mitgeteilt wird: Das ist gut für den „digitalen Tourismus“. Die Kamera ist auch gut für die Untersuchung: Sie bietet die perfekte Möglichkeit, die Gesichtserkennungstechnologie zu testen. Wie bizarr ist es, dass die Tausenden von Menschen, die täglich den Dam-Platz überqueren, ohne ihr Wissen auch auf YouTube zu sehen sind? Und eine noch erschreckendere Zukunftsvision: Was wäre, wenn sie alle mit Hilfe der Gesichtserkennungstechnologie registriert werden könnten?

Amazon’s „Recognition“

„Recognition“, Amazons Gesichtserkennungstechnologie, wird von verschiedenen Polizeieinheiten in den Vereinigten Staaten verwendet und kann von jedem, der eine Kreditkarte besitzt, direkt über das Internet genutzt werden. Bits of Freedom untersuchte, ob dieses Programm jeden erkennt, der den Dam Square besucht.

Wir haben ein Bild als Test hochgeladen, damit sich die Software mit einem bestimmten Gesicht vertraut machen kann. Die Software lokalisierte anschließend verschiedene Merkmale im Gesicht, so genannte „Landmarken“, wie die untere Kinnspitze, die Nasenlöcher, die Pupillen und die Kieferlinie.

Aber die Erkennung erzeugt noch mehr Daten über unser Testgesicht. Sie schätzt ihr Alter, ob sie lacht, ob sie eine (Sonnen-)Brille trägt, welches Geschlecht sie hat und andere Gesichtsmerkmale, wie z.B. ob sie einen Bart oder Schnurrbart hat. Darüber hinaus registriert „Recognition“ auch „Emotionen“. Demnach ist das Individuum glücklich, aber auch ein wenig ängstlich (das ist richtig – unser Testfall liebt keine Überwachungskameras).

Die erste Begegnung liegt hinter uns. Jetzt, wo Recognition behauptet, unseren Testfall zu kennen, ist es Zeit für unseren ersten Test. Wir schicken unsere Person zum Dam-Platz und in das Blickfeld der Kamera.

Volltreffer! Die Erkennung hat sie erkannt. Mit 100-prozentiger Sicherheit (abgerundet) erkannte die Erkennung das Gesicht als ein Gesicht, und die Erkennung war zu 90 Prozent sicher, dass dieses Gesicht mit dem zuvor hochgeladenen Bild übereinstimmte. Aber die Software sah auch, dass wir jemanden mitgebracht hatten. Recognition war überzeugt, dass diese andere Person nicht dieselbe Person war.

Man braucht sehr wenig, um ein Gesicht zu erkennen

Ein körniges Bild ist alles, was die Erkennung braucht, um jemanden zu erkennen. Sehr wenig! Das von uns verwendete Bild wurde aus dem Internet genommen. Heutzutage hat fast jeder ein Bild von sich selbst online. Und wenn Sie ein wenig mit dem Computer umgehen können, können Sie die Erkennung von mehreren Gesichtern „lehren“. Das bedeutet, dass man theoretisch das perfekte Stalker-Tool entwickeln kann, besonders wenn man dies mit mehreren Kameras verbindet, die ihre Bilder im Internet übertragen (und die es gibt). Es ist nicht möglich, darüber eine Kontrolle zu haben. Sie wissen nicht, was andere mit dieser Technologie und vielleicht sogar mit Ihren Bildern machen.

Gesichtserkennungstechnologie ist ein Werkzeug zur Massenüberwachung

Nach zwei Monaten Forschung an der Gesichtserkennungstechnologie dominiert ein Gefühl des Unglaubens: Warum gibt es diese Technologie? Die Gesichtserkennung kann leicht als Massenüberwachungsinstrument eingesetzt werden, das es ermöglicht, Gruppen und Individuen in einem Ausmaß und mit einer Geschwindigkeit kontinuierlich auszuspionieren und zu manipulieren, die bisher nicht möglich war. Unser unersättlicher Hunger nach mehr Effizienz und Bequemlichkeit bedeutet, dass wir die Tatsache aus den Augen verlieren, dass diese Technologie die Rechte und Freiheiten der Bürger verletzt. Der Einsatz der Gesichtserkennungstechnologie muss gründlich diskutiert und erforscht werden, bevor sie in unserer Gesellschaft vollständig normalisiert wird, und Menschen die unvermeidliche Zersetzung unserer Grundrechte als notwendig für den „Fortschritt“ akzeptieren .

 
Weitere Informationen:

Bits of Freedom

Amazons Erkennung zeigt ihr wahres Gesicht (12.12.2019)

Beitrag von Paula Hooyman, EDRi-Mitglied Bits of Freedom, Niederlande

 
 

Deutsche Übersetzung der englischsprachigen Originalbeiträge von EDRi von Lutz Martiny

0 Kommentare zu “EDRi-gram 18.1, 15. Januar 2020

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.