Probleme

Die Bedrohung unserer Privatsphäre

19. Reicht der Schutz personenbezogener Daten aus?

All unsere Daten sind käuflich.

Kundendaten sind digitales Gold. Datenmakler sammeln weltweit Milliarden und Billionen von Datenpunkten und erstellen umfangreiche personalisierte digitale Profile über jeden von uns. Das Sammeln unserer persönlichen Daten geht weit über das hinaus, was sich viele von uns vorstellen können. Unsere persönlichen Daten werden zu Werbe-, Beeinflussungs-, Verfolgungs- oder Überwachungszwecken verkauft.

Beispiele:

  • Ein wesentlicher Grund für den Erfolg von Unternehmen wie Google, Uber und Amazon ist, dass sie sich die Denkweise "Daten als Kapital" zu eigen gemacht haben.
  • Facebook und Instagram sammeln Daten von unter 18-Jährigen, indem sie Software einsetzen, die das Surfverhalten der Nutzer verfolgt.
  • Die Europäische Kommission hat im Rahmen ihrer Digital- und Datenstrategie mehrere Legislativvorschläge vorgelegt, die die Nutzung und den Austausch von (personenbezogenen) Daten zwischen mehr öffentlichen und privaten Parteien erleichtern sollen. Nach Ansicht des Europäischen Datenschutzausschusses wird dies jedoch "erhebliche Auswirkungen auf den Schutz der Grundrechte auf Privatsphäre und den Schutz personenbezogener Daten" haben.

LÖSUNG:

Giganten als Ziele für Hacker

Unsere Privatsphäre ist gefährdet. Unsere persönlichen Daten sind vor Datenlecks und Sicherheitsverletzungen nicht sicher, auch wenn sie in großen Unternehmen gespeichert sind.

Beispiele:

LÖSUNG:

Ihre Privatsphäre ist gefährdet.

Die Einführung von intelligenten Städten, Gebäuden und Geräten verspricht Komfort und Sicherheit, wird uns aber unsere Privatsphäre kosten und die Überwachung immens verstärken.

Beispiele:

  • In einem neuen Bericht für die Grünen im Europäischen Parlament mit dem Titel "Biometric and Behavioural Mass Surveillance in EU Member States" (in Deutsch Biometrische und verhaltensbezogene Massenüberwachung in den EU-Mitgliedstaaten) heißt es: "Private und öffentliche Akteure setzen in zunehmendem Maße "intelligente Überwachungs"-Lösungen ein, einschließlich biometrischer Fernidentifizierungstechnologien, die, wenn sie nicht kontrolliert werden, zu einer biometrischen Massenüberwachung werden könnten."
  • H&M hat eine Geldstrafe in Höhe von 35.258.707,95 € für die Verletzung der GDPR-Vorschriften (2020) gezahlt. Nach einem Krankheitsurlaub mussten die Mitarbeiter an einem Treffen zur Rückkehr an den Arbeitsplatz teilnehmen, das aufgezeichnet wurde. Leitende Mitarbeiter von H&M erhielten "ein breites Wissen über das Privatleben ihrer Mitarbeiter ... von eher harmlosen Details bis hin zu Familienangelegenheiten und religiösen Überzeugungen". Dieses "detaillierte Profil" wurde dazu verwendet, die Leistung der Mitarbeiter zu bewerten und Entscheidungen über ihre Beschäftigung zu treffen.

LÖSUNG:


20. Ist die drahtlose Datenübertragung sicher?

Nein. Drahtlose Übertragungen von Kreditkarten, Mobiltelefonen, Smartwatches, Fitness-Trackern, Herzschrittmachern und persönlichen Gebrauchsgegenständen stellen ein Risiko für Datenmissbrauch dar.

Besondere Sorge bereiten uns private Bankdaten und Daten, die unter die ärztliche Schweigepflicht fallen. Anfällige Bedrohungen in Bezug auf drahtlose medizinische Geräte verletzen die Vertraulichkeit dieser Geräte. Das Hacken von medizinischen Geräten könnte eine Hintertür in Krankenhausnetzwerke schaffen.

Auch die Wearable-Industrie boomt heutzutage. Die Nutzer selbst tragen zum Verlust des Datenschutzes und der Gerätesicherheit bei, da sie sich der verschiedenen Bedrohungen und Schwachstellen der Geräte nicht bewusst sind.

Die Minimierung der drahtlos übertragenen Daten ist für die Sicherheit der medizinischen Patienten von entscheidender Bedeutung. Das Prinzip der Datenminimierung beinhaltet die Beschränkung der Datenübertragung und -speicherung auf das, was zur Erfüllung bestimmter Zwecke erforderlich ist.

Beispiele:

LÖSUNG:


21. Aber wir haben doch Datenschutzbehörden, nicht wahr?

Die Datenschutzbehörden nehmen keine Bewertungen von Diskriminierungen und Verstößen gegen digitale Rechte vor.

Es gibt zwei Ebenen von Aufsichtsbehörden für den Schutz personenbezogener Daten:

– die nationalen Datenschutzaufsichtsbehörden
– der European Data Protection Board (EDPB) (auf Deutsch: Europäischer Datenschutzausschuss)

Sie sind jedoch nicht ausreichend unabhängig von den Staaten und Unternehmen, verfügen nicht über ausreichende eigene Ressourcen und ihr Kontrollumfang bleibt begrenzt.

Der derzeitige Datenschutz ist unzureichend in einem Szenario des Internets der Körper und Dinge, in dem alle Geräte rund um die Uhr unsere Daten sammeln, die dann als Big Data von künstlicher Intelligenz verarbeitet werden, die nachweislich Diskriminierung reproduziert und verschärft.

Im GDPR wird eindeutig erwähnt, dass Fälle von Diskriminierung in die Zuständigkeit der Aufsichtsbehörden fallen. Diese Behörden haben von dieser Zuständigkeit jedoch nur wenig Gebrauch gemacht und nehmen bis heute keine regelmäßige Bewertung solcher Diskriminierungen vor, weder auf nationaler noch auf europäischer Ebene.

LÖSUNG:


22. Unterstützt uns die künstliche Intelligenz?

Künstliche Intelligenz ist ein guter Diener, aber ein schlechter Meister. Künstliche Intelligenz reproduziert und verschärft die Diskriminierung.

Jede Sekunde werden von Unternehmen Millionen von Vorhersagen über das menschliche Verhalten auf der Grundlage der gesammelten Daten getroffen. In einem Szenario des Internets der Körper und Dinge sammeln alle Geräte rund um die Uhr unsere Daten, die dann von der künstlichen Intelligenz (KI) als Big Data verarbeitet werden.

Verschiedene Studien haben gezeigt, dass KI bei maschinellen Lernprozessen tatsächlich automatisch frühere Unterscheidungen reproduziert. Die Maschine "lernt" anhand der Entscheidungen, die sie in der Vergangenheit bereits getroffen hat, indem sie diese systematisiert. Die KI kann dann diese Vorurteile und Meinungen vervielfältigen und politische Extrempositionen fördern.

Das ist keine Science-Fiction, KI hat bereits bewiesen, dass sie Diskriminierung reproduziert und verschärft.

Beispiele dafür, wie KI soziale, rassistische und wirtschaftliche Ungleichheiten verstärken könnte:

LÖSUNG:


23. Digitalisierungsdebatten werden durch Werbung verdrängt

Digitale Innovationen werden unkritisch von Politik und Werbung gefördert. Eine öffentliche Diskussion über mögliche Probleme findet nicht statt.

Digitale Technologien, insbesondere 5G in Verbindung mit dem Internet der Dinge und des Körpers, können zu Diskriminierung und Missachtung der Menschenwürde führen.

Die Menschen in Europa sind nicht gefragt worden, ob sie wollen, dass ihr Leben vollständig digitalisiert und von Algorithmen gesteuert wird. Insbesondere wurden sie nicht in das Für und Wider des Ausbaus des Mobilfunks einbezogen. Gegenwärtig liegt die Einführung von 5G in den Händen von schlecht informierte Politikern und Lobbyisten, die keinen Dialog mit der EU-Bevölkerung geführt haben.

Bislang hat es in der EU-Gemeinschaft keine unvoreingenommene Diskussion gegeben.

LÖSUNG:


problem data
© 2022 Europeans for safe connections.