Problemer

Trusler mod vores privatliv

19. Er beskyttelse af personoplysninger tilstrækkelig?

Vi er alle data til salg.

Kundedata er digitalt guld. Datahandlere samler milliarder og billioner af datapunkter verden over og skaber massive personlige digitale profiler om hver enkelt af os. Indsamlingen af vores personlige oplysninger går langt ud over, hvad mange af os kan forestille os. Vores personlige oplysninger sælges med henblik på reklame, påvirkning, sporing eller overvågning.

Eksempler:

  • En væsentlig årsag til succesen for virksomheder som Google, Uber og Amazon er, at de har taget ideen om "data som et aktiv" til sig.
  • Facebook og Instagram indsamler data fra unge under 18 år ved hjælp af software, der sporer brugernes browseraktivitet på nettet.
  • Europa-Kommissionen har fremsat flere lovforslag som led i sine digitale og datastrategier, der vil gøre det lettere at anvende og dele (personlige) data mellem flere offentlige og private parter. Men ifølge Det Europæiske Databeskyttelsesråd vil dette "få en betydelig indvirkning på beskyttelsen af de grundlæggende rettigheder til privatlivets fred og beskyttelse af personoplysninger".

LØSNING:

Giganterne som mål for hackere.

Vores privatliv er kompromitteret. Vores personlige data er ikke beskyttet mod datalækager og sikkerhedsbrud, selv om de er gemt i store virksomheder.

Eksempler:

  • De personlige oplysninger om over 500 millioner Facebook-brugere er blevet offentliggjort i et hackerforum på lavt niveau (2021). De omfatter telefonnumre, fulde navn, adresser, adresser, e-mailadresser og biografiske oplysninger. Sikkerhedsforskere siger, at hackere kan bruge dataene til at udgive sig for at udgive sig for at være andre personer og begå svindel.
  • Personlige data for 700 millioner LinkedIn-brugere fra perioden 2020-2021 er blevet høstet og sat til salg på nettet.
  • Et tysk forsikringsselskab var målet for et kriminelt cyberangreb i juli 2021. Det lykkedes gerningsmændene at overvinde de høje sikkerhedsstandarder og bl.a. kopiere bankkonti og forretningspartnere fra forsikringskunder og forretningspartnere og offentliggøre dem på det såkaldte Darknet.

LØSNING:

Dit privatliv er kompromitteret.

Indførelsen af intelligente byer, bygninger og enheder lover komfort og sikkerhed, men det vil koste os vores privatliv og øge overvågningen enormt.

Eksempler:

  • En ny rapport udarbejdet for De Grønne i Europa-Parlamentet "Biometrisk og adfærdsmæssig masseovervågning i EU's medlemsstater" fastslår, at: "Private og offentlige aktører anvender i stigende grad "intelligente overvågningsløsninger", herunder remote (fjern-) biometriske identifikationsteknologier, som, hvis de ikke kontrolleres, kan udvikle sig til biometrisk masseovervågning."
  • H&M har betalt en bøde på 35.258.707,95 euro for overtrædelse af GDPR-reglerne (2020). Efter sygefravær skulle medarbejderne deltage i et møde om tilbagevenden til arbejdet, hvilket blev optaget. H&M's ledende medarbejdere fik "et bredt kendskab til deres medarbejderes privatliv ... lige fra ret harmløse detaljer til familieproblemer og religiøse overbevisninger". Denne "detaljerede profil" blev brugt til at vurdere medarbejdernes præstationer og træffe beslutninger om deres ansættelse.

LØSNING:


20. Er trådløs dataoverførsel sikker?

Nej. Trådløse transmissioner fra kreditkort, mobiltelefoner, smarte ure, fitness-trackere, pacemakere og personlige wearables udgør en risiko for misbrug af data.

Vi er særligt bekymrede over private bankoplysninger og oplysninger, der er omfattet af lægelig tavshedspligt. Farlige trusler vedrørende trådløst medicinske enheder krænker udstyrets fortrolighed. Hacking af medicinsk udstyr kan skabe en bagdør ind i hospitalsnetværk.

Også branchen for wearable-produkter blomstrer i dag. Brugerne bidrager selv til brud på privatlivets fred og enhedens sikkerhed, da de ikke er opmærksomme på de forskellige trusler og sårbarheder i forbindelse med enhederne.

Minimering af data, der transmitteres trådløst, er afgørende for medicinske patienters sikkerhed. Princippet om dataminimering indebærer, at dataoverførsel og -lagring begrænses til kun at omfatte det, der er nødvendigt for at opfylde specifikke formål.

Eksempler:

LØSNING:


21. Men vi har da databeskyttelsesmyndigheder, ikke sandt?

Databeskyttelsesmyndighederne foretager ikke vurderinger af diskrimination og krænkelser af digitale rettigheder.

Der er to niveauer af tilsynsmyndigheder for beskyttelse af personoplysninger:

— de nationale tilsynsmyndigheder for databeskyttelse
Det Europæiske Databeskyttelsesråd (EDPB)

De er imidlertid ikke tilstrækkeligt uafhængige af stater og virksomheder, har ikke tilstrækkelige egne ressourcer, og deres kontrolområde er fortsat begrænset.

Den nuværende databeskyttelse er utilstrækkelig i et scenarie med Internet of Bodies og Internet of Things hvor alle enheder indsamler vores data døgnet rundt, der skal behandles som Big Data af kunstig intelligens, som har vist sig at reproducere og forværre forskelsbehandling.

GDPR nævner klart, at tilfælde af forskelsbehandling falder ind under tilsynsmyndighedernes kompetence. Disse myndigheder har imidlertid kun i ringe grad gjort brug af denne kompetence og foretager til dato ingen regelmæssig vurdering af denne form for forskelsbehandling, hverken på nationalt eller europæisk plan.

LØSNING:


22. Er kunstig intelligens til støtte for os?

Kunstig intelligens er en god tjener, men en dårlig herre. Kunstig intelligens reproducerer og forværrer diskrimination.

Hvert sekund foretager virksomheder millioner af forudsigelser af menneskelig adfærd på grundlag af de indsamlede data. I et Internet of Bodies and Things-scenarie indsamler alle enheder vores data 24/7, som skal behandles som Big Data af kunstig intelligens (AI).

Forskellige undersøgelser har vist, at AI faktisk automatisk reproducerer tidligere diskrimination i maskinlæringsprocesser. Maskinen "lærer" i overensstemmelse med de valg, den allerede har truffet tidligere, ved at systematisere dem. AI kan derefter mangedoble disse fordomme og holdninger og fremføre politiske ekstreme holdninger.

Dette er ikke science fiction, det er allerede bevist, at AI reproducerer og forværrer diskrimination.

Eksempler på, hvordan AI kan forstærke sociale, racemæssige og økonomiske uligheder:

LØSNING:


23. Debatter om digitalisering erstattes af reklamer

Digitale innovationer fremmes ukritisk af politikere og reklamer. Der er ingen offentlig diskussion om potentielle problemer.

Digitale teknologier, især 5G i forbindelse med Internet of Things og Internet of Bodies, kan føre til diskrimination og manglende respekt for den menneskelige værdighed.

Den europæiske befolkning er ikke blevet spurgt, om de ønsker, at deres liv skal være totalt digitaliseret og styret af algoritmer. Især er de ikke blevet inddraget i fordele og ulemper ved den trådløse udrulning. I øjeblikket er 5G-udrulningen i hænderne på uuddannede politikere og lobbyister, som ikke har været i dialog med EU's befolkning.

Indtil nu har der ikke været nogen uvildig diskussion i EU.

LØSNING:


problem data
© 2022 Europeans for safe connections.