Hotar vår integritet
19. Är skyddet av personuppgifter tillräckligt?
Vi är alla ”data till salu”.
Kunddata är digitalt guld. Datamäklare samlar miljarder och biljoner datapunkter över hela världen och skapar omfattande personliga digitala profiler om var och en av oss. Skörden av våra personliga uppgifter går långt utöver vad många av oss kan föreställa sig. Våra personuppgifter säljs för reklam, påverkan, spårning eller övervakning.
Exempel:
- En viktig orsak till framgången för företag som Google, Uber och Amazon är att de har anammat idén om "data som en tillgång".
- Facebook och Instagram samlar in uppgifter från ungdomar under 18 år genom att använda programvara som spårar användarnas surfaktivitet.
- Europeiska kommissionen har lagt fram flera lagförslag som en del av sina digitala strategier och datastrategier som kommer att underlätta användningen och utbytet av (personliga) uppgifter, mellan fler offentliga och privata parter. Men enligt Europeiska dataskyddsstyrelsen kommer detta att "avsevärt påverka skyddet av de grundläggande rättigheterna till privatliv och skydd av personuppgifter".
LÖSNING:
Jätteföretag blir mål för hackare.
Vår integritet äventyras. Våra personuppgifter är inte skyddade från dataläckor och säkerhetsöverträdelser även om de lagras i stora företag.
Exempel:
- Personuppgifter för över 500 miljoner Facebook-användare har lagts ut i ett hackerforum (2021). De omfattar telefonnummer, fullständiga namn, adresser, e-postadresser och personlig information. Säkerhetsforskare säger att hackare kan använda uppgifterna, för att utge sig för att vara personer och begå bedrägerier.
- Personuppgifter för 700 miljoner LinkedIn-användare från perioden 2020-2021 har skördats och lagts ut till försäljning på nätet.
- Ett tyskt försäkringsbolag var målet för en kriminell cyberattack i juli 2021. Gärningsmännen lyckades kringgå de höga säkerhetsskraven och kopierade bland annat försäkringskunders och affärspartners bankuppgifter och publicerade dem på det så kallade Darknet.
LÖSNING:
Din integritet äventyras.
Införandet av smarta städer, byggnader och apparater lovar komfort och säkerhet, men kommer att kosta oss vår integritet och öka övervakningen enormt.
Exempel:
- I en ny rapport som utarbetats på uppdrag av De gröna i Europaparlamentet "Biometric and Behavioural Mass Surveillance in EU Member States" står det att: "Privata och offentliga aktörer använder i allt större utsträckning ’smarta övervakningslösningar’, inklusive teknik för biometrisk identifiering på distans, som om de inte kontrolleras kan leda till biometrisk massövervakning".
- H&M har betalat böter på 35 258 707,95 euro för att ha brutit mot GDPR-reglerna (2020). Efter sjukskrivning var anställda tvungna att delta i ett möte om återgång till arbetet, vilket spelades in. Högre H&M-anställda fick "en bred kunskap om sina anställdas privatliv... som sträckte sig från ganska harmlösa detaljer till familjefrågor och religiösa övertygelser". Denna "detaljerade profil" användes för att utvärdera de anställdas prestationer och fatta beslut om deras anställning.
LÖSNING:
20. Är trådlös dataöverföring säker?
Nej. Trådlösa överföringar från kreditkort, mobiltelefoner, smarta klockor, ”fitness trackers”, pacemakers och trådlöst uppkopplade kläder (wearables), utgör en risk för missbruk av uppgifter.
Vi är särskilt oroade över privata bankuppgifter och uppgifter som omfattas av medicinsk sekretess. Farliga hot som rör trådlös medicinsk utrustning kan kränka sekretessen. Hackning av medicinsk utrustning kan skapa en bakdörr in i sjukhusnätverk.
Även industrin för trådlöst uppkopplade kläder blomstrar idag. Användarna bidrar själva till att dataintegritet och enhetens säkerhet läcker ut, eftersom de inte är medvetna om olika hot och sårbarheter i enheterna.
Minimering av data som överförs trådlöst är avgörande för medicinska patienters säkerhet. Principen om dataminimering innebär att överföring och lagring av data begränsas till det som krävs för att uppfylla specifika ändamål.
Exempel:
- 465 000 pacemakers återkallades på grund av svagheter i cybersäkerheten.
- Den trådlösa kommunikationen mellan apparater eller andra smarta enheter är inte säker.
- ”Fitnessdata” är ett attraktivt mål för sjukförsäkringsbolag.
LÖSNING:
21. Men vi har väl dataskyddsmyndigheter?
Dataskyddsmyndigheterna gör inga bedömningar av diskriminering och kränkningar av digitala rättigheter.
Det finns två nivåer av tillsynsmyndigheter för skydd av personuppgifter:
— De nationella tillsynsmyndigheterna för dataskydd
— Europeiska dataskyddsstyrelsen (EDPB)
De är dock inte tillräckligt oberoende av stater och företag, har inte tillräckliga egna resurser och deras kontrollområde är fortfarande begränsat.
Det nuvarande uppgiftsskyddet är otillräckligt i ett scenario med Internet of Bodies och Things, där alla apparater samlar in våra uppgifter dygnet runt, för att sedan behandlas som ”Big Data” av artificiell intelligens som bevisligen reproducerar och förvärrar diskriminering.
I dataskyddsförordningen GDPR anges tydligt att fall av diskriminering faller inom tillsynsmyndigheternas behörighetsområde. Dessa myndigheter har dock i liten utsträckning utnyttjat denna behörighet och har hittills inte gjort någon regelbunden granskning av sådan diskriminering, varken på nationell nivå eller på EU-nivå.
LÖSNING:
22. Är artificiell intelligens ett stöd för oss?
Artificiell intelligens är en bra tjänare men en dålig herre. Artificiell intelligens leder till och förvärrar diskriminering.
Varje sekund gör företag miljontals förutsägelser om mänskligt beteende, på grundval av de insamlade uppgifterna. I ett scenario med ett Internet of Bodies och Internet of Things, samlar alla apparater in våra uppgifter dygnet runt för att sedan behandlas som ”Big Data” av artificiell intelligens (AI).
Olika studier har visat att artificiell intelligens faktiskt automatiskt förvärrar existerande diskriminering i maskininlärningsprocesser. Maskinen "lär sig” enligt de val som den redan har gjort tidigare genom att systematisera dem. AI kan sedan multiplicera dessa förutfattade omdömen och ställningstaganden och föra fram politiskt extrema ståndpunkter.
Detta är inte science fiction, AI har redan visat sig reproducera och förvärra diskriminering.
Exempel på hur AI kan förstärka sociala, rasistiska och ekonomiska ojämlikheter:
- Facebook tillåter att bostadsannonser inte visas för vissa användarkategorier , t.ex. mödrar till gymnasieungdomar, personer som är intresserade av rullstolsramper och judar.
- Programverktyg för polisen kan förutsäga vem som sannolikt kommer att bete sig utanför reglerna, vilket leder till orättvisa arresteringar och trakasserier av minoriteter.
- Det finns ett AI-verktyg för rekrytering som är fördomsfullt gentemot kvinnor.
LÖSNING:
23. Debatter om digitalisering ersätts av reklam
Digitala innovationer förespråkas okritiskt av politiker och reklam. Det finns ingen offentlig diskussion om eventuella problem.
Digital teknik, särskilt 5G i kombination med Internet of Things och Internet of Bodies, kan leda till diskriminering och bristande respekt för människors värdighet.
Det europeiska folket har inte tillfrågats om de vill att deras liv ska vara helt digitaliserat och styras av algoritmer. I synnerhet har de inte involverats i för- och nackdelarna med utbyggnaden av den trådlösa tekniken. För närvarande är 5G-utbyggnaden i händerna på outbildade politiker och lobbyister som inte har fört någon dialog med EU:s allmänhet.
Hittills har det inte förekommit någon opartisk diskussion i EU-samfundet.
LÖSNING:
