Problemi

Minacciare la nostra privacy

19. La protezione dei dati personali è sufficiente?

Siamo tutti dati in vendita.

I dati dei clienti sono oro digitale. I broker di dati stanno accumulando miliardi e trilioni di punti di dati in tutto il mondo e stanno creando un enorme numero di profili digitali personalizzati su ognuno di noi. La raccolta dei nostri dati personali va ben oltre quello che molti di noi potrebbero immaginare. I nostri dati personali sono venduti per scopi pubblicitari, di influenza, di tracciamento o di sorveglianza.

Esempi:

  • Una delle ragioni principali del successo di aziende come Google, Uber e Amazon è che hanno abbracciato la mentalità dei "dati come risorsa".
  • Facebook e Instagram stanno raccogliendo dati dai minori di 18 anni utilizzando un software che traccia l'attività di navigazione degli utenti.
  • La Commissione europea ha presentato diverse proposte legislative come parte delle sue strategie digitali e dei dati che faciliteranno l'uso e la condivisione dei dati (personali) tra più parti pubbliche e private. Ma secondo l'European Data Protection Board questo avrà "un impatto significativo sulla protezione dei diritti fondamentali alla privacy e alla protezione dei dati personali".

SOLUZIONE:

Giganti come bersagli per gli hacker.

La nostra privacy è compromessa. I nostri dati personali non sono al sicuro da fughe di dati e violazioni della sicurezza anche se sono conservati in grandi aziende.

Esempi:

SOLUZIONE:

La vostra privacy è compromessa.

L'introduzione di città, edifici e dispositivi intelligenti promette comfort e sicurezza, ma ci costerà la nostra privacy e aumenterà immensamente la sorveglianza.

Esempi:

  • Un nuovo rapporto fatto per i Verdi al Parlamento europeo "Sorveglianza di massa,  biometrica e comportamentale negli Stati membri dell'UE" afferma che: "Attori privati e pubblici stanno sempre più implementando soluzioni di "sorveglianza intelligente", comprese le tecnologie di identificazione biometrica a distanza che, se non controllate, potrebbero diventare sorveglianza di massa biometrica".
  • H&M ha pagato una multa di 35.258.707,95 euro per aver violato le regole del GDPR (2020). Dopo assenza per malattia i dipendenti erano tenuti a partecipare a una riunione di ritorno al lavoro, che è stata registrata. Il personale senior di H&M ha ottenuto "un'ampia conoscenza della vita privata dei loro dipendenti... che va da dettagli piuttosto innocui a questioni familiari e credenze religiose". Questo "profilo dettagliato" è stato utilizzato per aiutare a valutare le prestazioni dei dipendenti e prendere decisioni sul loro impiego.

SOLUZIONE:


20. La trasmissione di dati senza fili è sicura?

No. Le trasmissioni wireless di carte di credito, telefoni cellulari, orologi intelligenti, fitness tracker, pacemaker e indossabili personali comportano un rischio di abuso dei dati.

Siamo particolarmente preoccupati per i dati bancari privati e i dati coperti dal segreto medico. Le minacce vulnerabili riguardanti i dispositivi medici wireless violano la confidenzialità di questi dispositivi. L'hacking dei dispositivi medici potrebbe creare una backdoor nelle reti ospedaliere

Anche l'industria degli indossabili è in piena espansione al giorno d'oggi. Gli stessi utenti contribuiscono alla perdita della privacy dei dati e della sicurezza dei dispositivi, poiché non sono consapevoli delle diverse minacce e della vulnerabilità dei dispositivi.

La minimizzazione dei dati trasmessi in modalità wireless è fondamentale per la sicurezza dei pazienti medici. Il principio della minimizzazione dei dati implica la limitazione della trasmissione e della memorizzazione dei dati solo a ciò che è necessario per soddisfare scopi specifici.

Esempi:

SOLUZIONE:


21. Ma abbiamo delle autorità per la protezione dei dati, no?

Le autorità di protezione dei dati non forniscono valutazioni sulla discriminazione e sulle violazioni dei diritti digitali.

Ci sono due livelli di autorità di controllo per la protezione dei dati personali:

– le autorità di controllo nazionali per la protezione dei dati
– il Comitato europeo per la protezione dei dati (EDPB)

Tuttavia, non sono sufficientemente indipendenti dagli Stati e dalle imprese, non hanno risorse proprie sufficienti e il loro ambito di controllo rimane limitato.

L'attuale protezione dei dati è insufficiente in uno scenario di Internet dei corpi e delle cose in cui tutti i dispositivi raccolgono i nostri dati 24 ore su 24, 7 giorni su 7, per essere elaborati come Big Data dall'intelligenza artificiale che ha dimostrato di riprodurre e aggravare la discriminazione.

Il GDPR menziona chiaramente i casi di discriminazione come di competenza delle autorità di controllo. Tuttavia, queste autorità hanno fatto poco uso di questa competenza, e ad oggi non forniscono alcuna valutazione regolare di tali discriminazioni, né a livello nazionale né a livello europeo.

SOLUZIONE:


22. L'intelligenza artificiale ci sostiene?

L'intelligenza artificiale è un buon servitore ma un cattivo padrone. L'intelligenza artificiale riproduce e aggrava la discriminazione.

Ogni secondo, milioni di previsioni del comportamento umano sono fatte dalle corporazioni sulla base dei dati raccolti. In uno scenario di Internet of Bodies and Things tutti i dispositivi stanno raccogliendo i nostri dati 24/7, per essere elaborati come Big Data dall'intelligenza artificiale (AI).

Diversi studi hanno dimostrato che l'AI in realtà riproduce automaticamente la discriminazione precedente nei processi di apprendimento automatico. La macchina "impara" in base alle scelte che ha già fatto in passato sistematizzandole. L'AI può quindi moltiplicare questi pregiudizi e opinioni e avanzare posizioni politiche estreme.

Questa non è fantascienza, è già stato dimostrato che l'IA riproduce e aggrava la discriminazione.

Esempi di come l'IA potrebbe rafforzare le disuguaglianze sociali, razziali ed economiche:

  • Facebook permette che le pubblicità di alloggi non vengano mostrate a certe categorie di utenti, come madri di liceali, persone interessate a rampe per sedie a rotelle, ebrei.
  • Uno strumento software per la polizia può prevedere chi è probabile che si comporti fuori dalle regole, il che porta ad arresti ingiusti e all'imbarazzo delle minoranze.
  • Esiste uno strumento di reclutamento AI che è prevenuto contro le donne.

SOLUZIONE:


23. I dibattiti sulla digitalizzazione sono soppiantati dalla pubblicità

Le innovazioni digitali sono promosse acriticamente dai politici e dalla pubblicità. Non c'è una discussione pubblica sui potenziali problemi.

Le tecnologie digitali, specialmente il 5G insieme all'Internet delle cose e dei corpi, possono portare alla discriminazione e al mancato rispetto della dignità umana.

Al popolo europeo non è stato chiesto se vuole che la sua vita sia totalmente digitalizzata e gestita da algoritmi. In particolare non sono stati coinvolti nei pro e nei contro del rollout del wireless. Attualmente, il lancio del 5G è nelle mani di politici e lobbisti ignoranti che non si sono impegnati in alcun dialogo con il pubblico europeo.

Finora non c'è stata alcuna discussione imparziale nella comunità europea.

SOLUZIONE:


problem data
© 2022 Europeans for safe connections.