Problémy

Ohrožuje naše soukromí

19. Je úroveň ochrany osobních údajů dostatečná?

Všichni jsme jenom data na prodej.

Údaje o zákaznících jsou digitálním zlatem. Zprostředkovatelé dat shromažďují miliardy a biliony datových položek po celém světě a vytvářejí masivní personalizované digitální profily o každém z nás.

Shromažďování našich osobních údajů jde daleko za hranice toho, co si mnozí z nás dokážou představit. Naše osobní údaje jsou přeprodávány za účelem reklamy, ovlivňování, sledování nebo dozoru.

Příklady:

ŘEŠENÍ:

Giganti jako cíle hackerů.

Naše soukromí je ohroženo. Naše osobní údaje nejsou v bezpečí před únikem dat a bezpečnostními incidenty, i přestože jsou uloženy v datových centrech velkých společností.

Přiklady:

ŘEŠENÍ:

Vaše soukromí je v ohrožení.

Zavádění inteligentních měst, budov a zařízení slibuje pohodlí a bezpečnost, ale bude nás to stát naše soukromí a nesmírně se zvýší dozor nad obyvatelstvem.

Příklady:

  • Nová zpráva vypracovaná v Evropském parlamentu pro stranu Zelených „Biometrický a behaviorální hromadný dozor v členských státech EU“ uvádí, že: „Soukromé i veřejné subjekty stále častěji zavádějí řešení "inteligentního dozoru“, včetně technologií dálkové biometrické identifikace, které by se v případě, že nebudou kontrolovány, mohly stát biometrickým hromadným dozorem.“
  • Společnost H&M zaplatila pokutu ve výši 35 258 707,95 eur za porušení pravidel GDPR (2020). Po ukončení pracovní neschopnosti se zaměstnanci museli zúčastnit schůzky k návratu do práce, která byla nahrávána. Vedoucí pracovníci společnosti H&M získali „rozsáhlé informace o soukromém životě svých zaměstnanců... od poměrně neškodných detailů až po rodinné záležitosti a náboženské přesvědčení". Tento „podrobný profil“ sloužil k hodnocení výkonnosti zaměstnanců a k rozhodování o jejich zaměstnávání.

ŘEŠENÍ:


20. Je bezdrátový přenos dat bezpečný?

Ne. Bezdrátové přenosy z kreditních karet, mobilních telefonů, chytrých hodinek, fitness trackerů, kardiostimulátorů a osobních nositelných zařízení představují riziko zneužití údajů.

Obzvláště se obáváme o soukromé bankovní údaje a údaje, na které se vztahuje lékařské tajemství. Nebezpečné hrozby týkající se bezdrátových medicínských přístrojů porušují bezpečnost těchto přístrojů. Hackerské útoky na lékařské přístroje by mohly vytvořit zadní vrátka do nemocničních sítí.

Také průmysl připojených nositelných zařízení je v současné době na vzestupu. K úniku soukromých dat a zabezpečení zařízení přispívají sami uživatelé, protože si nejsou vědomi různých hrozeb a zranitelnosti těchto zařízení.

Minimalizace bezdrátově přenášených dat má zásadní význam pro bezpečnost ošetřovaných pacientů. Zásada minimalizace dat spočívá v omezení přenosu a ukládání dat jen v rozsahu nezbytném pro splnění konkrétních účelů.

Přiklady:

SOLUTION:


21. Ale vždyť přece máme úřady pro ochranu osobních údajů?

Orgány pro ochranu údajů neposkytují žádné hodnocení diskriminace a porušování digitálních práv.

Existují dvě úrovně dozorových orgánů pro ochranu osobních údajů:

Nicméně tyto orgány nejsou dostatečně nezávislé na státech a podnicích, nemají dostatečné vlastní zdroje a jejich rozsah kontroly zůstává i nadále omezený.

Současná ochrana údajů je nedostatečná ve scénáři internetu těl a věcí, v němž všechna zařízení nonstop shromažďují naše údaje, které jsou jako Big Data zpracovávány umělou inteligencí, která prokazatelně reprodukuje a zhoršuje diskriminaci.

GDPR jasně uvádí, že případy diskriminace spadají do pravomoci dozorových úřadů. Tyto orgány však tuto pravomoc využívají velmi málo a doposud neprovádějí žádné pravidelné šetření takové diskriminace, a to ani na vnitrostátní, ani na evropské úrovni.

ŘEŠENÍ:


22. Je umělá inteligence naším pomocníkem?

Umělá inteligence je dobrý sluha, ale špatný pán. Umělá inteligence umocňuje a zhoršuje diskriminaci.

na základě shromážděných dat vytvářejí společnosti miliony předpovědí lidského chování. Ve scénáři internetu těl a věcí všechna zařízení nepřetržitě sbírají naše osobní údaje, která jsou zpracovávána umělou inteligencí (AI) jako Velká Data.

Různé studie ukázaly, že umělá inteligence automaticky prohlubuje diskriminaci v procesech strojového učení. Stroj se "učí" podle dříve učiněných lidských rozhodnutí tak, že je systematizuje. Umělá inteligence může násobit lidské zkreslení, předsudky, názory a tímto prosazovat extrémní politické postoje.

Příklady toho, jak může umělá inteligence posílit sociální, rasové a ekonomické nerovnosti:

SOLUTION:


23. Diskusi o digitalizaci vytlačuje reklama

Digitální inovace jsou nekriticky propagovány politiky a reklamními kampaněmi. O možných problémech se veřejně nediskutuje.

Digitální technologie, zejména 5G ve spojení s internetem věcí a těl, mohou vést k diskriminaci a nerespektování lidské důstojnosti.

Evropanů se nikdo nezeptal, zda chtějí, aby byl jejich život zcela digitalizován a řízen počítačovými algoritmy. Zejména nebyli přizváni ke zjišťování kladů a záporů při nasazování bezdrátových technologií. V současné době je nasazování 5G v rukou nevzdělaných politiků a lobbistů, kteří nevedou s veřejností EU žádný dialog.

Ve společenství EU dosud neproběhla žádná nezaujatá diskuse.

ŘEŠENÍ:


problem data
© 2024 Europeans for Safe Connections.