Nachrichten Unser Feedback zu EC 10 November 2022
Ihre Meinung zählt - Produkthaftungsrichtlinie
Sie können sich auch an der Gestaltung von EU-Gesetzen beteiligen. Die Europäische Kommission möchte gerne Ihre Meinung zu Gesetzen und politischen Maßnahmen hören, die derzeit entwickelt werden. Sie bietet eine Plattform 'Ihre Meinung zählt' mit einer Liste aller neuen EU-Initiativen, die zur öffentlichen Konsultation stehen. Um Ihre Meinung äußern zu können, müssen Sie sich registrieren oder mit einem Social-Media-Konto anmelden. https://ec.europa.eu/info/law/better-regulation/have-your-say_de
Jede EU-Initiative wird in 5 Phasen durchgeführt, wobei jede Phase für einen bestimmten Zeitraum zur öffentlichen Konsultation geöffnet ist.
Produkthaftungsrichtlinie – Anpassung der Haftungsvorschriften an das digitale Zeitalter, die Kreislaufwirtschaft und globale Wertschöpfungsketten
Zusammenfassung: Rechtssicherheit und Vertrauen sind die Voraussetzungen dafür, dass nicht nur in neue Technologien investiert wird, sondern dass diese auch auf gesellschaftliche Akzeptanz stoßen.
Rückmeldungszeitraum: für Stufe 5 ist dies der 03. Oktober 2022 - 11. Dezember 2022
Rückmeldung von Europeans for Safe Connections
Die Europeans for Safe Connections begrüßt diese Aktivität. Wir sehen jedoch, dass die rechtlichen Haftungsregeln mit Verzögerung angegangen werden, während viele Dienstleistungen und Produkte bereits eine Form von KI-Algorithmen nutzen. Wir erwarten, dass bei der Implementierung von KI in Dienstleistungen und Produkten der Schutz des Lebens, der Gesundheit und der Privatsphäre der Verbraucher oder derjenigen, die durch die negativen Auswirkungen von KI geschädigt werden, Vorrang vor den Herstellern und der Lieferkette haben wird, wenn es um KI-Fehler und mögliche rechtliche Haftung geht.
Untersuchungen und reale Situationen haben gezeigt, dass KI Vorurteile reproduziert und Diskriminierung verschärft. In der Presse wurden immer wieder Vorfälle dokumentiert, bei denen Dienstleistungen und Produkte, die auf KI basieren, versagt haben. Zu den Auswirkungen gehörten Einkommensverluste, psychische Belastungen und die Diskriminierung besonders schutzbedürftiger Personen oder Gruppen aufgrund einer falschen Datenauswertung oder einer fehlerhaften Entscheidungslogik. Die EU-Grundrechtecharta enthält Artikel 21 über das Recht auf Nichtdiskriminierung. Es hat auch Fälle von tödlichen Unfällen im Zusammenhang mit KI-gestützten autonomen Fahrzeugen gegeben. Personen, die durch KI-Systeme geschädigt werden, müssen die Möglichkeit haben, rechtliche Schritte einzuleiten, und die Gerichte müssen auf solche Fälle angemessen vorbereitet sein. In Fällen, in denen es um selbstfahrende Autos geht, sind Klagen gegen die Hersteller besonders wichtig.
Um die Anwendung des Haftungsrechts auf geschädigte Personen zu vermeiden, ist es ratsam, die vorhersehbaren negativen Auswirkungen von KI-Versagen zu minimieren. Die Bedrohung der Funktionalität von KI-basierten Lösungen wird leider durch das zunehmende Problem von Cyberangriffen auf die Infrastruktur oder auf Verbrauchergeräte, einschließlich vernetzter Fahrzeuge, oder den Diebstahl personenbezogener Daten, einschließlich medizinischer Daten, beeinträchtigt. Nur Dienste und Produkte, bei denen gründlich nachgewiesen wurde, dass sie den Kunden mit ihrer eigenen Funktionalität nicht schaden, sondern auch einer komplexen Cyberumgebung standhalten, sollten im Echtbetrieb eingesetzt werden. Wir erörtern dieses Thema in Vorschlag 19: (https://signstop5g.eu/de/losungen/schutz-unserer-daten/antrag-19).
Ein weiteres Problem bei KI-Anwendungen ist, dass sie zu viele Daten benötigen, um zu lernen und die Ergebnisse zu verfeinern. KI sollte so konzipiert sein, dass sie nicht in die Privatsphäre der Menschen eingreift, und der Prozess der Datenerfassung sollte nur stattfinden, wenn die Menschen dem zustimmen. Die Menschen sollten das Recht haben, sich gegen die Auswertung ihrer persönlichen Daten durch eine KI oder gegen KI-gestützte Dienstleistungen oder Produkte zu entscheiden. Die Hersteller sollten verpflichtet werden, eine Alternative ohne KI-Funktionen anzubieten. Artikel 22 der Datenschutz-Grundverordnung (DSGVO), formuliert als "Recht auf menschliches Eingreifen in automatisierte Entscheidungen", gibt das Recht, eine Entscheidung über eine Person abzulehnen, die einem Algorithmus unterliegt. Siehe den Vorschlag 22: (https://signstop5g.eu/de/losungen/schutz-unserer-daten/antrag-22).
Neben dem Recht auf Privatsphäre ist auch die Minimierung der Exposition des Menschen gegenüber RF-EMF für unsere Initiative von Bedeutung. Wir gehen davon aus, dass mit dem Einsatz von KI im täglichen Leben das Interesse von Industrie und Regierung an der Ausweitung von Sensoren, Überwachungssystemen oder anderen Datenerfassungspunkten, einschließlich des Internets der Dinge (oder des Internets der Körper), die sehr wahrscheinlich drahtlose Übertragungen nutzen können, zunehmen wird. Wir fordern daher, dass bei der Einführung von KI-bezogenen Projekten eine kabelgebundene Verbindung solcher Geräte bevorzugt wird und dass bei der Einführung von KI eine unnötige unerwünschte Exposition und Schädigung der Gesundheit von Mensch und Tier durch RF-EMF vermieden wird.
Die digitale Transformation einschließlich KI darf nicht zu einem gezielten Mittel des Profits werden, das in erster Linie der Technologieindustrie und den Regierungsgruppen zum Nachteil der Nutzer und Verbraucher zugute kommt. In Zeiten der Finanz- und Ressourcenkrise sollte eine Reduzierung der finanziellen Kosten und der Energie für Projekte, die für die Bevölkerung nicht entscheidend sind, in Betracht gezogen werden.
Kamil Bartošák
im Namen von Europeans for Safe Connections
Diese feedback wurde von einer kabelgebundenen Internetverbindung aus gesendet
- Keine schädliche Strahlung
- Weniger Stromverbrauch
- Erhöhte Datensicherheit